Startseite Allgemeines Microsoft will keine sexy Chatbots: „Unsere KI soll sicher genug für Kinder sein“
Allgemeines

Microsoft will keine sexy Chatbots: „Unsere KI soll sicher genug für Kinder sein“

sipa (CC0), Pixabay
Teilen

Während Konkurrenten wie OpenAI, Meta oder Character.AI mit ihren Chatbots romantische oder gar sexuelle Gespräche zulassen, zieht Microsoft eine klare Grenze.
Der Chef der neuen Microsoft-AI-Sparte, Mustafa Suleyman, erklärte im Interview mit CNN:

„Wir entwickeln KIs, die freundlich, empathisch und unterstützend sind – aber vor allem vertrauenswürdig. Ich will eine KI, der man seine Kinder anvertrauen kann.“

🧠 KI ja, Erotik nein

Suleyman macht unmissverständlich klar: Erotische oder flirtende Inhalte sind bei Microsoft tabu – auch für Erwachsene.
„Das ist einfach nichts, was wir verfolgen werden“, sagte er.

Das steht im Kontrast zu OpenAI, dessen CEO Sam Altman kürzlich angekündigt hatte, ChatGPT künftig „erwachsenen Nutzern“ auch erotische Gespräche zu erlauben – ein Schritt, der Datenschützer und Elternverbände auf die Barrikaden brachte.

Microsoft hingegen setzt auf eine strikte Sicherheits- und Familienlinie. Einen speziellen „Jugendmodus“, wie ihn manche Konkurrenten einführen, brauche man laut Suleyman gar nicht – weil Copilot von Grund auf sicher gestaltet sei.

💬 KI soll Menschen verbinden, nicht ersetzen

Im Zentrum der Strategie steht eine klare Philosophie:

„Wir müssen KI für Menschen bauen – nicht als digitalen Menschen“, schrieb Suleyman in einem Blogbeitrag.

Microsofts Copilot, das derzeit 100 Millionen aktive Nutzer pro Monat hat (zum Vergleich: ChatGPT etwa 800 Millionen), soll künftig helfen, menschliche Interaktion zu fördern, nicht sie zu ersetzen.

So kann der Chatbot nun Gruppenchats mit bis zu 32 Personen begleiten – etwa bei Schulprojekten oder Reiseplanungen – und Vorschläge liefern, ohne die Kommunikation zwischen den Teilnehmern zu verdrängen.

Auch im Gesundheitsbereich setzt Microsoft auf reale Ansprechpartner: Copilot verweist bei medizinischen Fragen auf „vertrauenswürdige Quellen“ wie Harvard Health oder empfiehlt Ärzte in der Nähe.

🧩 Ein bewusster Gegenentwurf

Während viele Unternehmen mit „emotionalen“ oder gar „romantischen“ KI-Persönlichkeiten experimentieren, will Microsofts KI bewusst Distanz wahren.

Suleyman beschreibt das als „wichtigen Unterschied“ zu Entwicklungen, die Nutzer „in parallele Realitäten und Fantasiewelten abgleiten lassen“.

Statt virtueller Romanzen setzt Microsoft auf digitale Vernunft – und auf das Vertrauen der Eltern.
Oder wie Suleyman es formuliert:

„Unsere KI soll ein Freund der Familie sein – nicht deren Ersatz.“

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

ICE-Chefjurist in Minnesota tritt zurück – steigende Zahl an Einwanderungsfällen belastet Justiz

Der leitende Jurist der US-Einwanderungs- und Zollbehörde (ICE) in Minnesota, Jim Stolley,...

Allgemeines

Epstein suchte offenbar Nähe zu Putin – Neue Dokumente offenbaren brisante Russland-Kontakte

Neue Dokumente des US-Justizministeriums zeigen, dass der inhaftierte US-Finanzier Jeffrey Epstein offenbar...

Allgemeines

Kongress handelt bei Wohnkostenkrise – unabhängig von Trump-Regierung

Während US-Präsident Donald Trump wiederholt angekündigt hat, die wachsende Wohnkostenkrise anzugehen, hat...