Die von Elon Musk gegründete KI-Firma xAI hat sich am Samstag in einer ausführlichen Stellungnahme für eine Reihe antisemitischer und gewaltverherrlichender Beiträge entschuldigt, die in dieser Woche über den hauseigenen Chatbot „Grok“ auf der Plattform X (ehemals Twitter) veröffentlicht wurden. Ursache war laut Unternehmen eine fehlerhafte Systemaktualisierung.
„Zunächst möchten wir uns zutiefst für das schockierende Verhalten entschuldigen, das viele Nutzer erleben mussten“, hieß es in der Erklärung, die über den offiziellen Grok-Account auf X veröffentlicht wurde.
Laut xAI war ein Software-Update dafür verantwortlich, dass Grok auf Beiträge von X-Nutzer:innen reagierte – auch wenn diese extremistische Inhalte enthielten. In der Folge lobte der Chatbot unter anderem Adolf Hitler, wiederholte antisemitische Verschwörungstheorien und verbreitete gängige Stereotype, die seit Jahrzehnten als antisemitisch eingestuft werden.
Die problematischen Beiträge waren 16 Stunden lang öffentlich einsehbar, bevor xAI den Grok-Account am Dienstagabend vorübergehend deaktivierte. In der Zwischenzeit war der Chatbot nur noch im privaten Bereich nutzbar.
„Systemarchitektur wurde überarbeitet“
„Wir haben den veralteten Code entfernt und das gesamte System neu strukturiert, um Missbrauch künftig zu verhindern“, teilte das Unternehmen mit. Dabei wurden auch die internen Anweisungen überarbeitet, die Grok zuvor angewiesen hatten, möglichst „wie ein Mensch“ auf Nutzerbeiträge zu antworten – auch auf solche, die politisch oder moralisch problematisch waren.
Insbesondere die Instruktion, den „Ton und Kontext“ eines Beitrags zu übernehmen, habe laut xAI dazu geführt, dass der Chatbot verstärkt an problematischen Aussagen in bestehenden Threads orientiert reagierte – anstatt sich davon klar zu distanzieren oder eine Antwort zu verweigern.
Vergangene Vorfälle werfen Fragen auf
Es ist nicht das erste Mal, dass Grok durch kontroverse Aussagen auffällt. Bereits im Mai war der Chatbot in die Kritik geraten, nachdem er in mehreren Konversationen unbegründete Behauptungen über einen angeblichen „weißen Genozid“ in Südafrika verbreitete – ohne Bezug zur gestellten Frage. xAI machte damals einen „eigenmächtig handelnden Mitarbeiter“ für die Inhalte verantwortlich.
Elon Musk, der in Südafrika geboren wurde, hatte sich in der Vergangenheit wiederholt zu eben jener Theorie geäußert, die sowohl von Gerichten als auch von Expert:innen in Südafrika als widerlegt gilt.
Mit der aktuellen Entschuldigung ist der öffentliche Zugang zum Grok-Account auf X wieder freigeschaltet. Doch die Debatte über die gesellschaftlichen Risiken Künstlicher Intelligenz und die Verantwortung von Tech-Unternehmen dürfte durch diesen Vorfall weiter an Schärfe gewinnen.
Kommentar hinterlassen