OpenAI hat seine KI-Anwendung Sora daran gehindert, weitere Deepfake-Videos des US-Bürgerrechtlers Dr. Martin Luther King Jr. zu erstellen. Vorausgegangen war ein offizielles Anliegen von Kings Nachlassverwaltung, die die bisherigen Inhalte als „respektlos“ bezeichnete.
Sora, ein KI-gestützter Video-Generator, war in den USA viral gegangen, weil er extrem realistische Video-Animationen erstellen kann. Nutzer*innen hatten damit unter anderem verstorbene Prominente und historische Persönlichkeiten in absurde, teils geschmacklose Szenarien montiert.
Manipulierte Reden und „Kämpfe“ mit Malcolm X
Unter den beanstandeten Inhalten waren unter anderem verfälschte Versionen von Kings berühmter „I Have a Dream“-Rede, in denen der Bürgerrechtler entstellt, verzerrt oder sogar mit rassistischen Geräuschen dargestellt wurde. In einem anderen Clip wurden Figuren, die Dr. King und Malcolm X ähnelten, gezeigt, wie sie sich gegenseitig bekämpfen.
Die Tochter von Dr. King, Bernice A. King, reagierte mit einer klaren Bitte auf X (ehemals Twitter):
„Ich stimme dem zu, was andere über ihre Angehörigen gesagt haben. Bitte hören Sie auf, solche Videos meines Vaters zu verbreiten.“
Zuvor hatte auch Zelda Williams, Tochter des verstorbenen Schauspielers Robin Williams, darum gebeten, ihr keine KI-generierten Clips ihres Vaters mehr zu senden.
OpenAI: Kein völliges Verbot – aber „verstärkte Schutzmaßnahmen“
OpenAI kündigte an, Kings Abbild zunächst nicht mehr für Sora-Videos freizugeben, während das Unternehmen Schutzmechanismen für historische Persönlichkeiten weiterentwickelt. Videos anderer prominenter Figuren wie John F. Kennedy, Queen Elizabeth II. oder Stephen Hawking bleiben jedoch weiterhin möglich – was für Diskussionen sorgt.
„Das ist ein guter erster Schritt“, sagte die KI-Ethikerin Olivia Gambelin der BBC.
Doch OpenAI habe „von Anfang an Schutzmaßnahmen einbauen müssen“, statt sich auf eine „Trial-and-Error-Mentalität im Schnellverfahren“ zu verlassen.
Gambelin warnte zudem, Deepfakes verstorbener Persönlichkeiten seien nicht nur respektlos, sondern gefährdeten auch das historische Verständnis und die Unterscheidung zwischen Fiktion und Realität.
„Das kratzt gefährlich an der Grenze zum Umschreiben von Geschichte.“
Recht auf Bildkontrolle – aber nur für manche?
OpenAI erklärte, es gebe „berechtigte Interessen an der freien Meinungsäußerung bei der Darstellung historischer Figuren“, zugleich sollten deren Familien und Nachlässe Mitspracherecht über ihre Darstellung haben.
„Bevollmächtigte Vertreter können beantragen, dass die Abbildungen Verstorbener nicht mehr verwendet werden“, hieß es.
Der KI-Experte Henry Ajder lobte diesen Ansatz grundsätzlich, sieht aber ein Problem:
„Nicht jede verstorbene Person hat einen berühmten und gut ausgestatteten Nachlass, der sie schützen kann.“
Laut Ajder besteht die Gefahr, dass nur prominente Verstorbene Schutz genießen – während alle anderen zur „freien digitalen Spielmasse“ werden.
OpenAI beteuert Verbesserungen
In einer früheren Stellungnahme im Oktober hatte OpenAI erklärt, man habe „mehrschichtige Schutzmechanismen“ integriert und befinde sich im Austausch mit Öffentlichkeit, Prominenten und Rechteinhabern, um herauszufinden, welche Kontrollen sie sich wünschen.
Fazit:
OpenAI zieht erste Konsequenzen aus der Kritik an Sora – doch die Debatte über digitale Ethik, Persönlichkeitsrechte Verstorbener und den verantwortungsvollen Umgang mit KI steht erst am Anfang.
Kommentar hinterlassen