Die Europäische Union verschärft den Kampf gegen missbräuchliche KI-Anwendungen: Künftig sollen Programme verboten werden, mit denen sexualisierte Deepfakes erstellt werden können. Darauf haben sich Vertreter der EU-Mitgliedsstaaten und des Europäischen Parlaments im Rahmen einer Anpassung des europäischen KI-Gesetzes verständigt.
Die neuen Regeln sollen insbesondere Menschen vor digitaler Gewalt und Manipulation schützen. Deepfakes entstehen mithilfe künstlicher Intelligenz, etwa wenn Gesichter oder Stimmen täuschend echt in Videos eingefügt werden. Dadurch können Inhalte erzeugt werden, die den Eindruck vermitteln, eine Person habe bestimmte Aussagen gemacht oder Handlungen vorgenommen – obwohl dies nie geschehen ist.
Mit dem rasanten Fortschritt der KI-Technologie ist die Erstellung solcher Fälschungen deutlich einfacher und realistischer geworden. Besonders problematisch sind sexualisierte Darstellungen ohne Zustimmung der Betroffenen. Das geplante Verbot soll ausdrücklich auch Inhalte erfassen, die sexuellen Kindesmissbrauch darstellen.
Die Einigung muss nun noch formal vom Europäischen Parlament und dem Rat der Mitgliedsstaaten bestätigt werden. Dies gilt jedoch als wahrscheinlich. Sollte die Reform verabschiedet werden, würde das Verbot ab dem 2. Dezember 2026 gelten. Zuständig für die Durchsetzung wäre das eigens geschaffene KI-Amt der Europäischen Union.
Zusätzliche Aufmerksamkeit erhielt das Thema zuletzt durch den KI-Chatbot „Grok“ der Firma xAI von Elon Musk. Nutzer hatten die Software genutzt, um Frauen auf Bildern digital zu „entkleiden“. Erst nach massiver Kritik wurden entsprechende Funktionen eingeschränkt.
Die geplanten Maßnahmen bauen auf bestehenden EU-Regeln gegen digitale Gewalt auf. Bereits heute sieht eine EU-Richtlinie vor, dass manipulierte sexuelle Darstellungen ohne Zustimmung strafbar sein sollen. Allerdings haben viele Mitgliedsstaaten diese Vorgaben bislang noch nicht vollständig in nationales Recht umgesetzt.
Mit den neuen Vorschriften will die EU nun klarere Grenzen für den Einsatz künstlicher Intelligenz setzen und Betroffene besser schützen.
Kommentar hinterlassen