Wenige Wochen vor dem großen Regulierungsstart gegen sogenannte „General-Purpose-KI“ – also genau jene Systeme, die unsere Texte schreiben, Bilder malen und Videos produzieren – hat die EU-Kommission gestern ihre neueste bürokratische Meisterleistung vorgelegt: Leitlinien zur Einhaltung der kommenden KI-Gesetze. Übersetzt heißt das: Wer große KI-Modelle baut, soll ab dem 2. August brav berichten, wie das alles funktioniert – als wäre Transparenz ein Knopf, den man einfach drücken kann.
Betroffen sind natürlich nur die „Großen“, also Systeme, die mit massivem Rechenaufwand und Milliarden an Parametern durchtrainiert wurden. Wer KI auf Weltveränderungsniveau bastelt, soll künftig offenzulegen, woher die Daten kommen, wie die Algorithmen ticken und welche Risiken sie bergen. Klingt gut – solange man ignoriert, dass genau diese Informationen oft Geschäftsgeheimnisse sind. Oder schlicht nicht mehr nachvollziehbar, weil KI inzwischen selbst nicht mehr weiß, warum sie tut, was sie tut.
Doch keine Sorge: Die EU denkt in Übergängen. Zwar gelten die Regeln ab August, aber das eigens geschaffene KI-Amt darf erst ab 2026 kontrollieren – und selbst dann zunächst nur neue Modelle. Bestehende dürfen sich noch bis 2027 der Neugier Brüssels entziehen. Immerhin, bei Verstößen winken irgendwann Geldstrafen – irgendwann.
Bis dahin will die Kommission mit den Anbietern „zusammenarbeiten“. Was nach Dialog klingt, ist in Wahrheit ein bürokratischer Drahtseilakt: zwischen technologischem Fortschritt, wirtschaftlichem Eigeninteresse und europäischem Kontrollbedürfnis. Während in den USA und China KI-Innovationen im Monatsrhythmus aus dem Boden schießen, erklärt Brüssel, welche Risiken man bitte wie zu dokumentieren habe – vorzugsweise vor dem nächsten Kaffeepausen-Meeting.
Kommentar hinterlassen