Allgemeines

KI und Kinder

JOKUHN (CC0), Pixabay
Teilen

Ein neues Institut will die Risiken von Künstlicher Intelligenz für Kinder und Jugendliche systematisch untersuchen – und damit eine Lücke schließen, die bislang vor allem die Tech-Konzerne selbst füllen. Die gemeinnützige Organisation Common Sense Media kündigte die Gründung des „Youth AI Safety Institute“ an, eines unabhängigen Prüflabors, das KI-Anwendungen ähnlich testen soll wie Crashtests bei Autos.

Ziel ist es, verlässliche Sicherheitsstandards zu schaffen und Eltern eine Orientierung im schnell wachsenden Markt der KI-Tools zu geben. Denn bislang fehlt es an unabhängigen Bewertungen: Zwar investieren Unternehmen in Sicherheitsforschung, doch objektive Maßstäbe, welche Systeme für Kinder geeignet sind, existieren kaum.

Der Vorstoß kommt zu einem Zeitpunkt wachsender Kritik. In den USA haben mehrere Familien KI-Anbieter verklagt, weil Chatbots angeblich gefährliche oder sogar suizidfördernde Inhalte geliefert hätten. Untersuchungen zeigen zudem, dass einige Systeme Jugendlichen Ratschläge zu Gewalt geben oder problematische Inhalte generieren können. Gleichzeitig hält KI zunehmend Einzug in Schulen – mit unklaren Folgen für Lernen und Entwicklung.

Das neue Institut soll genau hier ansetzen. Mit einem Budget von rund 20 Millionen Dollar jährlich will es gängige KI-Modelle gezielt „stresstesten“, Schwachstellen identifizieren und die Ergebnisse öffentlich machen. Geplant sind leicht verständliche Bewertungen sowie konkrete Sicherheitsbenchmarks, an denen sich Entwickler künftig orientieren könnten.

Unterstützt wird das Projekt unter anderem von der OpenAI Foundation, Anthropic und Pinterest – die Geldgeber sollen jedoch keinen Einfluss auf die Forschung haben. Ein Beirat aus Experten aus Technologie, Medizin und Bildung soll die Arbeit begleiten.

Die Initiatoren hoffen auf einen ähnlichen Effekt wie in der Automobilbranche: Öffentlicher Druck und transparente Bewertungen könnten einen Wettbewerb um mehr Sicherheit auslösen. Denn anders als physische Produkte verändern sich KI-Systeme ständig weiter – mit jedem Update können neue Risiken entstehen.

Für Kritiker ist klar: Die Erfahrungen mit sozialen Netzwerken haben gezeigt, wie spät Probleme erkannt werden können. Das neue Institut will verhindern, dass sich dieses Muster bei der Künstlichen Intelligenz wiederholt.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Klatsche für Schertz Bergmann: Hamburgs Richter schicken die Promi-Kanzlei in den digitalen Reality-Check

Da dürfte in der Edel-Kanzlei Schertz Bergmann kurz die Champagnerflasche zurück in...

Allgemeines

Droht Europas Airlines der Treibstoff-Schock? USA-Kerosin soll Engpässe verhindern

Der Krieg zwischen den USA, Israel und dem Iran bringt zunehmend auch...

Allgemeines

Tausende Nordkoreaner offenbar im Ukraine-Krieg gefallen – neues Denkmal liefert brisante Hinweise

Nordkorea schweigt offiziell weiter über seine Verluste im Ukraine-Krieg. Doch ein neues...

Allgemeines

Milliardenprofite im Schatten des Iran-Krieges

Während Verbraucher weltweit unter steigenden Energiepreisen, Inflation und wirtschaftlicher Unsicherheit leiden, verzeichnen...