Open AI

Published On: Dienstag, 19.12.2023By Tags:

OpenAI, der Pionier in der Entwicklung von Künstlicher Intelligenz (KI), hat gestern ein bahnbrechendes Sicherheitskonzept für seine fortschrittlichsten KI-Modelle präsentiert. Dieses Konzept stellt einen Meilenstein in der Risikobewertung dar und kategorisiert potenzielle Gefahren in vier wesentlichen Bereichen: Cybersicherheit, Bedrohungen auf atomarer, chemischer, biologischer oder radiologischer Ebene, die Überzeugungskraft der KI sowie die Autonomie der KI-Modelle.

In einer detaillierten und gründlichen Analyse werden den KI-Systemen Risikostufen von „niedrig“ bis „kritisch“ zugewiesen. Besondere Aufmerksamkeit erregt das Szenario einer „Intelligenzexplosion“, bei der ein KI-Modell mit kritischer Autonomiestufe eigenständige KI-Forschung betreibt und einen unkontrollierbaren Selbstverbesserungsprozess in Gang setzen könnte.

OpenAI, in enger Zusammenarbeit mit seinem Partner Microsoft, legt großen Wert darauf, dass die Risikoeinstufung sowohl vor als auch nach der Implementierung von Sicherheitsmaßnahmen erfolgt. Entscheidend ist hierbei, dass das Gesamtrisiko eines Modells der höchsten Risikostufe in jeder Kategorie entspricht.

Das Unternehmen betont, dass nur solche KI-Modelle zum Einsatz kommen dürfen, deren Risiko nach Absicherung maximal auf der Stufe „mittel“ liegt. Zudem wird eine strenge Richtlinie verfolgt, wonach keine Modelle weiterentwickelt werden dürfen, die ein „kritisch“ eingestuftes Risiko aufweisen.

Um dieses rigorose Sicherheitskonzept zu unterstützen, hat OpenAI verschiedene Überwachungs- und Beratungsgremien eingerichtet. Besonders hervorzuheben ist das Board, welches die Befugnis besitzt, Entscheidungen der Unternehmensleitung zu revidieren oder zu kippen. Dieser Schritt unterstreicht das Engagement von OpenAI für eine verantwortungsvolle und sichere Entwicklung der Künstlichen Intelligenz.

Leave A Comment

Das könnte Ihnen auch gefallen