Man reibt sich verwundert die Augen: Ausgerechnet bei einem der sensibelsten KI-Projekte überhaupt sollen Unbefugte Zugriff gehabt haben. Ein Bericht wirft nun erhebliche Zweifel an den Sicherheitsvorkehrungen des Unternehmens Anthropic auf.
Im Fokus steht das KI-Modell „Claude Mythos Preview“ – eine Technologie, die laut Entwickler besonders darin glänzt, selbst jahrzehntelang unentdeckte Sicherheitslücken in Software aufzuspüren. Genau das macht die Situation so brisant: Was als Werkzeug zur Absicherung gedacht ist, könnte in falschen Händen zum Einfallstor für Cyberangriffe werden.
Laut Medienberichten sollen sich einzelne Personen mit internem Wissen Zugang zu dem System verschafft haben. Besonders irritierend: Offenbar genügte bereits Kenntnis über frühere Speicherstrukturen, um die Hürden zu überwinden. Unter den mutmaßlich Unbefugten soll sich sogar ein Mitarbeiter eines externen Dienstleisters befunden haben – ein Detail, das Fragen zur Kontrolle von Drittanbietern aufwirft.
Anthropic selbst gibt sich bislang zurückhaltend. Man prüfe die Vorwürfe und betont, es gebe aktuell keine Hinweise darauf, dass das Modell außerhalb der Systeme des Dienstleisters genutzt wurde. Eine vollständige Entwarnung klingt anders.
Dabei ist das Projekt bewusst unter Verschluss gehalten. Eine öffentliche Veröffentlichung von „Mythos“ ist nicht geplant – der Zugang ist streng limitiert und nur ausgewählten Partnern vorbehalten. Dass dennoch Sicherheitslücken bestehen könnten, wirkt umso befremdlicher.
Gleichzeitig zeigt der Nutzen der KI, welches Potenzial in ihr steckt: So konnten Entwickler des Browsers Firefox mithilfe des Systems bereits Hunderte Schwachstellen identifizieren und schließen. Ein Erfolg – der nun einen bitteren Beigeschmack bekommt.
Denn die entscheidende Frage bleibt: Wenn selbst hochsensible KI-Systeme nicht vollständig abgesichert sind – wie sicher ist dann der Rest?
Kommentar hinterlassen