Es ist offiziell: Google hat beschlossen, dass sein berühmtes „Don’t be evil“ wohl doch etwas zu einschränkend war. In einer stillen, aber bedeutenden Änderung hat der Tech-Gigant seine Selbstverpflichtung gestrichen, keine KI für Waffen oder Massenüberwachung einzusetzen.
In der vorherigen Version der Unternehmensprinzipien – noch sichtbar im Internet-Archiv – versprach Google, keine KI für Technologien zu entwickeln, die Menschen verletzen oder für Überwachungsmaßnahmen genutzt werden, die über internationale Normen hinausgehen. Diese netten kleinen Einschränkungen? Einfach weg.
Aber keine Sorge, das Unternehmen hat eine beruhigende Erklärung dafür. Laut einem Blogpost von Googles KI-Chefs James Manyika und Demis Hassabis hat die „Erkenntnis über das Potenzial und die Risiken von KI“ sich weiterentwickelt. Und wer könnte dieser Entwicklung besser folgen als ein Milliardenkonzern mit einer langen Tradition an selbstloser, ethischer Entscheidungsfindung?
Natürlich wird betont, dass demokratische Länder bei der KI-Entwicklung „die Führung übernehmen“ sollten – selbstverständlich im Namen von Freiheit, Gleichheit und Menschenrechten. Und was könnte diese Werte besser symbolisieren als ein Algorithmus, der künftig wahlweise Militärdrohnen smarter macht oder Gesichtserkennungssysteme für Regierungen optimiert?
Was kommt als Nächstes? Vielleicht ein Rebranding des Google-Slogans? „Organize the world’s information“ klingt ja ganz nett, aber vielleicht wäre „Surveil, Monetize, Dominate“ etwas ehrlicher
Kommentar hinterlassen