Allgemeines

Warnung

Teilen

Eine hochrangige Google-Managerin hat vor nicht ausgereifter Gesichtserkennung gewarnt, nachdem Software von Amazon in einem Test der Bürgerrechtsorganisation ACLU 28 Mitglieder des US-Kongresses fälschlicherweise als Polizeiverdächtige identifiziert hatte. Die Technologie transportiere noch zu viele Vorurteile, es fehle an Ausgewogenheit und Diversität, sagte Diane Greene. Google sammle viele Daten, um die Technologie verlässlicher zu machen, so Greene gegenüber der BBC.

Die umstrittene Zusammenarbeit Googles mit dem US-Militär wollte Greene auf Nachfrage allerdings nicht kommentieren. Dabei geht es um künstliche Intelligenz, die in Drohnen eingesetzt wird. Nach heftigen Protesten von Google-Mitarbeitern hatte Google beschlossen, dass Projekt 2019 ersatzlos auslaufen zu lassen. Offiziell kommentierte Google die Entscheidung bisher nicht, es wurden allerdings Prinzipien für die Entwicklung von künstlicher Intelligenz veröffentlicht, wonach Google die Technologien nicht für die Entwicklung von Waffen einsetzen will.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Masern hinter Gittern: US-Gesundheitssystem zeigt sich mal wieder von seiner „besten“ Seite

In einem texanischen Abschiebezentrum der US-Einwanderungsbehörde ICE hat sich nun auch die...

Allgemeines

Skandal um Danone-Babynahrung: Giftstoff-Alarm! EU-Behörde ermittelt nach Rückruf von „Aptamil“

Ein Skandal erschüttert derzeit das Vertrauen junger Eltern in eines der bekanntesten...

Allgemeines

Laura Fernández gewinnt Präsidentschaftswahl in Costa Rica mit harter Linie gegen Kriminalität

Laura Fernández von der konservativen Regierungspartei „Souveräne Volkspartei“ hat die Präsidentschaftswahl in...

Allgemeines

Zwischen Eichhörnchen-Beleidigungen und Putin-Fragen: BBC-Reporter auf Gratwanderung in Russland

„Steve Rotten-berg, dieser BBC-Typ sieht aus wie ein kackendes Eichhörnchen!“ – Wenn...