Ein KI-Chatbot darf nicht einfach Dinge erfinden – und wenn er es doch tut, haftet das Unternehmen dahinter. Das hat das Oberlandesgericht Hamm in einem Urteil gegen die Aesthetify GmbH entschieden.
Auf der Webseite des Unternehmens konnten Kundinnen und Kunden über einen Chatbot Termine buchen und Fragen stellen. Auf konkrete Nachfragen behauptete der Chatbot, die beiden Ärzte hinter der Firma seien unter anderem „Fachärzte für plastische und ästhetische Chirurgie“, „Fachärzte für ästhetische Medizin“ und „Fachärzte für ästhetische Behandlungen“.
Das Problem: Diese Facharztbezeichnungen existierten beziehungsweise trafen so nicht zu.
Die Verbraucherzentrale Nordrhein-Westfalen mahnte das Unternehmen ab und verlangte eine strafbewehrte Unterlassungserklärung. Zwar wurde der Chatbot danach deaktiviert, die Erklärung wurde aber nicht unterschrieben.
Das Gericht stellte nun klar: Die falschen Angaben des Chatbots sind dem Unternehmen zuzurechnen. Die Firma könne sich nicht darauf berufen, dass die Antworten von einer KI stammten.
Der Chatbot sei kein „Dritter“, sondern Teil des geschäftlichen Auftritts des Unternehmens. Auch wenn er ursprünglich mit korrekten Daten gefüttert worden sein sollte, bleibe die Verantwortung für irreführende Aussagen beim Betreiber.
Damit wertete das Gericht die falschen Facharztangaben als irreführende geschäftliche Handlung nach dem Gesetz gegen den unlauteren Wettbewerb.
Besonders interessant: Wegen der grundsätzlichen Bedeutung des Falls ließ das OLG Hamm die Revision zum Bundesgerichtshof zu.
Das Urteil könnte damit wichtig werden für alle Unternehmen, die KI-Chatbots im Kundenkontakt einsetzen. Die Botschaft ist klar: Wer KI verkaufen lässt, muss auch für deren Aussagen geradestehen.
Kommentar hinterlassen