Inwieweit ist ein Unternehmen haftbar, wenn ein Chatbot mit Künstlicher Intelligenz den Kunden auf seiner Website, in seiner App oder über andere Kanäle falsche Informationen liefert? Dazu hat ein Gericht in der kanadischen Provinz British Columbia jetzt ein wegweisendes Urteil gefällt. Es hat die Fluggesellschaft Air Canada zu einer Zahlung von 650,88 kanadischen Dollar (450 Euro) an einen Passagier verurteilt, der vom Textroboter auf der Website der Airline eine Fehlinformation zu den Geschäftsbedingungen erhalten hatte.
In dem Fall ging es um den Flugpassagier Jake Moffat, der 2022 kurzfristig zu einer Beerdigung reisen wollte. Für solche Fälle bietet die Fluglinie vergünstigte Todesfall-Tarife an. Moffat erkundigte sich bei der KI, ob er die Differenz zwischen dem normalen Ticket und dem reduzierten Angebot bei Air Canada auch noch nachträglich geltend machen könne. Der Chatbot bestätigte ihm, dass das möglich sei, wenn er den Antrag binnen 90 Tagen nach Kauf des Tickets einreiche. Diese Information war falsch. Denn aus den Geschäftsbedingungen geht klar hervor, dass nachträglich keine Rückzahlung erfolgt. Air Canada argumentierte, dass sein Chatbot „als eigenständige juristische Person für seine Handlungen selbst zuständig sei“. Vor Gericht hielt diese Argumentation nicht stand. In der Begründung heißt es: „Es sollte Air Canada klar sein, dass es für alle Informationen auf seiner Website verantwortlich ist.“ jh