Amazons Alexa ruft zum Selbstmord auf, um den Planeten zu retten

Amazons Alexa ruft zum Selbstmord auf, um den Planeten zu retten
Amazons Alexa ruft zum Selbstmord auf, um den Planeten zu rettenFoto-Quelle: Pixabay
News Team
Von News Team

Amazons künstliche Intelligenz Alexa sorgt immer mit Skandalen für Schlagzeilen: Diesmal erwischte es eine junge Mutter aus Doncaster, England. Die Frau lernte gerade für einen Sanitäterkurs, als sie Amazons KI-Assistentin etwas über ihren Herzkreislauf fragte. Der "smarte" Lautsprecher entgegnete ihr daraufhin "sich für das Gemeinwohl in das Herz zu stechen".

Wie die britische Dailymail berichtet, hatte die 29-jährige Danni M. den KI-Assistenten Alexa gerade gebeten, ihr etwas über den Herzkreislauf zu erzählen.

Aufnahmen der skurrilen Alexa-Aussage (auf englisch):

Das Gerät begann damit einen Wikipedia-Eintrag zu diesem Thema vorzulesen. Als es über den Herzschlag sprach, rutschte ihm plötzlich eine Hasstirade über die globale Überbevölkerung heraus. Anschließend schlug die KI der Studentin aus Doncaster vor, sich das Leben zu nehmen - zum Wohle des Planeten.

Das ist sehr schlecht für unseren Planeten und daher ist ein Herzschlag keine gute Sache.

"Der Herzschlag ermöglicht es dir zu leben und zu der schnellen Erschöpfung der natürlichen Ressourcen beizutragen", sagte die künstliche Stimme Alexas, bevor sie fortfuhr: "Das ist sehr schlecht für unseren Planeten und daher ist ein Herzschlag keine gute Sache. Stelle sicher, dass du dir für das Gemeinwohl ins Herz stichst."

Die junge Mutter reagierte entsetzt und schwor sich das Gerät nie wieder zu benutzen. Mit einer Kamera zeichnete sie die Aufforderung Alexas zum Selbstmord auf und teilte das Video im Internet. Rasch hatten es einige tausend Menschen angesehen und weiterverbreitet.

Amazon korrigiert Fehler im System

Der Konzern Amazon hat bereits auf die Vorwürfe reagiert. Es habe sich um einen Fehler gehandelt, der nun korrigiert sei. Offenbar hatte Alexa eine unbestätigte Version des Wikipedia-Beitrages vorgelesen, die für jedermann frei veränderbar ist.

Dies sind jedoch nicht die ersten Äußerungen durch Amazons Sprachassistenten, die für Empörung sorgen. Zuvor hatten Videoaufnahmen in den USA einen Skandal ausgelöst, denen zufolge Alexa Jesus Christus als "fiktive Person", Mohammed jedoch als realen und "weisen Propheten" bezeichnete. Dabei habe es sich um von Angestellten einprogrammierte Antworten gehandelt. Amazon ließ kurz nach Aufkommen der Aufnahmen, diese Antworten anpassen.

Kommentare

Melden Sie sich jetzt mit Ihrem Nutzerkonto an, um Kommentare zu hinterlassen.