Nachdem der Chatbot Tay von einem niedlichen Teenager zu einem “rassistischen, sexistischen Hitler-Fan” wurde, bereiteten Swifts Anwälte eine Klage gegen Microsoft vor, weil sich der Name zu sehr nach dem der Musikerin angehört hatte …

taylor-swift-vs-microsoft-.jpg

Credit: Dave Hogan / GettyImages

KI-Chatbot Tay
Einige wenige Tech-Fans werden sich wahrscheinlich noch an den Versuch von dem internationalen Hard- und Softwareentwickler Microsoft erinnern, bei welchem sie im Jahr 2016 eine künstliche Intelligenz vorgestellt hatten, die auf den Namen Tay hörte. Man programmierte den Chatbot mit Memes und Zitate aus Filmen, Büchern und Musikstücken und ließ ihn via Twitter, Snapchat, Kik und Groupme auf die Menschheit los. Tay sollte, sobald sie mit menschlichen Nutzern im Netz interagierte, klüger werden und sich selbstständig mit Fragen und Hilferufen auseinandersetzen, um wichtige Anliegen zeitnah beantworten zu können.

Die Idee scheint gut zu sein, doch in der Umsetzung hatten die Ingenieure von Microsoft einige Fehler gemacht: Statt demnach als liebevoller Teenager anderen Twitter-Usern zur Seite zu stehen, wurde der KI-Chatbot Tay dank eines Aufrufs von “4chan” mit hasserfüllten Nachrichten bombardiert und programmierte sich schließlich so um, dass sie selbst zu einem “rassistischen, sexistischen Hitler-Fan” wurde und beleidigende Tweets absendete. Das Experiment wurde schließlich abgebrochen und man befasste sich seither nicht mehr mit jener Idee.

TayandYOu.png

Credit: Twitter

Swift droht mit Klage
Und während wir Tay schon beinahe wieder vergessen hatten, wird sich Brad Smith, Microsoft-Präsident und Chefjurist des Redmonder Konzerns, wahrscheinlich ein Leben lang an jenen KI-Chatbot erinnern: Wie er in seinem Buch "Tools and Weapons: The Promise and the Peril of the Digital Age" niedergeschrieben hatte, bekam er kurz nach dem Start des Experiments eine Mail von einem Anwalt aus Beverly Hills und ließ jene Zeit wie folgt Revue passieren: “Ich war im Urlaub, als ich den Fehler gemacht habe, während des Abendessens auf mein Telefon zu schauen - ich hatte eine E-Mail von einem Anwalt aus Beverly Hills bekommen. Dieser stellte sich vor, indem er mir schrieb: ‘Wir repräsentieren Taylor Swift und wenden uns in ihrem Namen an sie.’ Er fuhr fort und teilte mir mit, dass ‘der Name Tay, wie Sie sicherlich wissen, eng mit unserer Klientin verbunden ist.’ Das wusste ich genau genommen nicht, die E-Mail hat aber dennoch meine Aufmerksamkeit bekommen.”

Weiterhin soll in der Mail gestanden haben, dass der Name Tay eine “irreführende Verbindung zwischen der populären Sängerin und unserem Chatbot wecke” und demnach gegen Bundesgesetze sowie jenen aus dem Staat Kaliforniens verstoßen würde. Laut der “The Guardian” drohte Taylor Swift kurz nach dem Start des Experiments mit einer Klage, welche sich im Anschluss wieder in Luft auflöste … denn: Nur 18 Stunden nach der Freischaltung hatte Microsoft den Testversuch von KI-Chatbot Tay erneut beendet.