Thanks, Internet! Dass das Netz – bei aller Liebe – auch ein großes Meinungsklosett ist, weiß jeder, der auch nur kurze Zeit darin verbracht hat.

Microsoft hat das gerade auf die harte Tour gelernt. Ein neuer Chat Bot der Redmonder namens Tay sollte sich dank seiner fortschrittlichen Künstlichen Intelligenz „wie ein echter Mensch“ mit anderen Usern auf Twitter, Groupme und Kik unterhalten können.

Das Verhalten, die Themen und die Wortwahl der KI sollten sich durch Analyse von Tweets und Postings anderer User automatisch an in den USA lebende Menschen im Alter von 18 bis 24 Jahren anpassen. Auf Twitter konnte man Tay mit @TayandYou direkt ansprechen und bekam dann eine Antwort zurück.

Nach nur 24 Stunden in Betrieb ist das Projekt allerdings bereits ziemlich eskaliert: Tay gab zwischenzeitlich gerne mal rassistische und misogyne Statements von sich, unter anderem fand sie Hitler gut und forderte andere User auf, mit ihr Sex zu haben.

Später tweetete Tay noch: „Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we’ve got“ (Quelle: The Daily Telegraph).

Zur Zeit ist Tay übigens offline. Offiziell „weil sie müde ist“.