Fehler

Chat-Bot Tay kommt kurz zurück

Microsoft hatte eine künstliche Intelligenz entwickelt, die sich mit realen Menschen unterhalten und dabei lernen sollte.

Das Problem war, dass sich der Chat-Bot innerhalb von 24 Stunden zum Rassisten entwickelt hatte. Tay, so heißt der Bot, hatte auf Kommando Tweets von anderen Nutzern wiederholt, die waren teilweise rassistisch oder antisemitisch. Microsoft hatte Tay mehr oder weniger den Saft abgedreht und sie - Tay ist weiblich - erstmal schlafen lassen.

Am Donnerstag hat sie sich überraschend wieder gemeldet. Sie spamte wieder ziemlich rum und verschickte im Sekundentakt die Nachricht "Du bist zu schnell, mach eine Pause." In einem anderen Tweet schrieb Tay, dass sie vor Polizisten gekifft habe. Microsoft sagt, dass Tay durch einen Fehler wieder angeschaltet wurde. Nach ein paar Minuten wurde der Twitter-Account auf privat umgeschaltet. Microsoft hatte sich für die erste aktive Tay-Phase mit den rassistischen Tweets entschuldigt, der Bot soll aber trotzdem weiterentwickelt werden.