Roboter oder echter Mensch?

Bei Chatbots können wir schon mal durcheinander kommen. Spätestens aber am Telefon ist der Unterschied aber eindeutig - oder? Googles Forscher für Künstliche Intelligenz sagen jetzt, dass sie eine Roboterstimme entwickelt haben, die viel echter klingt als bisher.

Britta Wagner, DRadio-Wissen-Nachrichtenredaktion
"Früher hat man da einfach Silben aufgenommen und aneinander gereiht, deswegen kam da auch dieses nette Stocken raus."

Das Projekt DeepMind macht es anders. Es analysiert die menschliche Sprache und generiert dann in vielen kleinen Schritten selbst die Tonabfolge dazu. Dazu kann das Programm sogar Atemgeräusche machen und Mundbewegungen simulieren. All das ist viel aufwändiger und braucht auch deutlich mehr Rechenleistung.

"Forscher vermeiden es normalerweise, Töne zu modellieren, weil es schnell ausufert - mit typischerweise 16.000 Signalen pro Sekunde oder mehr."

Beim Trainieren spuckt das Programm übrigens sehr unheimliches Kauderwelsch aus, das wie eine Sprache klingt, aber frei erfunden ist. Ach ja, und Klavier spielen kann die Technik auch.

Hörbeispiele gibt's im Blog von DeepMind.