Zum ersten Mal beurteilt eine Roboter als Jury die Teilnehmer eines Schönheitswettbewerbs. Schade nur, dass der Roboter anscheinend nicht objektiv bewertete. Kritiker sagen, dass das Ergebnis rassistisch sei.

Schönheit ist ja oft etwas Subjektives. Einer findet braune Haare schön, ein anderer mag lieber blonde. Während einer blaue Augen bevorzugt, steht ein anderer eher auf grüne. Jurys von Schönheitswettbewerben bestehen ja immer mindestens aus drei Personen. Besser ist es, wenn es noch mehr Bewertungsrichter gibt.

Kürzlich fand in San Francisco der Schönheitswettbewerb Beauty.AI statt - mit nur einem Jurymitglied. Trotzdem könnte man sich vorstellen, dass diese Schönheitskür besonders objektiv war: Ein Roboter bewertete Fotos von Männern und Frauen. Die Teilnehmer schickten per App Fotos ein, auf denen sie ohne Make-up, Brille und Bart zu sehen sein mussten.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Das Ergebnis: Der Roboter sollte 6.000 Fotos von Männern und Frauen nach Schönheit bewerten. Die Teilnehmer kamen aus 100 Ländern. Überraschenderweise waren die 44 Favoriten des Roboters aber fast nur Weiße. Ein paar Asiaten waren noch dabei, aber nur eine Schwarze.

Ein Problem war, dass die Fotos von schwarzen Personen oft schon vor der Bewertung aussortiert wurden, weil es schwieriger ist, sie gut auszuleuchten. Wenn der Roboter nicht genug erkennen konnte, sortierte er es direkt wieder aus.

An dem rassistischen Endergebnis sind aber eher die Programmierer schuld: Sie hatten den Roboter mit Daten gefüttert, damit er lernt, menschliche Schönheit zu erkennen. Dabei haben sie aber wohl zu wenige Minderheiten eingebaut. So hat der Roboter wohl automatisch helle Haut mit Schönheit verknüpft.

Chatbot Tay setzte rassistische und diskriminierende Tweets ab

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Andere Fälle, in denen Algorithmen versagt hatten

Der Chatbot Tay von Microsoft war zu Beginn ein freundlicher Twitter-Nutzer. Mit der Zeit lernte der Bot von anderen Usern, mit denen er kommunizierte. In kürzester Zeit änderte sich seine Meinung: die anfängliche Liebe zum Feminismus schlug um in die Meinung, dass er ein Kult oder ein Krebs sei. Später setzte Chatbot Tay hetzerische, fremdenfeindliche und rassistische Tweets ab, sodass der Account erst einmal stillgelegt wurde.

Desaster nach dem Facebook Mitarbeiter entließ

Die Trending Topics wurden auf Facebook lange Zeit von Mitarbeitern kuratiert. Nachdem diese entlassen worden waren, übernahm ein Algorithmus diesen Job. Daraufhin kursierten viele erfundene und vulgäre Geschichten. Den Höhepunkt stellte die Story über einen Mann dar, der mit einem Hühner-Sandwich masturbiert haben soll.

Roboter beurteilen Schönheit

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Shownotes
Künstliche Intelligenz
Rassistischer Roboter
vom 09. September 2016
Moderator: 
Sebastian Sonntag
Gesprächspartnerin: 
Sophie Stigler