Gesichtserkennung Kunstprojekt zeigt Vorurteile der Künstlichen Intelligenz auf

dj

24.9.2019

ImageNet Roulette glaubt hier, einen «Baron» oder «Big Businessman» zu sehen. Es liegt wohl nicht völlig daneben.
ImageNet Roulette glaubt hier, einen «Baron» oder «Big Businessman» zu sehen. Es liegt wohl nicht völlig daneben.
Keystone/dj

Ein Kunstprojekt macht wieder einmal deutlich, dass auch scheinbar neutrale Software Vorurteile zeigen kann.

Auf der Website ImageNet Roulette kann man das eigene Porträt hochladen und sich von einer Künstlichen Intelligenz bewerten lassen. Diese schaut sich das Foto an und teilt einem mit, was dort ihrer Meinung nach zu sehen ist.

Nun ist Bilderkennungssoftware natürlich noch lange nicht perfekt und macht viele Fehler, aber wenigstens ist sie doch neutral und nüchtern in ihrer Arbeit — denkt man. Doch wie das Projekt des Künstlers Trevor Paglen und der Microsoft-Forscherin Kate Crawford zeigt, ist KI oftmals genauso vorurteilsbehaftet wie Menschen.

Riesige Bild-Datenbank

ImageNet Roulette greift auf eine bestehende, riesige Bilddatenbank namens ImageNet zurück, die von zahlreichen Unternehmen zum Antrainieren ihrer jeweils eigenen Bilderkennungssoftware genutzt wird. ImageNet besteht aus 14 Millionen unterschiedlichen Fotos samt Beschreibungen von Gegenständen, Tieren und Menschen.

Für die Website wurde die auf der Deep Learning-Bibliothek Caffe basierende Gesichtserkennung auf Bilder in 2833 ImageNet-Kategorien angesetzt, mit denen Personen beschrieben werden. Die Namen der ImageNet-Kategorien stammen dabei aus WorldNet, einem computerfreundlichen Lexikon der englischen Sprache.

In Bezug auf Bilder von Menschen gibt es eine Vielzahl von möglichen Kategorisierungen, etwa «Mann» oder «Frau», «dick» oder «dünn», eher schwammige Bezeichnungen wie «Doktor» oder «Nicht-Raucher», aber auch abwertende Kategorien wie «Übeltäter», «Schlampe» und zahlreiche rassistische Bezeichnungen. Das Kategorisieren wurde dabei von schlecht bezahlten Klickarbeitern durchgeführt, die Hunderte Fotos pro Stunde bewerten mussten, wie die «New York Times» schreibt.

Vorurteile schon in der Praxis angekommen?

Und da ImageNet — das 2009 von der Stanford University und der Princeton University zusammengestellt wurde — bei so vielen verschiedenen Bilderkennungsprogrammen eingesetzt wurde, könnten sich die in der Datenbank eingebauten Vorurteile bereits auf viele Praxisanwendungen übertragen haben. Genau diese Problematik soll ImageNet Roulette demonstrieren.

So wurden bei nicht-weissen Menschen beispielsweise häufig nur ethnische Kategorien bis hin zu rassistischen Beleidigungen angezeigt, obwohl ja auch Kategorien wie «Baron» oder «Doktor» verfügbar waren.

ImageNet Roulette soll noch bis Ende der Woche online bleiben, dann sei sein Zweck erreicht, so Paglen und Crawford. Die Website ist Teil ihrer Ausstellung «Training Humans», die noch bis zum Februar 2020 in der Fondazione Prada in Mailand zu sehen ist. Die Macher von ImageNet haben derweil bereits angefangen, umfangreiche Änderungen an ihrer Datenbank vorzunehmen, um problematische Bewertungen von Menschen zukünftig zu verhindern.

Bilder des Tages

Zurück zur Startseite