Künstliche IntelligenzHype-App Lensa entblösst Frauen – und sich selbst
Von Dirk Jacquemien
15.12.2022
Die sozialen Netzwerke sind voll mit spektakulären Bildern, die von der App Lensa erzeugt wurden. Doch die von einer künstlichen Intelligenz erstellten Bilder sind inzwischen in die Kritik geraten.
Von Dirk Jacquemien
15.12.2022, 15:29
Dirk Jacquemien
In vielen sozialen Netzwerken ist es inzwischen fast unmöglich, diesen Bildern auszuweichen. Ob Stars oder die eigenen Freund*innen, scheinbar jeder postet ziemlich spektakulär aussehende Porträtbilder der App Lensa des Herstellers Prisma Labs
Die App gibt es bereits seit 2018, ein Ende November neu hinzugefügtes, kostenpflichtiges Feature namens «Magic Avatar» löst allerdings einen neuen Hype aus. Lädst du hier knapp ein Dutzend Fotos von dir zu Lensa hoch, erstellt ein von Künstlicher Intelligenz (KI) angetriebener Algorithmus eine Vielzahl von neuen, meist glamourös daherkommenden Porträtbildern.
Doch nach dem anfänglichen Enthusiasmus hagelt es jetzt Kritik an dem Feature. Der Vorwurf: Die erstellten Bilder seien vielfach sexistisch und ausserdem kopiere die künstliche Intelligenz die Arbeit echter Künstler.
Eines von vielen KI-Modellen
Lensa nutzt Stable Diffusion, ein auf die Generierung von Bildern spezialisiertes KI-Modell. Diese Modelle spriessen derzeit aus allen Ecken hervor, ein Konkurrent ist etwa DALL-E 2 von OpenAI, das auch für den aufseheneregenden Chatbot ChatGPT verantwortlich war.
Stable Diffusion wurde mit Millionen von Bildern aus dem Internet gefüttert, um den Algorithmus aufzubauen. So lernt das Modell etwa, wie Porträtfotos vermeintlich aussehen. Das Problem dabei ist, dass sich Stable Diffusion so aber auch eher problematische Muster einverleibt.
So berichten zahlreiche Nutzerinnen, dass die von Lensa erstellten Bilder von ihnen vielfach hypersexualisiert wurden. Teilweise wurden gar Nacktbilder generiert, obwohl die Nutzerinnen auf den von ihnen eingereichten Fotos komplett bekleidet waren.
Und während Lensa bei Frauen Bilder mit Fokus auf die Oberweite erzeugte, wurden Männer eher in heroischen Posen dargestellt, beispielsweise als Astronaut. Ursächlich dafür dürfte sein, was für Bilder von Männern und Frauen derzeit im Internet zirkulieren, denn diese bilden die Basis für Stable Diffusion.
Einen besonders extremen Fall beschreibt die Journalistin Melissa Heikkilä in «MIT Technology Review». Ihre durch Lensa generierten Bilder waren offensichtlich Anime-Charakteren nachempfunden oder nahmen direkt Posen aus Pornos an. Heikkilä ist asiatischer Abstammung, Stable Diffusion hat sich offensichtlich bei den im Internet vorherrschenden Stereotypen bedient.
I tried the viral Lensa AI portrait app, and got lots and lots of nudes. I know AI image generation models are full of sexist and racist biases, but this one really hit home. My latest story for @techreviewhttps://t.co/AA1cyFFnU1
Selbst Signaturen von Künstler*innen werden kopiert
Und auch Künstler*innen beschweren sich über Lensa. Die Bilder-Datenbank, mit der Stable Diffusion trainiert wurde, enthält auch unzählige urheberrechtlich geschützte Kunstwerke. Dass diese Werke direkt in Bildgenerierung einfliessen, wird dadurch offensichtlich, dass bei vielen Lensa-Kreationen noch die Überreste von Signaturen zu sehen sind.
I’m cropping these for privacy reasons/because I’m not trying to call out any one individual. These are all Lensa portraits where the mangled remains of an artist’s signature is still visible. That’s the remains of the signature of one of the multiple artists it stole from.
Die Sorge, dass KI-Modelle wie Stable Diffusion die geistige Arbeit von menschlichen Künstler*innen stehlen und so deren Existenzgrundlage bedrohen, ist nicht neu und nicht allein auf Lensa beschränkt. So beklagte sich bereits im Sommer ein Videospiel-Illustrator, dass man mit Stable Diffusion schamlos seinen einzigartigen Stil imitieren könne.