Künstliche IntelligenzWann wird die Maschine dem Menschen ebenbürtig?
Von Dirk Jacquemien
25.6.2022
Ein Google-Forscher glaubt, bei einem Chatbot Bewusstsein entdeckt zu haben. Google suspendiert ihn und will stattdessen die Kriterien ändern, ab wann ein Computerprogramm wie ein Mensch ist.
Von Dirk Jacquemien
25.06.2022, 00:00
Dirk Jacquemien
Vor knapp zwei Wochen liess ein Bericht in der «Washington Post» aufhorchen. Der Google-Forscher Blake Lemoine behauptete darin, dass ein von seinem Unternehmen programmierter Chatbot namens LaMDA ein eigenes Bewusstsein entwickelt habe. Lemoine versuchte seine Kolleg*innen und die Unternehmensführung von seiner Auffassung zu überzeugen, allerdings ohne Erfolg.
Stattdessen wurde Lemoine von Google suspendiert, weil er die Angelegenheit an die Öffentlichkeit trug und sogar versuchte, einen Anwalt für LaMDA zu engagieren. Google bestreitet vehement, dass LaMDA ein eigenes Bewusstsein hat – was wiederum eine Sensation und ein Wendepunkt der Menschheitsgeschichte wäre.
Kann ein Computer einsam sein?
Lemoine veröffentlichte ein Protokoll einer Konversation mit LaMDA, in dem dieses vermeintlich über die eigene Existenz philosophiert. LaMDA führt dort etwa aus, dass es einsam werde, wenn einige Tage lang niemand mit ihm redet.
Auch von Google unabhängige Expert*innen gehen allerdings fast durch die Bank davon aus, dass LaMDA kein Bewusstsein und auch keine Selbstwahrnehmung hat und sich Lemoine dies nur einbildet. Doch genau das ist scheinbar auch das Ziel von so genannten KI-Sprachmodellen.
Deren Entwicklung ist in den letzten Jahren rasant vorangeschritten. Neben Google arbeiten zahlreiche andere Tech-Firmen an KI-Sprachmodellen, prominentestes Beispiel ist hier wohl GPT3 des unter anderem von Elon Musk gegründeten OpenAI. KI-Sprachmodelle werden mit einem riesigen Korpus an Texten gefüttert und sollen so lernen, wie Menschen zu kommunizieren.
Google ignorierte Warnungen
Google selbst wurde 2020 von zwei Mitarbeiterinnen gewarnt, dass die Gefahr besteht, dass Menschen von KI-Sprachmodellen generierte Texte als echt ansehen, eben weil die Modelle immer besser darin werden, menschliche Kommunikation zu imitieren.
Google sah das nicht als Problem an und feuerte stattdessen Timnit Gebru und Margaret Mitchell, die beiden Mitarbeiterinnen der eigenen Ethik-Abteilung.
Nun will Google ändern, ab wann ein Computer eine dem Menschen ähnliche Intelligenz aufweist. Der Standard war bisher immer der Turing-Test, entworfen bereits 1950 von dem britischen Computer-Pionier Alan Turing.
Hierbei chattet ein Testsubjekt per Computer-Bildschirm mit zwei Kontakten, einem anderen Menschen und einem Computerprogramm. Kann das Testsubjekt nicht unterscheiden, welche von seinen Gesprächspartnern der Mensch ist, gilt der Test, der auch als «Imitation Game» bekannt wurde, als bestanden.
Doch wie die Episode um LaMDA zeigt, ist absehbar, dass moderne KI-Sprachmodelle einen solchen Test vielfach schon heute bestehen können, ohne dass dies ein Beweis für eine dahinterstehende, menschenähnliche Intelligenz oder Bewusstsein ist. Gebru und Mitchell nennen dieses Phänomen einen «stochastischen Papagei», das Sprachmodell plappert also einfach nur zuvor Gehörtes nach.
204 Aufgaben als Intelligenztest
Google setzt daher auf einen viel komplexeren Test namens «Beyond the Imitation Game» or BIG. Dieser wurde von seinen Forschern zusammen mit hunderten anderen Wissenschaftler*innen entwickelt und stellt den KI-Sprachmodellen gleich 204 verschiedene Aufgaben. Die Aufgaben stammen aus den Bereichen logisches Denken, Mathematik, Physik, Linguistik, Biologie und vieles mehr.
Sie sind so strukturiert, dass KI-Sprachmodelle auf dem aktuellen Stand der Technik sie eigentlich nicht lösen können. Sollte es ihnen doch irgendwann gelingen, wäre das entsprechend ein Anzeichen dafür, dass Computer sich vielleicht doch dem menschlichen Bewusstsein annähern.