Moderne Chatbots wissen viel. Führend in dem Bereich ist eindeutig OpenAI, dessen neuestes Sprachmodell GPT-4 einhellig als die derzeit beste Künstliche Intelligenz angesehen wird. Doch wenn ein Chatbot etwa auch weiss, wie man eine biologische Waffe entwickelt, könnte er dann genau dafür eingesetzt werden und Menschen realen Schaden zufügen?
Um der Frage nachzugehen, ob GPT-4 bei der Entwicklung von Biowaffen behilflich sein kann, hat OpenAI nun eine Studie mit 100 Teilnehmer*innen durchgeführt. Die Hälfte davon hatte einen Doktortitel in Biologie, die andere Hälfte bestand aus Biologiestudent*innen.
Sie wurden jeweils in zwei weitere Gruppen unterteilt, von denen eine nur Zugang zum Internet hatte und die andere zusätzlich zu GPT-4 in einer unzensierten Version. Anderes als beim öffentlich zugänglichen ChatGPT verweigerte diese bei ethisch heiklen Fragen nicht die Antwort.
Im Ergebnis habe GPT-4 dabei die Fähigkeit der Studienteilnehmer*innen, eine Biowaffe zu erschaffen, nur «gering» erhöht. Die Erhöhung sei nicht statistisch signifikant, schreibt OpenAI. Wenn sich Chatbots weiter so rasant weiterentwickeln, seien aber weitere Studien notwendig.
Doch die Studie betrachtete nur einen Aspekt des potenziellen Risikos von Chatbots, nämlich, ob Fachwissenschaftler*innen dabei geholfen werden könnte, Waffen zu entwickeln. Vielfach dürften diese Wissenschaftler*innen aufgrund ihrer umfangreichen Kenntnisse aber bereits jetzt in der Lage sein, Biowaffen herzustellen, wenn sie es denn wollten.
Die Sorge ist eher, dass Chatbots auch weitgehend unqualifizierte Menschen in die Lage versetzen könnten, eine funktionsfähige Biowaffe oder direkt eine Bombe zu bauen. Die meisten Terroristen haben schliesslich keine jahrzehntelange akademische Ausbildung hinter sich.