OpenAI-Studie gibt Entwarnung Nur «geringes» Risiko, dass ChatGPT eine Biowaffe erschafft

Von Dirk Jacquemien

2.2.2024

Die Welt kann aufatmen. Noch sind Chatbots nicht besonders hilfreich beim Erschaffen von Biowaffen.
Die Welt kann aufatmen. Noch sind Chatbots nicht besonders hilfreich beim Erschaffen von Biowaffen.
Imago

Chatbots wissen eine ganze Menge. Auch, wie man eine biologische Waffe erschafft? Das hat nun ChatGPT-Betreiberin OpenAI unter die Lupe genommen.

Von Dirk Jacquemien

2.2.2024

Keine Zeit? blue News fasst für dich zusammen

  • Chatbots helfen bei Fragen des alltäglichen Lebens, also vielleicht auch beim Entwickeln einer Biowaffe?
  • Mit einer Studie wollte OpenAI daher nun klären, wie gross die Gefahr von Chatbots dabei ist.
  • Im Ergebnis sei das zusätzliche Risiko durch die Verfügbarkeit von Chatbots nur gering, so OpenAI.

Moderne Chatbots wissen viel. Führend in dem Bereich ist eindeutig OpenAI, dessen neuestes Sprachmodell GPT-4 einhellig als die derzeit beste Künstliche Intelligenz angesehen wird. Doch wenn ein Chatbot etwa auch weiss, wie man eine biologische Waffe entwickelt, könnte er dann genau dafür eingesetzt werden und Menschen realen Schaden zufügen?

Um der Frage nachzugehen, ob GPT-4 bei der Entwicklung von Biowaffen behilflich sein kann, hat OpenAI nun eine Studie mit 100 Teilnehmer*innen durchgeführt. Die Hälfte davon hatte einen Doktortitel in Biologie, die andere Hälfte bestand aus Biologiestudent*innen.

Sie wurden jeweils in zwei weitere Gruppen unterteilt, von denen eine nur Zugang zum Internet hatte und die andere zusätzlich zu GPT-4 in einer unzensierten Version. Anderes als beim öffentlich zugänglichen ChatGPT verweigerte diese bei ethisch heiklen Fragen nicht die Antwort.

Studie betrachtet nur Aspekt

Im Ergebnis habe GPT-4 dabei die Fähigkeit der Studienteilnehmer*innen, eine Biowaffe zu erschaffen, nur «gering» erhöht. Die Erhöhung sei nicht statistisch signifikant, schreibt OpenAI. Wenn sich Chatbots weiter so rasant weiterentwickeln, seien aber weitere Studien notwendig.

Doch die Studie betrachtete nur einen Aspekt des potenziellen Risikos von Chatbots, nämlich, ob Fachwissenschaftler*innen dabei geholfen werden könnte, Waffen zu entwickeln. Vielfach dürften diese Wissenschaftler*innen aufgrund ihrer umfangreichen Kenntnisse aber bereits jetzt in der Lage sein, Biowaffen herzustellen, wenn sie es denn wollten.

Die Sorge ist eher, dass Chatbots auch weitgehend unqualifizierte Menschen in die Lage versetzen könnten, eine funktionsfähige Biowaffe oder direkt eine Bombe zu bauen. Die meisten Terroristen haben schliesslich keine jahrzehntelange akademische Ausbildung hinter sich.