Zensur als Wettbewerbsnachteil China bremst sich im Chatbot-Rennen selber aus

Von Dirk Jacquemien

9.4.2023

«Ernie» ist Chinas Antwort auf ChatGPT. Doch der Bot von Tech-Gigant Baidu schweigt bei sehr vielen Themen lieber.
«Ernie» ist Chinas Antwort auf ChatGPT. Doch der Bot von Tech-Gigant Baidu schweigt bei sehr vielen Themen lieber.
Imago

Chatbots und andere künstliche Intelligenzen sind derzeit das Thema in der Tech-Welt. Doch wegen der erdrückenden Zensur droht China hier ins Hintertreffen zu geraten.

Von Dirk Jacquemien

Keine Zeit? blue News fasst für dich zusammen

  • Auch chinesische Firmen arbeiten an Chatbots nach dem Vorbild von ChatGPT.
  • Doch die allgegenwärtige Zensur schränkt deren Fähigkeiten stark ein.
  • Chinesische Tech-Firmen haben berechtigte Sorgen in Schwierigkeiten zu geraten, wenn ihre Bots von der Parteilinie abweichen. 

Jeder arbeitet gerade an künstlicher Intelligenz und vor allem an Chatbots. Ob Vorreiter OpenAI oder die etablierten Tech-Giganten Microsoft und Google, sie alle glauben, dass es sich dabei um die Schlüsseltechnologie der Zukunft handelt.

Das Besondere an dieser neuen Art von KI ist, dass sie in der Lage ist, scheinbar Neues zu schaffen. Die sogenannte generative KI erstellt Texte und Bilder, die es vorher so noch nicht gegeben hat. Damit ist diese KI teilweise unvorhersehbar, was vereinzelt schon zu Sorgen geführt hat, bald würden Computer die Macht über die Menschheit übernehmen.

Chatbots sagen oft das, was sie nicht sollten

Derzeit zeigt sich die Unvorhersahbarkeit aber eher in kleinerem Rahmen. Der seit einigen wenigen Monaten breiten Verfügbarkeit von Chatbots für die Öffentlichkeit folgten auch zahlreiche Berichte über Irrwege, auf denen sie wanderten. So plapperten Chatbots oftmals schlicht falsche Informationen aus, steigerten sich in Liebeserklärungen an Nutzer*innen hinein oder begannen gleich an zu halluzinieren.

Das führte dann teils zu Spott unter Nutzer*innen und in den Medien sowie zu ermahnenden Worten von Politiker*innen, die mehr Vorsicht einforderten. Wenn es ganz schlimm kommt, melden sich vielleicht auch mal Anwält*innen.

Aber im Grossen und Ganzen ist das Risiko für westliche KI-Betreiber überschaubar, sie müssen keine ernsthaften Konsequenzen befürchten, wenn ihr Chatbot zwischendurch Blödsinn von sich gibt.

Chatbot-Trainingsmaterial ist nicht überprüfbar

Anders ist das natürlich in totalitären Regimes, in denen der Staat vorgibt, was die Wahrheit zu sein ist. Sagt ein Chatbot dann etwas, was er nicht sollte, könnte dessen Betreiber ganz schnell Probleme mit den Behörden bekommen.

Diese Sorge scheint nun chinesische Tech-Firmen bei der Entwicklung von Chatbots zu hemmen. Denn die Sprachmodelle, auf denen sie basieren, werden mit Milliarden von Texten trainiert, je grösser der Korpus, desto besser. Doch diese Masse an Trainingsmaterial auf Übereinstimmung mit der Parteilinie zu überprüfen, ist schlicht unmöglich.

Zu viele Filter machen Chatbot nutzlos

Also müssen in den Chatbots manuelle Filter eingebaut werden, die verhindern, dass sie bestimme Dinge von sich geben. Solche Filter haben auch ChatGPT und Co., sie verhindern beispielsweise, dass der Bot plötzlich mit rassistischen Beleidigungen um sich wirft. In den USA führte das schon zu Vorwürfen vonseiten konservativer Aktivist*innen, die Chatbots seien zu woke.

Doch in China ist das alles noch eine ganz Spur komplizierter. Was soll ein chinesischer Chatbot sagen, wenn in einer Konversation beispielsweise die Begriffe «Xi Jinping» oder «Tiananmen» fallen? Einfach pauschal den Dienst zu verweigern, wenn ein problematisches Stichwort erwähnt wird, erscheint wenig praktikabel.

Da in China fast alle Themen kontrovers sein könnten, würde ein Chatbot in diesem Fall mehr schweigen als reden. Lässt man ihn aber reden, besteht eine erhebliche Gefahr, dass er plötzlich anfängt über Demokratie oder Ähnliches zu halluzinieren.

Gemischte Signale der Führung

Chinesische Tech-Firmen stecken daher in einem Dilemma. Inzwischen spricht ihnen die politische Führung zwar wieder ihr Vertrauen aus, da die heimische Branche für den Technologie-Krieg mit den USA gebraucht wird.

Aber wenn die Kommunistische Partei Chinas in der Vergangenheit zwischen «Informationskontrolle» oder «wirtschaftlicher Entwicklung» wählen musste, habe sie sich immer für Ersteres entschieden, so Matt Sheehan, Forscher am Think-Tank Carnegie Endowment for International Peace zu «Al-Jazeera». 

Die ersten Versuche chinesischer Chatbots enttäuschten daher auch. Baidu, als Betreiberin von Chinas grösster Suchmaschine oft mit Google verglichen, stellte Mitte März ihren Chatbot Ernie vor. Im Test der Nachrichtenagentur Reuters verweigerte Ernie vielfach eine Antwort. «Lass uns das Thema wechseln und neu anfangen», sagte Ernie beispielsweise, wenn er auf Xi, Donald Trump, die Uiguren oder Taiwan angesprochen wurde.