Fast menschlicher Chatbot Künstliche Intelligenz kann die Welt erklären und Märchen erzählen

Von Dirk Jacquemien

5.12.2022

Roboter können definitiv schneller schreiben als Menschen. Und vielleicht bald auch besser.
Roboter können definitiv schneller schreiben als Menschen. Und vielleicht bald auch besser.
Getty Images

Ein neuer Chatbot sorgt für Aufregung im Netz. Das Sprachmodell ChatGPT könnte ein Meilenstein bei der künstlichen Intelligenz sein.

Von Dirk Jacquemien

Das viel getypte Start-up OpenAI hat erstmals der Öffentlichkeit sein Hauptprodukt, einen durch künstliche Intelligenz (KI) angetriebenen Chatbot, zur Verfügung gestellt. ChatGPT sorgte schon in den ersten Tagen für grosse Aufregung im Netz, da es ist in der Lage ist, überzeugende Texte zu einem breiten Themenfeld zu verfassen.

Der Dienst ist nach einer kostenlosen Anmeldung verfügbar. Danach kannst du anfangen wie bei einem Messenger-Dienst zu reden und ihm allerlei Fragen stellen. ChatGPT ist ein Beispiel für ein sogenanntes Sprachmodell. Doch was ist das eigentlich?

ChatGPT erleichtert die Arbeit

Ein Sprachmodell ist ein maschinelles Lernsystem, das verwendet wird, um die Struktur und Bedeutung von natürlicher Sprache zu analysieren und zu verstehen. Es wird hauptsächlich in der Sprachverarbeitung und -synthese eingesetzt, um Computer dazu zu befähigen, menschliche Sprache zu verstehen und zu produzieren.

Sprachmodelle werden auf der Grundlage von grossen Mengen an Textdaten trainiert, um die Wahrscheinlichkeit von Wortfolgen und grammatikalisch korrekten Sätzen zu berechnen. Sie können dann verwendet werden, um neue Texte zu generieren oder die Bedeutung von eingegebenen Sätzen zu interpretieren.

Die beiden vorherigen Absätze hätte eigentlich in Anführungszeichen stehen müssen, denn diese Erklärung hat der Autor dieses Textes nicht selbst verfasst, sondern einfach ChatGPT gefragt:

ChatGPT erklärt sich selbst.
ChatGPT erklärt sich selbst.
OpenAI

Kreativ ist der Chatbot auch

Dies lässt schon erahnen, dass künstliche Intelligenz bald eine ganze Reihe von Jobs überflüssig machen könnte. Denn ChatGPT kann Texte aller Art in Sekundenschnelle konstruieren. So kannst du den Bot selbst darum bitten, eine fiktive Kurzgeschichte über die Schweizer Nati im Stil der Gebrüder Grimm zu schreiben:

Eine Story über die «unbesiegbare» Nati kann leider nur ein Märchen sein.
Eine Story über die «unbesiegbare» Nati kann leider nur ein Märchen sein.
OpenAI

Auf Twitter berichten manche Nutzer*innen schon, dass sie mit ChatGPT ganze Theaterstücke verfasst oder ein komplexes Rollenspiel gespielt haben. Auch Software-Code kann ChatGPT auf Anfrage schreiben.

Frühe Sprachmodelle waren ein Reinfall

KI-Modelle im Allgemeinen machten in den letzten Jahren riesige Sprünge. Ein 2016 von Microsoft auf Twitter losgelassener Chatbot wurde damals noch in wenigen Stunden zum rassistischen Holocaustleugner und musste abgeschaltet werden. Davon ist ChatGPT weit entfernt.

Und nun gibt es eine ganze Fülle von KI-Modellen am Markt, für verschiedene Bereiche. DALL-E-2 etwa, ebenfalls von OpenAi, kann ziemlich überzeugende visuelle Kunstwerke erzeugen. Character.ai des gleichnamigen Start-ups kann Prominente wie Elon Musk oder Donald Trump nachahmen.

Sprachmodelle machen Betrug einfacher und könnten Jobs ersetzen

Google soll mit seinem Sprachmodell LaMDA ebenfalls weit fortgeschritten sein, weigert sich aber bisher, dies öffentlich zu zeigen. Begründet wird dies unter anderem mit der Sorge um Missbrauch.

Und in der Tat können Sprachmodelle zahlreiche zwielichtige Aktivitäten erleichtern. So könnten etwa dazu verwendet werden, massenhaft passgenaue Spam- oder Phishingmails zu generieren. Die Zeiten, in denen solche betrügerischen E-Mails sich etwa durch gebrochenes Deutsch selbst enttarnten, werden bald vorbei sein.

Für legitime Anwendungen dürften Sprachmodelle aber ebenfalls in naher Zukunft viel stärker zum Einsatz kommen. Etwa zum Verfassen von Werbetexten oder auch beim Schreiben von Nachrichtenartikeln. Vor allem im Sportbereich kommt die Technik jetzt schon zum Einsatz, um schnöde Statistiken in Fliesstext umzuwandeln, was Sprachmodelle vor keine grosse Herausforderung stellt.

«Gelegentlich falsche Informationen»

ChatGPT kann «gelegentlich falsche Informationen» oder «gelegentlich schädliche Anleitungen» von sich geben, heisst von OpenAI in Bezug auf die Einschränkungen des Modells, was Journalist*innen zumindest derzeit noch etwa Hoffnung auf Jobsicherheit machen sollte. Doch der Geist ist endgültig aus der Flasche.

OpenAI hat in ChatGPT zwar einige Sicherheitsmassnahmen verbaut, die Missbrauch verhindern sollen. Zweifelhafte Dinge kannst du mit dem Sprachmodell aber immer noch anstellen. So lässt sich ChatGPT auch dazu bringen, einen Liebesbrief an Adolf Hitler zu verfassen:

Ein menschlicher Texter hätte diesen Auftrag vermutlich abgelehnt.
Ein menschlicher Texter hätte diesen Auftrag vermutlich abgelehnt.
OpenAI