Künstliche Intelligenz Open AI bringt neue Version von ChatGPT heraus

dpa/dor

15.3.2023 - 05:51

Schweiz wappnet Lehrer gegen KI-Chatbots an den Schulen

Schweiz wappnet Lehrer gegen KI-Chatbots an den Schulen

Ist eine Software, die dank künstlicher Intelligenz sowohl Aufsätze schreiben als auch Mathe-Aufgaben lösen kann, Fluch oder Segen für das Bildungssystem? Fragen, mit denen sich Schweizer Lehrer bei einem Seminar in Genf beschäftigen.

27.02.2023

Die neue Version des Chatbots ChatGPT soll das auf Künstlicher Intelligenz basierende Programm nach Angaben des Herstellers sicherer, genauer und Menschen noch ähnlicher machen.

Das kalifornische Start-up OpenAI hat die nächste Version der Technologie hinter dem populären Text-Automaten ChatGPT vorgestellt. GPT-4 soll unter anderem bessere Ergebnisse als die vorherigen Varianten liefern, wie OpenAI am Dienstag (Ortszeit) bekanntgab. Probleme der Technik – wie etwa, dass sie angebliche Fakten einfach erfinden kann – bestehen weiter, sollen aber seltener vorkommen.

ChatGPT und die Software Dall-E, die Bilder aus Text-Vorgaben erzeugen kann, basieren auf der vorherigen GPT-Generation. Zugang zu GPT-4 bekommen zahlende Kunden von OpenAI für ihre Dienste. Es gibt eine Warteliste.

ChatGPT kann Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. (Archivbild)
ChatGPT kann Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. (Archivbild)
Bild: Keystone/EPA/Wu Hao

Einige Kunden setzten die Technologie allerdings schon ein. Die Sprachlern-App Duolingo etwa nutzt GPT-4 unter anderem für Dialog-Trainings, die in einem neuen, teureren Abo verfügbar sind. Microsoft bestätigte, dass in seiner Bing-Suchmaschine schon seit einigen Wochen GPT-4 zum Einsatz kommt. Microsoft kaufte sich in einem milliardenschweren Deal bei OpenAI ein und das Geld sicherte unter anderem den Zugang zur nötigen enormen Rechenleistung.

Risiko, Fakten zu «halluzinieren»

Für die GPT-Technologien erfasste die Software enorme Mengen von Texten und Bildern. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software «Fakten halluziniert», wie OpenAI es nennt.

Das könne auch GPT-4 passieren, wenn auch seltener als zuvor, hiess es in dem Blogeintrag. Auch könnten der neuen Version ebenfalls einfache Logik-Fehler unterlaufen und sie könne Vorurteile weiterverbreiten. GPT-4 seien nur Fakten bekannt, die vor September 2021 passiert seien – und es lerne nicht aus Erfahrungen, betonte OpenAI.

GPT-4 soll auch gut darin sein, Bilder zu analysieren und mit Worten zu beschreiben – diese Funktion macht OpenAI zunächst aber nicht für die Kunden verfügbar.

dpa/dor