In kaum mehr als einem halben Jahr haben sich Chatbots rasant verbreitet. Sie sind in der Lage, lange, kohärente Texte zu quasi allen Themen zu schreiben. Häufig zwar nicht fehlerfrei, aber das sind Menschen schliesslich auch nicht.
Diese Fähigkeiten haben Chatbots auch zum beliebten Hilfsmittel von Schüler*innen und Student*innen gemacht, die sie gerne ihre Hausarbeiten erledigen lassen. Fast alle Bildungsinstitutionen verbieten eine solche Verwendung. Aber wie erkennt man, ob ein Text von einer Künstlichen Intelligenz geschrieben wurde?
Die an Universitäten schon seit Langem eingesetzten Plagiatsdetektoren versagen in solchen Fällen, da ein von einem Chatbot geschriebener Text in dieser exakten Form eben ein neues Werk ist, auch wenn KI im Grunde nur bereits bekanntes Wissen neu arrangiert. Also braucht es spezielle KI-Detektoren. Und genauso hatte ChatGTP-Betreiberin OpenAI mit dem «AI Text Classifier». Doch weil der nicht zuverlässig in der Lage ist, KI-Texte zu erkennen, wird er nun abgeschaltet.
Der «AI Text Classifier» stand seit seiner Lancierung im Januar in der Kritik, weil er vielfach eindeutig von Menschen geschriebene Texte als «wahrscheinlich KI-generiert» einstufte. Kategorische Aussagen zur Urheberschaft machte der Detektor nicht, sondern gab nur Wahrscheinlichkeitswerte an, sodass seine Nützlichkeit von Anfang begrenzt war.
Man arbeitet derzeit daran, eine effektivere Erkennungstechnik zu entwickeln, heisst es in einem kurzen Statement von OpenAI. Immerhin verspricht das Unternehmen, zumindest für Audioaufnahmen und Videos, bald einen Mechanismus zu veröffentlichen, mit dem zu erkennen ist, ob diese KI-generiert sind.