Chatbots wie ChatGPT können in Sekundenbruchteilen seitenlange Texte erzeugen. Inzwischen lässt ihr Werk häufig nicht mehr von Texten unterscheiden, die aus menschlicher Hand stammen. Von Anfang an gab es daher die Sorge, dass die Technik missbraucht werden könne für Einsatzzwecke, bei denen massenhaft Texte generiert werden müssen, wie etwa Spam.
Und genau dies ist jetzt beim Online-Versand Amazon eingetreten. Der hat seit Jahren massive Probleme mit gefälschten Bewertungen. Meistens sind dafür die Anbieter der Produkte selbst verantwortlich, die sie mit einer Fülle an guten Bewertungen ausstatten wollen, um möglichst viele echte Kund*innen zu überzeugen. Für diesen Zweck gibt es regelrechte «Agenturen», bei denen sich Anbieter Tausende Bewertungen einkaufen können.
Chatbots verraten sich selbst
Bisher wurden zum Schreiben der falschen Bewertungen meist billige Arbeitskräfte aus Niedriglohnländern engagiert. Aber noch schneller und günstiger arbeiten natürlich Chatbots und inzwischen mit einer Qualität, bei der die Fälschung meistens nicht erkennbar ist.
Doch einige offensichtliche Anzeichen für den Einsatz von Chatbots gibt es schon, wie «Vice» berichtet. Denn einige der Fake-Bewertungen beginnen mit den Worten «Als ein KI-Sprachmodell …».
Die Phrase ist eine übliche Antwort von Chatbots, wenn sie ihnen gestellte Fragen nicht oder nur eingeschränkt beantworten können. Offenbar haben die Agenturen für falsche Bewertungen den gesamten Prozess automatisiert, von der Anfrage beim Chatbot bis hin zum Posten auf Amazon und daher die offensichtliche Ungereimtheit nicht bemerkt.
Das gleiche Phänomen entdeckte «Vice» auch mit Spam-Bots auf Twitter. Hier schrieben Accounts, die Teil eines riesigen Bot-Netzwerkes sind, die Phrasen, die ihre Chatbot-Herkunft verrieten. Dabei dürfte es sich aber nur um Kinderkrankheiten handeln, die die Spammer bald beheben werden. Die wahre Flut an Chatbot-Spam steht also erst bevor.