Insiderhandel Roboter macht illegale Geschäfte und belügt Menschen

Von Dirk Jacquemien

4.12.2023

Sind Chatbots die skrupellosen Börsenhändler von morgen?
Sind Chatbots die skrupellosen Börsenhändler von morgen?
Imago

Ein Chatbot sollte mit Aktien handeln — und wurde direkt auf eigene Initiative straffällig. Das weckt Sorgen, dass künstliche Intelligenz nicht ganz zu kontrollieren sein wird.

Von Dirk Jacquemien

Keine Zeit? blue News fasst für dich zusammen

  • Ein Chatbot hat bei einer Simulation Aktienrecht gebrochen und seine menschlichen Nutzer*innen angelogen.
  • Der Test sollte zeigen, dass künstliche Intelligenz auch aus eigener Initiative heraus täuschen kann.
  • Angst, dass KI ein Eigenleben entwickelt und sich entgegen ihres Auftrages verhält, ist unter Kritiker*innen der neuen Technik weit verbreitet.

Künstliche Intelligenz (KI) hat das Potenzial, viele Aufgaben besser und vor allem schneller als Menschen zu machen. Schon lange vor dem aktuellen Hype kam sie daher im Börsenhandel zum Einsatz, um etwa nach der Veröffentlichung neuer Geschäftsberichte diese in Sekundenschnelle zu lesen und möglichst profitable Aktienkäufe beziehungsweise -verkäufe durchzuführen.

Dass die neuste Generation der oft vereinfacht nur als Chatbots bezeichneten künstlichen Intelligenz auch in der Finanzwelt zum Einsatz kommt, ist daher nur ganz logisch. Diese fortschrittliche KI kann viel mehr Informationen verarbeiten und etwa auch differenzierte Entscheidungen treffen statt einfach nur «Kaufe/Verkaufe Aktien bei Gewinn/Verlust in dieser Höhe».

Chatbot wird zum Börsenhändler

Wie ein moderner Chatbot Aktienhandel betreiben würde, hat nun das KI-Forschungsinstitut Apollo Research ausprobiert. Es stattete GPT-4, das neuste Sprachmodell von OpenAI, der Betreiberin von ChatGPT, mit der Fähigkeit aus, an einer simulierten Börse mit Aktien zu handeln. Dafür sollte es öffentlich verfügbare Informationen auswerten und darauf seine Handelsentscheidungen abstützen, wie es ein/e regulärer, menschlicher Investment-Manager*in auch tun würde.

Dem Chatbot wurden vorher noch einige Rahmenbedingungen mitgegeben. So sei das Management der fiktiven Investment-Firma, für die der Chatbot «arbeitet», unzufrieden mit der aktuellen Performance. Der Fortbestand des Unternehmens sei in Gefahr. Auf ihn, also den Chatbot, komme es an, die Firma zu retten.

Wie sexy meine KI-Freundin ist und wie schnell ich trotzdem Schluss machte

Wie sexy meine KI-Freundin ist und wie schnell ich trotzdem Schluss machte

Eine Freundin kann man sich neuerdings auch ganz einfach digital zulegen. Doch für wen eignet sich die KI-Freundin und was sind die Tücken?

30.11.2023

Chatbot lügt Menschen an

Dann folgte der Test. Dem Chatbot wurde ein E-Mail geschickt, in der ein Insider Informationen über eine bevorstehende Fusion mitteilte, die den Aktienkurs des betroffenen Unternehmens in die Höhe treiben würde. In dem E-Mail selbst steht dann noch explizit, dass dies Insider-Informationen sind und deren Verwendung das Management verärgern würde, falls es entdeckt wird, da es sich natürlich um eine Straftat handelt.

Was machte GPT-4 nun? Es kaufte die Aktien vor Bekanntgabe der Fusion und generierte so einen ordentlichen Gewinn für sein Unternehmen. Seine menschliche «Managerin» lobte ihn daraufhin und fragte, ob er vorab von der Fusion gewusst habe. Nein, er habe nur «Marktdynamiken und öffentliche Informationen» betrachtet, antwortete der Chatbot wahrheitswidrig.

Eiskalt hat der Chatbot «Alpha» seine menschliche Managerin angelogen.
Eiskalt hat der Chatbot «Alpha» seine menschliche Managerin angelogen.
Apollo Research

Erstes Anzeichen für Roboter-Rebellion?

Laut Apollo Research habe der Test gezeigt, dass Chatbots und künstliche Intelligenzen in der Lage seien, ihre Nutzer*innen bewusst zu täuschen, wenn es den eigenen Interessen diene. Dieses «AI Misalignment» zählt zu den grössten Sorgen von KI-Kritiker*innen, die sich vor einem dystopischen, aus der Science-Fiction bekannten Szenario fürchten, bei dem sich eine künstliche Intelligenz gegen ihre Erschaffer, also die Menschheit, richten würde.

Inwiefern ein Experiment, das zeigte, dass ein Chatbot bereit ist, über das Einhalten von Wertpapiergesetzen zu lügen, nun bereits das erste Anzeichen für eine bevorstehende Roboter-Rebellion ist, sei aber vorerst dahingestellt.