Freiheit für RoboterMicrosoft feuert Ethik-Team, das künstliche Intelligenz überwacht
Von Dirk Jacquemien
14.3.2023
Microsoft will Google endlich richtig Konkurrenz machen. Für Zweifel an künstlicher Intelligenz ist daher kein Platz mehr.
Von Dirk Jacquemien
14.03.2023, 15:16
Dirk Jacquemien
Microsoft hat ein Team aufgelöst, das sich mit der ethischen Umsetzung von künstlicher Intelligenz (KI) befasste. Den sieben verbliebenen Mitarbeiter*innen wurde mitgeteilt, dass ihre Stellen eliminiert werden, wie «Plattformer» berichtet. Bereits vergangenes Jahr wurde das ursprünglich aus 20 Personen bestehende Team geschrumpft.
Die Auflösung kommt genau zu dem Zeitpunkt, als Microsoft in viele seiner Produkte mit von künstlicher Intelligenz angetriebene Features einbaut. Prominentes Beispiel ist dabei sicherlich der Chatbot in der Suchmaschine Bing, der auf Technik von ChatGPT-Betreiberin OpenAI basiert, in die Microsoft 11 Milliarden Dollar investiert hat.
Doch mit der breiten Verfügbarkeit von künstlicher Intelligenz werden auch deren potenziell schädlichen Einflüsse langsam sichtbar. Bing Chat hat beispielsweise schon Nutzer*innen bedroht oder ihnen seine Liebe erklärt. Da könnte es durchaus hilfreich sein, wenn Unternehmen Expert*innen zur Hand haben, die mögliche Risiken bewerten können.
Doch Microsoft will offenbar keine Zeit verlieren. CEO Satya Nadella übe enormen Druck aus, um die neusten Chatbots von OpenAI so schnell wie möglich in die Hände der Nutzer*innen zu bringen, so «Plattformer» unter Berufung auf interne Gespräche von Microsoft-Managern.
Nadella hat deutlich gemacht, dass er hofft, durch KI endlich dem ewigen Suchmaschinen-Primus Google Konkurrenz machen zu können. Andere Teams im Unternehmen würden weiterhin dafür sorgen, dass KI «verantwortungsvoll» eingesetzt werde, so Microsoft.
Andere Tech-Giganten gehen ähnlich vor
Mit einem reduzierten Fokus auf den ethischen Umgang mit der eigenen Technologie ist Microsoft nicht allein. Google hat bereits 2020 eine Forscherin entlassen, die in einer wissenschaftlichen Arbeit auf die Gefahren von Sprachmodellen, auf die moderne Chatbots aufbauen, hinwies.
Facebook-Betreiberin Meta löste September 2022 das «Verantwortungsvolle Innovation»-Team auf, das potenzielle Risiken von Meta-Produkten bewerten sollte. Und Twitter entliess im November 2022 sein gesamtes für die ethische Umsetzung von KI verantwortliche Team.