Google hat seine Mitarbeiter*innen in einer internen Nachricht vor der Nutzung von Bard, dem vom Unternehmen selbst entwickelten Chatbot, gewarnt, wie «Reuters» berichtet. So sollen die Angestellten zum einen keine vertraulichen Informationen mit dem Chatbot teilen. Konversationen mit Chatbots werden regelmässig von menschlichen Tester*innen gelesen.
Google setzt dabei wie viele andere in der künstlichen Intelligenz aktive Unternehmen auf gering bezahlte externe Mitarbeiter*innen, um allfällige Fehler in Antworten seines Chatbots zu bewerten und zu beheben. Diesen vertraut Google offensichtlich nicht die Unternehmensgeheimnisse an.
Zum anderen sollen die Programmier*innen von Google keinen durch Bard generierten Code in ihren Produkten verwenden. Die schnelle Erstellung von selbst komplizierterem Software-Code zählt zu den Anwendungen mit dem höchsten wirtschaftlichen Nutzen, der Chatbots zum derzeitigen Zeitpunkt zugeschrieben wird.
Doch auch hier hat Google noch nicht genug Vertrauen in Bard, um dessen Erzeugnisse in den eigenen Systemen einzubauen. Fairerweise ist das dieselbe Botschaft, die Google auch öffentlich verkündet. In Gegensatz zu vielen anderen in dem Bereich tätigen Unternehmen betont Google noch deutlich die derzeit stark beschränkten Fähigkeiten von Chatbots.