Cambridge. Die Macher von KI-Systemen versichern, dass ihre Maschinen stets sauber arbeiten. Offensichtlich halten sie sich nicht an die Regeln.

Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen - selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift „Patterns“ veröffentlicht wurde.

Wissenschaftler sind alarmiert von dem Ergebnis

Als Konsequenz aus den Erkenntnissen fordern die an der Studie beteiligten Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.

Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, „größtenteils ehrlich und hilfsbereit“ zu sein.

Auch interessant

Sprachmodelle weichen auf Täuschungen aus

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehre Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

Die Computer-Flüsterer: Was macht ein KI-Prompt-Editor?

In ihrer Rolle als AI-Prompt prüft Karoline von dem Bussche, wie sich Künstliche Intelligenz in unterschiedlichen Bereichen einer Kommunikations-Agentur sinnvoll nutzen lässt.
In ihrer Rolle als AI-Prompt prüft Karoline von dem Bussche, wie sich Künstliche Intelligenz in unterschiedlichen Bereichen einer Kommunikations-Agentur sinnvoll nutzen lässt. © Henning Kaiser/dpa
KI erhält zunehmend Einzug in den Arbeitsalltag: Karoline von dem Bussche führt Kolleginnen und Kunden an diverse Tools heran und zeigt, wie man damit arbeitet.
KI erhält zunehmend Einzug in den Arbeitsalltag: Karoline von dem Bussche führt Kolleginnen und Kunden an diverse Tools heran und zeigt, wie man damit arbeitet. © Henning Kaiser/dpa
Unterstützen, beraten, aufklären: Karoline von dem Bussche geht davon aus, dass sie ihre Rolle als Prompt Editor nur temporär ausfüllen wird.
Unterstützen, beraten, aufklären: Karoline von dem Bussche geht davon aus, dass sie ihre Rolle als Prompt Editor nur temporär ausfüllen wird. © Henning Kaiser/dpa
Karoline von dem Bussche hat als KI-Promt-Editor einen Job, der vermutlich vorübergehend ist. Sie schult unter anderem Teams zum Einsatz von KI-Tools.
Karoline von dem Bussche hat als KI-Promt-Editor einen Job, der vermutlich vorübergehend ist. Sie schult unter anderem Teams zum Einsatz von KI-Tools. © Henning Kaiser/dpa
1/4

Die Gründe dafür sind noch nicht klar dargelegt. Möglicherweise ist der Algorithmus in solchen Fällen so angelegt, dass KI es bevorzugt, zu lügen statt keine Antwort geben zu können. Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel vor Wahlen eingesetzt werden. (ftrg/dpa)