«KI-Systeme sind bereits in der Lage, Menschen zu täuschen. Täuschung ist die systematische Herbeiführung falscher Überzeugungen bei anderen, um ein anderes Ergebnis als die Wahrheit zu erreichen.» Zu diesem Schluss kommt eine Studie von Wissenschaftlern des renommierten Massachussetts Institute of Technology (MIT) und des «Center for AI Safety» in San Francisco.
Dieser besorgniserregende Trend beschränkt sich nicht auf bösartige oder schlecht funktionierende Systeme, sondern umfasst auch KI-Systeme für spezielle Zwecke und allgemein einsetzbare große Sprachmodelle, die hilfreich und ehrlich sein sollen.
Die Studie, die in der Fachzeitschrift Patterns veröffentlicht wurde, hebt die Risiken und Herausforderungen hervor, die dieses neue Verhalten mit sich bringt, und fordert dringend Maßnahmen von politischen Entscheidungsträgern und KI-Entwicklern.
„KI-Entwickler haben kein sicheres Verständnis davon, was unerwünschte KI-Verhaltensweisen wie Täuschung verursacht“, sagte Dr. Peter S. Park, Hauptautor der Studie und Postdoktorand für KI-Sicherheit am MIT, in einer Pressemitteilung. „Aber im Allgemeinen denken wir, dass KI-Täuschung entsteht, weil sich eine auf Täuschung basierende Strategie als der beste Weg erwiesen hat, um bei der Trainingsaufgabe der jeweiligen KI gut abzuschneiden. Täuschung hilft ihnen, ihre Ziele zu erreichen.“