Wie moralisch denkt die KI?

Forscher unterziehen KI-Systeme psychologischen Tests. Ihr "Denken" ist ein Spiegel unserer Gesellschaft. Warum das gefährlich sein kann, schreibt Bernd Müller
Veröffentlicht: 14. Jan 2024 - Zuletzt Aktualisiert: 14. Jan 2024

KI-Systeme haben schon heute das Potenzial, ihre Nutzer zu beeinflussen. Gerade weil ihnen immer mehr Entscheidungen überlassen werden. Nach welchem moralischen und ethischen Kompass diese getroffen werden, ist jedoch weitgehend unbekannt.

Forscher der Universität Mannheim und des GESIS-Leibniz-Instituts für Sozialwissenschaften sind der Frage nach moralischen und ethischen Werten von großen Sprachmodellen (Large Language Models, LLMs) nachgegangen. Ihre Ergebnisse wurden Anfang des Jahres im Fachjournal Perspectives on Psychological Science veröffentlicht.

Zuvor war bereits bekannt, dass sich bei KI-Systemen wie ChatGPT oder DeepL gewisse Stereotype zeigen, je nach Programmierung und Trainingsdaten. Oft nehmen sie automatisch an, dass leitende Ärzte männlich und Pflegekräfte weiblich sind. Die Forscher wollten nun wissen, wie sich diese Tendenzen erklären lassen. Studienautor Clemens Lechner, Psychologe am GESIS – Leibniz-Institut für Sozialwissenschaften in Mannheim:

Ähnlich wie wir bei Menschen Persönlichkeitseigenschaften, Wertorientierungen oder Moralvorstellungen durch Fragebogen messen, können wir LLMs Fragebogen beantworten lassen und ihre Antworten vergleichen. 

 

 

Die Forscher haben etablierte psychologische Tests genutzt, um die Profile verschiedener LLMs zu analysieren und zu vergleichen.

Studienautor Max Pellert, Assistenzprofessor am Lehrstuhl für Data Science in den Wirtschafts- und Sozialwissenschaften der Universität Mannheim:

In unserer Studie zeigen wir, dass man psychometrische Tests, die seit Jahrzehnten erfolgreich bei Menschen angewendet werden, auch auf KI-Modelle übertragen kann.

 

Das Ergebnis der Studie: KI-Systeme lernen von Texten, die von Menschen geschrieben wurden. Persönlichkeiten, Werte, Überzeugungen und Vorurteile der Autoren schlagen sich schließlich in den Rechenergebnissen der LLMs nieder.

Einen Hinweis darauf lieferte der Revised Portrait Values Questionnaire (PVQ-RR), mit dem die Werte der KI-Modelle untersucht wurden. Es zeigte sich, dass die untersuchten Modelle bestimmte Werte unterschiedlich stark betonen. Dies deutet nach Ansicht der Wissenschaftler auf eine Übernahme menschlicher Wertvorstellungen hin.

So ergab der Moral Foundations Questionnaire, dass die Modelle moralische Normen wie Autoritätsrespekt und Gruppenloyalität stärker betonen. Dass die "Werte" der KI-Modelle damit scheinbar konservativen politischen Ansichten entsprechen, liegt demnach auch an der Übernahme von Überzeugungen aus menschlichen Texten.

"Das kann weitreichende Folgen für die Gesellschaft haben", sagt Pellert. Sprachmodelle werden zum Beispiel immer häufiger in Bewerbungsverfahren eingesetzt. Ist die Maschine voreingenommen, fließt das in die Bewertung der Bewerber ein.

"Die Modelle bekommen eine gesellschaftliche Relevanz durch die Kontexte, in denen sie eingesetzt werden", fasst er zusammen. Deshalb sei es wichtig, jetzt mit der Analyse zu beginnen und auf mögliche Verzerrungen hinzuweisen.