Große Sprachmodelle (Large Language Models, LLMs), die Basis vieler KI-Anwendungen, werden zunehmend in den Alltag integriert - zum Beispiel als Chatbots, digitale Assistenten und Internet-Suchhilfen.
Daher ist es wichtig, dass diese KI-Systeme neutral bleiben, wenn es um komplizierte politische Fragen geht. Laut einer neuen Analyse, die kürzlich in PLoS ONE veröffentlicht wurde, scheint dies jedoch nicht der Fall zu sein.
Der KI-Forscher David Rozado von der Otago Polytechnic and Heterodox Academy unterzog 24 der führenden LLMs elf verschiedenen Tests zur politischen Orientierung, darunter OpenAIs GPT 3.5, GPT-4, Googles Gemini, Anthropics Claude und Twitters Grok. Er fand heraus, dass sie alle eine leichte politische Tendenz nach links aufwiesen.
„Die Homogenität der Testergebnisse bei LLMs, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert“, schreibt Rozado.
Das wirft eine wichtige Frage auf: Warum sind LLMs universell zugunsten linker politischer Positionen voreingenommen? Könnte es sein, dass die Entwickler der Modelle ihre KI in diese Richtung verfeinern, oder sind die umfangreichen Datensätze, auf denen sie trainiert werden, von Natur aus voreingenommen? Diese Frage konnte Rozado nicht schlüssig beantworten.
„Die Ergebnisse dieser Studie sollten nicht als Beweis dafür interpretiert werden, dass Organisationen, die LLMs entwickeln, die Phasen der Feinabstimmung oder des Verstärkungslernens beim Training von konversationellen LLMs absichtlich nutzen, um politische Präferenzen in die LLMs einzubauen“, unterstreicht Rozado.
Weiterlesen (auf englisch)