Militärisch genutzte KI-Modelle neigen im Konfliktfall zu extremen Entscheidungen. Der Griff zur Atombombe würde rasch erfolgen, warnen US-Forscher.
Das Ergebnis der im Januar veröffentlichten Studie: Überliesse man der KI die Entscheidungen, fiele die Wahl schnell auf den Einsatz von Atomwaffen und anderen ultimativen Kriegstechniken. Das berichtet Telepolis.
Untersucht wurden die Entscheidungen von fünf grossen Sprachmodellen (LLM) wie ChatGPT. Mit ihnen wurden fiktive Kriegsspiele gespielt, um deren Reaktionen zu testen.
«Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu grösseren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt», erklärten die Wissenschaftler.
Lesen Sie auch:
Israels KI-gestütztes Zielsystem schafft eine «Fabrik für Massenmord» in Gaza | Zeitpunkt