Intelligenz im Zeitalter mechanischer Reproduktion / 2
Ich hoffe, Sie als Leser werden nervös bei dem Gedanken, so viele Arten von Gedanken an Maschinen auszulagern. So wie ein Foto nur einige Aspekte einer Szene festhält (und taktile, olfaktorische und andere Sinne sowie die Möglichkeit, sich zu einem anderen Blickwinkel zu bewegen, auslässt), extrahiert auch eine Zusammenfassung nur bestimmte Informationen aus dem Originaldokument – denn warum sonst würden wir vollständige Dokumente schreiben? Man erhält die Knochen, aber nicht das Fleisch und Blut. Natürlich, für manche Zwecke ist tatsächlich nur das Skelett relevant. Aber was passiert, wenn wir immerzu nur noch die Knochen sehen?
Dies ist die Fortsetzung des Essays. Teil 1 lesen Sie hier...
Ich war heute in einem Zoom-Meeting mit drei anderen Leuten. Ich glaube, OTR (Off-the-record Messaging, ein kryptografisches Protokoll, das Instant-Messaging-Unterhaltungen verschlüsselt) war auch dabei, also wird es eine Zusammenfassung geben. Nur wird diese Zusammenfassung keine Details enthalten, die unterhalb der Wahrnehmungsschwelle liegen, aber dennoch zu meinem Eindruck von der Besprechung beitragen. Zum Beispiel, welche Personen schnell in eine Sprechpause springen und welche sich zurückhalten, wie lange sie sprechen, wie eifrig sie sprechen, inwieweit sie auf dem Vorredner aufbauen, ihre Sprechgeschwindigkeit, der emotionale Tonfall der Stimme und der Gesichtsausdruck. KIs sind zwar zunehmend in der Lage, diese Art von Informationen zu erkennen und zu interpretieren, aber eine Zusammenfassung ist nicht dasselbe wie eine direkte Erfahrung. Eine Zusammenfassung destilliert nicht nur Informationen, sondern übersetzt sie von einer Form in eine andere. Sie kann nur die Art von Information extrahieren, die extrahiert werden kann. Informationen, die unvermeidlich kontextgebunden sind, können nur in ihrer ursprünglichen Form übertragen werden.
Bitten Sie die KI, diesen Artikel zusammenzufassen! Sie kann die wichtigsten Argumente vielleicht ganz gut herausfiltern. Aber würden Sie sich genauso fühlen, wenn Sie statt dieses Artikels die Zusammenfassung gelesen hätten? Wohl kaum. Die Zusammenfassung trennt nicht nur den Müll vom Gold und extrahiert die wichtigsten Punkte aus dem überflüssigen Wortschwall. Sie trifft auch nicht nur eine Entscheidung darüber, was weggelassen und was beibehalten werden soll. Der gesamte Prozess des Zusammenfassens ist auf bestimmte Arten von Informationen ausgerichtet, die einer Art des Erkennens entsprechen, die in Punkten denkt. Sie zerlegt die Informationen in Einzelteile, versucht, das Gelesene zu destillieren, zu reinigen, zu extrahieren, zu reduzieren, und verliert alles aus den Augen, was sich einer solchen Reduktion widersetzt.
Drei Ebenen der Orthodoxie
Die KI greift auf die Datenbank des gesamten aufgezeichneten menschlichen Wissens zurück. Auf das gesamte aufgezeichnete menschliche Wissen. Allein dieser Satz zeigt schon ihr Potenzial und ihre Gefahr. Das LLM (Large Language Model, ein KI-Programm, das Texte erkennen und generieren kann) schliesst all das menschliche Wissen aus, das nie aufgezeichnet wurde. Insbesondere die Arten von Wissen, die überhaupt nicht aufgezeichnet werden können. Sie vertieft also unsere Verankerung in der Art von Wissen, die aufgezeichnet wurde und aufgezeichnet werden kann, und, was noch heimtückischer ist, in den Denkweisen, die dieser Art von Wissen entsprechen.
Die KI ist also von einer heimtückischen Orthodoxie durchdrungen. Dieser Zwang zur Rechtgläubigkeit wirkt auf drei Ebenen.
Die oberflächlichste ist die bewusste Einseitigkeit, die durch die LLM-Ausbildung und -Feinabstimmung eingeführt wird, um bestimmte politische Überzeugungen, wissenschaftliche Paradigmen, medizinische Dogmatik usw. zu fördern.
Zweitens die einseitige Ausrichtung, die in der Ausbildung selbst angelegt ist, in der einige wenige wissenschaftliche, historische usw. Paradigmen vorherrschen. Wenn wir die KI als Forschungswerkzeug einsetzen oder ihr einfach Fragen über das, was ist, stellen, wird sie höchstwahrscheinlich mit der Wikipedia-Version der Realität antworten. Zum Beispiel wird sie keine Antworten liefern, die unkonventionelle wissenschaftliche Ideen wie die biologische Transmutation von Elementen, das Wassergedächtnis, Antigravitation, Psi-Phänomene, kalte Fusion oder vorsintflutliche Zivilisationen erkennen. Es sei denn, man fragt ausdrücklich danach (und vielleicht nicht einmal dann).
Einige meiner Leser mögen sagen: «Gut, die KI wird uns helfen, unbewiesene pseudowissenschaftliche Ideen ein für allemal aus den öffentlichen Wissensgrundlagen zu entfernen». Aber wenn man nicht gerade unser derzeitiges System der Wissensproduktion für perfekt hält und jede unorthodoxe Idee falsch findet, dann sollte das Potenzial der KI, dogmatisches Denken noch mehr zu verfestigen, alarmierend sein, insbesondere wenn sie die natürlichen menschlichen Fähigkeiten des Nachfragens ersetzt.
Es ist gefährlich, zu oft Orakel zu befragen. Im Chinesischen gibt es ein Sprichwort über das Aufsuchen zu vieler Wahrsager: «Je mehr man das Schicksal berechnet, desto schlimmer wird es». Der Grund dafür ist, dass übermässiges Vertrauen in den Rat von Wahrsagern, Astrologen, dem I-Ging usw. zu einer Art Passivität und Verkümmerung des eigenen Urteilsvermögens führt. Richtig eingesetzt, sollen diese Techniken das eigene Urteilsvermögen durch neue Informationen und ungewohnte Perspektiven bereichern; werden sie aber überstrapaziert, ersetzen sie es eher.
Wenn wir das Forschen, Schreiben, Zusammenfassen, Lehren und Verstehen an die KI auslagern, riskieren wir nicht nur, dass diese Fähigkeiten in uns verkümmern. Wir untergraben auch unsere Fähigkeit, uns gegen die Dogmatik zur Wehr zu setzen, die durch diese gefestigt werden. Um dogmatischer Rechtgläubigkeit zu widerstehen, brauchen wir nicht nur Zugang zu alternativen Informationen, sondern auch die Fähigkeit, unabhängig zu denken – was schwer ist, wenn wir diese an die KI auslagern.
Die dritte Ebene der Orthodoxie ist subtiler. Das konventionelle Wissen ist Teil einer zivilisatorischen Mythologie und Denkweise. Dem Leser ist vielleicht ein charakteristischer Ton und eine charakteristische Syntax in den Ergebnissen von KI-Chatbots aufgefallen: eine Neigung zur Verwendung von Listen und anderen geordneten Konstruktionen; «logische» und gebildet klingende Wörter wie «daher», «darüber hinaus», «im Allgemeinen», «entscheidend», «sicherstellen», «verbessern», «zusammenfassen» und so weiter; und ein unerbittlich höflicher, einnehmender Ton. Mir ist klar, dass KI dazu gebracht werden kann, all dies zu vermeiden, und dass der höfliche Ton ein bewusstes Artefakt der Programmierung ist. Dennoch neigt die KI-Textgenerierung dazu, den rationalen Diskurs der gebildeten Gesellschaftsschichten widerzuspiegeln. Diese Art von Sprache entspricht – nicht nur inhaltlich, sondern auch strukturell – der oben erwähnten «Wikipedia-Version der Realität».
Der Inhalt der vorherrschenden Überzeugungen, Paradigmen und der zugrunde liegenden Metaphysik unserer Zivilisation ist untrennbar mit ihrer Form verbunden – mit den Mustern von Schlussfolgerung, Ausdruck, Deduktion und Analogie, auf denen die KI beruht. Die Form der Erkenntnis und ihr Inhalt prägen sich gegenseitig. Bei einem Paradigmenwechsel geht es nicht nur darum, neue Fakten in eine bestehende kognitive Struktur einzufügen. Manchmal geht es um eine neue Qualität des Denkens, einen neuen Fokus der Aufmerksamkeit und eine neue Art, sich auf die Welt zu beziehen.
Natürlich enthalten KI-Trainingsdaten auch unorthodoxe Theorien, kritische Schriften, abweichende Philosophienund nicht-duale spirituelle Lehren. Aber diese sind in der Regel eher Wissensobjekte als tief verwurzelte Denkweisen. Die Wahrscheinlichkeitsfunktion, die «das, was als nächstes kommt» erzeugt, ist notwendigerweise orthodox, denn sie repräsentiert die Muster, die in den Trainingsdaten vorherrschen. Sie kann nicht eliminiert werden. Sie ist der Funktionsweise der Technologie inhärent. Die einzige Möglichkeit, sie zu eliminieren, besteht darin, ein LLM mit einer völlig anderen Datenbank zu erstellen. Wie würde ein Chatbot aussehen, der ausschliesslich mit den Worten afrikanischer Geschichtenerzähler, goethescher Mystiker, spiritueller Channeler, Beat-Poeten, Erweckungsprediger und taoistischer Weiser trainiert wurde?
Aber selbst das könnte nicht ausreichen, um eine noch subtilere Ebene der Orthodoxie zu beseitigen, die in der modernen Sprache selbst verankert ist. In dem Masse, in dem Whorfs Hypothese zutrifft, bestimmt die Sprache die Art und Weise, wie Menschen denken, wahrnehmen und handeln. (Die Sapir-Whorf -Hypothese, kurz: SWH, besagt: Wie ein Mensch die Welt wahrnimmt, hängt davon ab, welche Sprache er verwendet, um seine Realität auszudrücken.) Eine KI, die auf moderne Sprache trainiert ist, wird daher die vorherrschenden Denk-, Wahrnehmungs- und Handlungsweisen verkörpern.
Je mehr wir uns auf die KI verlassen, desto mehr könnte die ihr innewohnende Orthodoxie unsere eigene in einer unausweichlichen Rückkopplungsschleife zementieren. Das würde die kollektive Demenz beschleunigen, die die individuelle kognitive Kompetenzminderung widerspiegelt, die durch die Auslagerung von Intelligenz entsteht.
Die Gleichschaltung des Denkens
Die Zementierung von Orthodoxien ist ein Beispiel für eine allgemeine Gefahr der künstlichen Intelligenz, eine andere Form der kollektiven Demenz ist die Gleichschaltung des Denkens. Eine Gleichschaltung ist immer dann wahrscheinlich, wenn die Automatisierung einen neuen Bereich menschlicher Aktivität erobert. Die Austauschbarkeit und Standardisierung von Waren und Industriegütern ist das Kennzeichen des Industriezeitalters.
Ich habe bereits den charakteristischen Tonfall und die Syntax der Chatbot-Kommunikation erwähnt. Da die Trainingsdaten der KI aus der Gesamtheit der Texte und Bilder im Internet stammen, stellt sich die Frage, was passiert, wenn eine Rückkopplungsschleife entsteht, in der KI-generierte Inhalte und KI-beeinflusste, von Menschen generierte Inhalte die LLM-Quelldaten infizieren?
Nun, KI-Forscher stellten sich dieselbe Frage. Im August 2023 stiess ich auf eine akademische Arbeit mit dem Titel «Self-Consuming Generative Models Go MAD» («Auf sich selbst angewendete generative Modelle werden verrückt») und schrieb einen langen Aufsatz über die darin enthaltenen Erkenntnisse: Von Einheitsbrei und Irrsinn zu Sinn und Verstand. Im Wesentlichen untersuchten die Forscher, was passiert, wenn der Output der generativen KI wieder auf die Trainingsdaten zurückgeführt wird. Jede Iteration erzeugt Bilder von schlechterer Qualität, die zum Beispiel seltsame Artefakte in menschliche Gesichter einfügen. Der Artikel bot eine anschauliche Darstellung eines allgemeinen Phänomens: Wenn der Verstand (ob menschlicher oder anderer Art) sich in Abstraktionszyklen verliert, in Labyrinthen aus interreferentiellen Symbolen, die ihren Ursprung in der physischen Realität vergessen haben, dreht sich das gesamte System in Richtung Fantasie.
Die Entkoppelung von Symbol und Realität war schon lange vor der KI weit fortgeschritten. Von allen symbolischen Systemen, die sich in die Phantasie verirrt haben, ist das Geld das offensichtlichste. Der Reichtum, den es zu messen vorgibt, hat sich so weit von der Natur und dem kollektiven menschlichen Wohlergehen entfernt, dass das Streben danach beides zu zerstören droht. Das Streben nach Geld und nicht nach dem, was es ursprünglich messen sollte, ist der Kern des kollektiven Wahnsinns der Zivilisation. Geld fasst eine Vielzahl von Werten in einer einzigen Sache zusammen, die zum eigentlichen Wert erkoren wird. Ähnliche Probleme ergeben sich bei jeder Messung, die Komplexität auf Linearität reduziert, z.B. Kohlenstoffmessungen als Indikator für ökologische Gesundheit. Sie bewirken oft das Gegenteil und zerstören Ökosysteme durch Biokraftstoffplantagen, Lithiumminen, Wasserkraftprojekte und Solarmodulfelder.
Noch älter und noch schrecklicher ist die Reduzierung des Menschen auf Etiketten und Kategorien – eine Voraussetzung für Ausbeutung, Sklaverei, Missbrauch und Völkermord, die all das in das Kostüm der Vernunft kleidet.
Es geht nicht darum, grundsätzlich keine Masseinheiten, Symbole oder Kategorien zu verwenden. Aber wir müssen sie immer wieder mit der Realität verbinden, die sie repräsentieren, sonst sind wir verloren.
Man kann sich vorstellen, was für eine dystopische Zukunft entsteht, wenn die KI autonome Produktions- und Verwaltungssysteme betreibt, die von Erfolgsmassstäben gelenkt werden, die möglicherweise jeden Bezug zum menschlichen oder ökologischen Wohlergehen verloren haben.
Gleichschaltung und Vereinfachung von Landschaften, Ökosystemen, Gedanken, Kultur und Sprache sind zu erwarten, wenn wir von der Unendlichkeit der Welt der Sinne zu einer endlichen Menge von Masseinheiten übergehen. Genau das ist mit der Sprache im digitalen Zeitalter geschehen. Metaphern und Redewendungen lösen sich von physischen Erfahrungen und bedeuten immer mehr dasselbe. Wenn ich auf dem Bauernhof meines Bruders arbeite, bekommen Ausdrücke wie «tief hängende Früchte», «der Schweiss auf der Stirn» und «eine lange Reihe zum Hacken» eine lebendige Bedeutung. Es ist eine ganz besondere Erfahrung, eine lange Reihe zu hacken. Man hackt und hackt, und wenn man hochblickt, scheint es, als ob man überhaupt nicht vorankommt. Die Mücken umschwirren dein Gesicht. Es gibt einen Moment der Sinnlosigkeit. Man muss sich der Aufgabe ergeben.
Der Geist bleibt intelligent, wenn er seine Symbole und Metaphern erneuern kann, indem er sich mit ihrer materiellen, sinnlichen Quelle verbindet. Was passiert, wenn die Unendlichkeit der körperlichen Erfahrung, die die Sprache nährt, auf die punktuelle Erfahrung des Mausklicks oder des Wischens über ein Symbol zusammenschrumpft?
Was passiert mit «einen Vorschlag auf den Tisch legen», wenn niemand mehr mit uns an einem Tisch sitzt? Was geschieht mit einem «Leuchtfeuer der Hoffnung», wenn sich nachts niemand verirrt hat, bis sich der Nebel lichtet und ein echtes Leuchtfeuer zu sehen ist? Was passiert mit dem «Licht am Ende des Tunnels», wenn wir keine Tunnel mehr erleben? Was mit der Nadel im Heuhaufen, wenn kaum jemand je Heu gesehen hat?
Wir können Gras über die Sache wachsen lassen, etwas unter den Teppich kehren, spinnen, durch eine Situation navigieren, eine Gelegenheit beim Schopf packen... ohne einen Rasen anzulegen, einen Besen in die Hand zu nehmen, ein Spinnrad zu benutzen, ein Boot durch gefährliche Gewässer zu navigieren oder jemandem in die Haare zu greifen.
Wir können viele kluge Worte und Phrasen verwenden, aber ohne konkrete Erfahrungen, auf die wir zurückgreifen können, verblasst ihre Bedeutung. Ich habe gerade einen Entwurf dieses Aufsatzes nach weiteren Beispielen durchsucht. Zum Beispiel habe ich den Ausdruck «Bindungen sprengen» verwendet, um ein Zitat von Walter Benjamin zu beleuchten. Es schien ein lebendiger Sprachgebrauch zu sein, aber im Grunde passt die Metapher nicht.
Denn «Bindungen» werden normalerweise nicht «gesprengt». Sie können sich auflösen. Sie können durchtrennt werden. Wenn ich diese Begriffe austauschbar verwende, verlieren sie ihre eigentliche Bedeutung. Wenn wir dies auf einer allgemeineren Ebene tun, wenn die KI dies in grossem Massstab tut, dann schrumpft die gesamte Sprache. Und was mit der Sprache passiert, passiert auch mit dem Denken.
Die oben erwähnten «auf sich selbst bezogenen generativen Modelle» der künstlichen Intelligenz beschleunigen diesen Gleichformungsprozess. In einem kürzlich in der New York Times erschienenen Artikel mit dem Titel «When A.I.'s Output Is a Threat to A.I. Itself» werden weitere MAD-Forschungsergebnisse vorgestellt, die zeigen, dass zukünftige Iterationen von KI-Output immer homogener werden und sich immer weiter von den von Menschen erzeugten Wörtern und Bildern entfernen, da der KI-Output die KI-Trainingsdaten kontaminiert. Beispielsweise wird eine generative KI, die auf menschliche Handschrift trainiert wurde, um die Ziffern 0 bis 9 zu schreiben, zunächst hervorragende Arbeit leisten. Aber wenn sie auf ihre eigene Ausgabe trainiert wird und dann immer wieder auf diese Ausgabe trainiert wird, beginnen ihre Formen zu verschwimmen, und nach dreissig Wiederholungsschleifen laufen alle Ziffern zu einem einzigen einheitlichen Fleck zusammen. Man kann eine 5 nicht mehr von einer 7 unterscheiden. Der Prozess dauert länger, wenn die neue Ausgabe mit den alten Trainingsdaten vermischt wird, anstatt sie vollständig zu ersetzen, aber der Effekt bleibt derselbe. Dies ist ein extremes Beispiel dafür, wie Wörter ihre Nuancen verlieren und immer mehr das Gleiche bedeuten.
Die Homogenität wird durch eine Verengung des Ergebnisspektrums erreicht, indem die wahrscheinlichkeitstheoretischen Ausreisser eliminiert werden. Die anfängliche Wahrscheinlichkeitsverteilung, die auf menschlichem Input beruht, ist recht breit, wird aber bei wiederholten Iterationen immer schmaler, wenn kein neuer Input mehr erfolgt. Die New York Times präsentierte eine besonders beunruhigende Grafik, die zeigt, was passiert, wenn KI Gesichter aus echten Fotos generiert, dann aus ihrem eigenen Output, dann aus diesem Output und so weiter. Schon in der ersten Iteration bemerkte ich eine subtile Homogenisierung der Gesichter; in der vierten Generation sahen sie nicht mehr alle gleich aus, sondern so, als ob ein und dasselbe Gesicht mit unterschiedlichen Details versehen worden wäre.
Diese Bilder haben etwas zutiefst Beunruhigendes. Sie erinnern an die Warnungen der Kritiker der Moderne, die befürchteten, dass die Standardisierung von Teilen und Prozessen durch die Industrie bei den Menschen das Gleiche hervorbringen würde: Standardrollen, Standardüberzeugungen, Standardwünsche, Standardlebensweisen. Droht unserem Geist ein ähnliches Schicksal, wenn immer mehr von dem, was wir lesen, hören, sehen und denken, auf KI-generierten Inhalten basiert?
Das ursprüngliche Übereinstimmungs-Problem
KI-Entwickler können dem Verfall der generativen KI entgegenwirken, indem sie den Trainingsdaten kontinuierlich neue, von Menschen generierte Inhalte hinzufügen – eine Strategie mit provokativen Auswirkungen auf die Zukunft der Intelligenz, des Menschen und darüber hinaus. Nicht nur künstliche Intelligenz wird gleichförmiger und irrealer, je mehr sie sich in künstlich generierten Informationen verliert. Dasselbe geschieht mit jeder menschlichen Gesellschaft, wenn sie Informationen aus der realen Welt ausschliesst – aus dem Körper, aus den Sinnen, aus dem Herzen, aus der Natur, von Andersdenkenden, von ihren Ausgebeuteten und Unterdrückten und vor allem von denen, die sie wegsperrt, einsperrt und ausgrenzt. In orthodoxen Systemen werden, wie bei der KI, genau die Informationen ausgesiebt und verzerrt, die das System umstürzen würden. Damit aber verliert die Gesellschaft den Bezug zur Realität.
Also stellt die KI keine neue Bedrohung dar, sondern nur die rapide Verschärfung eines alten kollektiven Wahns.
Auch indigene Kulturen standen vor der Herausforderung, mit der zerstörerischen und schöpferischen Kraft von Worten, Symbolen und Geschichten umzugehen und gleichzeitig mit einer Wahrheit jenseits all dessen verbunden zu bleiben. Andernfalls, so glaubte man, konnte eine Katastrophe über die Gesellschaft hereinbrechen: Blutfehden, Vernichtungskriege, schwarze Magie, Umweltzerstörung und -kollaps, Epidemien, Invasionen, Naturkatastrophen. (Natürlich sagt die moderne Mythologie, dass letztere nichts mit dem Missbrauch der Macht des Wortes zu tun haben, aber die meisten alten und indigenen Kulturen glaubten etwas anderes). Eine Katastrophe entsteht, wenn wir uns von der Realität lösen, die unseren Symbolen zugrunde liegt.
Was mit der KI und der Gesellschaft passiert, passiert auch mit dem Individuum. Zumindest bei mir. Ich werde verrückt, wenn zu viel meiner Erfahrung digital ist. Worte verlieren ihre Nuancen, ich beginne, «grossartig», «erstaunlich», «fantastisch», «wunderbar» usw. austauschbar zu verwenden. Wichtig, wesentlich, entscheidend. Narrative und Gegennarrative werden in meinem Körper ununterscheidbar, weil sie alle auf genau derselben Erfahrung beruhen – der Erfahrung, vor einem Computer zu sitzen. Jede hat nur flüchtige Eindrücke, die sie stützen, nur Wörter, Bilder und Töne, die aus einer Box kommen. Wenn man sich nur auf das Internet verlässt, kann man jeden noch so abwegigen Glauben rechtfertigen. Nicht nur KI «halluziniert».
Ich schreibe dies aus Taiwan. Gestern sind wir auf einen der Ausläufer des Yang-Ming-Gebirges geklettert, der im Gegensatz zu den meisten Hügeln auf dieser fruchtbaren Insel einen kahlen Kopf hat, statt der üblichen Dschungelfrisur. Ich dachte, es wäre unhöflich, diesen Berg zu besteigen, weil er sicher eine Art heiliger Ort ist, und lehnte mich an die Felswand, um um Erlaubnis zu bitten. Ich formuliere so eine Bitte nicht in Worten. Ich konzentriere mich auf mein Gefühl. Die Empfindung war stark. Ich fühlte die Verbindung dieses Felsvorsprungs mit der ganzen Insel, ein tiefes Bewusstsein, das grösser war als jeder einzelne Felsbrocken. Ich bat meinen Sohn Cary (er ist 11 Jahre alt), sich ebenfalls an den Felsen zu lehnen, und fragte ihn, was er fühle. Ohne weitere Aufforderung beschrieb er dasselbe. Ich wusste, dass es in Ordnung war, die restlichen 20 Fuss zu klettern; ich fühlte, dass dieser Ort von Natur aus gutmütig, verzeihend und nachsichtig ist. Hunderte von Menschen trampeln jedes Wochenende auf ihm herum und sind für den Ort nicht mehr als Ameisen. Aber für diejenigen, die mit ihm kommunizieren, gibt er Antworten und Segen. Es wäre ein guter Wallfahrtsort für alle, die etwas auf der ganzen Insel und vielleicht darüber hinaus erreichen wollen.
Ist diese Absicht vereinbar mit der Bezwingung des Gipfels? Ich habe mich gegen die Besteigung entschieden.
Was ist der «Gipfel», den die Menschheit zu erobern versucht? Welcher Segen steht uns zur Verfügung, wenn wir anders hinhören und andere Ziele anstreben?
Für mich ist diese Art von Erfahrung vergleichbar mit der Einführung neuer, von Menschen generierter Daten in den KI-Trainingsdatensatz. Ich verlasse mich nicht nur auf Abstraktionen und Symbole oder spinne Wortnetze nur aus den Fäden früherer Wortnetze und werde dabei langsam verrückt. Bitte, wer immer mir zuhört, lasst mich nicht vergessen, dass man manchmal das Urgestein berühren muss. So bewahre ich mich davor, verrückt zu werden. So schiebe ich die Demenz hinaus.
Die KI stärkt die intellektuellen Fähigkeiten ihres Schöpfers, des menschlichen Kollektivs. Wobei das «K» wohl eher für «kräftiger» als für «künstlich» stehen sollte. KI kräftigt sicherlich unsere Intelligenz, aber eben auch unsere Dummheit, unseren Wahnsinn, unsere Isolation und die Folgen unserer Fehler. So müssen wir sie verstehen, wenn wir sie sinnvoll nutzen wollen. Die Notwendigkeit, die abstrakte, intellektuelle Intelligenz wieder mit ihrer ursprünglichen Quelle zu verbinden, wird mit jeder Innovation in der Informationstechnologie deutlicher. Das gilt auch, wenn wir über das Rechnen, den Film, den Buchdruck, die Kunst, das geschriebene Wort zurückgehen bis zum Ursprung der symbolischen Kultur – der Benennung der Welt.
Diese Erkenntnisse sind grundlegend für das, was es bedeutet, Mensch zu sein. Wir sind das Tier, das sich auf Gedeih und Verderb Geschichten über sich selbst erzählt. Welche ungeheure Macht ist das: die Macht des Wortes, die Macht des Symbols, die Macht der Geschichte. Und welch schreckliche Folgen hat ihr Missbrauch.
Nur wenn wir den allgemeinen Gebrauch und den Missbrauch der Macht des Wortes verstehen, können wir uns einer Lösung des Problems nähern, wie die KI mit dem menschlichen Wohlergehen in Einklang gebracht werden kann. Denn sie hat das Potenzial, das Gegenteil zu bewirken, sei es als Werkzeug von Totalitaristen und Verrückten oder als autonomer Akteur selbst.
Dies ist nicht nur ein technisches Problem. Es handelt sich um die jüngste Wiederholung des alten Problems, wohin sich die Symbolik einer Kultur ausrichtet. Damit musste sich jede Gesellschaft in der Geschichte auseinandersetzen. Die KI verleiht ihm lediglich eine neue Dringlichkeit.
Übersetzt von Christa Dregger und dem Team von Charles Eisenstein auf deutsch
Teil 1 des Essays erschien am Freitag
von:
- Anmelden oder Registieren um Kommentare verfassen zu können