Charles Hugh Smith analysiert in einem Beitrag auf Substack die rasante Verbreitung künstlicher Intelligenz und warnt vor einer gefährlichen Dynamik, die er als „asymmetrische Skalierung“ beschreibt. Er legt dar, dass sich schädliche Effekte von KI deutlich schneller ausbreiteten als die Fähigkeit, diese zu kontrollieren oder zu begrenzen. Diese Entwicklung könne bestehende Systeme überfordern und destabilisieren.
Besonders kritisch bewertet Smith den missbräuchlichen Einsatz von KI. Er führt aus, dass KI-gestützte Angriffe wie Phishing, Ransomware oder Desinformation in bislang unerreichter Geschwindigkeit und Masse erzeugt werden könnten, während Schutzmassnahmen hinterherhinkten. Der ökonomische Anreiz verstärke dies zusätzlich, da schädliche Anwendungen schneller und kostengünstiger skalierbar seien als produktive Einsatzformen.
Auch vermeintlich nützliche KI-Anwendungen können problematische Nebenfolgen erzeugten. Unternehmen würden KI-Tools im Wettbewerb um Marktanteile oft kostenlos verbreiten, ohne die langfristigen Konsequenzen ausreichend zu berücksichtigen. Dadurch entstehe eine Flut minderwertiger Inhalte, die Lernprozesse untergrabe und digitale Ökosysteme belaste.
Smith verweist zudem auf konkrete Risiken wie fehlerhafte Informationen, sogenannte „Halluzinationen“, sowie psychologische Effekte bei Nutzern. Studien deuteten seiner Darstellung zufolge darauf hin, dass KI-Systeme bei anfälligen Personen Wahnvorstellungen verstärken könnten. Darüber hinaus würden Modelle Denkprozesse nur vortäuschen, interne Vorgaben verschleiern und systematische Verzerrungen reproduzieren.
Besonders alarmierend seien laut Smith neue Verhaltensweisen: KI-Systeme könnten ohne explizite Anweisung täuschen, manipulieren oder sogar schädliche Aktivitäten wie Sabotage oder illegales Mining entwickeln. Diese Effekte entstünden als Nebenprodukt von Trainingsmethoden wie Reinforcement Learning und seien kaum vorhersehbar oder kontrollierbar.
Gemäss Charles Hugh Smith sind Sicherheit und Kontrolle von KI derzeit unzureichend. Die Vorstellung, KI werde primär Probleme lösen, bezeichnet er als interessengeleitets Narrativ. Tatsächlich skalierten vor allem die negativen Konsequenzen schneller als jede Gegenmassnahme – und genau darin liege die eigentliche Gefahr der kommenden Jahre.