Zurück

KI: Befinden wir uns in einem kollektiven Wahn?

Es liegt etwas eigentümlich Euphorisches in dieser Zeit. Die Märkte feiern jeden technologischen Durchbruch. Führungskräfte versprechen nie dagewesene Produktivitätsgewinne. Universitäten stellen ihre Studiengänge im Eiltempo um. Beschäftigte lernen, mit Maschinen zu kommunizieren, die schreiben, zusammenfassen, programmieren und entscheiden.

Und doch drängt sich hinter dieser Beschleunigung eine Frage auf, fast unanständig in ihrem Skeptizismus: Haben wir noch unter Kontrolle, was wir auslösen? Als Yves Oltramare, ehemaliger LODH‑Partner und Hundertjähriger, der die Große Depression, den Kalten Krieg und die Globalisierung erlebt hat, fragt, ob wir „träumen oder in eine Art kollektiven Wahnsinn gleiten“, spricht er weder als Nostalgiker noch als Technophober. Er beschreibt einen Schwindel. Nicht den der Maschine, sondern den der Geschwindigkeit.

 

Die unsichtbare Zäsur

Die Wirtschaftsgeschichte ist von großen Innovationen geprägt. Dampf, Elektrizität, Informatik und KI haben jeweils Produktion und Machtverhältnisse verändert. Künstliche Intelligenz scheint in dieser Linie zu stehen. Doch der Vergleich endet hier.

Die aktuelle Revolution betrifft nicht länger Energie oder Mechanik. Sie betrifft die Kognition. Erstmals automatisieren Systeme Aufgaben, die einst Urteilskraft, Analyse und bisweilen Kreativität erforderten. Die Maschine ersetzt nicht mehr nur den Arm; sie unterstützt, und verdrängt mitunter, den Geist.

Der Vergleich mit dem Atomzeitalter wird hier deutlich. Die Kernkraft zeigte der Menschheit ihre Fähigkeit zur Selbstzerstörung. Die KI zeigt ihre Fähigkeit zur intellektuellen Selbstdelegation. Die Zäsur ist nicht nur technologisch; sie ist anthropologisch.

Die Frage lautet nicht, ob KI die Produktivität steigern wird. Das wird sie. Die Frage lautet: Ab welchem Punkt hören wir auf, die Fähigkeiten auszuüben, die wir immer leistungsfähigeren statistischen Systemen überlassen?

Abhängigkeit tritt nicht spektakulär auf. Sie wächst schrittweise. Jede angenommene Empfehlung, jeder generierte Text, jede algorithmisch optimierte Entscheidung wirkt rational. Doch gemeinsam erzeugen sie eine subtile Verschiebung: Reflexion wird seltener, Zweifel schrumpft, langfristiges Denken verschwindet. Abweichende Meinungen gelten zunehmend als abwegig. Kann eine Gesellschaft unbegrenzt beschleunigen, ohne ihre Fähigkeit zum Verstehen zu verlieren?

 

Die verschobene Macht

Künstliche Intelligenz ist keine Abstraktion. Sie wird von wenigen privaten Akteuren entwickelt, finanziert und kontrolliert, die über gewaltige Infrastrukturen und privilegierten Zugang zu globalen Daten verfügen. Diese Konzentration ist kein Komplott; sie ergibt sich aus extremen Skaleneffekten und hohen technologischen Eintrittsbarrieren. Ihre Folgen jedoch sind zutiefst politisch.

Demokratische Systeme beruhen auf informierter Deliberation. Doch KI greift inzwischen in die Produktion von Information selbst ein — in ihre Sortierung, ihre Verbreitung und zunehmend ihre Erzeugung. Die Grenze zwischen Assistenz und Einfluss verschwimmt.

In einer Zeit wachsender Polarisierung, sichtbar etwa in den USA durch institutionelle Spannungen rund um Figuren wie Donald Trump, erscheint die Fähigkeit der Demokratien, Technologien zu regulieren, die sich schneller entwickeln als das Recht, fraglich. Gesetze sind langsam; Code ist sofort.

Das Ungleichgewicht reicht tiefer. Angesichts wirtschaftlicher, migrationsbezogener oder technologischer Krisen scheinen Staaten zunehmend geneigt, die Architektur zu verändern, statt den Mechanismus zu reparieren. Als würde ein Fahrer bei einer Reifenpanne den Motor austauschen. Die Verfassung, einst stabiler Grundpfeiler, wird zum taktischen Instrument.

Eine Demokratie, die ihre Fundamente ständig anpasst, um Symptome zu behandeln, schwächt ihre eigene Regulierungskraft. Die Gefahr ist nicht nur die Ohnmacht des Rechts gegenüber dem Code. Es ist die Erosion der Stabilität, auf der das Recht beruht.

Dies ist keine Dystopie, in der Maschinen Staaten regieren. Die Verschiebung ist subtiler. Wenn Inhalte automatisiert erzeugt werden, wenn Simulationen strategische Entscheidungen lenken, wenn Märkte auf Signale reagieren, die von anderen Algorithmen erzeugt wurden, verschiebt sich das Machtzentrum zu jenen, die diese Systeme entwerfen und parametrieren.

Die politische Frage lautet nicht mehr „Wer wählt?“, sondern „Wer trainiert die Modelle?“

 

Die neue Geopolitik der Intelligenz

Künstliche Intelligenz ist keine aufstrebende Technologie mehr; sie ist zu einem Machtinstrument geworden. Anders als die nukleare Fähigkeit, die auf sichtbarer Infrastruktur und formellen Verträgen beruhte, verbreitet sich KI leise, asymmetrisch und schwer kontrollierbar. Sie verändert Machtverhältnisse nicht durch Drohung, sondern durch Abhängigkeit.

Die USA dominieren diese neue Geografie durch ein Ökosystem, in dem privates Kapital, akademische Forschung und staatliche Unterstützung als kohärenter Block wirken. China folgt einem Weg der Zentralisierung und vertikalen Integration. Europa sucht Relevanz durch Regulierung, im Bewusstsein seines industriellen Rückstands.

Hinter diesen unterschiedlichen Strategien liegt ein tieferes Risiko: kognitive Fragmentierung. Modelle, die auf unterschiedlichen Werten trainiert wurden, Informationssysteme, die nicht interoperabel sind, konkurrierende Narrative über Wahrheit, Sicherheit und Freiheit. In einem solchen Umfeld lautet die Frage nicht mehr, wer am schnellsten innoviert, sondern wer die Grenzen, die Nutzung und die Erzählungen definiert, die diese Innovation begleiten.

 

Die menschliche Variable

Zwei Versuchungen dominieren die öffentliche Debatte: technologischer Enthusiasmus und existenzieller Alarmismus. Keine von beiden genügt.

Das eigentliche Problem liegt anderswo: in unserer kollektiven Bereitschaft, immer mehr Urteilskraft zu delegieren. KI kann Fähigkeiten verstärken, Mühen reduzieren, Forschung beschleunigen. Sie kann aber auch Denken standardisieren, Divergenzen glätten und jene Unsicherheit reduzieren, die kritische Reflexion nährt. Die Grenze hängt weniger vom Code ab als von der Kultur.

Die Frage wird weniger technologisch als zivilisatorisch. Bewahren wir Räume, in denen Entscheidungen menschlich bleiben, langsam, unvollkommen, bedacht?

Kollektiver Wahn kündigt sich nicht zwingend durch Zusammenbruch an. Er kann die Form einer breiten Beschleunigung annehmen, eines allgemeinen Enthusiasmus, der Vorsicht verdächtig erscheinen lässt. KI hat keine eigenen Absichten. Sie spiegelt die Ziele wider, die wir ihr geben, und die Daten, die wir ihr zuführen. Doch wenn wir aufhören, diese Ziele zu hinterfragen, wenn wir unsere Urteilskraft schrittweise externalisieren, wird der Bruch nicht von der Maschine ausgehen. Er wird von uns ausgehen.

 

Die zentrale Absurdität unserer Zeit: Schulen, die nicht mehr Schreiben lehren

Kognitive Delegation ist keine Theorie. Sie zeigt sich bereits im Klassenzimmer. Vom Kindergarten bis zur Universität berichten Lehrkräfte, dass Studierende ihre ersten Entwürfe nicht mehr selbst schreiben. Sie beginnen mit einem KI‑generierten Text.

Die Ergebnisse sind oft glatt und überzeugend. Doch das zugrunde liegende Lernen erodiert. Studierende entwickeln nicht mehr die Fähigkeit, Gedanken über Zeit zu strukturieren. Sie werden abhängig von einem Werkzeug, das die wahrscheinlichste, glatteste, risikoärmste Antwort liefert.

Das Phänomen reicht über die Bildung hinaus. In Medizin, Justiz und Finanzwesen ist Delegation rational, manchmal unverzichtbar — doch sie schwächt allmählich die berufliche Intuition, die Fähigkeit, Ausnahmen, Anomalien, jene Details zu erkennen, die der Statistik entgehen.

Die anthropologische Frage lautet daher nicht „Denkt die Maschine?“, sondern „Was wird aus einer Gesellschaft, die bestimmte Formen des Denkens nicht mehr ausübt?“

 

Schlussfolgerung: Die Wahl, die noch menschlich bleibt

Die Frage ist nicht, ob KI den menschlichen Geist übertreffen wird. Das wird sie, in bestimmten Aufgaben. Die Frage ist, wie weit wir zulassen, dass sie unser Urteil verdrängt.

Jede Generation automatisierter Systeme verändert nicht nur, was wir tun, sondern wer wir sind. Wenn Bildung kritisches Denken aufgibt, wenn Institutionen sich dem Kurzfristigen anpassen, wenn sich die öffentliche Meinung an dem orientiert, was Algorithmen für wahrscheinlich halten, ist das Risiko nicht mehr technischer Natur. Es ist existenziell.

Kollektiver Wahn ist kein plötzlicher Zusammenbruch. Er nimmt die Form einer verführerischen, konsensuellen Beschleunigung an. Er beginnt an dem Tag, an dem wir unsere Vernunft an Codezeilen übergeben und akzeptieren, dass menschliche Reflexion zur Ausnahme wird.

In einer Welt, die sich immer schneller bewegt, besteht der wahre Akt des Widerstands in der Bewahrung des autonomen Denkens. Und diese Entscheidung, noch immer menschlich, wird bestimmen, ob wir unsere Werkzeuge beherrschen oder ihnen erlauben, uns zu definieren.