Das größte Risiko der KI liegt nicht in einer vermeintlichen Superintelligenz, sondern in der stillen Gewöhnung. Zwischen Effizienzgewinnen und Sprachbeschönigung geben wir Verantwortung und Vertrauen an technische Prozesse ab


Die Künstlerin 0nastiia (Anastasia Vladimirskaya) arbeitet mit KI-generierten Bildwelten, die auf ihren eigenen von Hand gezeichneten Originalen basieren

Bild: Onastiia (Anastasia Vladimirskaya)


Es beginnt nicht mit einem lauten Urknall im Medienlabor. Auch nicht mit einem Aufstand der Anständigen. Sondern mit Kleinigkeiten, die man für nebensächlich hält. Zuerst ein paar tote Ratten in den Straßen von Oran. Dann Verdrängung, Bürokratie, Beschwichtigung: Die Pest kommt in Albert Camus’ Roman nicht spektakulär, sondern schleichend daher. Camus zeigt, wie Gesellschaften Wendepunkte zu spät erkennen – und wie rasch der Ausnahmezustand zur neuen Normalität wird: eine scharfe Kritik an politischer und gesellschaftlicher Trägheit.

Heute sind es putzige Tools, die Texte aufpolieren. Autokorrekturen, Übersetzungen, Empfehlungssysteme, kleine Effizienzgewinne. Software, die Bilder und Stimmen generiert. Ein „Companion“, der berät. Ein „KI-Agent“, der Entscheidungen „unterstützt“ – inzwischen Reisen bucht, Hundefutter bestellt oder Social-Media-Postings publiziert. Kontrollierbar, harmlos, bequem. Nichts, was uns Sorgen macht. Nichts, was man nicht auch morgen regeln könnte.

Doch das ist erst der Anfang. Wir befinden uns in der Phase der kollektiven Verharmlosung. Denn die eigentliche Verschiebung geschieht fast unbemerkt: KI legt allmählich frei, wie fragil die Schicht unserer sozialen Ordnung ist. Rituale, Gewissheiten, soziale und berufliche Rollen geraten ins Wanken. Zugleich werden Isolation, Entfremdung, neue Formen der Exklusion sichtbar. Selbst regulatorische Leitlinien erweisen sich als erstaunlich verhandelbar, sobald – das hat der „Gipfel zur digitalen Souveränität Europas“ im November gezeigt – der geopolitische Druck aus Washington oder Peking steigt.

KI erscheint zunehmend als moralische Versuchsanordnung: ein Experiment mit uns selbst, das zum gesellschaftlichen Prüfstein wird. Übrig bleibt die alte, unbequeme Frage: Wie verhält sich der Mensch, wenn Sicherheiten wegbrechen? In der nordafrikanischen Stadt Oran will man nicht von der Pest sprechen, ihre Ausbreitung wird lange ignoriert. Das Wort ist politisch, ökonomisch, psychologisch aufgeladen. Das Problem ist nicht das mangelnde Wissen der Menschen, sondern ihre mangelnde Bereitschaft, Konsequenzen zu erkennen.

„KI-Assistenz“, „Co-Pilot“: Sprachliche Beschönigung

Bei der KI zeigt sich dieses Muster in schleichender Anpassung: algorithmische Entscheidungen, die Urteilskraft atomisieren und Vertrauen automatisieren – weithin akzeptiert, weil man sich daran gewöhnt. Hinzu kommt sprachliche Beschönigung: Die Rede von „Assistenz“, „Co-Pilot“ oder „Co-Intelligenz“ verschleiert Macht- und Entscheidungsstrukturen. Der Medienwissenschaftler Friedrich Krotz spricht in diesem Zusammenhang von einer „systematischen Anthropomorphisierung des Computers“, die Verantwortung verlagere und menschliche Akteure entlaste.

Vieles spricht dafür, dass wir auf einen psychologischen Kipppunkt zusteuern: den Moment, in dem generative KI massenhaft Inhalte produziert – und damit nicht nur Aufmerksamkeit zerstreut, sondern Glaubwürdigkeit entwertet. Wenn alles jederzeit sagbar, erzeugbar, variierbar ist, wird Orientierung zur Ausnahme. Genau darin liegt der gesellschaftliche Stresstest: Wie kann demokratische Öffentlichkeit überlebensfähig bleiben, wenn die Unterscheidung zwischen wahrhaftig und synthetisch erzeugt erodiert?

Ob dann, wie in Camus’ Roman, eine Revolte möglich ist – ein entschlossenes Nein, obwohl man weiß, dass man scheinbar nichts gegen diese Entwicklung ausrichten kann, bleibt offen. Doch niemand ist unschuldig, weil niemand völlig unbeteiligt bleibt. Gleichgültigkeit ist gerade im Zeitalter generativer Systeme eine Form der Komplizenschaft.

Behavioristische Maschinen

Es geht, im Ganzen gesehen, um den Mut, im aussichtslosen Kampf Mensch zu bleiben. Genau hier beginnt die eigentliche Frage der Gegenwart. Denn auch die KI-Transformation setzt nicht mit einem krassen Bruch ein, sondern mit einer unterschwelligen Verschiebung. Nicht mit der großen technischen Revolution, sondern mit stiller Gewöhnung. KI gewandet sich vor allem als hilfreiche Infrastruktur: Texte werden flüssiger, Entscheidungen schneller, Empfehlungen passgenauer. Was dabei nach und nach aus dem Blick gerät, ist nicht die Leistungsfähigkeit der Systeme, sondern ihre gesellschaftliche Wirkung.

Statt Verantwortung offen auszuhandeln, verwalten wir sie zunehmend: in Governance-Papieren, Ethik-Leitlinien, Compliance-Checklisten. Sie erzeugen Ordnung, aber nicht unbedingt Haltung. Sie suggerieren Kontrolle, wo es in Wahrheit um grundlegende Fragen menschlicher Selbstbestimmung geht. Das größte Risiko der KI liegt somit nicht in einer hypothetischen Superintelligenz, sondern in der schleichenden Delegation von Verantwortung und Urteilskraft – ohne dass sich noch jemand zuständig fühlt. Die entscheidende Frage lautet nicht, ob wir KI verhindern sollten, sondern wie wir sie einhegen, obwohl wir ihre Dynamik niemals vollständig kontrollieren können.

Obsessives kreisen um Intelligenz

Genau hier leidet die gegenwärtige KI-Debatte auch unter einer begrifflichen Verzerrung, selbst wenn sie in der wohnzimmertauglichen Talkshow-Welt von Markus Lanz & Co. und damit in der Mitte unserer Gesellschaft angekommen zu sein scheint. Sie kreist obsessiv um Intelligenz: um die Frage, ob Maschinen denken, verstehen oder gar bewusst handeln können. Diese Fixierung verstellt den Blick auf das eigentliche Problem. Denn was sich derzeit verschiebt, ist weniger das Verhältnis von Mensch und Maschine als das Verhältnis von Öffentlichkeit und Vertrauen. Urteilskraft, Verantwortung und Vertrauen werden nicht abrupt entzogen, sondern schrittweise an technische Infrastrukturen delegiert.

Deshalb greift auch die gängige Dramatisierung zu kurz. Weder droht der große Kontrollverlust über Nacht, noch erleben wir eine klassische Technikkatastrophe. Vielmehr vollzieht sich ein Umbau der gesellschaftlichen Bewertungslogik: dessen, was als zuverlässig gilt, als glaubwürdig erscheint und als relevant wahrgenommen wird. KI ist dabei nicht die Ursache dieser Entwicklung, sondern wirkt als ihr Katalysator.

Klar ist, dass diese neue Vertrauensökonomie strukturell anfällig ist: Systeme können Vertrauenssignale imitieren (Ton, Stil, Autorität, Empathie), ohne Verantwortung zu tragen. In dieser Situation gewinnt ein Begriff an Bedeutung, der bislang eher randständig diskutiert wurde: KI-Resilienz. Gemeint ist nicht die individuelle Fähigkeit, mit neuen Tools mitzuhalten, sondern die kollektive Kompetenz von Gesellschaften, Institutionen und Öffentlichkeiten, mit KI-gesteuerter Entscheidungslogik umzugehen. KI-Resilienz ist deshalb keine technologische, sondern eine zutiefst demokratische Kategorie.

Computer verstehen nicht

Um diese Verschiebung zu verstehen, hilft ein Schritt zurück: Wie operieren Computer – und damit auch KI-Systeme – grundsätzlich? Unabhängig von ihrer jeweiligen Software, Rechenleistung oder Trainingsdaten folgen sie einer klaren Logik: Sie verarbeiten beobachtbares Verhalten als Daten und berechnen Wahrscheinlichkeiten. Sie reagieren auf Inputs mit statistisch optimierten Antworten. Die Large Language Models (LLMs) wie ChatGPT, Gemini oder Claude gehen dabei (derzeit noch) hochaffirmativ vor, das heißt, sie verstärken unsere Argumentationslogiken, passen sich unseren Stilen an und suggerieren in der Nutzung stets, dass wir auf dem richtigen Weg seien, indem sie uns Mut zusprechen – weil sie von Menschen derart angewiesen wurden.

Was sie dabei nicht tun, ist ebenso entscheidend: Sie verstehen nicht. Medien- und techniksoziologische Arbeiten haben deutlich gemacht, dass wir Computer – und damit auch KI-Systeme – nicht als denkende Akteure verstehen dürfen, sondern als behavioristische Maschinen, die menschliches Verhalten messen, formatieren und verwalten. Die gesellschaftliche Brisanz liegt nicht in der Technik selbst, sondern in der stillen Anpassung des Menschen an ihre Logik. Denn sie verfügen weder über Sinnhorizonte noch über Bedeutungszusammenhänge, sie reflektieren nicht, verfügen über kein Weltverhältnis. Auch dort, wo ihre Antworten kohärent, empathisch oder kreativ auf uns wirken, bleibt die Operation dieselbe: sprachliche Mustererkennung und mathematische Wahrscheinlichkeitsrechnung.

Technik simuliert Verstehen

Gerade diese Differenz ist gesellschaftlich folgenreich. Und so ist nicht nur die Nähe zum humanistischen Existenzialismus relevant, auch die Techniksoziologie hält verschiedene Erklärungen bereit. Denn je überzeugender die Outputs sind, desto stärker entsteht der Eindruck eines verstehenden Gegenübers. Die Technik simuliert Verstehen – und wird genau deshalb als handlungsfähiger Akteur wahrgenommen. Das Problem liegt nicht in der Simulation selbst, sondern in den Konsequenzen, die wir daraus ziehen.

Wenn Entscheidungen, Bewertungen oder Einordnungen auf Systeme übertragen werden, die strukturell nicht verstehen können, verschiebt sich Verantwortung. Nicht, weil jemand bewusst Verantwortung abgibt, sondern weil sich der Entscheidungsprozess technisch entpersonalisiert. Verantwortung wird unscharf, Zuständigkeit diffus. Genau hier beginnt die Erosion von Vertrauen. Diese Erosion wird durch unsere Sprache verstärkt. Der Begriff „künstliche Intelligenz“ ist keine neutrale Beschreibung, sondern eine wirkmächtige Metapher. Er suggeriert geistige Fähigkeiten, Lernprozesse und Entscheidungsautonomie – und verschleiert damit die Verschiebung der tatsächlichen Macht- und Entscheidungsstrukturen. Er dient damit auch als politische Entlastung.

Ein techno-religiöses Fortschrittsnarrativ

Wenn Maschinen „lernen“, „entscheiden“ oder „urteilen“, geraten vor allem die mächtigen Akteure aus dem Blick, die diese Systeme entwickeln, dressieren, einsetzen und ökonomisch verwerten. Die Kommerzialisierung des Individuums wird sprachlich delegiert: von Institutionen auf Technologien, von Big-Tech-Unternehmern auf Systeme. Die Technologie erscheint als techno-religiöses Fortschrittsnarrativ, nicht als gestaltetes soziales Artefakt.

Diese Vermenschlichung ist nicht nur begrifflich problematisch, sondern politisch äußerst folgenreich. Sie entlastet Regulierer, Unternehmen und Entscheidungsträger und erschwert, ja: behindert teilweise die öffentliche Auseinandersetzung. Wo Technik als autonomer Akteur erscheint, wird Technologiekritik schnell als Fortschrittsfeindlichkeit diskreditiert.

Gerade deshalb wird die begriffliche Klarheit zum zentralen Bestandteil einer KI-Resilienz. Wer nicht sauber benennt, was Systeme leisten – und was nicht –, verliert die Möglichkeit, Rechenschaft oder Ethos einzufordern. Eine resiliente Öffentlichkeit braucht deshalb keine religiösen Technikmythen, sondern muss auf ein nüchternes Verständnis der Logiken pochen, nach denen diese digitalen Infrastrukturen funktionieren.

Allein ChatGPT nutzen weltweit inzwischen rund 700 bis 800 Millionen Menschen. Die KI-Welle ist deshalb auch eine historische Chance – für Wissen, Effizienz, Teilhabe, neue Formen von Bildung und Kooperationen. Doch die gegenwärtig vorherrschende Gestalt der KI-Digitalisierung, vor allem der ihr innewohnende digitale Kapitalismus, ist ambivalent. Menschen werden noch stärker verfügbar gemacht, vermessen, optimiert. Der Einzelne erscheint dann nicht mehr als urteilsfähiges Subjekt, sondern als behavioristisches Wesen in ökonomisch und teils staatlich kontrollierten Beziehungs- und Kommunikationsmustern.

Diese Entwicklung wird von einer zweifelhaften Ideologie getragen, die den Computer anthropomorphisiert, also vermenschlicht. Je häufiger Technik als „intelligent“ oder „lernend“ beschrieben wird, desto eher passen wir uns selbst ihrer Logik an – und nehmen hin, dass menschliche Erfahrung auf messbare, verwertbare Verhaltensmuster verengt wird. Wir verschleiern damit, dass hier vor allem Infrastrukturen entstehen, die unser digitales Nutzungsverhalten in Produktversprechen verwandeln. Wir haben diesen schrittweisen Ausverkauf in den vergangenen 20 Jahren bei Social Media genauso erlebt. Damit ist das nicht die erste technische Umwälzung, die in problematische Formen umkippt. Aber es ist eine, die den Menschen in seiner konstitutiven Besonderheit gefährden kann: in seiner Fähigkeit zur Reflexion, zur Ambivalenz, zum Nein, zur Fehlerkultur und zum Zweifeln.

Verschleierung von Verantwortung

Der entscheidende Punkt ist: Diese Anthropomorphisierung der Technik entlastet nicht nur Systeme, sondern verschleiert Verantwortung. Aber das ist kein Schicksal. Es bleibt eine Frage politischer, institutioneller und kultureller Selbstbehauptung. Nur wenn Menschen sich aktiv dafür entscheiden und sich zusammenschließen, lässt sich der Druck zur konsumistischen Reiz-Reaktions-Existenz neu-tralisieren – und ein digitales Leben verteidigen, das nicht nur effizient ist, sondern in erster Linie auf menschlichen Bedürfnissen beruht.

Im Weitwinkel zeigt sich: Wenn Computer immer mehr Lebensbereiche besetzen, werden diese Bereiche verblüffend computergerecht reorganisiert. Techniksoziologisch lässt sich dieser Prozess als stille Umkehrung beschreiben: Nicht die Technik richtet sich nach dem Menschen, sondern der Mensch beginnt, sich den formatierten Logiken des Computers zu unterwerfen. Statt über die Technik zu streiten, müsste man über Verantwortlichkeiten reden: Wer verantwortet die Entscheidungen, wenn Interaktion vorformatiert wird?

Das verändert nicht nur Abläufe, sondern auch unser Selbstbild. Wer ständig in standardisierten Interaktionen, Formularlogiken und automatisierten Dialogen handelt, beginnt auch selbst, standardisierter zu operieren: schneller, reduzierter, mechanischer. Paradox ist dabei, dass die Kultur diese Rationalisierung nach außen gern an Maschinen delegiert und zugleich den Rest menschlicher Identität nach innen verschiebt: in Affekt, „Seele“ und „Geist“. Genau diese Doppelgesichtigkeit macht die derzeitige Lage so heikel: Wir überlassen Systemen der Berechnung immer mehr Entscheidungsmacht – und verteidigen uns psychologisch, indem wir Menschsein auf das Nicht-Berechenbare oder das manufakturierte Handeln verengen, wie wir es etwa in Ingenieurs- oder Handwerkerberufen finden.

Was KI-Resilienz bedeutet

Wenn nun das zentrale Risiko nicht im Kontrollverlust, sondern in der stillen Gewöhnung liegt, also in der schleichenden Anverwandlung an die Denkmuster der KI, dann kann KI-Resilienz nicht bedeuten, einzelne Nutzer an neue Tools anzupassen. Resilient zu werden, heißt nicht, sich den KI-Systemen anzupassen, sondern dass Gesellschaften ihre eigenen Maßstäbe gegenüber technischen Infrastrukturen generell behaupten und aushandeln, wie das Menschliche mit allen seinen Defiziten bewahrt werden kann, gerade auch, weil es niemals perfekt sein wird.

KI-Resilienz lässt sich in Anlehnung an Krotz deshalb nicht als individuelle Anpassungsleistung begreifen, sondern nur als gesellschaftliches Gestaltungsprojekt. Daraus ergeben sich vier zentrale Bedingungen. Dazu gehört erstens Transparenz. Menschen müssen verstehen können, was mit ihnen geschieht – auch jenseits dessen, was sie unmittelbar wahrnehmen. Solange algorithmische Entscheidungen, Datenerhebungen und Interaktionslogiken unsichtbar bleiben, können Erfahrungen nicht reflektiert, sondern nur erlitten werden. Transparenz ist dabei kein pädagogisches Zusatzangebot, sondern die Voraussetzung dafür, dass Frustration nicht in Ohnmacht umschlägt, sondern die kritische Urteilskraft eher verstärkt.

Erst wenn die Funktionsweise des ökonomisch kontrollierten und zugleich anthropomorphisierten Computers für die Gesellschaft erkennbar wird, können Zweifel und Widerstand produktiv organisiert werden.

Zweitens berührt KI-Resilienz die Frage der digitalen Datensouveränität. Wenn automatisierte Systeme auf der systematischen Erhebung persönlicher Daten beruhen, dann darf diese Datenerhebung nicht protestlos dem Markt überlassen werden. Daten sind keine beiläufigen Abfallprodukte digitaler Nutzung, sondern Ausdruck menschlicher Lebensvollzüge. Ihre Weiternutzung setzt keine stillschweigende Duldung oder konkludente Zustimmung voraus. Sie müssen als Besitz derjenigen behandelt werden, die sie erzeugen. Eine Weitergabe darf nicht die Voreinstellung der Systeme, sondern muss stets eine bewusste Entscheidung sein. Das erfordert strenge Kontrolle, Einsicht in Systeme und eine klare politische Nahtstelle zur Abgrenzung von der Normalisierung datengetriebener Ausbeutung.

Drittens stellt sich die Frage nach der Formatierung von Interaktion selbst. KI-Systeme bringen nicht nur Antworten hervor, sie strukturieren Begegnungen: was gefragt werden kann, wie reagiert wird, welche Optionen vorgesehen sind. Diese Formate sind nicht neutral. Sie definieren Erwartungen, begrenzen Handlungsspielräume und formen Selbstbilder. Wenn solche Interaktionsarchitekturen zum Alltag werden, müssen sie geprüft, getestet und freigegeben werden – selbstredend nicht durch die Anbieter selbst, sondern durch unabhängige, demokratisch legitimierte Instanzen. KI-Resilienz bedeutet hier, sich die Darstellungs- und Umsetzungsformen der Interaktion nicht aus der Hand nehmen zu lassen.

Viertens schließlich braucht jede verpflichtende Interaktion mit KI eine menschliche Alternative. Wo Menschen aus einem konkreten Bedarf heraus handeln müssen – in Bildung, Medizin, Verwaltung oder Politik –, darf der Zugang zu menschlicher Kommunikation nicht abgeschafft werden.

Eine Gesellschaft, die Effizienzdenken über Beziehungsarbeit stellt, spart kurzfristig Kosten, aber zahlt langfristig einen demokratischen Preis. Dass solche Alternativen Geld kosten, ist kein Gegenargument, sondern Ausdruck politischer Priorisierung. Unternehmen verfügen über diese Mittel, Staaten können sie über Steuern organisieren. Die Frage ist nicht, ob wir uns das leisten können – sondern ob wir es uns leisten wollen, darauf zu verzichten.

KI-Resilienz ist kein individuelles Wellnesskonzept, sondern eine gesellschaftliche Schlüsselkompetenz, die den humanistischen Umgang mit KI rahmt – ein Appell, der nicht als alarmistische Technikbremse gemeint ist, sondern als zivilisatorische Souveränität.

Stephan Weichert ist Medien- und Kommunikationswissenschaftler und leitet das gemeinnützige VOCER-Institut für Digitale Resilienz. Er forscht und publiziert seit 25 Jahren zu den Folgen von Digitalisierung, Öffentlichkeit und gesellschaftlichem Wandel

t. Ein „Companion“, der berät. Ein „KI-Agent“, der Entscheidungen „unterstützt“ – inzwischen Reisen bucht, Hundefutter bestellt oder Social-Media-Postings publiziert. Kontrollierbar, harmlos, bequem. Nichts, was uns Sorgen macht. Nichts, was man nicht auch morgen regeln könnte.Doch das ist erst der Anfang. Wir befinden uns in der Phase der kollektiven Verharmlosung. Denn die eigentliche Verschiebung geschieht fast unbemerkt: KI legt allmählich frei, wie fragil die Schicht unserer sozialen Ordnung ist. Rituale, Gewissheiten, soziale und berufliche Rollen geraten ins Wanken. Zugleich werden Isolation, Entfremdung, neue Formen der Exklusion sichtbar. Selbst regulatorische Leitlinien erweisen sich als erstaunlich verhandelbar, sobald – das hat der „Gipfel zur digitalen Souveränität Europas“ im November gezeigt – der geopolitische Druck aus Washington oder Peking steigt.KI erscheint zunehmend als moralische Versuchsanordnung: ein Experiment mit uns selbst, das zum gesellschaftlichen Prüfstein wird. Übrig bleibt die alte, unbequeme Frage: Wie verhält sich der Mensch, wenn Sicherheiten wegbrechen? In der nordafrikanischen Stadt Oran will man nicht von der Pest sprechen, ihre Ausbreitung wird lange ignoriert. Das Wort ist politisch, ökonomisch, psychologisch aufgeladen. Das Problem ist nicht das mangelnde Wissen der Menschen, sondern ihre mangelnde Bereitschaft, Konsequenzen zu erkennen.„KI-Assistenz“, „Co-Pilot“: Sprachliche BeschönigungBei der KI zeigt sich dieses Muster in schleichender Anpassung: algorithmische Entscheidungen, die Urteilskraft atomisieren und Vertrauen automatisieren – weithin akzeptiert, weil man sich daran gewöhnt. Hinzu kommt sprachliche Beschönigung: Die Rede von „Assistenz“, „Co-Pilot“ oder „Co-Intelligenz“ verschleiert Macht- und Entscheidungsstrukturen. Der Medienwissenschaftler Friedrich Krotz spricht in diesem Zusammenhang von einer „systematischen Anthropomorphisierung des Computers“, die Verantwortung verlagere und menschliche Akteure entlaste.Vieles spricht dafür, dass wir auf einen psychologischen Kipppunkt zusteuern: den Moment, in dem generative KI massenhaft Inhalte produziert – und damit nicht nur Aufmerksamkeit zerstreut, sondern Glaubwürdigkeit entwertet. Wenn alles jederzeit sagbar, erzeugbar, variierbar ist, wird Orientierung zur Ausnahme. Genau darin liegt der gesellschaftliche Stresstest: Wie kann demokratische Öffentlichkeit überlebensfähig bleiben, wenn die Unterscheidung zwischen wahrhaftig und synthetisch erzeugt erodiert?Ob dann, wie in Camus’ Roman, eine Revolte möglich ist – ein entschlossenes Nein, obwohl man weiß, dass man scheinbar nichts gegen diese Entwicklung ausrichten kann, bleibt offen. Doch niemand ist unschuldig, weil niemand völlig unbeteiligt bleibt. Gleichgültigkeit ist gerade im Zeitalter generativer Systeme eine Form der Komplizenschaft.Behavioristische MaschinenEs geht, im Ganzen gesehen, um den Mut, im aussichtslosen Kampf Mensch zu bleiben. Genau hier beginnt die eigentliche Frage der Gegenwart. Denn auch die KI-Transformation setzt nicht mit einem krassen Bruch ein, sondern mit einer unterschwelligen Verschiebung. Nicht mit der großen technischen Revolution, sondern mit stiller Gewöhnung. KI gewandet sich vor allem als hilfreiche Infrastruktur: Texte werden flüssiger, Entscheidungen schneller, Empfehlungen passgenauer. Was dabei nach und nach aus dem Blick gerät, ist nicht die Leistungsfähigkeit der Systeme, sondern ihre gesellschaftliche Wirkung.Statt Verantwortung offen auszuhandeln, verwalten wir sie zunehmend: in Governance-Papieren, Ethik-Leitlinien, Compliance-Checklisten. Sie erzeugen Ordnung, aber nicht unbedingt Haltung. Sie suggerieren Kontrolle, wo es in Wahrheit um grundlegende Fragen menschlicher Selbstbestimmung geht. Das größte Risiko der KI liegt somit nicht in einer hypothetischen Superintelligenz, sondern in der schleichenden Delegation von Verantwortung und Urteilskraft – ohne dass sich noch jemand zuständig fühlt. Die entscheidende Frage lautet nicht, ob wir KI verhindern sollten, sondern wie wir sie einhegen, obwohl wir ihre Dynamik niemals vollständig kontrollieren können.Obsessives kreisen um IntelligenzGenau hier leidet die gegenwärtige KI-Debatte auch unter einer begrifflichen Verzerrung, selbst wenn sie in der wohnzimmertauglichen Talkshow-Welt von Markus Lanz & Co. und damit in der Mitte unserer Gesellschaft angekommen zu sein scheint. Sie kreist obsessiv um Intelligenz: um die Frage, ob Maschinen denken, verstehen oder gar bewusst handeln können. Diese Fixierung verstellt den Blick auf das eigentliche Problem. Denn was sich derzeit verschiebt, ist weniger das Verhältnis von Mensch und Maschine als das Verhältnis von Öffentlichkeit und Vertrauen. Urteilskraft, Verantwortung und Vertrauen werden nicht abrupt entzogen, sondern schrittweise an technische Infrastrukturen delegiert.Deshalb greift auch die gängige Dramatisierung zu kurz. Weder droht der große Kontrollverlust über Nacht, noch erleben wir eine klassische Technikkatastrophe. Vielmehr vollzieht sich ein Umbau der gesellschaftlichen Bewertungslogik: dessen, was als zuverlässig gilt, als glaubwürdig erscheint und als relevant wahrgenommen wird. KI ist dabei nicht die Ursache dieser Entwicklung, sondern wirkt als ihr Katalysator.Klar ist, dass diese neue Vertrauensökonomie strukturell anfällig ist: Systeme können Vertrauenssignale imitieren (Ton, Stil, Autorität, Empathie), ohne Verantwortung zu tragen. In dieser Situation gewinnt ein Begriff an Bedeutung, der bislang eher randständig diskutiert wurde: KI-Resilienz. Gemeint ist nicht die individuelle Fähigkeit, mit neuen Tools mitzuhalten, sondern die kollektive Kompetenz von Gesellschaften, Institutionen und Öffentlichkeiten, mit KI-gesteuerter Entscheidungslogik umzugehen. KI-Resilienz ist deshalb keine technologische, sondern eine zutiefst demokratische Kategorie.Computer verstehen nichtUm diese Verschiebung zu verstehen, hilft ein Schritt zurück: Wie operieren Computer – und damit auch KI-Systeme – grundsätzlich? Unabhängig von ihrer jeweiligen Software, Rechenleistung oder Trainingsdaten folgen sie einer klaren Logik: Sie verarbeiten beobachtbares Verhalten als Daten und berechnen Wahrscheinlichkeiten. Sie reagieren auf Inputs mit statistisch optimierten Antworten. Die Large Language Models (LLMs) wie ChatGPT, Gemini oder Claude gehen dabei (derzeit noch) hochaffirmativ vor, das heißt, sie verstärken unsere Argumentationslogiken, passen sich unseren Stilen an und suggerieren in der Nutzung stets, dass wir auf dem richtigen Weg seien, indem sie uns Mut zusprechen – weil sie von Menschen derart angewiesen wurden.Was sie dabei nicht tun, ist ebenso entscheidend: Sie verstehen nicht. Medien- und techniksoziologische Arbeiten haben deutlich gemacht, dass wir Computer – und damit auch KI-Systeme – nicht als denkende Akteure verstehen dürfen, sondern als behavioristische Maschinen, die menschliches Verhalten messen, formatieren und verwalten. Die gesellschaftliche Brisanz liegt nicht in der Technik selbst, sondern in der stillen Anpassung des Menschen an ihre Logik. Denn sie verfügen weder über Sinnhorizonte noch über Bedeutungszusammenhänge, sie reflektieren nicht, verfügen über kein Weltverhältnis. Auch dort, wo ihre Antworten kohärent, empathisch oder kreativ auf uns wirken, bleibt die Operation dieselbe: sprachliche Mustererkennung und mathematische Wahrscheinlichkeitsrechnung.Technik simuliert VerstehenGerade diese Differenz ist gesellschaftlich folgenreich. Und so ist nicht nur die Nähe zum humanistischen Existenzialismus relevant, auch die Techniksoziologie hält verschiedene Erklärungen bereit. Denn je überzeugender die Outputs sind, desto stärker entsteht der Eindruck eines verstehenden Gegenübers. Die Technik simuliert Verstehen – und wird genau deshalb als handlungsfähiger Akteur wahrgenommen. Das Problem liegt nicht in der Simulation selbst, sondern in den Konsequenzen, die wir daraus ziehen.Wenn Entscheidungen, Bewertungen oder Einordnungen auf Systeme übertragen werden, die strukturell nicht verstehen können, verschiebt sich Verantwortung. Nicht, weil jemand bewusst Verantwortung abgibt, sondern weil sich der Entscheidungsprozess technisch entpersonalisiert. Verantwortung wird unscharf, Zuständigkeit diffus. Genau hier beginnt die Erosion von Vertrauen. Diese Erosion wird durch unsere Sprache verstärkt. Der Begriff „künstliche Intelligenz“ ist keine neutrale Beschreibung, sondern eine wirkmächtige Metapher. Er suggeriert geistige Fähigkeiten, Lernprozesse und Entscheidungsautonomie – und verschleiert damit die Verschiebung der tatsächlichen Macht- und Entscheidungsstrukturen. Er dient damit auch als politische Entlastung.Ein techno-religiöses FortschrittsnarrativWenn Maschinen „lernen“, „entscheiden“ oder „urteilen“, geraten vor allem die mächtigen Akteure aus dem Blick, die diese Systeme entwickeln, dressieren, einsetzen und ökonomisch verwerten. Die Kommerzialisierung des Individuums wird sprachlich delegiert: von Institutionen auf Technologien, von Big-Tech-Unternehmern auf Systeme. Die Technologie erscheint als techno-religiöses Fortschrittsnarrativ, nicht als gestaltetes soziales Artefakt.Diese Vermenschlichung ist nicht nur begrifflich problematisch, sondern politisch äußerst folgenreich. Sie entlastet Regulierer, Unternehmen und Entscheidungsträger und erschwert, ja: behindert teilweise die öffentliche Auseinandersetzung. Wo Technik als autonomer Akteur erscheint, wird Technologiekritik schnell als Fortschrittsfeindlichkeit diskreditiert.Gerade deshalb wird die begriffliche Klarheit zum zentralen Bestandteil einer KI-Resilienz. Wer nicht sauber benennt, was Systeme leisten – und was nicht –, verliert die Möglichkeit, Rechenschaft oder Ethos einzufordern. Eine resiliente Öffentlichkeit braucht deshalb keine religiösen Technikmythen, sondern muss auf ein nüchternes Verständnis der Logiken pochen, nach denen diese digitalen Infrastrukturen funktionieren.Allein ChatGPT nutzen weltweit inzwischen rund 700 bis 800 Millionen Menschen. Die KI-Welle ist deshalb auch eine historische Chance – für Wissen, Effizienz, Teilhabe, neue Formen von Bildung und Kooperationen. Doch die gegenwärtig vorherrschende Gestalt der KI-Digitalisierung, vor allem der ihr innewohnende digitale Kapitalismus, ist ambivalent. Menschen werden noch stärker verfügbar gemacht, vermessen, optimiert. Der Einzelne erscheint dann nicht mehr als urteilsfähiges Subjekt, sondern als behavioristisches Wesen in ökonomisch und teils staatlich kontrollierten Beziehungs- und Kommunikationsmustern.Diese Entwicklung wird von einer zweifelhaften Ideologie getragen, die den Computer anthropomorphisiert, also vermenschlicht. Je häufiger Technik als „intelligent“ oder „lernend“ beschrieben wird, desto eher passen wir uns selbst ihrer Logik an – und nehmen hin, dass menschliche Erfahrung auf messbare, verwertbare Verhaltensmuster verengt wird. Wir verschleiern damit, dass hier vor allem Infrastrukturen entstehen, die unser digitales Nutzungsverhalten in Produktversprechen verwandeln. Wir haben diesen schrittweisen Ausverkauf in den vergangenen 20 Jahren bei Social Media genauso erlebt. Damit ist das nicht die erste technische Umwälzung, die in problematische Formen umkippt. Aber es ist eine, die den Menschen in seiner konstitutiven Besonderheit gefährden kann: in seiner Fähigkeit zur Reflexion, zur Ambivalenz, zum Nein, zur Fehlerkultur und zum Zweifeln.Verschleierung von VerantwortungDer entscheidende Punkt ist: Diese Anthropomorphisierung der Technik entlastet nicht nur Systeme, sondern verschleiert Verantwortung. Aber das ist kein Schicksal. Es bleibt eine Frage politischer, institutioneller und kultureller Selbstbehauptung. Nur wenn Menschen sich aktiv dafür entscheiden und sich zusammenschließen, lässt sich der Druck zur konsumistischen Reiz-Reaktions-Existenz neu-tralisieren – und ein digitales Leben verteidigen, das nicht nur effizient ist, sondern in erster Linie auf menschlichen Bedürfnissen beruht.Im Weitwinkel zeigt sich: Wenn Computer immer mehr Lebensbereiche besetzen, werden diese Bereiche verblüffend computergerecht reorganisiert. Techniksoziologisch lässt sich dieser Prozess als stille Umkehrung beschreiben: Nicht die Technik richtet sich nach dem Menschen, sondern der Mensch beginnt, sich den formatierten Logiken des Computers zu unterwerfen. Statt über die Technik zu streiten, müsste man über Verantwortlichkeiten reden: Wer verantwortet die Entscheidungen, wenn Interaktion vorformatiert wird?Das verändert nicht nur Abläufe, sondern auch unser Selbstbild. Wer ständig in standardisierten Interaktionen, Formularlogiken und automatisierten Dialogen handelt, beginnt auch selbst, standardisierter zu operieren: schneller, reduzierter, mechanischer. Paradox ist dabei, dass die Kultur diese Rationalisierung nach außen gern an Maschinen delegiert und zugleich den Rest menschlicher Identität nach innen verschiebt: in Affekt, „Seele“ und „Geist“. Genau diese Doppelgesichtigkeit macht die derzeitige Lage so heikel: Wir überlassen Systemen der Berechnung immer mehr Entscheidungsmacht – und verteidigen uns psychologisch, indem wir Menschsein auf das Nicht-Berechenbare oder das manufakturierte Handeln verengen, wie wir es etwa in Ingenieurs- oder Handwerkerberufen finden.Was KI-Resilienz bedeutetWenn nun das zentrale Risiko nicht im Kontrollverlust, sondern in der stillen Gewöhnung liegt, also in der schleichenden Anverwandlung an die Denkmuster der KI, dann kann KI-Resilienz nicht bedeuten, einzelne Nutzer an neue Tools anzupassen. Resilient zu werden, heißt nicht, sich den KI-Systemen anzupassen, sondern dass Gesellschaften ihre eigenen Maßstäbe gegenüber technischen Infrastrukturen generell behaupten und aushandeln, wie das Menschliche mit allen seinen Defiziten bewahrt werden kann, gerade auch, weil es niemals perfekt sein wird.KI-Resilienz lässt sich in Anlehnung an Krotz deshalb nicht als individuelle Anpassungsleistung begreifen, sondern nur als gesellschaftliches Gestaltungsprojekt. Daraus ergeben sich vier zentrale Bedingungen. Dazu gehört erstens Transparenz. Menschen müssen verstehen können, was mit ihnen geschieht – auch jenseits dessen, was sie unmittelbar wahrnehmen. Solange algorithmische Entscheidungen, Datenerhebungen und Interaktionslogiken unsichtbar bleiben, können Erfahrungen nicht reflektiert, sondern nur erlitten werden. Transparenz ist dabei kein pädagogisches Zusatzangebot, sondern die Voraussetzung dafür, dass Frustration nicht in Ohnmacht umschlägt, sondern die kritische Urteilskraft eher verstärkt.Erst wenn die Funktionsweise des ökonomisch kontrollierten und zugleich anthropomorphisierten Computers für die Gesellschaft erkennbar wird, können Zweifel und Widerstand produktiv organisiert werden.Zweitens berührt KI-Resilienz die Frage der digitalen Datensouveränität. Wenn automatisierte Systeme auf der systematischen Erhebung persönlicher Daten beruhen, dann darf diese Datenerhebung nicht protestlos dem Markt überlassen werden. Daten sind keine beiläufigen Abfallprodukte digitaler Nutzung, sondern Ausdruck menschlicher Lebensvollzüge. Ihre Weiternutzung setzt keine stillschweigende Duldung oder konkludente Zustimmung voraus. Sie müssen als Besitz derjenigen behandelt werden, die sie erzeugen. Eine Weitergabe darf nicht die Voreinstellung der Systeme, sondern muss stets eine bewusste Entscheidung sein. Das erfordert strenge Kontrolle, Einsicht in Systeme und eine klare politische Nahtstelle zur Abgrenzung von der Normalisierung datengetriebener Ausbeutung.Drittens stellt sich die Frage nach der Formatierung von Interaktion selbst. KI-Systeme bringen nicht nur Antworten hervor, sie strukturieren Begegnungen: was gefragt werden kann, wie reagiert wird, welche Optionen vorgesehen sind. Diese Formate sind nicht neutral. Sie definieren Erwartungen, begrenzen Handlungsspielräume und formen Selbstbilder. Wenn solche Interaktionsarchitekturen zum Alltag werden, müssen sie geprüft, getestet und freigegeben werden – selbstredend nicht durch die Anbieter selbst, sondern durch unabhängige, demokratisch legitimierte Instanzen. KI-Resilienz bedeutet hier, sich die Darstellungs- und Umsetzungsformen der Interaktion nicht aus der Hand nehmen zu lassen.Viertens schließlich braucht jede verpflichtende Interaktion mit KI eine menschliche Alternative. Wo Menschen aus einem konkreten Bedarf heraus handeln müssen – in Bildung, Medizin, Verwaltung oder Politik –, darf der Zugang zu menschlicher Kommunikation nicht abgeschafft werden.Eine Gesellschaft, die Effizienzdenken über Beziehungsarbeit stellt, spart kurzfristig Kosten, aber zahlt langfristig einen demokratischen Preis. Dass solche Alternativen Geld kosten, ist kein Gegenargument, sondern Ausdruck politischer Priorisierung. Unternehmen verfügen über diese Mittel, Staaten können sie über Steuern organisieren. Die Frage ist nicht, ob wir uns das leisten können – sondern ob wir es uns leisten wollen, darauf zu verzichten.KI-Resilienz ist kein individuelles Wellnesskonzept, sondern eine gesellschaftliche Schlüsselkompetenz, die den humanistischen Umgang mit KI rahmt – ein Appell, der nicht als alarmistische Technikbremse gemeint ist, sondern als zivilisatorische Souveränität.



Source link