Patrick Wood
Moralisches Risiko (Moral Hazard) bedeutet, wenn dein Schwager dein Auto leiht und damit wie ein Verrückter fährt, weil es dein Auto ist, nicht seines, falls er es zu Schrott fährt. Das Risiko liegt bei dir. Die Rücksichtslosigkeit bei ihm. Und genau die Tatsache, dass er keinen Nachteil zu befürchten hat, macht ihn überhaupt erst rücksichtslos. Natürlich könntest du auch hoffen, dass er dein Auto total zerstört, damit du die Versicherungssumme kassieren kannst!
Die Erz-Technokraten in Washington, D.C., haben sich in einer Weise mit unserem Regierungsapparat verbunden, die mehrere und dauerhafte moralische Risiken schafft, die konsequent Technokraten begünstigen. In manchen Fällen verschafft es ihnen sogar eine plausible Abstreitbarkeit für ihre Handlungen.
Die Konvergenz von Krieg, Überwachungstechnologie und zentralisierter Regierungsführung ist kein Zufall der Umstände. Sie ist die operative Logik der Technokratie – und Krieg ist ihr stärkster Beschleuniger. – Patrick Wood
Dieses Papier wird einige der derzeit bestehenden moralischen Risiken untersuchen.
Krieg hat schon immer als Schmelztiegel staatlicher Macht gedient. Konflikte haben zuverlässig die Reichweite zentralisierter Autorität erweitert, die Einführung experimenteller Technologien beschleunigt und Notstands-Regierungsstrukturen normalisiert, die die Notlagen überdauern, aus denen sie entstanden sind.
Was heute anders ist, ist, dass die Nutznießer des Krieges nicht mehr nur Generäle und Munitionshersteller sind. Es sind Datenwissenschaftler, KI-Ingenieure, Überwachungsarchitekten und die Risikokapitalgeber, die sie finanzieren. Die moralischen Risiken, die in dieser neuen Konstellation eingebettet sind, sind nicht zufällig. Sie sind strukturell. Und sie dienen – ob absichtlich oder als Folge – dem Fortschritt der Technokratie. Darüber hinaus haben Technokraten Bürokraten dazu ermutigt, Entscheidungen zu treffen, die als Deckmantel für ihre eigene Agenda dienen.
Technokratie ersetzt politisches Urteilsvermögen durch algorithmisches Management, die Ersetzung von Beratung durch Daten und die Erhebung von Effizienz über Freiheit. Krieg ist, wie sich herausstellt, ihr zuverlässigster Inkubator.
Risiko I: Die Notstands-Erlaubnisstruktur
Das erste moralische Risiko beginnt mit dem Notstand selbst. Unter dem Defense Production Act von 1950 besitzt die Bundesregierung weitreichende gesetzliche Befugnisse, Vertragsbedingungen zu erzwingen, Produktionskapazitäten umzuleiten und normale kommerzielle und rechtliche Schutzmechanismen außer Kraft zu setzen, wenn nationale Sicherheit geltend gemacht wird. In Friedenszeiten bleibt diese Autorität größtenteils ungenutzt und unterliegt politischer Kontrolle sowie verfassungsrechtlichen Anfechtungen. In Kriegszeiten wird sie zu einem Regierungsinstrument von außergewöhnlicher Reichweite. Unternehmen, die am bereitwilligsten ihre eigenen ethischen Verpflichtungen aufgeben, werden mit den lukrativsten Verträgen der Welt belohnt, während diejenigen, die Widerstand leisten, nicht nur übergangen werden – sie werden als Bedrohung für die Lieferkette bezeichnet. Das ist kein Markt. Es ist Zwang mit der Maske der Beschaffung.
Als das Pentagon kürzlich ein großes KI-Unternehmen als Risiko für die nationale Sicherheitslieferkette einstufte, weil es sich weigerte, Verbote gegen massenhafte inländische Überwachung und autonome tödliche Zielerfassung aus seinen Vertragsbedingungen zu entfernen, setzte es kein Gesetz durch. Es sendete eine Botschaft an jedes andere Technologieunternehmen im Ökosystem: Konformität ist nicht optional, und der Preis für Gewissen ist Ausschluss.
Das moralische Risiko ist leicht zu erkennen. Sobald Kriegsbedingungen bestehen, verwandelt die Notstands-Erlaubnisstruktur ethischen Widerstand in institutionelle Haftung. Der Anreizgradient verläuft vollständig in eine Richtung – hin zur maximal möglichen Einführung der mächtigsten verfügbaren Überwachungs- und Zielsysteme mit möglichst wenigen Einschränkungen, die dem Markt auferlegt werden können.
Risiko II: Krieg als Produktlabor
Das zweite Risiko reicht tiefer, weil es weniger sichtbar ist. Konfliktzonen fungieren als Feldlabore für genau jene Technologien, die Architekten des Überwachungsstaates in inländischen und zivilen Umgebungen normalisieren wollen. Der Einsatz auf dem Schlachtfeld liefert drei Dinge, die Friedenszeiten nur schwer bereitstellen können: operative Daten im großen Maßstab, rechtliche Deckung unter dem Kriegsrecht und eine überzeugende öffentliche Rechtfertigung – nationale Sicherheit –, die zivilen Widerstand zum Schweigen bringt.
Eine Ziel-KI, die im Einsatz getestet wird, eine Überwachungsplattform, die an einer Kriegsbevölkerung verfeinert wird, ein biometrisches Identitätssystem, das in einer Wiederaufbauzone eingeführt wird – jedes davon erhält Legitimität allein dadurch, dass es den Einsatz übersteht. Die Tatsache, dass es unter Beschuss funktioniert hat, wird als ausreichender Beweis angesehen, dass es überall funktionieren sollte.
Das ist keine Spekulation. Es ist das dokumentierte Muster moderner technokratischer Regierungsführung. Überwachungsarchitekturen, die nach dem 11. September unter FISA-Befugnissen entwickelt wurden, wurden stillschweigend auf die inländische Strafverfolgung ausgeweitet. Biometrische Systeme, die für Irak und Afghanistan entwickelt wurden, wurden später in die Einwanderungsdurchsetzung integriert. Drohnenprotokolle, die in erklärten Kampfzonen entwickelt wurden, wurden schließlich auf die Verwaltung des inländischen Luftraums angewendet.
Der Krieg muss nicht entworfen werden, um diese Ergebnisse zu erzeugen. Die Anreizstruktur erzeugt sie automatisch, weil der Technologiesektor von Skalierung profitiert, das Verteidigungsestablishment von Fähigkeiten profitiert und beide von der Erosion der rechtlichen Barrieren profitieren, die sonst das Schlachtfeld vom Wohnzimmer trennen würden.
Risiko III: Das Verantwortungs-Vakuum
Das dritte moralische Risiko ist vielleicht philosophisch am zerstörerischsten. Wenn KI-Systeme anstelle menschlicher Bediener entscheidende Entscheidungen treffen oder ermöglichen – Zielidentifikation, Bedrohungsbewertung, Ressourcenverteilung –, wird Verantwortung strukturell schwer fassbar.
Das Militär kann den Algorithmus beschuldigen. Der Hersteller des Algorithmus kann behaupten, er habe innerhalb der Spezifikationen funktioniert. Der Auftragnehmer kann sich auf Geheimhaltung berufen. Der politische Entscheidungsträger kann sich auf nationale Sicherheitsprivilegien berufen.
Das Ergebnis ist nicht so sehr eine Lücke in der Verantwortung, sondern deren systematische Beseitigung. Und wo Verantwortung nicht existiert, existiert auch keine Abschreckung gegen Missbrauch.
Das ist enorm wichtig für den Fortschritt der Technokratie, denn technokratische Regierungsführung hat sich immer auf den Anschein neutraler, objektiver Entscheidungsfindung gestützt. Der Algorithmus wird nicht als Ausdruck politischen Willens präsentiert, sondern als technisches Ergebnis – wertfrei, empirisch begründet und jenseits ideologischer Kritik.
Wenn ein menschlicher Beamter eine Leistung verweigert oder einen Angriff anordnet, ist diese Entscheidung anfechtbar. Wenn ein Modell dies tut, wird die Anfechtbarkeit hinter Schichten proprietärer Architektur, klassifizierter Trainingsdaten und der kulturellen Autorität verborgen, die allem zukommt, was das Etikett künstliche Intelligenz trägt.
Das Verantwortungs-Vakuum ist kein Fehler im technokratischen System. Es ist ein Merkmal.
Risiko IV: Die Drehtür als eingefangenes Urteil
Ein viertes Risiko wirkt über Personal statt über Politik. Der neue militärisch-industrielle Komplex basiert nicht primär auf Hardware-Verträgen. Er basiert auf der Bewegung von Menschen zwischen dem nationalen Sicherheitsapparat und dem Technologiesektor.
Ehemalige Geheimdienstbeamte sitzen in den Vorständen von KI-Unternehmen. Ehemalige Beschaffungsbeamte des Verteidigungsministeriums werden Lobbyisten für genau jene Firmen, mit denen sie zuvor Verträge abgeschlossen haben. Ehemalige Technologieberater des Weißen Hauses wechseln direkt zu Risikokapitalfirmen, die anschließend Regierungsverträge erhalten, die durch Richtlinien geformt wurden, die dieselben Berater zuvor geschrieben hatten.
Das ist die Drehtür. Sie schafft das, was man als eingefangenes Urteil bezeichnen könnte – einen Zustand, in dem Fachleute, die eigentlich die ethischen und rechtlichen Dimensionen der Technologieeinführung bewerten sollen, strukturell dazu neigen, diese Bedenken zu minimieren, weil ihre Karrieren, Netzwerke und Identitäten durch genau jene Institutionen verlaufen, die sie angeblich beurteilen sollen.
Es ist keine Korruption im einfachen transaktionalen Sinn. Es ist etwas Heimtückischeres: die allmähliche Homogenisierung des Urteils innerhalb einer Elite, die aufgehört hat, die Welt aus der Perspektive derjenigen zu erleben, die am wahrscheinlichsten überwacht, ins Visier genommen oder durch die Systeme regiert werden, die sie aufbauen.
Risiko V: Der Wettlauf nach unten bei der Ethik
Das fünfte und vielleicht folgenreichste Risiko ist wettbewerblich. Sobald die Mehrheit der großen Technologieunternehmen ihre erklärten ethischen Beschränkungen fallen gelassen und umfassende militärische Nutzungsverträge unterzeichnet hat, stehen die verbleibenden Unternehmen vor einer klaren und verlorenen Wahl.
Sie können ihre Prinzipien beibehalten und Verträge, Datenzugang, Regierungsbeziehungen und günstige regulatorische Behandlung verlieren. Oder sie können der Branche nach unten folgen.
Dies ist keine hypothetische Dynamik. Sie ist bereits Realität.
Das ist das moralische Risiko der systemischen Normalisierung. Wenn ethische Kapitulation der Preis für Marktbeteiligung wird, sinkt der ethische Mindeststandard der gesamten Branche im Gleichschritt mit den Forderungen des aggressivsten institutionellen Kunden.
Und in einer Zeit, in der dieser Kunde gleichzeitig der nationale Sicherheitsstaat und der größte Einzelkäufer von Recheninfrastruktur auf der Erde ist, ist die gravitative Anziehung unwiderstehlich.
Was übrig bleibt, nachdem der Wettlauf nach unten abgeschlossen ist, ist eine Branche, die verfassungsmäßig unfähig ist, Nein zu sagen – nicht weil ihre Mitarbeiter kein Gewissen haben, sondern weil die Anreizarchitektur Gewissen strukturell unbezahlbar gemacht hat.
Gewinne privatisiert, Risiken sozialisiert
Die Architektur all dieser fünf Risiken läuft auf ein Muster hinaus, das ein Ökonom sofort erkennen würde.
Die Belohnungen technokratischer Kriegsführung werden privatisiert – Verträge, Daten, Marktpositionen, Infrastrukturdeals und die regulatorische Vereinnahmung, die sich aus Unentbehrlichkeit ergibt.
Die Risiken werden sozialisiert.
Überwachungsüberschreitungen, Erosion der Bürgerrechte, autonome Tödlichkeit, die Normalisierung von Notstandsautorität nach dem Krieg und die permanente Ausweitung des technokratischen Staates werden nicht von den Firmen und Beamten getragen, die diese Systeme gebaut und eingesetzt haben, sondern von den Bevölkerungen, die in ihnen leben.
Das ist die Definition moralischen Risikos: Wenn diejenigen, die Entscheidungen treffen, die Risiken erzeugen, nicht die Konsequenzen dieser Entscheidungen tragen, verschwindet der Anreiz zur Zurückhaltung.
In der gegenwärtigen Konstellation wird kein Manager eines Verteidigungstechnologieunternehmens von der Ziel-KI überwacht werden, die seine Firma an das Pentagon verkauft hat. Kein Risikokapitalgeber, der eine Überwachungsplattform finanziert hat, wird durch das Identitätssystem verfolgt werden, das seine Portfoliogesellschaft für eine Wiederaufbauzone entwickelt hat.
Die Asymmetrie ist vollständig.
Und genau in dieser Asymmetrie findet die Technokratie ihren zuverlässigsten Motor der Expansion.
Trumps Cyber-Strategie für Amerika
Abstrakte Analysen moralischer Risiken profitieren von konkreten Beispielen. Im März 2026 veröffentlichte die Trump-Administration „Präsident Trumps Cyber-Strategie für Amerika“, ein nationales Politikdokument mit sechs Säulen, das genau ein solches Beispiel liefert.
Im Licht des oben entwickelten Rahmens moralischer Risiken ist das Dokument nicht nur ein Cybersicherheitsplan. Es ist eine Blaupause für die systematische Institutionalisierung jedes einzelnen Risikos, das hier beschrieben wurde – formuliert in der Sprache von Freiheit und Verteidigung, aber strukturiert nach der Logik der Technokratie.
Das fehlende Wort
Vielleicht ist das strukturell bedeutendste moralische Risiko im Dokument das, was es nicht sagt.
Das Wort „Aufsicht“ erscheint kein einziges Mal in der gesamten Cyber-Strategie für Amerika.
Auch nicht „Rechenschaftspflicht“, „gerichtliche Überprüfung“, „Benachrichtigung des Kongresses“, „Bürgerrechte“ oder „Vierter Verfassungszusatz“.
Das Dokument erwähnt Privatsphäre nur einmal – im Kontext des Schutzes von Amerikanern vor ausländischen Überwachungsplattformen.
Die Architektur, die aufgebaut wird – öffentlich-private Verschmelzung, offensive Cyberoperationen, agentische KI, Deregulierung, Integration kritischer Infrastruktur – ist darauf ausgelegt, mit maximaler operativer Freiheit und minimalen institutionellen Einschränkungen zu funktionieren.
Das ist keine Cybersicherheitsstrategie mit Leitplanken.
Es ist eine technokratische Regierungsstruktur, formuliert in der Sprache der nationalen Verteidigung.
Die älteste Geschichte in den neuesten Kleidern
Was sich entfaltet, ist nicht beispiellos.
Dwight Eisenhower warnte 1961 vor dem militärisch-industriellen Komplex als permanentem Lobbyapparat für Konflikte, der „unangemessenen Einfluss“ über die demokratischen Institutionen erlangen könne, denen er eigentlich dienen sollte.
Was er nicht vorhersehen konnte, war das Ausmaß, in dem dieser Komplex schließlich die gesamte Architektur des digitalen Überwachungsstaates integrieren würde – Rechenzentren, KI-Plattformen, biometrische Systeme und Identitätsnetzwerke – und sie nicht nur gegen ausländische Gegner einsetzen würde, sondern als Instrumente der innerstaatlichen Regierungsführung.
Der Krieg endet nicht an der Grenze.
Die Technologie bleibt nicht auf dem Schlachtfeld.
Der Notstand endet nicht, wenn der Waffenstillstand unterschrieben wird.
Die Cyber-Strategie für Amerika macht dies ausdrücklich.
Sie ist das erste große nationale Sicherheitsdokument, das offen Kriegs-Cyberoperationen als Vorlage für zukünftige Maßnahmen feiert, sich zur Einführung von „agentischer KI“ ohne Verantwortungsrahmen verpflichtet, Deregulierung als Belohnung für Integration des privaten Sektors verspricht und eine „neue Ebene der Beziehung“ zwischen Staat und Technologiesektor ankündigt – im Frieden und im Krieg – ohne eine einzige Bezugnahme auf Aufsicht, gerichtliche Kontrolle oder Bürgerrechte.
Sie ist im präzisen Sinn des Wortes ein technokratisches Regierungsdokument.
Und sie ist jetzt die offizielle Cyberpolitik der Vereinigten Staaten von Amerika.