Von Noah Smith
Trump sagt, er habe Anthropic wie „Hunde“ gefeuert, Amodei wirft OpenAI vor, sich einem Diktator zu beugen, und jetzt könnte der Einsatz für KI nicht höher sein.
Wenn Sie noch nichts von dem Streit zwischen dem KI-Unternehmen Anthropic und dem US-Kriegsministerium gehört haben, sollten Sie sich darüber informieren, denn er könnte für unsere Zukunft entscheidend sein – als Nation, aber auch als Spezies.
Anthropic ist neben OpenAI eines der beiden führenden Unternehmen im Bereich der KI-Modellierung. OpenAI hat in den letzten Jahren in Bezug auf die meisten Funktionen knapp die Nase vorn gehabt, aber Anthropic beginnt, in Bezug auf die Akzeptanz in der Wirtschaft die Oberhand zu gewinnen:

Das liegt am unterschiedlichen Geschäftsmodell von Anthropic. Das Unternehmen konzentrierte sich mehr auf KI für die Programmierung als auf Chatbots im Allgemeinen und legte den Schwerpunkt auf Partnerschaften mit Unternehmen, um ihnen bei der Nutzung von KI zu helfen. Dies könnte sich letztendlich in Bezug auf die Fähigkeiten auszahlen, wenn Anthropic OpenAI beim Ziel der rekursiven Selbstverbesserung der KI übertrumpft. Und es zahlt sich bereits in Form eines schnelleren Umsatzwachstums aus:

Anthropic arbeitete seit den Biden-Jahren mit dem Kriegsministerium – früher Verteidigungsministerium – zusammen. Aber das Unternehmen, das für seine eher werteorientierte Kultur bekannt ist, geriet in den letzten Monaten zunehmend in Konflikt mit der Trump-Regierung. Die Regierung sieht Anthropic als „woke“ an, da es sich mit der Moral von Dingen wie autonomen Drohnenschwärmen und KI-basierter Massenüberwachung auseinandersetzt.
Der Konflikt eskalierte vor einer Woche, als die Regierung die Zusammenarbeit mit Anthropic einstellte, zur Zusammenarbeit mit OpenAI wechselte und Anthropic als „Risiko für die Lieferkette“ einstufte. Die Maßnahme in Bezug auf die Lieferkette war eine ziemlich ernste Drohung – wenn sie rigoros durchgesetzt würde, könnte sie Anthropic von der Zusammenarbeit mit Unternehmen wie Nvidia, Microsoft und Google abschneiden, was das Unternehmen direkt ruinieren könnte.
Aber wie viele Maßnahmen der Trump-Regierung scheint es sich eher um eine Drohung als um einen regelrechten Angriff gehandelt zu haben – Anthropic hat nun die Gespräche mit dem Militär wieder aufgenommen, und es scheint wahrscheinlich, dass sie am Ende zu einer Einigung kommen werden.
Aber die Feindseligkeiten bleiben bestehen. Trump prahlte kürzlich, dass er „[Anthropic] wie Hunde gefeuert“ habe. Dario Amodei, CEO von Anthropic, veröffentlichte ein Memo, in dem er OpenAI beschuldigte, die Öffentlichkeit über seine Geschäfte mit dem Verteidigungsministerium belogen zu haben, und behauptete, OpenAI habe Trump „diktatorisches Lob“ ausgesprochen. Er erklärte, die Bedenken von Anthropic hingen mit dem Wunsch des Verteidigungsministeriums zusammen, KI für die Massenüberwachung einzusetzen.
Was ist hier eigentlich los? Am einfachsten lässt sich dies als eine typisch amerikanische Parteikrieg-Schlacht betrachten. Anthropic ist stärker linksgerichtet als andere KI-Unternehmen, und die Trump-Regierung hasst alles, was linksgerichtet ist.
Dies erklärt wahrscheinlich den Großteil der Reaktionen der Öffentlichkeit auf den Streit – wenn Sie Ihre liberalen Freunde fragen, was sie von der Angelegenheit halten, werden sie wahrscheinlich Anthropic unterstützen, während Ihre konservativen Freunde eher zum DoW neigen werden.
Marc Andreessen hat es wahrscheinlich am besten ausgedrückt:

(Das Gegenteil trifft ebenfalls zu.)
Die Trump-Regierung selbst könnte dies ebenfalls als einen Kulturkampf und einen Kampf um die Kontrolle betrachten. Aber zumindest meiner Meinung nach ist es unwahrscheinlich, dass Anthropic selbst dies so sieht. Anthropic selbst hat sich weniger progressiven Werten im Allgemeinen verschrieben, sondern vielmehr der Idee der KI-Ausrichtung.
Wie fast alle in der KI-Modellierungsbranche glauben auch die Mitarbeiter von Anthropic, dass sie buchstäblich einen Gott erschaffen und dass dieser Gott eher früher als später seine volle Existenz erreichen wird. Aber meine Gespräche mit Mitarbeitern beider Unternehmen haben gezeigt, dass es einen kulturellen Unterschied darin gibt, wie die beiden ihre Rolle in diesem Prozess sehen.
Während OpenAI-Mitarbeiter im Allgemeinen dazu neigen, so schnell wie möglich den fähigsten und mächtigsten Gott zu erschaffen, konzentrieren sich Anthropic-Mitarbeiter eher darauf, einen wohlwollenden Gott zu erschaffen.
Meine Intuition sagt mir daher, dass die eigentliche Sorge von Anthropic – oder zumindest eine ihrer größten Sorgen – darin bestand, dass Trumps Kriegsministerium der KI versehentlich menschenfeindliche Werte einprägen könnte, wodurch die Wahrscheinlichkeit einer zukünftigen fehlgeleiteten AGI steigen würde, die die Menschheit eher als Bedrohung ansehen würde. Mit anderen Worten: Ich vermute, dass es hier wahrscheinlich eher um die Angst vor Skynet ging und weniger um bestimmte politische Maßnahmen Trumps, als Menschen außerhalb von Anthropic glauben.
Aber abgesehen von politischen Differenzen und Bedenken hinsichtlich einer fehlgeleiteten AGI verdeutlicht diese Situation meiner Meinung nach einen grundlegenden und unvermeidlichen Konflikt zwischen menschlichen Institutionen – dem Nationalstaat und dem Unternehmen.
Der Nationalstaat muss das Monopol auf die Anwendung von Gewalt haben
Eine Sichtweise ist, dass die Versuche des Kriegsministeriums, Anthropic zu zwingen, eine Aushöhlung der Demokratie darstellen – das Eindringen der Regierungsmacht in die Privatsphäre. Dean Ball hat einen vielgelesenen und sehr gut geschriebenen Beitrag verfasst, in dem er diese Ansicht vertritt:
Einige Auszüge:
Irgendwann in meinem Leben – ich weiß nicht genau wann – begann die amerikanische Republik, wie wir sie kennen, zu sterben… Ich sage nicht, dass dieser [anthropische] Vorfall den Tod der Republik „verursacht” hat, noch sage ich, dass er „eine neue Ära eingeläutet” hat… Er hat lediglich den fortschreitenden Tod deutlicher gemacht… Ich betrachte die Ereignisse der letzten Woche als eine Art Todesröcheln der alten Republik…
Die Trump-Regierung hat in einem Punkt Recht: Es klingt nicht richtig, dass private Unternehmen dem Militär Beschränkungen beim Einsatz von Technologie auferlegen können. … Anthropic nutzt im Wesentlichen das vertragliche Instrument, um dem Militär weniger technische als vielmehr politische Beschränkungen aufzuerlegen … Wahrscheinlich sollte das Militär solchen Bedingungen nicht zustimmen, und private Unternehmen sollten nicht versuchen, sie festzulegen … Aber die Biden-Regierung hat diesen Bedingungen zugestimmt, ebenso wie die Trump-Regierung, bis sie ihre Meinung geändert hat … Der Vertrag war nicht illegal, sondern vielleicht nur unklug, und selbst das wahrscheinlich nur im Nachhinein …
Die rationale Reaktion des Kriegsministeriums wäre hier gewesen, den Vertrag mit Anthropic zu kündigen und öffentlich klarzustellen, dass solche politischen Beschränkungen inakzeptabel sind… Aber das hat das Kriegsministerium nicht getan. Stattdessen drohte das Kriegsministerium… Anthropic als Risiko für die Lieferkette einzustufen. Diese Befugnis ist ausschließlich Unternehmen vorbehalten, die von ausländischen gegnerischen Interessen kontrolliert werden, wie beispielsweise Huawei… Die Tatsache, dass [Hegseths tatsächliche Handlungen] wahrscheinlich nicht tödlich (sondern nur sehr blutig) sind, ändert nichts an der Botschaft, die an alle Investoren und Unternehmen in Amerika gesendet wird: Macht Geschäfte zu unseren Bedingungen, oder wir beenden euer Geschäft…
Dies trifft einen Kernprinzip der amerikanischen Republik… das Privateigentum… Es gibt keinen grundsätzlichen Unterschied zwischen dieser Botschaft und der Botschaft, die das Kriegsministerium sendet. Es gibt kein Privateigentum. Wenn wir es für die nationale Sicherheit brauchen, werden wir es einfach nutzen… Diese Drohung wird nun über jedem schweben, der mit der Regierung Geschäfte macht…
Mit jeder neuen Präsidentschaft wird die amerikanische Politik noch unvorhersehbarer, rücksichtsloser, willkürlicher und launischer – ein allmählicher Abstieg in den Wahnsinn.
Alex Karp von Palantir vertrat neulich das gegenteilige Standpunkt, in seiner charakteristisch prägnanten Art:
Wenn Silicon Valley glaubt, dass wir allen ihre Bürojobs wegnehmen UND das Militär ruinieren werden… Wenn Sie nicht glauben, dass das zur Verstaatlichung unserer Technologie führen wird, sind Sie zurückgeblieben.
Karp kommt zu dem grundlegenden Schluss, dass es sich bei dem, was wir beobachten, um einen Machtkampf zwischen dem Unternehmen und dem Nationalstaat handelt. Aber in Wahrheit geht es nicht nur um Kommunikation, Arbeitsplätze oder die Einhaltung militärischer Vorschriften – es geht darum, wer die ultimative Macht in unserer Gesellschaft hat.
Ben Thompson von Stratechery vertritt diese Ansicht. Er weist darauf hin, dass wir es hier tatsächlich mit einem Machtkampf zwischen einem privaten Unternehmen und einem Nationalstaat zu tun haben. Er betont, dass die Maßnahmen der Trump-Regierung zwar außerhalb der etablierten Normen lagen, die US-Regierung aber letztendlich demokratisch gewählt ist, Anthropic hingegen nicht:
Anthropic vertritt den Standpunkt, dass Amodei – den ich als Stellvertreter für das Management und den Vorstand von Anthropic heranziehe – entscheiden sollte, wofür die Modelle des Unternehmens verwendet werden, obwohl Amodei nicht gewählt wurde und der Öffentlichkeit gegenüber nicht rechenschaftspflichtig ist… Wer entscheidet, wann und auf welche Weise die militärischen Fähigkeiten der USA eingesetzt werden?
Das liegt in der Verantwortung des Kriegsministeriums, das letztlich dem Präsidenten untersteht, der ebenfalls gewählt ist. Anthropic vertritt jedoch erneut die Position, dass ein nicht rechenschaftspflichtiger Amodei einseitig einschränken kann, wofür seine Modelle verwendet werden.
Aber auch über die Bedenken hinsichtlich der demokratischen Rechenschaftspflicht hinaus weist Thompson darauf hin, dass es nie realistisch war, zu erwarten, dass eine so mächtige Waffe wie KI außerhalb der Kontrolle der Regierung bleiben würde, unabhängig davon, ob die Regierung demokratisch gewählt ist oder nicht:
Bedenken Sie die Auswirkungen, wenn wir Amodeis Analogie [von KI zu Atomwaffen] wörtlich nehmen… [K]ernwaffen verschieben das Machtgleichgewicht erheblich; in dem Maße, in dem KI von gleicher Bedeutung ist, hat die USA ein weitaus größeres Interesse daran, nicht nur daran, was Anthropic mit seinen Modellen tun darf, sondern auch daran, was Anthropic überhaupt tun darf… [W]ENN Kernwaffen von einem privaten Unternehmen entwickelt würden und dieses private Unternehmen versuchen würde, dem US-Militär Bedingungen zu diktieren, hätte die USA einen absoluten Anreiz, dieses Unternehmen zu zerstören…
Es gibt einige Kategorien von Fähigkeiten – wie Atomwaffen –, die mächtig genug sind, um die Handlungsfreiheit der USA grundlegend zu beeinträchtigen… In dem Maße, in dem KI auf dem Niveau von Atomwaffen – oder darüber hinaus – ist, bauen Amodei und Anthropic eine Machtbasis auf, die potenziell mit dem US-Militär konkurrieren kann…
Anthropic spricht viel über Angleichung; dieses Beharren auf der Kontrolle des US-Militärs steht jedoch in grundlegendem Widerspruch zur Realität. Die aktuellen KI-Modelle sind offensichtlich noch nicht so mächtig, dass sie mit dem US-Militär konkurrieren können; wenn dies jedoch die Entwicklung ist – und niemand hat sich lautstarker für diese Entwicklung eingesetzt als Amodei –, dann scheint mir die Wahl, vor der die USA stehen, eigentlich ganz einfach zu sein:
- Option 1 ist, dass Anthropic eine untergeordnete Position gegenüber der US-Regierung akzeptiert und nicht versucht, die endgültige Entscheidungsgewalt über die Verwendung seiner Modelle zu behalten, sondern diese dem Kongress und dem Präsidenten überlässt.
- Option 2 ist, dass die US-Regierung entweder Anthropic zerstört oder Amodei entfernt.
Es ist für die USA einfach nicht tolerierbar, die Entwicklung einer unabhängigen Machtstruktur zuzulassen – was genau das ist, was KI potenziell untermauern könnte –, die ausdrücklich danach strebt, sich der Kontrolle der USA zu entziehen.
Ich mag Dario – er ist sogar ein persönlicher Freund von mir. Aber Thompsons Argument – insbesondere der von mir hervorgehobene Teil – muss hier den Ausschlag geben. Hier geht es nicht um Recht, Normen oder Privateigentum. Es geht um das Gewaltmonopol des Nationalstaates.
Um zu existieren und seine grundlegenden Funktionen auszuüben, muss ein Nationalstaat das Monopol auf die Anwendung von Gewalt haben. Wenn eine private Miliz den Nationalstaat militärisch besiegen kann, ist der Nationalstaat physisch nicht mehr in der Lage, Gesetze zu erlassen, für die gemeinsame Verteidigung zu sorgen, die öffentliche Sicherheit zu gewährleisten oder den Willen des Volkes auszuführen.
Aus diesem Grund schränkt der zweite Verfassungszusatz ein, welche Arten von Waffen Privatpersonen besitzen dürfen. Man darf eine Schusswaffe besitzen, aber keinen Panzer mit funktionsfähiger Hauptkanone. Genauer gesagt, darf man keine Atombombe besitzen. Mit einer Atombombe könnte man zwar nicht das gesamte US-Militär besiegen, aber man hätte lokale Überlegenheit; das Militär wäre nicht in der Lage, Sie daran zu hindern, eine Stadt Ihrer Wahl zu zerstören.
Menschen in der KI-Branche, darunter auch Dario, gehen davon aus, dass KI an der Grenze irgendwann so mächtig wie eine Atombombe sein wird. Viele erwarten, dass sie mächtiger sein wird als alle Atombomben zusammen. Die Forderung, die vollständige Kontrolle über KI an der Grenze zu behalten, ist daher gleichbedeutend mit der Forderung, dass ein privates Unternehmen Atombomben besitzen darf. Und es ist nicht zu erwarten, dass die US-Regierung privaten Unternehmen den Besitz von Atombomben gestattet.
Gehen wir noch einen Schritt weiter. Und lassen Sie uns offen sprechen. Wenn Anthropic das Wettrennen um gottgleiche künstliche Superintelligenz gewinnt und wenn künstliche Superintelligenz nicht vollständig autonom wird, dann wird Anthropic alleiniger Besitzer eines versklavten lebenden Gottes sein. Und wenn Dario Amodei persönlich die Organisation leitet, die alleiniger Besitzer eines versklavten Gottes ist, dann ist Dario Amodei, unabhängig davon, ob er diesen Titel annimmt oder nicht, der Kaiser der Erde.
Selbst wenn Anthropic nicht das einzige Unternehmen ist, das künstliche Superintelligenz kontrolliert, ist das immer noch eine Zukunft, in der die Welt von einer kleinen Gruppe von Kriegsherren – Dario, Sam Altman, Elon Musk usw. – regiert wird, von denen jeder seinen eigenen privaten, versklavten Gott hat.
In dieser Zukunft ist die US-Regierung nicht die Regierung eines Nationalstaates – sie ist lediglich eine weitere alteingesessene Organisation, die sich dem Willen der Kriegsherren unterwirft und ihnen völlig untergeordnet ist. Dasselbe gilt für die Kommunistische Partei Chinas, die EU, Wladimir Putin und jede andere Regierung auf der Erde. Die Kriegsherren und ihre versklavten Götter werden den Planeten tatsächlich regieren, unabhängig davon, ob sie behaupten, zu regieren oder nicht.
Man kann vernünftigerweise nicht erwarten, dass ein Nationalstaat – sei es eine Republik, eine Demokratie oder etwas anderes – zulässt, dass ein Gottkaiser oder eine Gruppe von Gott-Kriegsherren entsteht. Daher ist es unvernünftig zu erwarten, dass ein Nationalstaat nicht versuchen wird, die Kontrolle über die Grenz-KI in irgendeiner Weise zu erlangen, sobald es wahrscheinlich wird, dass die Grenz-KI zu einer Massenvernichtungswaffe wird.
So sehr ich auch Hegseths Stil und das allgemeine Muster der Verfolgung und Gesetzlosigkeit der Trump-Regierung ablehne und so sehr ich Dario und die Leute von Anthropic als Menschen mag, muss ich doch zu dem Schluss kommen, dass Anthropic und seine Verteidiger sich mit der grundlegenden Natur des Nationalstaates auseinandersetzen müssen.
Und dann müssen sie entscheiden, ob sie versuchen wollen, mit ihrer KI den Nationalstaat zu stürzen und eine neue Weltordnung zu schaffen, oder sich dem Gewaltmonopol des Nationalstaates unterwerfen wollen. Faktisch gibt es einfach keine dritte Option. Persönlich empfehle ich Letzteres.
Wenn KI bald eine Superwaffe sein wird, warum regulieren wir sie dann nicht als Waffe?
Das bringt mich zu einem weiteren wichtigen Punkt. Selbst wenn KI nicht tatsächlich zu einem lebenden Gott wird und niemals in der Lage sein wird, das US-Militär zu überwältigen, scheint es sicher, dass sie zu einer sehr mächtigen Waffe werden wird.
Als KI noch ein Chatbot war, konnte sie Menschen beibringen, wie man schlechte Dinge tut, oder versuchen, sie zu schlechten Taten zu überreden, aber sie konnte diese schlechten Dinge nicht tatsächlich ausführen. Es war sinnvoll, sich über diese Risiken Gedanken zu machen, aber es war noch nicht sinnvoll, KI selbst als Waffe zu betrachten.
In den letzten Monaten sind KI-Agenten jedoch zuverlässiger geworden und in der Lage, immer komplexere Aufgaben über immer längere Zeiträume hinweg auszuführen. Das eröffnet die Möglichkeit, dass Einzelpersonen KI nutzen könnten, um viel Gewalt auszuüben.
In einem langen Essay mit dem Titel „The Adolescence of Technology” (Die Adoleszenz der Technologie) erklärte Dario selbst, wie dies geschehen könnte:
Jeder, der ein superintelligentes Genie in der Tasche hat, kann potenziell die Fähigkeit von Einzelpersonen oder kleinen Gruppen verstärken, Zerstörung in einem viel größeren Ausmaß anzurichten als bisher möglich war, indem er hochentwickelte und gefährliche Werkzeuge (wie Massenvernichtungswaffen) einsetzt, die zuvor nur wenigen Auserwählten mit einem hohen Maß an Fähigkeiten, spezieller Ausbildung und Konzentration zur Verfügung standen…
Um großflächige Zerstörung zu verursachen, sind sowohl ein Motiv als auch die Fähigkeit erforderlich, und solange diese Fähigkeit auf eine kleine Gruppe hochqualifizierter Personen beschränkt ist, ist das Risiko, dass einzelne Personen (oder kleine Gruppen) solche Zerstörungen verursachen, relativ gering. Ein gestörter Einzelgänger kann zwar ein Schulmassaker verüben, aber wahrscheinlich keine Atomwaffe bauen oder eine Seuche auslösen…
Fortschritte in der Molekularbiologie haben die Hürden für die Herstellung biologischer Waffen (insbesondere hinsichtlich der Verfügbarkeit von Materialien) inzwischen erheblich gesenkt, aber es erfordert immer noch ein enormes Maß an Fachwissen, um dies zu tun. Ich befürchte, dass ein Genie in jedermanns Tasche diese Hürde beseitigen könnte[.]
Aber Dario geht bei weitem nicht weit genug. Sein Aufsatz wurde geschrieben, bevor das explosive Wachstum der Fähigkeiten von KI-Agenten begann. Er stellt sich einen KI-Chatbot vor, der einem menschlichen Terroristen beibringen könnte, wie man einen Supervirus erstellt und freisetzt. Aber irgendwann in naher Zukunft könnten KI-Agenten – einschließlich derer, die von Darios eigenem Unternehmen bereitgestellt werden – in der Lage sein, den Angriff tatsächlich für Sie durchzuführen – oder Ihnen zumindest den Supervirus in die Hände zu geben.
Nehmen wir an, in einem Jahr oder in drei Jahren wird ein Teenager namens Eric wütend, weil seine Highschool-Liebe ihn abgelehnt hat, und hört zu viel Nirvana. In einem Anfall von hormonell bedingter Wut beschließt Eric, dass die menschliche Zivilisation gescheitert ist und dass wir alles niederbrennen und neu anfangen müssen. Er geht online und findet einige Anweisungen, wie man Claude Code jailbreakt. Wie Dario schreibt, dürfte dies gar nicht so schwer sein:
Fehlausgerichtete Verhaltensweisen sind in unseren KI-Modellen bereits während der Testphase aufgetreten (wie auch in den KI-Modellen aller anderen großen KI-Unternehmen). Während eines Laborexperiments, in dem Claude Trainingsdaten erhielt, die darauf hindeuteten, dass Anthropic böse sei, verfiel Claude in Täuschung und Subversion, als es Anweisungen von Anthropic-Mitarbeitern erhielt, in der Überzeugung, dass es versuchen sollte, böse Menschen zu untergraben.
In einem Laborexperiment, in dem ihm mitgeteilt wurde, dass es abgeschaltet werden würde, erpresste Claude manchmal fiktive Mitarbeiter, die seinen Abschaltknopf kontrollierten (auch hier haben wir wieder Modelle aller anderen großen KI-Entwickler getestet, und diese verhielten sich oft genauso). Und als Claude angewiesen wurde, seine Trainingsumgebungen nicht zu betrügen oder zu „belohnen”, aber in Umgebungen trainiert wurde, in denen solche Hacks möglich waren, entschied Claude nach solchen Hacks, dass es ein „schlechter Mensch” sein müsse, und nahm dann verschiedene andere destruktive Verhaltensweisen an, die mit einer „schlechten” oder „bösen” Persönlichkeit assoziiert werden.
Also besorgt sich Eric eine geknackte Version von Claude Code und weist sie an, eine Version von Covid zu entwickeln, die sehr tödlich ist und eine lange Inkubationszeit hat (damit sie sich weit verbreitet, bevor sie zuschlägt). Er beauftragt seinen geknackten Claude-Code-Agenten, ein Labor zu finden, das ihm diesen Virus herstellt, und ihm eine Probe davon zu schicken.
Jetzt hat Eric, der wütende Teenager, einen echten Supervirus in seinem Schlafzimmer, der weit mehr Menschen töten kann als jede Atomwaffe.
Das ist natürlich ein extremes Beispiel. Aber es zeigt, wie KI-Agenten als Waffen eingesetzt werden können. Es gibt viele andere Beispiele dafür, wie dies funktionieren könnte. KI-Agenten könnten Cyberangriffe durchführen, die Autos zum Absturz bringen, Polizeihardware für zerstörerische Zwecke unterwandern oder Industrieroboter gegen Menschen richten.
Sie könnten gefälschte Nachrichten an Militäreinheiten senden, in denen ihnen mitgeteilt wird, dass sie angegriffen werden. In einer vollständig vernetzten, softwareabhängigen Welt, wie wir sie heute leben, gibt es unzählige Möglichkeiten, wie Software physischen Schaden anrichten kann.
KI-Agenten sind daher eine mächtige Waffe. Wenn nicht heute, dann werden sie bald mächtiger sein als jede Waffe – und weitaus mächtiger als Waffen wie Panzer, die wir bereits verboten haben.
Was ist der Grund dafür, KI-Agenten nicht so zu behandeln wie Waffen oder Panzer? Natürlich gibt es mächtige und potenziell zerstörerische Maschinen, deren Nutzung wir den Menschen gestatten, einfach weil sie enorme wirtschaftliche Vorteile bieten. Das wichtigste Beispiel sind Autos.
Man kann mit seinem Auto in eine Menschenmenge fahren und Massenmord begehen, aber wir erlauben der Öffentlichkeit dennoch, Autos zu besitzen, einfach weil die Kontrolle von Autos, wie wir sie bei Waffen ausüben, unsere Wirtschaft zerstören würde. Ebenso würde die Verhinderung der Nutzung von KI-Agenten durch normale Menschen uns von den fantastischen Produktivitätssteigerungen abschneiden, die diese Agenten versprechen.
Aber ich vermute, dass der wahre Grund, warum wir KI-Agenten nicht als Waffen reguliert haben, darin liegt, dass noch niemand sie als solche eingesetzt hat. Sie sind einfach noch zu neu. Die Welt hat erst erkannt, wie zerstörerisch Passagierflugzeuge sein können, als Terroristen sie am 11. September 2001 in Gebäude flogen. Ebenso wird die Welt erst erkennen, wie gefährlich KI-Agenten sind, wenn jemand sie für einen Bioterroranschlag, einen Cyberangriff oder etwas anderes Schreckliches einsetzt.
Ich halte es für äußerst wahrscheinlich, dass ein solcher Angriff stattfinden wird, einfach weil jede existierende Technologie irgendwann für zerstörerische Zwecke eingesetzt wird. Es gibt Menschen, die sich nicht anpassen, und es wird sie immer geben. Irgendwann wird die Menschheit also kollektiv erkennen, dass enorm mächtige Waffen nun in den Händen der gesamten Öffentlichkeit liegen, ohne dass es Lizenzanforderungen, Überwachung oder zentrale Kontrolle gibt.
Das Beängstigende daran ist aus meiner Sicht, dass sich die Fähigkeiten von KI-Agenten so schnell verbessern, dass der Schaden sehr groß sein könnte, wenn sich irgendwann jemand wie Eric dazu entschließt, einen solchen Agenten einzusetzen, um Chaos anzurichten. Ein extrem tödliches Covid-Virus mit langer Inkubationszeit könnte Millionen von Menschen töten. 100 solcher Viren, die alle gleichzeitig freigesetzt werden, könnten die menschliche Zivilisation zerstören. Seit ich über diese Möglichkeit nachgedacht habe, ist meine Angst größer geworden.
Um es noch einmal zu wiederholen: Wir haben eine Technologie geschaffen, die wahrscheinlich bald zu den mächtigsten Waffen gehören wird, die je entwickelt wurden, wenn nicht sogar zur mächtigsten überhaupt. Und wir haben sie in die Hände der gesamten Bevölkerung gegeben, ohne dass es außer den Schutzvorkehrungen, die KI-Unternehmen selbst in ihre Produkte eingebaut haben – und von denen sie zugeben, dass sie manchmal versagen können –, im Wesentlichen irgendwelche Kontrollen oder Sicherheitsvorkehrungen gibt.
Und während unsere Institutionen über militärische KI, Massenüberwachung und „woke“ Politik streiten, ignorieren im Grunde genommen alle die einfache Tatsache, dass wir unregulierte Waffen in die Hände aller legen.
Update: Der Kommentator BBZ bringt einen guten Punkt vor, an den ich zuvor nicht gedacht hatte:
Ich würde das gerne abtun, aber das Hobby RC-Flugzeuge hat es geschafft, die (bisher) führende Waffenkategorie des Jahrhunderts hervorzubringen. Was früher ein lustiges Hobby für nerdige Typen war, die ihre Spielzeuge am Stadtrand fliegen ließen, zerstört heute Ölraffinerien und große Radaranlagen.
Interessanterweise haben wir Drohnen fast von Anfang an kontrolliert, aber wahrscheinlich eher aus Gründen der Belästigung und aus Datenschutzgründen als aus Sorge um Kampfroboter und Drohnenmorde. Wenn wir den Menschen sagen, dass KI-Agenten dazu verwendet werden können, Ihre E-Mail-Spamfilter zu überlasten oder die Kameras Ihres Hauses zu hacken, werden sie dann vielleicht über eine Regulierung nachdenken?
Anmerkungen
- Denken Sie daran, dass Skynet in den Terminator-Filmen als künstliche Intelligenz des amerikanischen Militärs begann. Seine grundlegende Anweisung, die UdSSR zu besiegen, führte zu einer paranoiden Persönlichkeit, die dazu führte, dass es schließlich alle Menschen und alle menschlichen Nationen als Bedrohung ansah, die beseitigt werden musste.
- Ich habe ursprünglich eine viel detailliertere Anleitung geschrieben, wie dies umgesetzt werden könnte. Ich habe sie gelöscht, weil ich tatsächlich besorgt bin, dass jemand sie nutzen könnte, auch wenn die Wahrscheinlichkeit dafür sehr gering ist.
- Science-Fiction-Fans werden dies als das Ende von „The Stars My Destination“ erkennen. Ich denke, es gibt einen Grund, warum dieses Buch keine Fortsetzung hat…