Ein geheimer Algorithmus und null Transparenz: Willkommen in der Justiz nach Gefühl.
Von Christina Maas
Es wird immer vertrauter: Man wird verhaftet, landet vor Gericht – und erfährt, dass der Kronzeuge der Anklage ein halbfertiger Algorithmus ist, der in irgendeinem Keller im Silicon Valley programmiert wurde. Abgesegnet von einem Richter, der nicht mal weiß, wie man einen Videorekorder einstellt.
Diesmal spielt sich das Spektakel in New Jersey ab. In State v. Miles hebt die Staatsanwaltschaft das Ganze auf eine neue Stufe der Absurdität.
In dieser jüngsten Farce aus dem Grenzgebiet von Strafjustiz und Cyberpunk wird Tybear Miles beschuldigt, im Jahr 2021 Ahmad McPherson ermordet zu haben. Und das zentrale Beweisstück? Keine Fingerabdrücke. Kein einziger Augenzeuge. Stattdessen: ein Treffer durch ein Gesichtserkennungssystem – so geheim, dass die Regierung der Verteidigung nicht einmal verraten will, welches System es ist, wie es funktioniert oder ob es zuverlässiger ist als ein betrunkener Dartwurf.
Die Staatsanwaltschaft behauptet, ein Informant habe ausgesagt, dass „Fat Daddy“ der Täter sei. Die Polizei wühlte sich daraufhin durch Instagram, zog ein paar Fotos, warf sie in ein Gesichtserkennungssystem – und heraus kam Tybear Miles. Der Algorithmus nickte. Der Informant nickte. Fall abgeschlossen.
Ein kleiner Haken: Die Verteidigung will wissen, wie diese digitale Zauberwurst eigentlich hergestellt wurde. Verständlich – denn nur aufgrund einer Blackbox-Software verurteilt zu werden, ist kein besonders ehrenvoller Standard für ein rechtsstaatliches Verfahren.
Die Anwälte verlangen Einsicht: Fehlerquoten, Datenbasis, Testprotokolle – kurz: alles, was hilft, zwischen echter Wissenschaft und digitalem Schlangenöl zu unterscheiden.
Die Antwort des Staates? Ein schallendes „Nein“. Die Offenlegung würde angeblich die Ermittlungsarbeit gefährden.
Damit war der Startschuss für die Bürgerrechts-Kavallerie gefallen. Aktivisten, die solche Sci-Fi-Gerichtssäle schon viel zu oft gesehen haben, reichten einen gemeinsamen Schriftsatz ein. Ihre Botschaft: Ein faires Verfahren ist unmöglich, wenn die Beweislage aus einer Blackbox stammt.
„Gesichtserkennungsabfragen bestehen aus mehreren Komponenten und Schritten, von denen jeder eine erhebliche Fehlerwahrscheinlichkeit birgt“, warnt der Schriftsatz – womöglich die diplomatischste Umschreibung für: „Das System baut ständig Mist.“
Die Bürgerrechtler verweisen auf ein frisches Berufungsurteil aus State v. Arteaga, in dem das Gericht zu dem simplen, aber weisen Schluss kam: Wenn ein Computer jemanden eines Verbrechens beschuldigt, sollten wir wissen, ob er einen Abschluss vom MIT hat – oder bei Clippy’s Academy for Glitchy Algorithms durchgefallen ist.
Auf dieser Grundlage fordert auch Miles’ Verteidigung volle Transparenz. Eine Selbstverständlichkeit sollte man meinen. Doch stattdessen streiten Anwälte jetzt darüber, ob die Freiheit eines Menschen dem Geschäftsgeheimnis eines Tech-Konzerns untergeordnet werden darf.
Das Problem betrifft nicht nur New Jersey. In den gesamten USA setzen Polizeibehörden Gesichtserkennungstechnologie ein wie einen Cheat-Code im Videospiel – ohne Richter, Geschworene oder gar die betroffenen Menschen auch nur im Ansatz aufzuklären.
In diesem Licht betrachtet ist der Fall Miles kein Einzelfall, sondern ein Lackmustest. Sollte der Oberste Gerichtshof von New Jersey der Geheimhaltung den Vorzug geben, geht es nicht nur um das Schicksal eines Mannes – sondern um ein fatales Signal: dass algorithmische Beweise sich der Überprüfung entziehen dürfen.