Präventive Staatsräson
Minority Report war keine Warnung: er war ein Businessplan
***
Der moderne Staat definiert sich nicht mehr primär durch das, was er bestraft, sondern durch das, was er verhindert. Die präventive Staatsräson ist keine Erfindung der KI - sie reicht zurück zu Carl Schmitts Souveränitätsdefinition und wurde durch Anti-Terror-Gesetze nach 9/11 institutionalisiert. Doch erst Künstliche Intelligenz macht sie zur alltäglichen, skalierbaren Verwaltungspraxis. Der Staat handelt nicht mehr gegen Taten. Er handelt gegen Wahrscheinlichkeiten.
Predictive Policing-Systeme sind nur der sichtbarste Teil. Algorithmen wie Palantir Gotham oder Chinas „Sharp Eyes”-Erweiterungen prognostizieren nicht nur Orte, sondern Personen.1 Sie kombinieren Kriminalitätsdaten mit Bewegungsprofilen, Kaufverhalten, Social-Media-Aktivitäten, Schulnoten und Arbeitsmarktdaten - in manchen Pilotprojekten sogar mit genetischen Risikofaktoren. Das Ergebnis ist ein individueller Risikoscore, der entscheidet, ob jemand intensiver überwacht, zu „sozialen Trainingsmaßnahmen” verpflichtet oder in bestimmten Zonen eingeschränkt wird. In den USA wurden solche Systeme eingesetzt, um Jugendliche mit erhöhtem „Gewaltpotenzial” automatisch auf Watchlists zu setzen - bevor ein Delikt begangen wurde.2
Ähnliches gilt im Sozial- und Asylbereich: Algorithmen bewerten, wer „Integrationsrisiko” darstellt oder Kindeswohl-Gefährdung mitbringt. In den Niederlanden und Großbritannien wurden Familien ohne ihr Wissen überwacht oder Leistungen gekürzt. Der Staat greift ein, weil etwas passieren könnte. Die Unschuldsvermutung wird zur Wahrscheinlichkeitsrechnung: Bei 87 % Risiko gilt der Schutz der Gesellschaft als höherrangig als die Freiheit des Individuums.
Die Legitimation erfolgt durch Zahlen - und hier kommt die ROC-Kurve ins Spiel. ROC (Receiver Operating Characteristic) visualisiert, wie gut ein Klassifikationsmodell zwischen „gefährlich” und „nicht gefährlich” unterscheidet. Die X-Achse zeigt die False-Positive-Rate (Unschuldige, die fälschlicherweise als Gefährder eingestuft werden), die Y-Achse die True-Positive-Rate (echte Gefährder, die korrekt erkannt werden). Die Fläche unter der Kurve - AUC - fasst die Gesamtleistung zusammen: 0,5 bedeutet Zufall, 1,0 perfekte Trennung. Ein AUC von 0,85 klingt überzeugend.3 Was er nicht zeigt: Bei niedrigen Entscheidungsschwellen, die Behörden wählen, um möglichst keinen Gefährder zu übersehen, werden Tausende Unschuldige unnötig erfasst. Die ROC-Kurve verwandelt eine politisch-ethische Frage - wie viele Unschuldige nehmen wir in Kauf? - in ein scheinbar neutrales Optimierungsproblem. Wer dagegen argumentiert, wirkt irrational: „Willst du mehr Tote riskieren, nur weil du Freiheit höher bewertest?” Die Debatte wird technisch entpolitisiert.
Der Vergleich zu Minority Report liegt auf der Hand – und greift doch zu kurz. Im Film verhaftet PreCrime Mörder vor der Tat. Heute wird nicht verhaftet, aber präventiv diszipliniert, wie man in der aktuellen Entscheidung um den deutschen Buchhandlungspreis beobachten kann, wo drei Buchhandlungen, die als links eingestuft werden können, ohne Begründung nach dem Haber-Verfahren kriminalisiert werden. Der Unterschied ist graduell, nicht prinzipiell. Beide Systeme opfern individuelle Autonomie für kollektive Sicherheit, beide setzen auf Prognose statt Beweis, beide machen den Bürger zum Risikosubjekt: Jede Handlung, jeder Aufenthalt, jeder Suchbegriff fließt ins eigene Gefährdungsprofil ein. Der Film endet mit einer Warnung: Wer Verbrechen vor der Tat bestraft, zerstört, was einen Rechtsstaat ausmacht, die Möglichkeit, sich zu ändern, zu bereuen, neu zu entscheiden.
Die gesellschaftlichen Konsequenzen sind strukturell. Erstens der Chilling Effect: Bürger passen ihr Verhalten präventiv an - politische Meinungsäußerung, soziale Kontakte, Freizeitgestaltung werden vorsichtiger, weil alles zählt. Zweitens eine neue Form von Ungleichheit: Wer überwacht wird, ist nicht zufällig - Arme, Migranten, psychisch Belastete, politisch Aktive haben systematisch schlechtere Scores, der Algorithmus reproduziert und verstärkt bestehende Verhältnisse.4 Drittens Verantwortungsdiffusion: Wenn ein Unschuldiger ungerecht behandelt wird, ist niemand haftbar. Der Algorithmus hat entschieden.5
Die präventive Staatsräson ist kein Sonderfall. Sie ist das logische Endstadium einer Entwicklung, die Sicherheit über Freiheit stellt und individuelle Autonomie durch kollektive Prognose ersetzt.6 Minority Report war keine Warnung vor einer fernen Zukunft - es war eine Beschreibung dessen, was bereits begonnen hatte. Die Precogs sind heute neuronale Netze. Die Verhaftung ist selten physisch - sie ist eine schleichende Einschränkung, die niemand mehr hinterfragt. Die ROC-Kurve spricht für Sicherheit. Und wir nicken.
Fußnoten
The Intercept, 11. Mai 2018: How the LAPD and Palantir Use Data to Predict and Police Communities of Color. theintercept.com ↩
The Intercept, 27. Februar 2018: Palantir Secretly Used New Orleans to Test Its Predictive Policing Technology. theintercept.com ↩
Brayne, S. / Christin, A. (2021): Technologies of Crime Prediction: The Reception of Algorithms in Policing and Criminal Courts. Social Problems, 68(3), 608–624. ↩
Richardson, R. / Schultz, J. / Crawford, K. (2019): Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. NYU Law Review Online, 94, 15–55. ↩
Rechtbank Den Haag, Urteil vom 5. Februar 2020, ECLI:NL:RBDHA:2020:865 (NJCM et al. / Staat der Nederlanden). ohchr.org ↩
Ferguson, A. G. (2017): The Rise of Big Data Policing. NYU Press. Vgl. auch: Eubanks, V. (2018): Automating Inequality. St. Martin’s Press. ↩
Quellen
Brayne, S. / Christin, A. (2021): Technologies of Crime Prediction: The Reception of Algorithms in Policing and Criminal Courts. Social Problems, 68(3), 608–624.
Eubanks, V. (2018): Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
Ferguson, A. G. (2017): The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. NYU Press.
Richardson, R. / Schultz, J. / Crawford, K. (2019): Dirty Data, Bad Predictions. NYU Law Review Online, 94, 15–55.
Rechtbank Den Haag, Urteil vom 5. Februar 2020, ECLI:NL:RBDHA:2020:865. ohchr.org
The Intercept (2018): How the LAPD and Palantir Use Data to Predict and Police Communities of Color. theintercept.com
The Intercept (2018): Palantir Secretly Used New Orleans to Test Its Predictive Policing Technology. theintercept.com


