Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Predictive Policing: Dem Verbrechen der Zukunft auf der Spur | Ambivalente Technologien | bpb.de

Ambivalente Technologien Social Freezing

Predictive Policing: Dem Verbrechen der Zukunft auf der Spur

Sonja Peteranderl

/ 4 Minuten zu lesen

Verbrechen verhindern, bevor sie geschehen, Täter fassen, bevor sie eine Tat begangen haben: Das ist das Prinzip des Predictive Policing. Algorithmen berechnen Gefahrenzonen und die Wahrscheinlichkeit von Verbrechen — doch ihre Zuverlässigkeit ist umstritten.

Dass in Zukunft Robocops unsere Straßen patrouillieren, bleibt uns hoffentlich erspart. Im gleichnamigen Film aus dem Jahr 1987 ist die Polizei komplett privatisiert und korrupt. (Marcelo Braga ) Lizenz: cc by/2.0/de

Auf einer digitalen Karte sind die Hochrisikogebiete, die so genannten Hot Spots, rot markiert: So weiß die Polizei, wo Täter/-innen bald zuschlagen werden – und kann ihre Patrouillen gezielt zu möglichen Tatorten schicken. So spart man Zeit und Ressourcen und verhindert im Idealfall Verbrechen, bevor sie passieren.

Klingt futuristisch? Predictive Policing, vorausschauende Polizeiarbeit, nennt sich diese Art der Kriminalitätsbekämpfung und unterstützt Polizisten inzwischen weltweit bei der Verbrecherjagd. Algorithmen durchforsten Datenberge, suchen nach Mustern und berechnen, welche Verbrechen wo auftreten könnten. Je nach verwendeter Software und Einstellungen fließen in die Bewertungen unterschiedliche Informationsquellen ein: etwa Kriminalfälle aus der Vergangenheit, aber auch soziodemografische Daten, Bonität, Wetterprognosen, Verkehrsdaten, zum Teil auch aktuelle Informationen aus sozialen Netzwerken.

In den USA ist Predictive Policing Software bereits weit verbreitet, auch andere Länder wie England, Südafrika, Brasilien, die Schweiz oder die Niederlande setzen auf datengestützte Ermittlungen. In Deutschland experimentieren die Landeskriminalämter bisher vor allem mit sachbezogener Software wie Externer Link: "Predpol", die Wohnungseinbrüche verhindern soll und versucht, die nächsten Ziele von Einbrecherbanden zu prognostizieren.

Ein Verstärker von Vorurteilen

In den USA, aber auch in England setzen Polizeieinheiten Software bereits personenbezogen ein. Bei Notrufen in Städten wie Fresno in Kalifornien berechnet die Software "Externer Link: Beware" etwa, ob die Sicherheitskräfte am Einsatzort mit einem Gegenüber mit Vorstrafenregister oder einer Schusswaffe rechnen müssen. Die Polizei von Chicago führt seit 2013 eine sogenannte „Externer Link: Strategic Subjects List“ (SSL) mit aktuell etwa 1000 Personen, die besonders gefährdet sind, an einer Schießerei beteiligt zu sein — als Opfer oder Täter. Die als Risikopersonen eingestuften Bürger werden von der Polizei besucht und vorgewarnt, das soll verhindern, dass die Prognose eintritt. Auch soziale Programme sollen die gefährdeten Personen auffangen.

Doch in einer neuen Studie kritisiert die RAND Corporation, eine Denkfabrik die unter anderem die US-Streitkräfte berät, die Methodik: “Personen, die auf der SSL als besonders gefährdet gelistet sind, werden nicht seltener oder häufiger zum Opfer als unsere Kontrollgruppe“, so die Analysten. Die potentiellen Täter auf der Liste dagegen hätten ein höheres Risiko, festgenommen zu werden, weil sie sich bereits im Visier der Polizei befinden. Anstatt Zielpersonen wie angekündigt mit Sozialmaßnahmen zu unterstützen, um mögliche Verbrechen mit Prävention zu verhindern, würde die Liste eher nach Schießereien oder anderen Verbrechen zur Suche nach Tätern herangezogen. Dazu fehle eine Einbettung der Software in eine Gesamtstrategie: Die Polizisten würden kein ausreichendes Training erhalten, das ihnen vermittelt, was die Liste genau bedeutet und wie sie sie für die Polizeiarbeit nutzen sollen.

Die Polizei von Chicago argumentiert, dass die RAND Corporation nur die Anfangsversion der "Strategic Subject List" von 2013 ausgewertet habe und diese weiterentwickelt worden sei. Dennoch offenbart die Studie Einblick in grundsätzliche Probleme datengestützter Polizeiarbeit.

Predictive Policing kann wie ein Verstärker für bestehende Vorurteile und Diskriminierung wirken: Wenn die Polizei etwa verstärkt in bestimmten Vierteln wie sozialen Brennpunkten patrouilliert, erfasst sie dort mehr Kriminalitätsmeldungen, die dann wieder stärker gewichtet in Zukunftsprognosen einfließen. Razzien oder Kontrollen in ärmeren Viertel bestätigen Annahmen, während Waffen- und Drogendealer in wohlhabenden Vierteln seltener auffliegen, weil dort etwa weniger Razzien und Straßenkontrollen stattfinden.

Auch Racial Profiling, die Tendenz, dass etwa schwarze Menschen oder Bürger mit Migrationshintergrund öfter kontrolliert werden, spiegelt sich in den Daten wieder: Nach dem Tod des 25-jährigen Afro-Amerikaners Freddie Gray etwa, der nach seiner Festnahme in Polizeigewahrsam starb, ermittelte das US-Justizministerium gegen die Polizei von Baltimore. Dem Ermittlungsbericht zufolge ist Diskriminierung durch die Polizei in Baltimore massiv: Schwarze Bewohner wurden überdurchschnittlich oft angehalten, häufiger verhaftet und verurteilt. Auf der anderen Seite war das Verhältnis zwischen Polizei und schwarzen Bürgern so schlecht, dass sie viele Verbrechen gar nicht meldeten.

Polizeiroutinen und Einstellungen beeinflussen so die Berechnungen des Algorithmus – denn zukünftige Verbrechen werden aus Daten abgeleitet, die unvollständig sind und deshalb diskriminierend wirken können. Menschenrechtsorganisationen wie die Externer Link: American Civil Liberties Union (ACLU) kritisieren, dass Kriminalitätsbezogene Daten grundsätzlich verzerrt seien.

Noch kein nachgewiesener Erfolg

Polizeieinheiten sehen eine solche Software oft als Tool, das ihre Arbeit und die Einsatzplanung unterstützt. Unabhängige, fundierte wissenschaftliche Studien zum Einsatz und zum Erfolg von Predictive Policing stehen aber noch aus. Predictive Policing Software wird oft von Unternehmen, die auch zum Teil mit Universitäten zusammenarbeiten, entwickelt. Die bisherigen Studien stammen meistens von diesen Unternehmen, die ein Interesse daran haben, ihre Produkte zu vermarkten.

Eine Idee für mehr Transparenz beim Predictive Policing ist die Einrichtung unabhängiger Schiedsgerichte, an denen Technologie-Experten/-innen sowie Vertreter/-innen der Zivilgeschafft beteiligt sind, und die die Funktionsweise und den Einsatz der Polizeisoftware besser kontrollieren sollen, um etwa Diskriminierung zu vermeiden. Dazu müsste allerdings auch transparent sein, welche Variablen zu den Berechnungen von Gefahrenzonen und Verdächtigen herangezogen werden und wie genau der Algorithmus funktioniert.

Auch bei der "Strategic Subject List" aus Chicago sind die detaillierten Variablen nicht öffentlich, nach denen die Risiko-Liste zusammengestellt wird. Eine weitere Herausforderung ist der Datenschutz: Welche Daten fließen in die Berechnungen ein? Wem stehen die Daten zur Verfügung, wo und wie lange werden sie gespeichert? Doch die Polizeibehörden geben bisher nur dosierte Einblicke in die verwendeten Daten und Abläufe – und die Hersteller von Predictive Policing Software betrachten ihre Algorithmen als Geschäftsgeheimnis.

Weitere Inhalte

Weitere Inhalte

Netzdebatte - Zukunft der Arbeit

Debatte bedingungsloses Grundeinkommen

Was wäre, wenn jede_r von uns jeden Monat vom Staat einen festen Betrag aufs Konto überwiesen bekäme - ohne etwas dafür tun zu müssen? Das ist, vereinfacht gesagt, die Idee eines Bedingungslosen…

Netzdebatte - Zukunft der Arbeit

Pro und Contra zur Robotersteuer

Machen uns Roboter in Zukunft überflüssig? Oder schaffen sie neue Freiräume? Gewiss ist, dass die Automatisierung unsere Arbeitswelt verändern wird. Wie Politik, Gesellschaft und Wirtschaft darauf…

Video Dauer
Dokumentarfilm

Pre-Crime

Eine Software, die voraussagt, wo und wann ein Verbrechen geschehen wird und wer es potenziell begeht – was nach Science-Fiction klingt, ist vielerorts längst Realität. Die Dokumentation gewährt…

Video Dauer
Interview

Bots, Fake News und Big Data: Das Ende der Demokratie?

Die Meinungen überschlagen sich derzeit über den Einfluss von Bots, Fake News und Big Data auf Wahlen, die öffentliche Meinung und die Demokratie. Manche Experten sind sicher: Von Algorithmen…

Sonja Peteranderl ist Gründerin des BuzzingCities Labs und des Favelawatchblogs sowie Redakteurin bei WIRED Germany. Sie berichtet über Politik, Wirtschaft, Kriminalität, Drogenkrieg und internationale High-Tech-Trends und hat lange als Auslandsreporterin für Print- und Onlinemedien wie Spiegel Online, Zeit Online, Stern Online, Tagesspiegel, der Freitag oder das Impulse Magazin gearbeitet.