
„Precrime“ nannte sich das System im Film „Minority Report“, der vor mehr als 20 Jahren mit Tom Cruise in den Kinos lief. Er verhinderte als Polizist damit Morde, bevor sie überhaupt begangen wurden.
Was damals Science-Fiction war, ist heute Realität.
Wie die britische NGO Statewatch jetzt herausfand, arbeitet die britische Regierung an einem Tool, das genau das leisten soll: Per Algorithmus sollen Personen identifiziert werden, die potenziell Morde begehen könnten. Die Software, die anfangs unter dem Namen „Mordverhinderungprojekt“ lief und nun zu einem „Risikobewertungs-Tool“ herabgestuft wurde, wertet Daten von etwa einer halben Million Menschen aus – ausschließlich Straftätern, wie das Londoner Justizministerium betont. In der Polizeiarbeit eingesetzt werde das Tool noch nicht, es werde lediglich geforscht, heißt es.
Unbescholtene dabei
Daran glaubt die NGO Statewatch jedoch nicht. Das Projekt soll nämlich auch Daten von Verbrechensopfern ausgewertet haben, unbescholtenen Bürgern also. Dazu würden auch private Details der Personen einfließen, darunter Vertrauliches wie die psychische Erkrankungen, Suchtverhalten oder Selbstmordversuche. „Erschreckend, dystopisch und alarmierend“, sei das, so die NGO. Die Regierung bestreitet diesen Vorwurf.
„Predictive Policing“ ist allerdings keine neue Erfindung. Die Briten nutzen bereits seit 2011 das Offender Assessment System (OASys); das computergestützte System soll einschätzen, wie hoch die Wahrscheinlichkeit ist, dass ein verurteilter Straftäter erneut straffällig wird. Unumstritten ist es nicht: Das Justizministerium selbst stellte erst vor einiger Zeit fest, wie inakkurat die Methode ist. Bei schwarzen Personen seien die Ergebnisse deutlich ungenauer als bei Weißen.
Auch in den USA sorgt „Predictive Policing“ immer wieder für Probleme. Die Polizei von Los Angeles etwa setzte seit 2010 Algorithmen zur Vorhersage von Verbrechen ein; nicht nur potenzielle Verbrechensorte wurden da gelistet, auch potenzielle Verbrecher, genannt „Hot people“.
Auf Basis dessen wurden Streifenfahrten koordiniert, bis Forschern auffiel, dass der Algorithmus rassistische Vorurteile produzierte: Bei Drogendelikten wurden Schwarze zweimal so oft verdächtigt, obwohl Suchtgiftdelikte quer durch alle ethnischen Gruppen verteilt waren. Ähnliches wurde bei einkommensschwachen Personen beobachtet; 2020 wurde das umstrittene System deshalb eingestellt.
Warnung in Österreich
Österreich nutzt solche Algorithmen derzeit zur regionalen Eingrenzung von Hotspots, auf Individuen zugeschnittene Ansätze gibt es nicht. Davor warnt auch ein Expertenbericht an den Nationalrat aus dem Jahr 2022: „Predicitive Policing kann zu sich selbst-erfüllenden Prophezeiungen führen“, heißt es da. Man solle darauf achten, dass „potenziell fehlerbehaftete, diskriminierende und undurchsichtige Algorithmen das Justizsystem nicht auch in Österreich belasten.“
Source:: Kurier.at – Politik