Polizeibehörden setzen zunehmend fortschrittliche Technologien zur Verbrechensbekämpfung ein, darunter Biometrie, Hörerkennung und sogar virtuelle Realität. Eines der umstrittensten Instrumente ist die „vorausschauende Polizeiarbeit“, die seit langem beschuldigt wird, rassistische Vorurteile zu verstärken. Ein Forscherteam der Indiana University, der UCLA und der Louisiana State University stellte jedoch fest, dass die Praxis und ihre Auswirkungen auf die Voreingenommenheit komplizierter sind.
Predictive Policing ist ein „ Smart Policing “ -Tool, das einen Algorithmus trainiert, um vorherzusagen, wo Kriminalität stattfinden wird. Für diese Studie erhielt das LAPD Karten von „Hot Spot“ -Bereichen zur Patrouille. An "Behandlungstagen" wurden die Hotspot-Bereiche durch einen Algorithmus ausgewählt. An Kontrolltagen wurden sie von einem menschlichen Analytiker ausgewählt. Die Forscher verglichen die Verhaftungsraten sowohl an den Behandlungs- als auch an den Kontrolltagen und wollten wissen, ob Minderheiten an beiden Tagen mehr oder weniger häufig verhaftet wurden.
Warum ist das umstritten? Weil Verhaftungsdaten keine Nuancen aufweisen. Eine Person könnte dasselbe Verbrechen an zwei verschiedenen Orten begehen, würde jedoch nur verhaftet, wenn sich dort ein Beamter befindet (oder einer, der auf einen Notruf reagiert). Wie die Befürworter argumentieren, werden Gebiete mit mehr Polizeipräsenz immer mehr Verhaftungen haben. Wenn also Beamte einer Nachbarschaft gegenüber misstrauischer sind, wird sie mehr verhaftet, weil mehr Beamte dorthin geschickt werden. Diese Dynamik spiegelt sich nicht in den Festnahmedaten wider, die zum Trainieren von Algorithmen verwendet werden. es zeigt einfach, wo und wie oft Verhaftungen stattfinden. Strafverfolgungsbehörden sagen jedoch, dass Beamte in Gebiete geschickt werden, die auf Kriminalität und nicht auf Rassenverdacht beruhen.
Aber was die Forscher der Indiana University fanden, hat weder eine Behauptung bewiesen noch widerlegt. Das Papier „Führt vorausschauende Polizeiarbeit zu voreingenommenen Verhaftungen? Ergebnisse einer randomisierten Kontrollstudie? “ wurde in der neuesten Ausgabe von Statistics and Public Policy veröffentlicht .
Forscher sagen , Minderheiten wurden nicht mit höheren Raten an Algo bestimmte Tage verhaftet , als auf Analyst bestimmte Tage. Die rassischen Anteile der Festgenommenen waren an den Tagen der „Behandlung“ und der „Kontrolle“ gleich. Insgesamt waren die Verhaftungsraten für alle Rennen an den Tagen der „Behandlung“ und der „Kontrolle“ insgesamt gleich.
Interessanterweise , wenn es eine geographische Ebene aufgeschlüsselt, Offiziere haben mehr Menschen in bestimmten „Hot Spot“ Bereichen durch den Algorithmus als der „Hot Spots“ von einem Analytiker bestimmt verhaften. Die Forscher behaupten jedoch, dass dies erwartet wird - die Zunahme der Verhaftungen steigt proportional zur Zunahme der Kriminalität nach oben.
"Die höhere Kriminalitätsrate und die proportional höhere Verhaftungsrate sind zu erwarten, da der Algorithmus Gebiete mit hohen Kriminalitätsraten identifizieren soll", sagte George Mohler, einer der Autoren der Studie, gegenüber Physics.org.
Letztendlich stellten die Forscher fest, dass vorausschauende Polizeiarbeit die Voreingenommenheit anscheinend nicht erhöht . Das bedeutet nicht, dass Polizeiarbeit, vorausschauend oder nein, keine rassistischen Vorurteile hat. einfach , dass in diesem Fall wurden Algorithmen nicht gefunden haben , verursacht keine Rassen Ungleichgewichte in Verhaftungen. Aus dem Ergebnisbereich:
Predictive Policing erweitert lediglich vorhandene Überwachungsmuster. Wenn es Verzerrungen gibt, erweitern Algorithmen diese ebenfalls, aber sie sind nicht der Urheber. Die Forscher weisen darauf hin, dass die Hauptursachen für Kriminalität und rassistische Vorurteile ein anderes Thema sind, obwohl eine offensichtliche Frage offen bleibt: Warum die Polizeiarbeit verstärken, solange es noch allgegenwärtige, nicht angesprochene Vorurteile gibt?
Das bleibt eine Debatte für Gemeindevorsteher und Strafverfolgungsbehörden. Derzeit hofft Mohler, dass die Studie als „Rahmen“ für die Prüfung der rassistischen Auswirkungen dieser Praxis dient.
"Jedes Mal, wenn Sie eine dieser vorausschauenden Polizeieinsätze durchführen, sollten die Abteilungen die ethnischen Auswirkungen dieser Algorithmen überwachen, um zu überprüfen, ob rassistische Vorurteile bestehen", sagte Mohler. "Ich denke, die statistischen Methoden, die wir in diesem Papier bereitstellen, bieten einen Rahmen, um dies zu überwachen."
[ Phys.org ]