Britischen Polizisten erschaffen eine KI, die Fahnen, die Menschen für Verbrechen, die Noch nicht schon Passiert

Foto: Getty

Die Polizei in Großbritannien sind Pilotierung ein Projekt, die künstliche Intelligenz verwendet, um zu bestimmen, wie wahrscheinlich es ist, jemand zu Begehen, oder Opfer einer schweren straftat werden. Dazu gehören Straftaten im Zusammenhang mit einer Pistole oder einem Messer, wie auch als moderne Sklaverei, New Scientist berichtete am Montag. Die Hoffnung ist, diese information zu verwenden, um zu erkennen, potenzielle Täter oder Opfer und greifen mit Ratgebern oder soziale Dienste vor Verbrechen stattfinden.

Genannt werden die Nationalen Daten-Analytics-Lösung (NDAS), das system zieht die Daten aus der lokalen und nationalen Polizei-Datenbanken. Ian Donnelly, die Polizei führt auf dem Projekt, sagte New Scientist, die Sie gesammelt haben, über ein terabyte an Daten aus diesen Systemen bereits, darunter Protokolle von Verbrechen und über 5 Millionen identifizierbaren Menschen.

Das system hat rund 1.400 Indikatoren aus diesen Daten können helfen, die fahne jemanden, der ein Verbrechen zu Begehen, wie, wie oft jemand ein Verbrechen begangen hat, mit Hilfe, als auch, wie viele Menschen in Ihrem Netzwerk haben Verbrechen begangen. Die Menschen in der Datenbank, die gekennzeichnet sind durch den Algorithmus als anfällig für Gewalttaten erhalten einen “Risiko-score” New Scientist berichtet, welche Signale Ihre Chancen auf Begehung einer schweren straftat in der Zukunft.

Die West Midlands Police department leitet das Modellprojekt bis Ende März 2019, und Sie erwartet, einen Prototyp von dieser Zeit. Es gibt acht andere Polizei angeblich ebenfalls beteiligt, und die Hoffnung ist schließlich, erweitern Ihre Verwendung für alle Polizeidienststellen in Großbritannien.

Donnelly sagte New Scientist, dass Sie nicht planen, zu verhaften, wer, bevor Sie habe ein Verbrechen begangen, sondern, dass Sie wollen, zu bieten Beratung für diejenigen, die das system zeigt, könnte es brauchen. Er bemerkte auch, dass es zu Kürzungen Polizei Finanzierung vor kurzem, so etwas wie das NDAS-könnte helfen bei der Optimierung und Priorisierung der Prozess der Bestimmung, die in Ihren Datenbanken die meisten muss eingreifen.

Auch wenn die Absichten sind gut-das bedeutet, es ist leicht vorstellbar, wie ein solches system könnte gefährliche Auswirkungen. Für den Anfang, es ist eine ernsthafte Verletzung der Privatsphäre, wenn es um Interventionen bei Individuen vor etwas traumatisierend ist sogar schon vorgekommen. Dieses system effektiv ist, senden die psychische Gesundheit Profis, um die Häuser der Menschen, weil ein Algorithmus vorgeschlagen, dass in der Zukunft, es gibt eine chance, die Sie möglicherweise Begehen oder Opfer eines Verbrechens. Zu erlassen, die Art der intervention im gesamten Land Malt ein Bild von einem unheimlich aufdringlich Zukunft.

Abgesehen von der beunruhigenden Möglichkeit der Minority Report-wie an deine Tür klopft, dass dieses system dazu führen kann, gibt es noch eine Litanei der eklatante Probleme mit KI-basierte Systeme zur Erkennung. Sie sind nicht frei von Voreingenommenheit, und als Andrew Ferguson an der Universität des District of Columbia, sagte New Scientist, die Anzahl der Festnahmen nicht inhärent signal ein hot spot für Verbrechen, sondern wo Polizisten gesendet werden, und dies überproportional auf Menschen von Farbe und die Armen Nachbarschaften. Dies bedeutet auch, dass die strafrechtliche Datenbanken das system ist das ziehen von nicht repräsentativ für die Gesellschaft als ganzes, was wiederum bedeutet, dass Personen, die in stark kontrolliert Bereichen am meisten gefährdet sind, gekennzeichnet wird.

[New Scientist]

Teilen Sie Diese Geschichte


Date:

by