Foto: Getty
Haben Sie einen plan zu verfolgen und vorherzusagen, das Verhalten von ex-cons mit künstlicher Intelligenz? Das US-Justizministerium ist über alle Ohren.
Letzte Woche hat das Justizministerium angekündigt, es war die Vergabe von bis zu $3 Millionen für künstliche-Intelligenz-Projekte fördern “die erfolgreiche Rückkehr von Straftätern unter Gemeinschaft Aufsicht.” Die Ausschreibung für R&D Vorschläge charakterisiert das Programm als eine Möglichkeit “zur Senkung der Kriminalität und zum Schutz der Polizei, den sonstigen öffentlichen Sicherheit Personal und die öffentlichkeit.” Das klingt vielleicht harmlos aus—bis Sie hören, dass das Justizministerium Beispiele.
Während vorgestellt, wie Maßnahmen zur Unterstützung von ehemaligen Strafgefangenen, wird erneut verhaftet und wieder im Gefängnis, einige der “potenziellen Anwendungen” von AI aufgeführt in dem Dokument sind verstörend invasiv.
Eine von drei angebotenen Beispiele ist harmloser als die anderen. Kategorisiert als “Mobile-Service-Lieferung,” diese Anwendung wird beschrieben, wie mit AI zu bieten Tätern personalisierte Ressourcen, die über Ihre Handys. Diese umfassen die Zusendung von Informationen über die Montage Wiedereinstiegs-Programme oder remote-peer oder mentor unterstützen.
Die anderen Möglichkeiten, in denen die US-Regierung will mit AI zu verringern, Rückfälle sind weit weniger besorgt mit der Entwicklung persönlicher Ressourcen für die Täter, und statt dessen signal eine Zukunft, in der Korrekturen-Agenturen stützen sich auf Technologie, um zu verfolgen und vorherzusagen, die Täter ” Verhaltensweisen in Echtzeit. Ein Beispiel genannte “Situativ Abhängigen, Echtzeit-Updates zu einem Täter-Risk-need-Empfindlichkeit Assessment”—umfasst die Verwendung von AI zu erkennen, wenn ein Täter in einer Hochrisiko-situation und schicken Echtzeit-updates, um sowohl der Aufsicht der Offiziere und Täter selbst.
Die meisten verstörende Idee, die im Detail im Dokument, jedoch, ist die sogenannte “Intelligente Täter-Tracking”, das Knöchel-monitor-Daten zu ermitteln “und eventuell vorherzusagen” Täter ” Verhalten. Das Justizministerium schlägt vor, dass diese Daten könnten verwendet werden, um eigenständig alert eine betreuende Offizier, mentor, oder die Täter, wenn Sie Zeit verbringen in Orten, die im Zusammenhang mit riskantem Verhalten. Letzteres könnte etwa bedeuten, eine “chat-bot-system”, das soll deescalate die situation durch das Telefon.
“AI initiierten Aktionen kann auch die Benachrichtigung der Täter über Ihr mobiles Gerät darauf, eine cooling-off-Periode in einen sicheren Raum, oder zur Förderung der Verhaltensmodifikation Techniken,” heißt das Dokument.
Nicht alle diese Vorschläge sind von Natur aus schlecht, wie mit einem ex-Sträfling personalisierte, zugängliche Ressourcen zu unabhängig (und nicht-invasiv) sich selbst zu helfen. Aber die Anwendung von AI, um vorherzusagen, das Verhalten von Tätern und senden, dass Informationen in Echtzeit, um Korrekturen Offiziere ist eine Strategie, die nur dazu dient, diejenigen tun, die die Polizeiarbeit.
Abgesehen von der sehr offensichtlichen Eingriff in die Privatsphäre, es gibt viele Belege dafür, dass kriminelle Justiz AI ist immer noch sehr voreingenommen, und es ist diese voreingenommen-Systeme, die Korrekturen Offiziere und Mentoren werden könnte, blind zu Vertrauen, Vorhersagen, riskantes Verhalten, das nicht sogar schon passiert. Natürlich, die prämierten Vorschläge müssen noch ausgewählt werden, aber die Aufforderung ist angegeben, welche Art von aufdringlichen Projekte der Agenturen, die möglicherweise am meisten interessiert. Laut dem Dokument, werden alle Trainingsdaten auch an das Justizministerium, “zusammen mit detaillierten durchführungsanweisungen.”
[h/t Logan Köpke]
Teilen Sie Diese Geschichte