Hvorfor er det AI med fordømmelse af kriminelle er farlige?

Kunstig intelligens er allerede på en eller anden måde er med til at bestemme din fremtid. Når du er på udkig efter noget i en søgemaskine, er at bruge en tjeneste som Netflix eller Bank vurderer din egnethed i forhold til et realkreditlån. Men hvad nu, hvis kunstig intelligens vil have til at bestemme, uanset om du er skyldig eller ej i retten? Mærkeligt nok, i nogle lande, kan dette allerede være sket. For nylig, den Amerikanske high dommer John Roberts spurgte, om han kunne forestille sig en dag, når de “smarte maskiner kontrolleret af kunstig intelligens, vil hjælpe i søgen efter beviser eller endda i retsafgørelser. Han sagde: “Det var allerede ved at ske, og det er væsentligt hjælper i retssager”.

Måske blev Hun med henvisning til den seneste sag om Erik Loomis, der blev dømt til seks år i fængsel på anbefaling af den hemmelige leverandørejet software til en privat virksomhed. Loomis, der allerede havde en kriminel fortid, og han blev dømt for at flygte fra politiet i en stjålet bil, hævder nu, at hans ret til den procedure, der var krænket, fordi hverken han eller hans repræsentanter er i stand til at undersøge eller udfordring algoritmen anbefalinger.

Rapporten er udarbejdet af Compas-program, som er solgt Notrpointe domstole. Programmet er udtryk for en ny tendens i AI-forskning: det hjælper dommerne til at tage den “bedste” (eller i det mindste mere fokuseret på data) afgørelse i retten.

Selv om de specifikke detaljer i tilfælde af Loomis er lukket, er det helt sikkert indeholder grafer og tal, der identificerer liv, adfærd og sandsynligheden for tilbagefald Loomis. Blandt dem, alder, race, køn, identitet, vaner, browser historie og nogle målinger af kraniet. Ingen er sikker.

Det er kendt, at Anklageren i sagen, fortalte dommeren, at Loomis vist “en høj risiko for tilbagefald til kriminalitet, vold, pre-retssag”. Dette er standard, når det kommer til strafudmåling. Dommeren aftalt og fortalte Loomis, at “i henhold til Compas, han blev defineret som en person, der udgør en høj risiko for samfundet.”

Supreme court of Wisconsin dømt Loomis, der tilføjer, at den Compas rapporten bragte værdifulde oplysninger til sin afgørelse, men bemærkede, at det havde den samme sætning. For at kontrollere dette for at sikre, selvfølgelig, vil ikke arbejde. Hvad er kognitiv modstand, når de i virkeligheden er involveret den Almægtige “smart” er som en Compas, som rådgiver dommere, hvordan man gør?

Ukendt bruger

Lad os være ærlige, der er intet “ulovligt”, der gjorde court of Wisconsin er kun et eksempel. Andre domstole, der kan og vil gøre det samme.

Desværre, vi ikke ved, i hvilket omfang brugen af AI og andre algoritmer i strafudmåling. Det menes, at nogle domstole har “testet” det system som Compas i egen forskning, men kan ikke annoncere deres partnerskab. Der er også en opfattelse, at flere nystartede virksomheder er ved at udvikle AI svarer til smart system.

Men brugen af AI i lov ikke begynder og slutter med den dømmende, det begynder med undersøgelsen. I det BRITISKE system er blevet udviklet VALCRI, der udfører den besværlige analytisk arbejde på få sekunder — Vade gennem tonsvis af data som tekster, lab rapporter og politiet dokumenter til at fremhæve ting, der kan kræve yderligere undersøgelse.

Politiet i West Midlands i STORBRITANNIEN vil teste VALCRI i løbet af de næste tre år, ved hjælp af anonyme data, der indeholder mere end 6,5 millioner plader. En lignende test udført af politiet i Antwerpen i Belgien. Men i tidligere projekter af AI og dyb læring, herunder massive datasæt, var problematisk.

Fordelene for de få

Teknologi har givet mange nyttige enheder hallerne i retten, fra kopimaskiner til at udtrække DNA fra fingeraftryk, og avancerede overvågningsteknikker. Men det betyder ikke, at enhver teknologi er bedre.

Selv om brugen af AI i undersøgelser og sætninger kan potentielt spare tid og penge, vil det skabe akutte problemer. I Compas rapport fra ProPublica, var det tydeligt fremgår, at sort program fejlagtigt mener er mere tilbøjelige til at tilbagefald tiltalte end hvide. Selv de mest avancerede AI systemer kan have arvet race og køn bias dem, der skaber dem.

Desuden, hvad er pointen med at skifte beslutningstagning (i det mindste delvist) på områder, der er unikke for mennesker på den algoritme? I USA er der er en vis vanskelighed, når en jury bedømmer deres jævnaldrende. De standarder, der i de love, der var aldrig en reference, fordi disse juryer er en af de mest demokratiske og effektive system af fordømmelse. Vi laver fejl, men over tid akkumulere viden om, hvordan man ikke skal lave dem, opdatering af systemet.

Compas og lignende systemer er “black box” i det juridiske system. Sådan bør det ikke være. Det juridiske system, afhænger af den sammenhæng, gennemsigtighed af information og evne i betragtning. Samfundet ønsker ikke, at fremkomsten af et system, der tilskynder til en race med AI, start-UPS, der laver hurtige, billige og eksklusive løsninger. Hastigt lavet AI vil være forfærdeligt.

En opdateret version af Compas, open source, det ville være bedre. Men først nødt til at hæve standarder for domstolene, før vi begynder at tage ansvar i favør af algoritmer.

Hvorfor er det AI med fordømmelse af kriminelle er farlige?
Ilya Hel


Date:

by