Varför är AI dömer brottslingar är farligt?

Artificiell intelligens är redan på något sätt hjälper till att avgöra din framtid. När du letar efter någonting i en sökmotor, med hjälp av en tjänst som Netflix eller Banken utvärderar din lämplighet för en inteckning. Men vad händer om artificiell intelligens har att bestämma om du är skyldig eller inte i domstol? Märkligt nog, i vissa länder kan detta redan sker. Nyligen, den Amerikanska high domare John Roberts frågade om han kunde tänka sig en dag när “smarta maskiner som styrs av artificiell intelligens, kommer att hjälpa till i sökandet efter bevis eller ens i rättsliga beslut”. Han sade: “Detta var redan i full gång, och det betydligt hjälper till i rättsliga förfaranden”.

Kanske Roberts var med hänvisning till den senaste tidens fall av Erik Loomis, som dömdes till sex års fängelse, på rekommendation av hemliga proprietär programvara till ett privat företag. Loomis, som redan hade ett kriminellt förflutet och blev dömd för att han flydde från polisen i en stulen bil, hävdar nu att hans rätt att förfarandet var kränkt eftersom varken han eller hans företrädare inte har möjlighet att granska eller ifrågasätta algoritm rekommendationer.

Rapporten har utarbetats av Compas-program, som säljs Notrpointe domstolar. Programmet omfattar en ny trend inom AI-forskning: det hjälper domare att ta den “bästa” (eller åtminstone mer fokuserade på de uppgifter) beslutet i domstol.

Även om de specifika detaljerna i fallet av Loomis vara stängd, det innehåller verkligen grafer och siffror att identifiera liv, beteende och risken för återfall Loomis. Bland dem ålder, ras, kön identitet, vanor, webbläsarhistorik och några mätningar av skallen. Ingen är säker.

Det är känt att Åklagaren i det här fallet sade domaren att Loomis visat “en hög risk för återfall i brott, våld, pre-rättegången”. Detta är standard när det kommer till straff. Domstolen instämde och berättade för Loomis att “enligt den Compas, han definieras som en person som uppvisar en hög risk för samhället.”

Supreme court of Wisconsin fördömde Loomis, och tillade att Compas betänkandet som lagts fram värdefull information för hans beslut, men konstaterade att det som samma mening. För att kontrollera detta för att, naturligtvis, kommer inte att fungera. Vad är den kognitiva fördomar, när det i själva verket innebar den Allsmäktige “smart” system är som en Compas, som ger råd till domarna hur man gör?

Okänd användning

Låt oss vara ärliga, det är inget “olagligt”, som gjorde att domstolen i Wisconsin är bara ett exempel. Andra domstolar kan och kommer att göra samma sak.

Tyvärr, vi vet inte i vilken utsträckning användningen av AI och andra algoritmer i domen. Man tror att vissa domstolar har “testat” det system som Compas i egen forskning, men kan inte presentera sitt samarbete. Det är också en uppfattning som flera startups är att utveckla AI liknande till smarta system.

Men användningen av AI i lagen inte börjar och slutar med dom, det börjar med undersökningen. I det BRITTISKA systemet har utvecklats VALCRI som utför den mödosamma analysen i sekunder — Vada genom massor av data som texter, labbrapporter och polisen dokument för att lyfta fram saker som kan komma att kräva ytterligare utredning.

Polisen i West Midlands i STORBRITANNIEN kommer att testa VALCRI under de kommande tre åren, med hjälp av anonym data, som innehåller mer än 6,5 miljoner poster. Ett liknande test som utförs av polisen i Antwerpen i Belgien. Men i det förflutna, projekt av AI och djupt lärande, bland annat massiva datamängder, var problematisk.

Fördelarna för några

Tekniken har gett många användbara produkter salar av domstol, från kopiatorer för att extrahera DNA från fingeravtryck och sofistikerad övervakning tekniker. Men detta betyder inte att någon teknik är att förbättra.

Även om användningen av AI i utredningar och meningar kan potentiellt spara tid och pengar, det kommer att skapa ett akut problem. I Compas rapport från ProPublica, det var tydligt att svart programmet av misstag tror är mer benägna att återfall i brott tilltalade än vita. Även de mest avancerade AI-system kan ha ärvt ras och kön fördomar om de som skapar dem.

Dessutom, vad är det för mening att flytta beslutsfattande (åtminstone delvis) på frågor som är unika för människor på den algoritm? I USA finns en viss svårighet när en jury domare sina kamrater. De normer som i de lagar var aldrig en referens, eftersom dessa jurymedlemmar är den mest demokratiska och effektiva system för fördömande. Vi gör misstag, men över tid samla kunskap om hur man inte ska göra dem, uppdatera systemet.

Comps och liknande system är “svart låda” i det rättsliga systemet. Sådana bör inte vara. Det juridiska systemet beror på kontinuitet, öppenhet av information och förmåga till hänsyn. Samhället vill inte uppkomsten av ett system som uppmuntrar till ett race med AI, start-UPS, som gör snabba, billiga och exklusiva lösningar. Hastigt gjorde AI kommer att vara fruktansvärd.

En uppdaterad version av Compas, öppen källkod skulle vara bättre. Men först måste höja standarden på det rättsliga systemet, innan vi börja att ta sitt ansvar för förmån av algoritmer.

Varför är AI dömer brottslingar är farligt?
Ilya Hel


Date:

by