Top 5 Mest Bekymrende AI Tendenser i 2018, i Henhold til de bedste Forskere

Foto: Tomohiro Ohsumi (Getty)

Kunstig intelligens er allerede begyndt at løbe ud af vores kontrol, en ny rapport fra top forskere advarer. Ikke så meget i en Skynet form for forstand, men mere i en ‘teknologi, virksomheder og regeringer er allerede ved hjælp af AI på måder, der amp overvågning og yderligere marginalisere sårbare befolkningsgrupper’ måde.

På torsdag, den AI Nu Institute, som er tilknyttet New York University og er hjem til toppen AI forskere med Google og Microsoft, udgivet en rapport med detaljer om det væsentlige, er den tilstand af AI i 2018, og den række af foruroligende tendenser, der udspiller sig i feltet. Hvad vi bredt kan definere som AI—machine learning, automatiske systemer, etc.—er i øjeblikket ved at blive udviklet hurtigere end vores regulerende system er forberedt på at håndtere, siger rapporten. Og det truer med at konsolidere magten i tech virksomheder og undertrykkende regeringer til at implementere AI mens rendering bare om alle andre, mere sårbare over for sine fejl og mangler, kapacitet til overvågning, og myriader af dysfunktioner.

Rapporten indeholder 10 anbefalinger til beslutningstagere, alle som synes lyd, samt en diagnosticering af de mest potentielt destruktive tendenser. “Regeringerne er nødt til at regulere AI,” den første henstilling, der formaner, “ved at udvide de beføjelser, sektor-specifikke myndigheder, som skal kontrollere, revision og overvåge disse teknologier domæne.” En massiv Afdeling af AI eller sådan, at forsøg på at regulere området i større målestok, vil ikke skære det, forskere advarer—rapporten foreslår, at tilsynsmyndighederne følg eksempler som et sæt af Federal Aviation Administration og tackle AI som det manifesterer felt for felt.

Men det er også giver en kortfattet vurdering af de centrale problemområder i AI, som de står i 2018. Som beskrevet af AI Nu, de er:

  1. Den ansvarlighed, at afstanden mellem dem, der bygge AI systemer (og profit ud af dem), og dem, der står til at blive påvirket af de systemer (dig og mig) er voksende. Kan ikke lide tanken om at være udsat for kunstigt intelligente systemer at høste dine personlige data eller bestemme forskellige resultater for dig? Alt for dårligt! Rapporten finder, at anvendelsen af de fleste borgere er nødt til at tage fat på de meget kunstigt intelligente systemer, der kan påvirke dem er faldende, ikke vokser.
  2. AI bliver brugt til at forstærke overvågning, ofte under horrible måder. Hvis du tror, overvågning kapacitet af ansigtsgenkendelse teknologi er foruroligende, skal du vente, indtil du ser de endnu mindre samvittighedsfulde fætter, som påvirker indregning. Skæringspunktet er Sam Biddle har en god skrive-up af rapportens behandling af påvirke anerkendelse, som er dybest set moderniseret frenologi, praktiseret i realtid.
  3. Regeringen er at tage selvstændig beslutning software i navn af besparelser, men disse systemer er ofte en katastrofe for de dårligst stillede. Fra systemer, der foregiver at strømline fordele ansøgning processer online til dem, der hævder at være i stand til at afgøre, hvem der er berettiget til boliger, såkaldte ANNONCER systemer er i stand til at uploade bias og fejlagtigt at afvise ansøgere på grundløse grunde. Som Virginia Eubanks detaljer i sin bog Automatisere Ulighed, folk i disse systemer, der fejler, er dem, der er mindst i stand til at mønstre den tid og de ressourcer, der er nødvendige for at løse dem.
  4. AI test “i naturen” allerede er løbet løbsk. “Silicon Valley er kendt for sin ‘move fast and break things” – mentalitet,” bemærker rapporten, og som fører til, at virksomheder test AI-systemer i den offentlige sektor—eller at frigive dem til forbrugeren plads direkte—uden væsentlige tilsyn. Den seneste track record af Facebook—den oprindelige bevæge sig hurtigt, bryde thingser og AI evangelist—alene er for eksempel nok af, hvorfor denne strategi kan vise sig at være katastrofalt.
  5. Teknologiske løsninger til at forudindtaget eller problematisk AI-systemer er utilstrækkelige. Google har gjort det i bølger, når det meddelt, at det var håndteringen af de etiske spørgsmål i forbindelse med machine learning, men en indsats som disse er allerede viser sig at være for snæver og teknisk orienteret. Ingeniører har en tendens til at tro, at de kan løse ingeniørmæssige problemer med, ja, mere teknik. Men hvad der virkelig kræves, fremfører rapporten, der er en meget dybere forståelse af historien og sociale sammenhænge i de datasæt, AI systemer er uddannet på.

Den fulde rapport er vel værd at læse, både for en rundvisning af de utallige måder, AI trådte den offentlige sfære—og kolliderede med den offentlige interesse—i 2018, og for en detaljeret opskrift på, hvordan vores institutioner kan bo på toppen af dette komplicerer situationen.

Denne historie er en del af Automaten, en igangværende undersøgelse af virkninger af AI og automatisering på det menneskelige landskab. For tips, feedback eller andre ideer om at leve med robotter, kan jeg kontaktes på bmerchant@gizmodo.com.

Dele Denne Historie


Date:

by