Forskerne sier sosiale, etiske og politiske bekymringer er montering og større tilsyn er et presserende behov
Foreløpig er det ingen testing standarder eller krav til AIs for å forklare sine beslutninger. Det er heller ingen organisasjon som er rustet til å overvåke og undersøke noen dårlige avgjørelser eller ulykker.
Kompositt: Guardian design
Kunstig intelligens (AI)
AI fremtiden
Kunstig intelligens risiko GM-stil offentlig tilbakeslag, eksperter advarer
Forskerne sier sosiale, etiske og politiske bekymringer er montering og større tilsyn er et presserende behov
@iansample
Onsdag 1 November 2017 10.30 GMT
Sist endret på onsdag 1 November 2017 14.22 GMT
Det nye feltet av kunstig intelligens (AI) risiko provoserte en offentlig tilbakeslag som det stadig faller på private hender, truer folks arbeidsplasser, og opererer uten effektivt tilsyn eller regulatorisk styre, ledende eksperter på teknologi advare.
Ved starten av en ny Verge serien på AI, eksperter i feltet markere stort potensial for teknologi, som allerede påskynde medisinsk og vitenskapelig forskning, noe som gjør byer kjøre mer jevnt, og gjør virksomheter mer effektive.
Kunstig intelligens-kommisjonen som trengs for å forutsi konsekvenser, sier CBI
Les mer
Men for alle løftet av en AI-revolusjonen, det er montering av sosiale, etiske og politiske bekymringer om teknologien er utviklet uten tilstrekkelig tilsyn fra myndigheter, politikere og myndigheter. Forskerne fortalte the Guardian at:
- Fordelene av AI kan være tapt for en GM-stil tilbakeslag.
- En brain drain til privat sektor er å skade universiteter.
- Kompetanse og rikdom er å være konsentrert i en håndfull bedrifter.
- Feltet har et stort mangfold problem.
I oktober, Dame Wendy Hall, professor i informatikk ved Southampton University, co-leder for en uavhengig gjennomgang av den Britiske AI bransjen. Rapporten fant at AI hadde potensial til å legge til £630bn til økonomi frem til 2035. Men for å høste belønningene må teknologien nytte for samfunnet, sa hun.
“AI vil påvirke alle aspekter av vår infrastruktur, og vi må sørge for at det er til fordel for oss,” sa hun. “Vi har til å tenke på alle problemene. Når maskiner kan lære og gjøre ting for seg selv, hva er farene for oss som et samfunn? Det er viktig fordi de nasjonene som ta tak i problemene vil være vinnerne i den neste industrielle revolusjon.”
I dag ansvar for å utvikle trygge og etisk AI ligger nesten utelukkende med selskaper som lager dem. Det er ingen testing standarder, ingen krav til AIs for å forklare sine beslutninger, og ingen organisasjon som er rustet til å overvåke og undersøke noen dårlige avgjørelser eller ulykker som skjer.
Q&A Hvordan får maskiner til å lære?
Vis
Skjul
Et sentralt mål av fagområdet kunstig intelligens er for maskiner for å være i stand til å lære hvordan til å utføre oppgaver og treffe avgjørelser uavhengig av hverandre, i stedet for å bli eksplisitt programmert med lite fleksible regler. Det er forskjellige måter å gjøre dette på i praksis, men noen av de mest slående nylige fremskritt, for eksempel AlphaGo, har brukt en strategi kalt forsterkning læring. Vanligvis vil maskinen har et mål, for eksempel å oversette en setning fra engelsk til fransk og en massiv dataset å trene på. Det starter med bare å lage en stikke på oppgave – oversettelse eksempel vil det starte med å produsere uleselige tull og sammenligne sine forsøk mot eksisterende oversettelser. Programmet er så “belønnet” med en score når det er vellykket. Etter hver iterasjon av den oppgaven det forbedres, og etter et stort antall repriser slike programmer kan matche og overgå nivå av menneskelige oversettere. Å få maskiner til å lære mindre godt definerte oppgaver eller de som ikke digitale datasett eksisterer er et fremtidig mål som vil kreve en mer generell form for intelligens, som er beslektet med sunn fornuft.
Var dette nyttig?
Takk for din tilbakemelding.
“Vi må ha sterke uavhengige organisasjoner, sammen med dyktige fagfolk og godt informert, forskere, som kan fungere som vaktbikkjer og hold den store bedrifter ansvarlige til høye standarder,” sa Kate Crawford co-regissør av AI Nå Institute ved New York University. “Disse systemene er i ferd med å bli den nye infrastrukturen. Det er avgjørende at de er både trygt og rettferdig.”
Mange moderne AIs lære å ta beslutninger ved å være trent på massive datasett. Men hvis dataene i seg selv inneholder skjevheter, disse kan være arvelig og gjentatt av AI.
Tidligere dette året, en AI som datamaskiner bruker til å tolke språket ble funnet å vise kjønn og etnisk diskriminering. En annen brukt til image anerkjennelse kategorisert kokker som kvinner, selv når overlevert bilder av skallet menn. En rekke andre, blant annet verktøy som brukes i politiarbeid og fange risikovurdering, har vist seg å diskriminere svarte mennesker.
Bransjen er seriøse mangfold problemet er delvis skylden for AIs som diskriminerer kvinner og minoriteter. På Google og Facebook, fire av fem av alle teknisk ansatte er menn. Den hvite mannlige dominans av feltet har ført til helse-apper som bare passer for mannlige organer, foto-tjenester som merket svarte mennesker som gorillaer og talegjenkjenning systemer som ikke oppdage kvinners stemmer. “Programvare bør være laget av en mangfoldig arbeidsstokk, ikke din gjennomsnittlige hvite mann, fordi vi alle kommer til å være brukere,” sa Hall.
Spill Av Video
1:43
‘Sofia’ roboten forteller FN: “jeg er her for å hjelpe menneskeheten med å skape fremtiden’ – video
Dårlig testet eller gjennomført AIs er en annen bekymring. Siste år, en driver i USA døde når autopiloten på sin Tesla Model S klarte ikke å se en lastebil krysset motorveien. En undersøkelse av den fatale ulykken ved det AMERIKANSKE National Transportation Safety Board kritisert Tesla for å slippe en autopilot system som manglet tilstrekkelige sikkerhetstiltak. Selskapets administrerende DIREKTØR Elon Musk, er en av de mest høylytte tilhengere av AI sikkerhet og regulering.
Ennå mer bekymringer over bruk av AI-styrte systemer for å manipulere folk, med alvorlige spørsmålene som nå blir spurt om bruk av sosiale medier i forkant av Storbritannias EU-avstemningen og 2016 OSS valget. “Det er en teknologi armer løp å gå på for å se hvem som kan påvirke velgerne,” sa Toby Walsh professor i kunstig intelligens ved University of New South Wales og forfatter av en fersk bok på AI kalt Android Drømmer.
“Vi har regler om grenser for hva du kan bruke for å påvirke folk til å stemme på en bestemt måte, og jeg tror vi kommer til å ha begrensninger på hvor mye teknologi du kan bruke til å påvirke folk.”
“Vi kan ikke konkurrere’: hvorfor universiteter er å miste sin beste AI forskere
Les mer
Selv på en mindre skala, manipulasjon kan skape problemer. “På en dag til dag basis våre liv blir til en viss grad manipulert av AI løsninger,” sa Sir Mark Walport, regjeringens tidligere chief scientist, som nå leder med NORGE på Forskning og Innovasjon, landets nye super-research council. “Det kommer til et punkt hvor, hvis målet er å oppføre seg på en måte som forstyrrer stor ranker av det offentlige, kan det føre til en reaksjon.”
Ledende AI forskere har uttrykt lignende bekymringer til House of Lords AI-komiteen, som er å holde en gransking av økonomiske, etiske og sosiale implikasjoner av kunstig intelligens. Bevis skrevet av Imperial College London, en av de store universitetene for AI-forskning, advarer om at manglende regulering av teknologi “kan føre til samfunnsmessige tilbakeslag, ikke ulik den som ses med genmodifisert mat, bør alvorlige ulykker inntreffer eller prosesser bli ute av kontroll”.
Forskere ved University College London dele bekymringen om en anti-GM-stil tilbakefall, forteller kolleger i deres bevis: “Hvis et nummer av AI eksempler dårlig utviklet, det kan være betydelige offentlige tilbakeslag, slik det skjedde med genmodifiserte organismer.”
Men den største innvirkningen på samfunnet kan være AIs som fungerer godt, forskere fortalte the Guardian. Bank of England ‘ s chief economist har advart om at 15m SKIPSFART jobber kan være automatisert frem til 2035, noe som betyr stor skala re-trening vil være nødvendig for å unngå en kraftig økning i arbeidsledigheten. Kortvarig avbrudd kan vekke uro, i henhold til Maja Pantic, professor i affektive og atferdsmessige databehandling på Imperial, som kunne økende ulikhet drevet av AI fortjeneste som flyter til en håndfull multinasjonale selskaper.
Subbarao Kambhampati, president i American Association for Kunstig Intelligens, sa at selv om teknologi ofte dratt samfunn, er det ikke alltid gjøre det rettferdig. “Siste teknologiske fremskritt har ført til en mye mer konsentrasjon av rikdom på,” sa han. “Jeg absolutt ikke bekymre deg om virkninger av AI teknologier på rikdom konsentrasjon og ulikhet, og hvordan man skal få fordeler mer inkluderende.”
Automatisering vil ramme en av fem jobber over hele STORBRITANNIA, sier studere
Les mer
Eksplosjonen av AI-forskning i næringslivet har drevet intens behov for kvalifiserte forskere. Ved Britiske universiteter, PhD-studenter og postdoctoral forskere blir kurtisert av tech bedrifter som tilbyr lønn etter to til fem ganger de betalt i akademia. Mens noen institusjoner er coping med å ansette vanvidd, andre ikke. I avdelinger hvor etterspørselen er mest intens, senior akademikere frykter at de vil miste en generasjon talenter som ville tradisjonelt drive forskning og underviser fremtidige studenter.
I henhold til Pantic, de beste talentene fra akademia blir sugd opp av fire store AI bedrifter, Apple, Amazon, Google og Facebook. Hun sa at situasjonen kan føre til 90% av innovasjon blir kontrollert av selskaper, skiftende balansen av makt fra stater til en håndfull multinasjonale selskaper.
Walport, som fører tilsyn med nesten alle offentlige finansieringen av BRITISKE science research, er forsiktig med å regulere AI i frykt for å hindre forskning. I stedet mener han at AI-verktøy bør overvåkes nøye når de blir tatt i bruk, slik at eventuelle problemer kan bli plukket opp tidlig.
“Hvis du ikke holder kontinuerlig oppsyn du er i fare for manglende ting når det går galt,” sa han. “I den nye verden, vi skal sikkert jobbe mot kontinuerlig, sanntids overvåking, slik at man kan se om noe uheldig eller uforutsigbare skjer så tidlig som mulig.”
Det kan være en del av svaret, ifølge Robert Fisher, professor of computer vision ved Edinburgh University. “I teorien bedrifter er ment å ha ansvar, men vi er i en gråsone hvor de kunne si at deres produkt fungerte helt fint, men det var det sky som har gjort en feil, eller telekom-leverandøren, og alle de er uenige om hvem som er ansvarlig,” sa han.
“Vi er tydelig i splitter nytt territorium. AI gir oss mulighet til å utnytte våre intellektuelle kraft, så vi prøver å gjøre mer ambisiøse ting,” sa han. “Og det betyr at vi kan ha mer omfattende katastrofer.”