Forskere siger, sociale, etiske og politiske problemer er stigende, og større kontrol er et presserende behov for
Der er i øjeblikket ingen standarder eller krav til AIs til at forklare deres beslutninger. Der er heller ingen organisation udstyret til at overvåge og efterforske eventuelle dårlige beslutninger eller ulykker.
Komposit: Guardian design
Kunstig intelligens (AI)
AI fremtiden
Kunstig intelligens risici GM-style offentlige slør, advarer eksperter
Forskere siger, sociale, etiske og politiske problemer er stigende, og større kontrol er et presserende behov for
@iansample
Onsdag den 1 November 2017 10.30 GMT
Sidst opdateret onsdag den 1 November 2017 14.22 GMT
Det nye inden for kunstig intelligens (AI) risikerer at fremprovokere en offentlig modreaktion, som det i stigende grad falder i private hænder, truer folks job, og fungerer uden et effektivt tilsyn eller tilsyn, førende eksperter i teknologi advarer.
Ved starten af en ny Værge serie om AI, eksperter på området fremhæve det enorme potentiale, for den teknologi, som allerede er fremskynde videnskabelig og medicinsk forskning, at byerne kører mere jævnt, og gør virksomheder mere effektive.
Kunstig intelligens-kommissionen behov for at forudsige konsekvenserne, siger CBI
Læs mere
Men for alle de lover af en AI-revolution, der er stigende sociale, etiske og politiske bekymringer om den teknologi, der udvikles uden tilstrækkelig tilsyn fra de regulerende myndigheder, lovgivere og regeringer. Forskere siger til the Guardian, at:
- Fordelene ved at AI kan være tabt for en GM-style modreaktion.
- Hjerneflugt til den private sektor er til skade for universiteterne.
- Ekspertise og rigdom er at være koncentreret i en håndfuld virksomheder.
- Området har en enorm mangfoldighed problem.
I oktober, Dame Wendy Hall, professor of computer science på Southampton Universitet, som er ledet af en uafhængig gennemgang af den Britiske AI-industrien. Rapporten fandt, at AI havde potentiale til at tilføje £630bn at økonomien i 2035. Men for at høste fordelene, skal den teknologi er en fordel for samfundet, sagde hun.
“AI vil påvirke alle aspekter af vores infrastruktur, og vi er nødt til at sørge for, at det er en fordel for os,” sagde hun. “Vi er nødt til at tænke over alle de spørgsmål. Når maskiner kan lære og gøre ting for sig selv, hvad er farerne for os som samfund? Det er vigtigt, fordi de nationer, at forstå de spørgsmål, der vil være vinderne i den næste industrielle revolution”.
I dag, ansvar for udvikling af en sikker og etisk AI ligger næsten udelukkende med virksomheder at bygge dem. Der er ingen standarder, ingen krav om, at AIs til at forklare deres beslutninger, og ikke en organisation, der er udstyret til at overvåge og efterforske eventuelle dårlige beslutninger eller ulykker, der sker.
Q&A Hvordan maskiner lære?
Vis
Skjul
Et centralt mål for området for kunstig intelligens er for maskiner til at være i stand til at lære at udføre opgaver og træffe beslutninger uafhængigt af hinanden, i stedet for at være eksplicit, som er programmeret med ufleksible regler. Der er forskellige måder at opnå dette i praksis, men nogle af de mest markante fremskridt på det seneste, såsom AlphaGo, er der anvendt en strategi, der kaldes forstærkning læring. Typisk vil maskinen have et mål, som oversætter en sætning fra engelsk til fransk og et massivt datasæt til at træne på. Det starter bare at lave en stab på opgaven – i oversættelse eksempel, at det ville begynde at producere forvansket vrøvl og sammenligne sine forsøg mod eksisterende oversættelser. Det program er så “belønnet” med en score når det er vellykket. Efter hver iteration af den opgave, den forbedres, og efter et utal af genudsendelser, sådanne programmer kan matche og endda overgå det niveau af menneskelige oversættere. At få maskiner til at lære mindre veldefinerede opgaver, eller dem, som ingen digitale datasæt, der eksisterer, er et fremtidigt mål, som vil kræve en mere generel form for intelligens, beslægtet med almindelig sund fornuft.
Var dette en hjælp?
Tak for din feedback.
“Vi er nødt til at have stærke uafhængige organisationer, sammen med dedikerede eksperter og godt kvalificerede forskere, der kan fungere som vagthund og holde de store virksomheder er ansvarlige over for de høje standarder,” sagde Kate Crawford, co-direktør for AI Nu Institut ved New York University. “Disse systemer er ved at blive den nye infrastruktur. Det er afgørende, at de er både sikker og fair.”
Mange moderne AIs lære at træffe beslutninger, der er uddannet på store datamængder. Men hvis de data, der i sig selv indeholder bias, disse kan være medfødt og gentaget af AI.
Tidligere dette år, en AI, som computere bruger til at fortolke sprog blev fundet til at vise køn og race bias. Et andet bruges til billedbehandling anerkendelse kategoriseret kokke som kvinder, selv når udleveret billeder af skaldede mænd. Et væld af andre, herunder værktøjer, der anvendes i politi og fange risikovurdering, har vist sig at diskriminere mod sorte mennesker.
Industrien er en alvorlig mangfoldighed problem er til dels skyld i AIs, der diskriminerer mod kvinder og minoriteter. På Google og Facebook, fire ud af fem af alle tekniske medarbejdere er mænd. Den hvide mandlige dominans af området har ført til sundheds-apps, der kun appellerer til mandlige organer, foto-tjenester, der er mærket sorte mennesker som gorillaer og stemmegenkendelse systemer, der ikke afsløre kvinders stemmer. “Software skal være designet af en mangfoldig arbejdsstyrke, ikke din gennemsnitlige hvide mand, fordi vi alle kommer til at være brugere,” siger Hall.
Afspil Video
1:43
‘Sophia’ robotten fortæller FN ‘ s: ‘jeg er her for at hjælpe menneskeheden med at skabe fremtiden’ – video
Dårligt testet og gennemført AIs er en anden bekymring. Sidste år, en chauffør i USA døde, da autopiloten på hans Tesla Model S ikke se, at en lastbil, der krydser motorvejen. En undersøgelse af den fatale ulykke af US National Transportation Safety Board kritiseret Tesla for at frigive en autopilot system, der manglede tilstrækkelige garantier. Selskabets administrerende DIREKTØR Elon Musk, er en af de mest højrøstede fortalere for AI sikkerhed og regulering.
Endnu mere bekymring over brugen af AI-baserede systemer til at manipulere folk med alvorlige spørgsmål, der nu bliver spurgt om anvendelse af sociale medier i tiden op til Storbritanniens EU-folkeafstemning og 2016 AMERIKANSKE præsidentvalg. “Der er en teknologi arms race går videre til at se, hvem der kan have indflydelse på vælgerne,” sagde Toby Walsh professor i kunstig intelligens på University of New South Wales og forfatter til en nyere bog om AI kaldet Android Drømme.
“Vi har regler om grænserne for, hvad du kan bruge til at påvirke folk til at stemme på bestemte måder, og jeg tror, vi er nødt til at have grænser for, hvor meget teknologi, du kan bruge til at påvirke folk.”
“Vi kan ikke konkurrere’: hvorfor universiteter er ved at miste deres bedste AI-forskere
Læs mere
Selv på en mindre skala, manipulation kan skabe problemer. “På en dag til dag basis, vores liv bliver, til en vis grad, manipuleret af AI-løsninger,” sagde Sir Mark Walport, regeringens tidligere chef videnskabsmand, der nu fører det forenede KONGERIGE, Forskning og Innovation, land ‘ s nye super-forskningsråd. “Der kommer et punkt, hvor, hvis de organisationer, som opfører sig på en måde, der forstyrrer de store områder af det offentlige, kan det forårsage en reaktion.”
Førende AI forskere har udtrykt tilsvarende betænkeligheder til House of Lords AI-udvalget, som er i besiddelse af en undersøgelse af de økonomiske, etiske og sociale konsekvenser af kunstig intelligens. Dokumentation fra Imperial College London, en af de store universiteter for AI forskning, der advarer om, at der er utilstrækkelig regulering af teknologi”, der kunne føre til samfundsmæssige modreaktion, ikke ulig den, der ses med genetisk modificerede fødevarer, bør alvorlige ulykker eller processer bliver ude af kontrol”.
Forskere ved University College London deler den bekymring, om en anti-GM-style modreaktion, fortæller jævnaldrende i deres udsagn: “Hvis en række AI eksempler udviklet dårligt, at der kan være betydelige offentlige slør, som det skete med genetisk modificerede organismer.”
Men den største effekt på samfundet, kan være AIs, der fungerer godt, forskere siger til the Guardian. Bank of England ‘ s cheføkonom, har advaret om, at 15m UK job kunne være automatiseret i 2035, hvilket betyder stor skala re-uddannelse vil være nødvendige for at undgå en skarp stigning i arbejdsløshed. Den kortvarige forstyrrelser kan udløse uroligheder, ifølge Maja Pantic, professor, affektive og adfærdsmæssige computing i Imperial, som kunne stigende ulighed drevet af AI overskud, der flyder til en håndfuld multinationale selskaber.
Subbarao Kambhampati, præsident for American Association for Kunstig Intelligens, sagde, at selv om teknologien ofte nydt godt samfund, er det ikke altid at gøre det retfærdigt. “De seneste teknologiske fremskridt har ført til en masse mere koncentration af rigdom,” sagde han. “Jeg har bestemt ikke bekymre sig om virkningerne af AI teknologier på rigdom, koncentration og ulighed, og hvordan man kan gøre ydelserne mere inkluderende.”
Automatisering vil påvirke én ud af fem arbejdspladser i hele danmark, siger undersøgelse
Læs mere
Den eksplosion af AI-forskning i industrien har drevet en intens efterspørgsel efter kvalificerede forskere. På de Britiske universiteter, Ph.d. – studerende og postdoc-forskere er ombejlet af tech-virksomheder, der tilbyder lønninger to til fem gange, der er betalt i den akademiske verden. Mens nogle institutioner, der er klare med ansættelse af vanvid, andre er ikke. I afdelinger, hvor efterspørgslen er mest intens, højtstående akademikere frygter, at de vil tabe en generation af talenter, der vil traditionelt drive forskning og undervise kommende studerende.
Ifølge Pantic, de bedste talenter fra den akademiske verden er ved at blive suget op af fire store AI-virksomheder, Apple, Amazon, Google og Facebook. Hun sagde, at situationen kan føre til, at 90% af innovation, der styres af de virksomheder, flytte magtbalancen fra lande, for en håndfuld multinationale selskaber.
Walport, der fører tilsyn med næsten alle offentlige finansiering af UK videnskab, forskning, er forsigtige om regulering af AI, af frygt for at hindre forskning. I stedet mener han, AI værktøjer bør overvåges omhyggeligt, når de er sat til at bruge, således at eventuelle problemer kan blive hentet tidligt.
“Hvis du ikke løbende at overvåge, du er i fare for forsvundne ting, når de går galt,” sagde han. “I den nye verden, vi bør helt sikkert være at arbejde hen imod kontinuerlig, real-time overvågning, så man kan se, hvis noget uforudset eller uforudsigelige sker så tidligt som muligt.”
Der kan være en del af svaret, ifølge Robert Fisher, professor i computer vision på Edinburgh University. “I teorien virksomheder formodes at have ansvar, men vi er i en gråzone, hvor de kan sige deres produkt fungeret fint, men det var skyen, som har lavet en fejl, eller teleudbyder, og at de alle er uenige om, hvem der er ansvarlig,” sagde han.
“Vi er helt klart i helt nye område. AI giver os mulighed for at udnytte vores intellektuelle magt, så vi prøver at gøre mere ambitiøse ting,” sagde han. “Og det betyder, at vi kan have mere vidtrækkende katastrofer.”