Artificiell intelligens risker GM-stil offentliga bakslag, varnar experter

Forskare säger att sociala, etiska och politiska frågor är montering och ökad tillsyn behövs omgående

Currently, there are no testing standards or requirement for AIs to explain their decisions. There is also no organisation equipped to monitor and investigate any bad decisions or accidents.

Det finns för närvarande inga standarder för testning eller krav på AIs att förklara sina beslut. Det saknas också en organisation utrustade för att övervaka och utreda alla dåliga beslut eller olyckor.
Komposit: Guardian design

Artificiell intelligens (AI)

AI framtiden

Artificiell intelligens risker GM-stil offentliga bakslag, varnar experter

Forskare säger att sociala, etiska och politiska frågor är montering och ökad tillsyn behövs omgående

@iansample

Onsdag 1 November 2017 10.30 GMT

Senast ändrad onsdagen den 1 November 2017 14.22 GMT

Den framväxande området artificiell intelligens (AI) riskerar att provocera fram en folklig motreaktion som det alltmer hamnar i privata händer, som hotar människors jobb, och fungerar utan en effektiv tillsyn eller kontroll, ledande experter på teknik för att varna.

I början av en ny Väktare-serien på AI, experter på området, lyfta fram den enorma potential som finns för tekniken, som redan påskynda vetenskaplig och medicinsk forskning, vilket gör städer mer smidigt, och att göra företag mer effektiva.

Artificiell intelligens kommissionen behövs för att förutsäga effekter, säger CBI

Läs mer


Men för alla löftet om en AI-revolutionen, det finns montering sociala, etiska och politiska frågor om den teknik som utvecklas utan tillräcklig tillsyn från tillsynsmyndigheterna, lagstiftare och regeringar. Forskare berättade för the Guardian:

  • Fördelarna med AI kan vara förlorat en GM-stil bakslag.
  • En kompetensflykt till den privata sektorn skadar universitet.
  • Kompetens och rikedom är koncentrerad till en handfull företag.
  • Området har en enorm mångfald problem.

I oktober, Dame Wendy Hall, professor i datavetenskap vid Universitetet i Southampton, co-ordförande för en oberoende granskning på den Brittiska AI-branschen. I rapporten konstateras att AI hade potential för att lägga till £630bn att ekonomin fram till 2035. Men att skörda frukterna, teknik skall vara till nytta för samhället, sade hon.

“AI kommer att påverka alla delar av vår infrastruktur och vi måste se till att det inte gagnar oss”, sade hon. “Vi måste tänka på alla frågor. När maskiner kan lära sig och göra saker för sig själva, vad är farorna för oss som samhälle? Det är viktigt för folk att förstå de frågor som kommer att vara vinnare i nästa industriella revolution.”

I dag ansvar för att utveckla säkra och etiska AI ligger nästan uteslutande med företag som bygger dem. Det finns inga standarder för testning, inget krav på AIs att förklara sina beslut, och ingen organisation utrustade för att övervaka och utreda alla dåliga beslut eller olyckor som sker.

Q&A: Hur har maskiner lära sig?

Visa

Dölja

Ett centralt mål för området artificiell intelligens är för maskiner för att kunna lära sig att utföra uppgifter och fatta beslut självständigt, snarare än att vara uttryckligen programmerad med stelbenta regler. Det finns olika sätt att uppnå detta i praktiken, men några av de mest slående framsteg på senare tid, såsom AlphaGo, har använt en strategi som kallas inlärning. Vanligtvis kommer maskinen har ett mål, såsom att översätta en mening från engelska till franska och ett omfattande dataset att träna på. Det börjar bara göra ett hugg på den uppgiften – i översättning exempel att det skulle börja genom att producera förvrängd nonsens och jämföra sina försök mot befintliga översättningar. Programmet är sedan “belönas” med en poäng när den är framgångsrik. Efter varje iteration av den uppgift som den förbättrar och efter ett stort antal repriser, sådana program kan matcha och till och med överstiger den nivå av mänskliga översättare. Få maskiner att lära sig mindre väl definierade uppgifter eller de som har ingen digital data som finns är ett framtida mål som skulle kräva en mer allmän form av intelligens, som är besläktad med sunt förnuft.

Var detta till hjälp?

Tack för din feedback.

“Vi behöver ha en stark oberoende organisationer, tillsammans med dedikerade experter och välinformerade forskare, som kan fungera som vakthundar och hålla de stora företagen till svars för att höga standarder,” sade Kate Crawford, co-direktör för AI-Nu-Institutet vid New York University. “Dessa system blir den nya infrastrukturen. Det är viktigt att de är både säkra och rättvisa.”

Många moderna AIs-lär dig att fatta beslut genom att vara utbildade på massiva datamängder. Men om de uppgifter som i sig innehåller fördomar, dessa kan vara ärftligt och upprepas av AI.

Tidigare i år, en AI som datorer använder för att tolka språket konstaterades att visa kön och rasistiska fördomar. En annan som används för bild redovisningstillfället kategoriserats som kockar som kvinnor, även när de lämnas bilder tunnhåriga män. En mängd andra, bland annat verktyg som används i polisiära och fången riskbedömning, har visat att diskriminera mot svarta människor.

Branschens allvarliga mångfald problemet är delvis att skylla för AIs som diskriminerar kvinnor och minoriteter. På Google och Facebook, fyra av fem av alla tekniska anställer män. Den vita manliga dominansen på området har lett till att hälso-appar som tillgodoser bara för manliga kroppar, foto tjänster som är märkta svarta människor som gorillor och röstigenkänning system som inte upptäcka kvinnors röster. “Programvara bör utformas genom en diversifierad arbetsstyrka, inte din genomsnittliga vit hane, eftersom vi alla kommer att vara användare”, sade Hall.

Spela Upp Video

1:43

“Sophia” roboten berättar FN: ‘jag är här för att hjälpa mänskligheten att skapa framtiden” – video

Dåligt testade, eller genomförs AIs är ett annat bekymmer. Förra året, en förare i USA dog när autopiloten är på sin Tesla Model S misslyckades med att se en lastbil som passerar motorvägen. En undersökning av den ödesdigra kraschen av det AMERIKANSKA National Transportation Safety Board kritiserade Tesla för att släppa en autopilot system som saknade tillräckliga garantier. Bolagets VD, Elon Musk, är en av de mest högljudda förespråkarna för AI säkerhet och förordning.

Ännu mer finns en oro över användningen av AI-drivna system att manipulera människor, med allvarliga frågor som nu ställs om användning av sociala medier i upptakten till Storbritanniens EU-folkomröstning och 2016 valet i USA. “Det är en teknik kapprustning som pågår för att se vem som kan påverka väljarna,” sade Toby Walsh professor i artificiell intelligens vid University of New South Wales och författare till en ny bok om AI kallas Android Drömmar.

“Vi har regler på gränserna för vad du kan spendera för att påverka människor att rösta på ett visst sätt, och jag tror att vi kommer att ha gränser för hur mycket teknik du kan använda för att påverka människor.”

“Vi kan inte konkurrera’: varför universitet är att förlora sina bästa AI-forskare

Läs mer

Även i en mindre skala, manipulation kan skapa problem. “På en daglig basis våra liv är att, till viss del, manipulerade av AI-lösningar”, säger Sir Mark Walport, regeringens före detta chef vetenskapsman, som nu leder STORBRITANNIEN Forskning och Innovation, landets nya super-forskningsrådet. “Det kommer en punkt där, om organisationer som beter sig på ett sätt som upprör stora delar av det offentliga, det kan orsaka en motreaktion.”

Ledande AI-forskare har uttryckt liknande farhågor till House of Lords AI kommittén, som innehar en utredning av de ekonomiska, etiska och sociala konsekvenserna av artificiell intelligens. Bevis som lagts fram av Imperial College i London, en av de större universiteten för AI-forskning, varnar för att en otillräcklig reglering av teknik “kan leda till att samhällets motreaktion, inte olik den som ses med genetiskt modifierade livsmedel, bör allvarliga olyckor inträffar eller processer blir out of control”.

Forskare vid University College London och delar oron om en anti-GM-stil bakslag, säger kamrater i sina vittnesmål: “Om ett antal AI exempel utvecklas dåligt, det kan vara betydande offentliga bakslag, så som skedde med genetiskt modifierade organismer.”

Men den största påverkan på samhället kan vara AIs som fungerar bra, forskare berättade för the Guardian. Bank of England ‘ s chefsekonom har varnat för att 15m STORBRITANNIEN jobb kan automatiseras fram till 2035, vilket innebär stor skala re-utbildning kommer att behövas för att undvika en kraftig stegring av arbetslösheten. Den kortsiktiga störningar kan utlösa oroligheter, enligt Maja Pantic, professor i affektiva och beteendemässiga design på Imperial, som kunde ökande ojämlikhet som drivs av AI vinster flödar en handfull multinationella företag.

Subbarao Kambhampati, ordförande för American Association for Artificial Intelligence, sade att även om tekniken ofta gynnat samhället, att det inte alltid att göra så på ett rättvist sätt. “Den senaste tekniska utvecklingen har lett till en hel del mer koncentration av rikedom,” sade han. “Jag verkligen inte oroa sig för effekterna av AI-teknik på rikedom koncentration och ojämlikhet, och hur man fördelar mer inkluderande.”

Automation kommer att påverka en i fem jobb i STORBRITANNIEN, säger studie

Läs mer

Den explosion av AI-forskning i industrin har drivit en intensiv efterfrågan på kvalificerade forskare. På Brittiska universitet, doktorander och disputerade forskare som är intresserade av tech-företag som erbjuder löner två till fem gånger högre än de som betalas i den akademiska världen. Medan vissa institutioner som arbetar med uthyrning frenzy, andra inte. På avdelningar där efterfrågan är som mest intensiv, ledande akademiker är rädda att de kommer att förlora en generation av talanger som skulle traditionellt drivkraft för forskning och undervisa framtidens studenter.

Enligt Pantic, de bästa talangerna från den akademiska världen är den sugs upp av fyra stora AI företag, Apple, Amazon, Google och Facebook. Hon sade att situationen kan leda till att 90% av innovation som kontrolleras av företag, förskjuta maktbalansen från stater till en handfull multinationella företag.

Walport, som övervakar nästan alla offentliga finansieringen av BRITTISKA science research, är försiktig med att reglera AI, av rädsla för att hindra forskning. Istället anser han AI-verktyg bör övervakas noggrant när de tas i bruk så att eventuella problem kan fångas upp tidigt.

“Om du inte kontinuerligt övervaka, du är i fara av saker som saknas när de går fel,” sade han. “I den nya världen, som vi verkligen bör arbeta för kontinuerlig övervakning i realtid så att man kan se om något olämpligt eller oförutsett sker så tidigt som möjligt.”

Det kan vara en del av svaret, enligt Robert Fisher, professor i datorseende vid Universitetet i Edinburgh. “I teorin företag ska ha ansvar, men vi är i en gråzon där de kunde säga att deras produkt fungerade fint, men det var moln som gjorde ett misstag, eller telekom leverantören, och att de alla är oense om vem som är ansvarig, sade han.

“Vi är helt klart i en helt ny territorium. AI kan vi utnyttja våra intellektuella makt, så vi försöker att göra mer ambitiösa saker”, sade han. “Och det innebär att vi kan ha mer omfattande katastrofer.”


Date:

by