Kan Googles AlphaGo kjenner det i sine algoritmer? | John Naughton

Når spillet-å spille system AlphaGo beseiret en mester i det Kinesiske spillet gå fem spill til nil, dens skapere ikke kunne forklare hvorfor. Er dette et tegn på intuitiv AI?

A grandmaster plays AlphaGo at the ancient Chinese game of go.

En stormester spiller AlphaGo på den gamle Kinesiske spillet gå.
Foto: Google DeepMind

Søndag 31. januar 2016 09.00 GMT

I forrige uke, forskere ved kunstig intelligens selskapet DeepMind, som nå er eid av Google, kunngjorde en ekstraordinær gjennombrudd: i oktober i, en DeepMind computing system kalt AlphaGo hadde beseiret regjerende europamester spiller av den gamle Kinesiske spillet gå av fem spill til null. Seieren ble annonsert i forrige uke i en artikkel publisert i det vitenskapelige tidsskriftet Nature.

Hva så? Datamaskiner har blitt bedre og bedre på brettspill for yonks. Vei tilbake i den mørke middelalderen i 1997, for eksempel IBM ‘ s Dyp Blå maskin slå deretter verden sjakk, Garry Kasparov, i sjakk. Så sikkert gå, som spilles ikke med seks forskjellige stykker, men sort og hvitt tokens – ville være en pushover? Ikke slik: antall mulige posisjoner i går flere enn antall atomer i universet, og langt høyere enn antall muligheter i sjakk.

Illustration by Matt Murphy

Illustrasjon: Matt Murphy.

Spill-spille-programmer, for eksempel Dyp Blå arbeid ved å lage “søk trær” over alle mulige posisjoner. Hvis du har prøvd å gjøre dette med go du ville være å se på computing ganger i millioner, om ikke milliarder av år. Den DeepMind tilnærming som er involvert ved å kombinere treet søk (aktivert av Google ‘ s massive cloud computing strøm) med dyp nevrale nettverk, programmer der tilkoblinger mellom lag av simulert nevroner er styrket gjennom eksempler og erfaring (som i den menneskelige hjerne).

AlphaGo studerte først 30m stillinger fra ekspert spill i går, absorbere informasjon på state of play fra styret data, og deretter spilles mot seg selv over 50 datamaskiner, bedre med hver iterasjon, ved hjelp av en teknikk kjent som forsterkning læring. Det er en utvikling av et eksperiment DeepMind har brukt en stund tilbake, som en av sine nevrale nettverk lærte seg selv å spille retro dataspill til en høy grad bare ved å se på repriser av ekte spill på en skjerm. Ingen programmering er involvert.

De virkelig betydningsfulle ting om AlphaGo er at det (og dens skapere) kan ikke forklare bevegelsene i det. Og ennå det spiller en veldig vanskelig kamp fagmessig. Slik det er vist en evne som er uhyggelig likt det vi kaller intuisjon – “kunnskap uten bevisst resonnement”. Opp til nå, har vi ansett det som en rent menneskelig anliggende. Det er hva Newton var på om da han skrev “Hypoteser non fingo” i den andre utgaven av sin Principia: “jeg kan ikke gjøre hypoteser,” han sa, “jeg bare vet det.”

Men hvis AlphaGo virkelig er en demonstrasjon av at maskiner kan være intuitive, så vi har definitivt krysset en Rubicon av noe slag. For intuisjon er en glatt idé, og vi har til nå tenkt på det utelukkende i menneskelige termer. Fordi Newton var et geni, men vi er forberedt på å ta ham på hans ord, akkurat som vi er tilbøyelig til å stole på intuisjon av en mor som mener det er noe galt med barnet eller man har mistanke om at en bestemt person er ikke å fortelle sannheten.

Intuisjon kan være feil, noe som er grunnen til at vi trenger bevis… og hvorfor vi blir mistenksom når dette er ikke kommende

Problemet er at intuisjon kan være – og ofte er – feil, som er hvorfor vi krever bevis og begrunnet argument for å støtte dem, og hvorfor vi blir mistenksom når disse ikke følger med. For tiden, bekymring om maskinen intuisjon er moot: det spiller egentlig ingen rolle at AlphaGo kan ikke forklare grunnlaget for sin intuitive beveger seg i går. Men det vil ikke vare hvis Dr Demis Hassabis, co-grunnlegger av DeepMind, har sin måte. “Mens spill er den perfekte plattformen for utvikling og testing AI algoritmer for å raskt og effektivt,” skrev han i et blogginnlegg forrige uke, “til syvende og sist ønsker vi å bruke disse teknikkene til viktige problemer i den virkelige verden. Fordi metodene vi har brukt er generelle formål, er det vårt håp er at de kan bli utvidet til å hjelpe oss med å ta opp noen av samfunnets tøffeste og mest presserende problemer, fra klimamodellering å kompleks sykdom analyse”.

På den ene siden, Hassabis ser ut til å sette pris på det ansvar som de som lager intelligent technologies har til skulder. Han har vært kaller for “en ansvarlig debatt om rollen til etikk i utviklingen av kunstig intelligens”. På den annen side, når presset om dette på et arrangement i Cambridge, i September i fjor, forsøkte han å fob av spørsmålsstilleren med nyheten om at Google var å sette opp en etikk-komité for å se på arbeidet hans selskap gjør, et svar som vakte en viss mengde av lystighet i noen deler av publikum.

Som de fleste personer i sitt felt, Hassabis mener at AI er kraftig nok til å utgjøre alvorlige etiske og eksistensielle trusler er en lang vei. Den bemerkelsesverdige fremgang hans selskap å gjøre, men antyder noe annet.


Date:

by