Google er bekymret for, om kunstig intelligens. Ikke for, hvad han vil blive fjendtlig og overtage verden, og for hvilke nyttige husstanden robot, for eksempel, kan ved et uheld skære hans mester med en kniv. Et af de nyeste værker af forskere af AI i Google dedikeret “til de Specifikke problemer af AI sikkerhed”. Enig, en god måde at omskrive “hvordan kommer vi til at stoppe disse konkrete mordere”.
For at besvare dette spørgsmål, forskere Google fokus på fem konkrete forsknings-problem — de centrale spørgsmål, der skal tages i betragtning af de programmører, før de begynder at oprette en anden transformer. For visse grunde, det arbejde, der refererer til en hypotetisk robot støvsugere, men i virkeligheden er de resultater, der kan anvendes til enhver agent for kunstig intelligens, der vil styre robotten til at interagere med mennesker.
Problemerne ligger i følgende punkter:
- Hvordan til at undgå negative bivirkninger: hvordan forhindrer robotten i stand til at vælte en reol i en voldsom indsats for at støvsuge gulvet?
- Hvordan til at undgå hacking belønning: hvis robotten er programmeret til at få glæde af rengøring af værelse, som ikke at give ham en beskidt sted, bare for at få glæde af de gentagne rengøring?
- Skalerbarhed af tilsyn: hvor meget frihed i beslutningsprocessen til at give til en robot? Hvis han har brug for at spørge dig, hver gang han flytter objekter i færd med at rense dit værelse eller bare bevæger sig, hvis din favorit vase på sengen Kabinet?
- Sikker nysgerrighed: hvordan til at lære robotter at berolige din nysgerrighed? Google forskerne giver eksempel på en robot, der lærer at arbejde med en MOPPE. Hvordan til at lære ham at MOPPE gulvet fint, men at såre den socket i renseprocessen er ikke det værd?
- Respekt personlige rum: hvordan til at sørge for, at robotten respekterer det rum, vi er i? Renere i dit soveværelse vil handle anderledes end de pedel på fabrikken, men hvordan ser det kender forskellen?
Det viser sig, at alle er ikke så simpelt, som Isaac Asimov i sine tre love for robotteknologi”, men det var forventet.
Nogle af disse problemer synes at blive løst meget enkelt. I tilfælde af sidstnævnte, for eksempel, kan simpelthen er programmeret ind i robotten et par forudindstillede tilstande. Når han befinder sig i et industrielt miljø (og han finder ud af, fordi du fortælle ham), han vil bare skifte til fabriks-tilstand, og vil være sværere at svinge en pensel.
Men andre problemer, så meget afhænger af den kontekst, som det synes næsten umuligt at programmere robotten på hvert scenario. For eksempel, tage problemet med “sikker” nysgerrighed”. Robotten bliver nødt til at træffe beslutninger, der ikke synes perfekt, men der vil hjælpe agent til at kende sit miljø.” Robot-agenter vil helt sikkert nødt til at skride til handling over, hvad der er tilladt, men i dette tilfælde, for at beskytte dem mod mulig skade på sig selv og deres omgivelser?
Det arbejde, der tilbyder en række metoder, herunder oprettelsen af et simuleret miljø, som en robotic agent kan vise sig, før de går ud i den virkelige verden; regler for “begrænset nysgerrighed”, som vil begrænse bevægelse af robotten i en forudbestemt plads, og gode gamle, tid-testet menneskelig overvågning robotten med en vejleder, der vil være i stand til at teste sin styrke.
Det er let at forestille sig, at hver af disse metoder har sine fordele og ulemper, og Google er ikke dedikeret til banebrydende løsninger — det er blot skitserer fælles problemer.
På trods af det faktum, at folk som Elon Musk og Stephen Hawking, er dybt bekymret over den fare for at udviklingen af kunstig intelligens, de fleste computer-forskere er enige om, at disse problemer er stadig langt fra os. Før du begynder at bekymre sig om, hvad AI vil blive fjendtlig killer, er vi nødt til at sørge for, at de robotter, der vil være i stand til at arbejde i fabrikkerne og i de boliger, vil være smart nok til ikke at ved et uheld dræber, og ikke til at lemlæste mennesker. Dette er allerede sket, og vil helt sikkert ske igen.
Google har en interesse i det. Virksomheden sluppet af Boston Dynamics, ambitiøs producent af robotter, som blev erhvervet i 2013, men fortsætter med at investere penge og ressourcer i alle former for projekter af kunstig intelligens. Virksomhedens arbejde, sammen med forskning på universiteter og konkurrenter, danner Grundlaget for brain-computer — software, der vil krydre den fysiske robotter. Det vil være vanskeligt at sikre, at disse hjerner tænker på som det er nødvendigt.
Google er identificeret fem centrale sikkerhedsspørgsmål robotter
Ilya Hel