Artificiell intelligens är inte så smart som du och Elon Musk tror det

I Mars 2016 algoritm för datorn AlphaGo företaget DeepMind kunde vinna över Lee Sedalen, på den tiden världens bästa spelare i komplex logik. Denna händelse blev en av de avgörande ögonblicken i historia-teknik, industri, som vid den tiden började och seger i datorn Deep Blue, IBM över världsmästaren i schack, Garry Kasparov, och segern för Watson superdator från IBM i frågesport för forskare Fara i 2011.

Men ändå, trots dessa segrar, dock imponerande som de kan vara, här har vi till stor del talar om utbildning algoritmer och rå datorkraft än faktiska artificiell intelligens. En tidigare Professor i robotik Massachusetts Institute of technology Rodney Brooks, grundare av iRobot, Rethink Robotics och senare, sade att utbildning algoritm för spelet i ett strategiskt komplexa pussel som inte intelligens. Åtminstone inte sådana som vi företräder människor.

Experten förklarade att oavsett hur stark AlphaGo varken visade sig i utförandet av dess uppgifter, i själva verket är han inte klarar av något annat. Dessutom, det är konfigurerad på ett sådant sätt som kan spela endast gå på standard laptop, 19 x 19. I en intervju med TechCrunch Brooks berättade hur hade nyligen tillfälle att chatta med team av DeepMind och ta reda på en intressant detalj. På frågan om vad som skulle ha hänt för att ändra turneringen storlek styrelser, och ökade till 29 x 29 celler, laget AlphaGo bekände för honom att även en liten förändring i spelplanen skulle leda till det faktum att “vi har kommit till ett slut”.

“Jag tror att folk ser hur väl den algoritm som klarar ett problem, och förmodligen omedelbart tror att han är kapabel att effektivt utföra de andra. Men det faktum att han inte kan”, säger Brooks.

Grov intelligens

I maj i år i en intervju med Devin Coldewey vid händelse TechCrunch Disrupt Kasparov noteras att utvecklingen av en dator som kan spela schack på global nivå är en sak, men en helt annan att kalla en sådan dator med artificiell intelligens, så är det inte. Det är bara en maskin som kastar alla sina datorkraft på problem som hon använde för att klara sig bäst.

“I schack, de maskiner som finns att vinna på grund av risken för djupa beräkningar beräkning. De kan bli helt oövervinnerlig när det är en enorm databas, mycket snabb hårdvara och en mer logisk algoritmer. De saknar dock förståelse. Att de inte känner igen strategiska mönster. Maskinerna har inget syfte,” — sade Kasparov.

Gil Pratt, VD för Toyota Institute, en division av Toyota, som arbetar med frågor och projekt som är relaterade till artificiell intelligens och dess användning i hem robotar och obemannade farkoster, deltog också i en intervju med TechCrunch på eventet Robotics Session. Enligt honom, av rädsla för att vi hör från ett brett spektrum av människor, inklusive Elon musk nyligen som heter artificiell intelligens ett “existentiellt hot mot mänskligheten” kan bero på något mer än de antiutopiya beskrivningar av världen som erbjuder oss en science fiction.

“Vårt nuvarande system för djupt lärande är bra för att fullgöra sina uppgifter endast i den utsträckning som vi har skapat. Men faktum är att de är ganska specialiserade och liten skala. Så jag tror att det är viktigt varje gång i samband med ämnet för att tala om hur bra de är och hur de är faktiskt ineffektivt. Och hur långt vi är från den tid då dessa system kommer att kunna börja föreställa hotet, som säger Elon Musk och resten,” kommenterade Pratt.

Brooks, i sin tur, på TechCrunch Robotics Session noteras att bland män i Allmänhet att det finns en tendens att anta att, om algoritmen är klara med uppgiften “x”, då måste han vara lika smarta som människor.

“Jag tror att anledningen till att folk, inklusive Elon musk, gör detta fel är följande. När vi ser en person, som mycket väl klara med sin uppgift, vi förstår att han har en hög kompetens i denna fråga. Det verkar som att det är samma modell som människor försöker att gälla för maskininlärning. Och det är det viktigaste misstag”, säger Brooks.

VD Facebook mark Zuckerberg som hölls på söndagen live stream, vilket också kritiserats kommentarer av Elon musk, som kallar den “ganska oansvarig”. Enligt Zuckerberg, AI kommer att kunna avsevärt förbättra våra liv. Mysk, i sin tur, bestämde sig för att inte vara tyst och svarade Honom att “bristande insikt” om AI. Ämnet är fortfarande inte är stängd, och Mysk lovat senare i mer detalj för att möta angrepp från kollegor i IT-branschen.

Förresten, Mysk är inte den enda som tycker att AI kan vara ett potentiellt hot. Fysikern Stephen Hawking och filosofen Nick Bostrom också uttryckt sin oro över risken för infiltration av artificiell intelligens i det dagliga livet för mänskligheten. Men mest troligt, de pratar om mer generella artificiell intelligens. Om det som lärs ut i dessa övningar som Facebook AI-Forskning, DeepMind och Maluuba, snarare än på mer specialiserade AI, de första grunderna i som vi kan se i dag.

Brooks noterar också att många av kritikerna av den AI som inte ens fungerar på detta område, och föreslog att dessa människor bara inte förstår hur svårt det är att hitta lösningar för varje enskild uppgift i detta område.

“I själva verket är människor som anser AI som ett existentiellt hot, inte så mycket. Stephen Hawking, Brittisk astrofysiker och astronomen Martin Rees… och några andra. Det ironiska är att de flesta av dem delar en funktion – de behöver inte ens arbeta i området artificiell intelligens”, säger Brooks.

“För dem av oss som arbetar med AI, är det uppenbart hur svårt det är att få något om nivån på den färdiga produkten.”

Missuppfattning AI

En del av problemet kommer också från det faktum att vi kallar det för “artificiell intelligens”. Sanningen är att denna “intelligens” är inte som mänskliga intelligens, som finns i ordböcker och lexikala ordböcker brukar beskrivas som “förmågan för lärande, förståelse och anpassningsförmåga till nya situationer”.

Pascal Kaufmann, VD Starmind, en start-up, som erbjuder stöd till andra företag att använda sig av kollektiv mänsklig intelligens för att hitta lösningar till problem i området för verksamheten, under de senaste 15 åren studerar neurobiologi. Den mänskliga hjärnan och datorn, sade Kaufman, de arbetar på ett helt annat sätt, och det skulle vara ett uppenbart misstag att jämföra dem.

“Analogin är att hjärnan fungerar som en dator – mycket farligt och är ett hinder för framsteg i utvecklingen av AI, säger Kaufman.

Experten tror också att vi kommer inte komma särskilt långt i förståelsen av mänsklig intelligens, om vi ser det i termer av teknik.

“Det är en missuppfattning att de algoritmer fungerar som den mänskliga hjärnan. Människor precis som algoritmer, och därför att de tror att hjärnan kan beskrivas med deras hjälp. Jag tror att det är fundamentalt fel”, tillägger Kaufman.

Om något går fel

Det finns många exempel där AI-algoritmer är inte så smarta som vi är vana att tänka på dem. Och en av de mest ökända kan tjäna som AI-algoritm Tay Tay), skapade av utvecklingsteamet av AI-system från Microsoft och utom kontroll förra året. Det tog mindre än en dag för att göra bot i en riktig rasist. Experter säger att detta kan hända med alla AI-system, när det erbjuds dåliga exempel att följa. I fallet med Tay, hon kom under inflytande av rasistiska och andra kränkande lexikala ord former. Och eftersom det var programmerad att “lära” och “spegel beteende”, det fick snart reda på av kontroll av forskare.

Inom ramen för den omfattande forskning specialister på Cornell och Wyoming universitet, visade det sig att mycket lätt att lura algoritmer utbildning för att kunna identifiera digitala bilder. Experterna fann att bilden såg ut som en “förvrängd nonsens” för folket, av den algoritm som bestäms enligt den bild av några vardagliga föremål som en skolbuss.

Enligt en artikel i MIT Tech Granska och beskriva detta projekt, det är inte klart varför algoritmen kan luras så det gjordes av forskare. Vad vi fick reda på är det faktum att människor har lärt sig att känna igen vad som är före dem är antingen självförsörjande bild, eller någon obskyr bild. Algoritmer, i sin tur, analyserar pixel, lättare manipulation och bedrägeri.

För självstyrande bilar, här är mycket mer komplicerat. Det finns vissa saker som en person som förstår när det är dags att ta itu med vissa situationer. Bilen av detta tåg kommer att bli mycket svårt. I en lång artikel publicerad i någon av bilen bloggar med Rodney Brooks i januari i år, är ett par exempel på sådana situationer, bland annat en som beskriver hur obemannade fordon närmar sig en trafik-Stop som ligger intill övergångställe i city i början som är och kommunicera med en vuxen med ett barn.

Algoritmen är sannolikt att konfigureras för att vänta för passage av fotgängare över vägen. Men vad händer om dessa fotgängare aldrig att korsa vägen eftersom de väntar på, säg, en skolbuss? Föraren-den person som i detta fall skulle ge en signal till fotgängare, som i gengäld skulle föra sin hand, vilket tyder på att han kan gå vidare. Obemannad bil i denna situation kan bara vara död i vattnet, oändligt väntar för människor att ta sig över vägen, eftersom algoritmen har någon förståelse för sådana unika mänskliga signaler, skriver Brooks.

Alla dessa exempel visar oss hur långt vi fortfarande har att gå i utvecklingen av artificiell intelligens algoritmer. I vilken utsträckning kommer att lyckas, utvecklare generaliserad AI är en annan fråga. Det finns saker som människor lätt kan klara av, men att träna algoritm för detta är tortyr. Varför? Eftersom vi människor är inte begränsade i vår utbildning som av särskilda uppgifter.

Artificiell intelligens är inte så smart som du och Elon Musk tror det
Nikolai Khizhnyak


Date:

by