Når AI lærer at tale?

Hver dag den mest avancerede system af kunstig intelligens bliver smartere og smartere, at opnå ny viden og færdigheder. AI er allerede i stand til på mange områder at være bedre mennesker. Men bag alt dette “overlegenhed” gemmer kun de linjer kode og præcise algoritmer, der ikke tillader, at softwaren til at være “fri i deres tanker.” Med andre ord, at maskinen ikke kan gøre, hvad det er, er ikke indarbejdet. AI kan komme til logiske konklusioner, men er ikke i stand til at tale om et givet emne. Og det ser ud til, at dette snart vil ændre sig.

Som mennesker, lære om verden

Vi, som alle levende organismer, lære om verden omkring gradvist. Forestil dig et år gamle baby vil se, hvordan et stykke legetøj lastbil drev fra platformen, og hænger i luften. For ham er det ikke noget usædvanligt. Men at gøre det samme eksperiment med kun to eller tre måneder senere, og den lille mand bliver straks klar over, at noget er galt. Efter alt, er han allerede ved, hvordan tyngdekraften virker.

“Ingen, der fortæller barnet, hvad de objekter, der er meningen med at falde,” siger Ian Lecun, lederen af Facebook i udviklingen af kunstig intelligens og Professor ved new York University. — “Meget af det, børn lærer om verden, de lærer gennem observation.”

Og så simpelt, som det kan lyde, at denne tilgang kan hjælpe udviklere med at AI til at skabe en mere avanceret version af kunstig intelligens.

Hvorfor er det så svært at lære AI til at tale

Dybt machine learning (det er, groft sagt, at opnå bestemte færdigheder gennem trial and error) nu gør AI til at opnå stor succes. Men vigtigst af alt kunstig intelligens at gøre, så langt er ikke i stand til. Han kan ikke tale og drage konklusioner baseret på en analyse af objektive virkelighed, som han findes. Med andre ord, de maskiner, der virkelig forstår ikke verden, hvilket gør dem i stand til at interagere med det.

Dette er interessant: Kan kunstig intelligens slå menneskelige poker?

En måde at forbedre AI kunne blive en slags “fælles hukommelse”, som vil bidrage til biler for at få information om verden omkring og efterhånden lære det. Men det løser ikke alle problemer.

“Det er klart, at vi går glip af noget,” siger Professor Lecun. “Barnet kan udvikle en forståelse af, hvordan voksne elefanter og deres unger efter at se alle 2 billeder. Mens algoritmer for dyb læring skal ses tusindvis, hvis ikke millioner, af billeder. En teenager kan sikkert lære at køre en bil, øve et par dusin timer og regne ud, hvordan at undgå ulykker, men de robotter er nødt til at rulle millioner af timer”.

Hvordan til at undervise AI til at tale

Svaret er, ifølge Professor Lakune er undervurderet sub-overskrift af dyb læring kendt som unsupervised learning. Når algoritmer baseret på tilsyn og intensiv træning, lære AI til at nå det mål ved hjælp af data-input udefra, ukontrolleret udvikling adfærdsmønstre uafhængigt af hinanden. Simpelthen sætte, er der 2 måder at lære en robot til at gå: for det første at komme ind i systemet, er alle parametre, der er baseret på strukturen af robotten. Den anden — “til at forklare” de principper, der er til fods, og til at tvinge robotten til at lære på egen hånd. Langt de fleste af de eksisterende algoritmer fungerer på den første vej. Ian Lecun mener, at fokus bør flyttes i retning af den anden metode.

“Forskere har til at starte med at lære algoritmer er forudsigelse. For eksempel, for at undervise i det neurale netværk til at forudsige den anden halvdel af video, når du ser kun de første. Ja, i dette tilfælde, at fejl er uundgåelige, men på denne måde, vi underviser i, AI argumentation, at udvide mulighederne for dens anvendelse. Vender tilbage til eksemplet med barnet og legetøj lastbil: vi har 2 mulige udfald — lastbil vil falde eller gå ned. “Flip” neurale netværk er stadig hundrede andre sådanne eksempler, og de lærer at opbygge en logisk sammenhæng, og til sidst lærer at tale”.

Til at diskutere dette og andre nyheder, kan du i vores chat i Telegrammet.


Date:

by