Kunstig intelligens kan allerede nu forudsige fremtiden. Politiet bruger det til at producere kort, der afspejler, når og hvor der kan være en forbrydelse. Læger bruger det til at forudsige, hvornår en patient kan have et slagtilfælde eller et hjerteanfald. Forskere er endda forsøger at give AI ‘ s fantasi, så han kan forudse uventede begivenheder.
Mange beslutninger i vores liv kræver gode prognoser, og agenter AI næsten altid gøre det bedre med dem, end mennesker. Men alle disse teknologiske fremskridt er vi stadig manglende tillid til de prognoser, som giver kunstig intelligens. Folk er ikke vant til at stole på AI og foretrækker at have tillid til de eksperter i folks ansigter, også hvis disse eksperter er forkert.
Hvis vi ønsker, at kunstig intelligens til gavn for de mennesker, vi er nødt til at lære at stole på ham. Til dette har vi brug for at forstå, hvorfor folk er så vedholdende nægter at have tillid til AI.
Tillid Til Dr. Robot
Et forsøg på af IBM til at yde supercomputing program onkologer (Watson for Onkologi) har været hårdt savnet. AI lovet at yde rådgivning af høj kvalitet på behandlingen af 12 typer af kræft, der tegnede sig for 80% af tilfælde i verden. Til dato, mere end 14 000 patienter, der har modtaget henstillinger på grundlag af hans beregninger.
Men når lægerne første møde med Watson, fandt de sig selv i en temmelig vanskelig situation. På den ene side, hvis Watson gav anvisninger om behandling, sammenfaldende med deres egne synspunkter, læger har ikke set stor værdi i anbefalinger af AI. Supercomputer var bare at fortælle dem, hvad de allerede vidste, og disse anbefalinger ikke ændre den faktiske behandling. Dette kan give læger tryghed og tillid i deres egne beslutninger. Men IBM har ikke vist, at Watson ikke øge overlevelsesraten for kræft.
På den anden side, hvis Watson har lavet anbefalinger, der adskilte sig fra de eksperter, læger konkluderede, at Watson er inkompetente. Og maskinen kunne ikke forklare, hvorfor behandling bør arbejde, fordi dens machine learning algoritmer, der var alt for kompliceret til at være i stand til at forstå mennesker. I overensstemmelse hermed, at dette førte til endnu større mistillid, og mange læger enkelt ignoreret anbefalinger af AI, der bygger på deres egne erfaringer.
Som et resultat af primær medicinsk partner i IBM Watson — MD Anderson Cancer Center for nylig rapporteret waiver program. Dansk sygehus rapporterede også, at forlader programmet, efter det er fundet, at onkologer ikke er enig med Watson i to tilfælde ud af tre.
Problemet med onkologiske Watson var, at de læger, han bare ikke har tillid til. Den tillid, folk ofte afhænger af vores forståelse af, hvordan andre mennesker tænker og erfaring, der styrker tilliden til deres mening. Det skaber en psykologisk følelse af sikkerhed. AI, på den anden side, er et relativt nyt og forvirrende ting for mennesker. Gør han beslutninger baseret på komplekse system analyse til at identificere potentielle skjulte mønstre og svage signaler, som følge af store mængder af data.
Selv om det er muligt at forklare det tekniske sprog, beslutningsprocessen i AI er normalt for kompleks til at blive forstået af de fleste mennesker. Interaktion med noget, som vi ikke forstår, kan forårsage angst og skabe en følelse af tab af kontrol. Mange mennesker simpelthen ikke forstå, hvordan AI virker, fordi det der sker, et eller andet sted bag skærmen, i baggrunden.
Af denne grund, de er skarpere bemærket de tilfælde, hvor AI gør en fejl: husk Google-algoritme, som er klassificeret farvede mennesker som gorillaer, chatbot Microsoft, som blev en Nazist i mindre end en dag; Tesla, der arbejder på autopilot, som havde en ulykke med dødelig udgang. Disse dårlige eksempler har modtaget en uforholdsmæssig stor opmærksomhed i medierne, understreger den dagsorden, som vi ikke kan stole på teknologien. Machine learning er ikke 100% pålidelig, dels på grund af hans design af mennesker.
Det opdelte samfund?
Den fornemmelse af kunstig intelligens, gå dybt ind i naturen af mennesker. For nylig har forskere udført et eksperiment, hvor interviewet folk, der har set film om kunstig intelligens (fantastisk), om emnet af automatisering i hverdagen. Det viste sig, at der ingen sag var AI ‘ en i filmen er afbildet i en positiv eller negativ måde, blot ser en filmisk repræsentation af vores teknologiske fremtid polariserer den holdning af deltagerne. Optimister blive endnu mere optimistisk, men skeptikerne er lukket endnu stærkere.
Dette tyder på, at folk har fordomme mod AI, fra deres egen argumentation, som er dybt forankret tendens til forudindtaget bekræftelse: tendensen til at søge eller fortolke information på en sådan måde, at bekræfte allerede eksisterende koncept. Fordi AI er ofte nævnt i medierne, det kan fremme dybt splittet samfund, delt mellem dem, der bruger AI, og dem, der forkastede det. Den fremherskende gruppe af mennesker kan få en alvorlig fordel eller ulempe.
Tre ud af krisen af tillid i AI
Heldigvis har vi tanker om, hvordan til at beskæftige sig med troværdigheden af AI. Kun én har erfaring med AI kan forbedre den holdning i befolkningen i retning af denne teknologi. Der er også beviser, der indikerer, at jo oftere du bruger visse teknologier (fx Internet), jo mere du har tillid til dem.
En anden løsning kan være at åbne “den sorte boks” machine learning algoritmer og til at gøre deres arbejde mere gennemsigtig. Virksomheder som Google, Airbnb og Twitter, allerede offentliggøre gennemsigtighed rapporter om offentlige anmodninger og offentliggørelse. Denne praksis i AI-system vil hjælpe folk med at få den rette forståelse af, hvordan algoritmer træffe beslutningerne.
Forskning viser, at der involverer mennesker i beslutningsprocessen af AI vil øge tillid og give mulighed AI til at studere den menneskelige erfaring. Undersøgelsen viste, at mennesker, der var givet mulighed for at ændre lidt i den algoritme, følte stor tilfredshed fra resultaterne af hans arbejde, tilsyneladende på grund af følelser af overlegenhed og indflydelse på det fremtidige resultat.
Vi behøver ikke at forstå den komplekse indre funktioner af AI-system, men hvis du giver folk i det mindste lidt information og kontrol over, hvordan disse systemer er implementeret, vil de have mere tillid og lyst til at gøre AI i hverdagen.
Folk har ikke tillid til AI. Hvordan at reparere det?
Ilya Hel