Ved hjelp av hva en ekspert kaller en “Wizard of Oz teknikk”, noen selskaper beholde sin avhengighet av mennesker en hemmelighet fra investorer
@oliviasolon
E-post
Fre 6 Juli 2018 08.01 BST
Sist endret på Fredag 6 Juli 2018 08.48 BST
Noen selskaper bruker mennesker til å trene AI-systemer, andre hemmelighet stole på dem mens de hevder å ha skalerbare AI-tech.
Foto: Westend61/Getty Images/Westend61
Det er vanskelig å bygge en tjeneste drevet av kunstig intelligens. Så vanskelig, faktisk, at noen oppstarter har jobbet ut at det er billigere og enklere å få mennesker til å oppføre seg som roboter enn det er å få maskiner til å oppføre seg som mennesker.
“Ved hjelp av en menneskelig å gjøre jobben, kan du hoppe over en last av teknisk og forretningsmessig utvikling utfordringer. Det spiller ingen skala, selvsagt, men det gir deg muligheten til å bygge noe og hoppe over den harde delen tidlig,” sa Gregory Koberger, administrerende DIREKTØR i ReadMe, som sier at han har kommet over mye av “pseudo-AIs”.
“Det er i hovedsak prototyping AI med mennesker,” sa han.
Denne praksisen ble brakt i forgrunnen denne uken i Wall Street Journal artikkel fremhever hundrevis av tredjeparts app-utviklere som Google gjør det mulig å få tilgang til folks innbokser.
I tilfelle av San Jose-baserte selskapet Edison Programvare, kunstig intelligens ingeniører gikk gjennom personlige e-postmeldinger av hundrevis av brukere – med sine identiteter bearbeidet for å forbedre en “smart-svar” – funksjonen. Selskapet har ikke nevne at mennesker ville se brukernes e-postmeldinger i sin privacy policy.
Å være menneske: hvor realistisk er det vi ønsker roboter til å være?
Les mer
Den tredje parter som er uthevet i WSJ artikkelen er langt fra de første til å gjøre det. I 2008, Spinvox, et selskap som har konvertert beskjed i tekstmeldinger, ble anklaget for å bruke mennesker i utlandet kundesentre snarere enn maskiner for å gjøre sitt arbeid.
I 2016, Bloomberg uthevet situasjonen for mennesker å bruke 12 timer en dag som utgir seg for å være chatbots kalender for planlegging av tjenester som X. ai og Clara. Jobben var så mind-numbing at menneskelig ansatte sa at de var ser frem til å bli erstattet av roboter.
I 2017, business expense management app Expensify innrømmet at det hadde vært bruker mennesker til å skrive i det minste noen av kvitteringer for det som hevdes å behandle ved hjelp av sin “smartscan-teknologi”. Skanninger av kvitteringer ble lagt ut til Amazon Mechanical Turk crowdsourced arbeids-verktøyet, hvor lavt betalte arbeidere var å lese og å transkribere dem.
“Jeg lurer på om Expensify SmartScan-brukere vet MTurk arbeidere inn sine kvitteringer,” sa Rochelle LaPlante, en “Turker” og talsmann for konsert økonomi arbeidere på Twitter. “Jeg ser på noen Uber kvittering med sitt fulle navn, plukk-opp-og-slipp-off-postadresser.
Selv Facebook, som har investert tungt i AI, lettelse opp på mennesker for sin virtuell assistent for Messenger, M.
I noen tilfeller, mennesker er brukt til å trene AI-system og forbedre nøyaktigheten. Et selskap som heter Skala tilbyr en bank av medarbeiderne til å gi opplæring data for selvkjørende biler og andre AI-styrte systemer. “Scalers” vil, for eksempel, se på kameraet eller sensor-feeder og etiketten biler, fotgjengere og syklister i rammen. Med nok av denne menneskelige kalibrering, AI vil lære å gjenkjenne disse objektene selv.
I andre tilfeller, selskaper falske det før de gjør det, forteller investorer og brukere de har utviklet en skalerbar AI-teknologi mens hemmelighet stole på menneskelig intelligens.
Gregory Koberger
(@gkoberger)Hvordan å starte en AI-oppstart
1. Leie en haug av minstelønn mennesker å utgi seg for å være AI utgir seg for å være menneskelig
2. Vent til AI å bli oppfunnet
Mars 1, 2016
Alison Darcy, en psykolog og grunnlegger av Woebot, et psykisk støtte chatbot, beskriver dette som “Trollmannen fra Oz design technique”.
“Du simulere hva den ultimate opplevelsen av at noe kommer til å bli. Og mye av tiden når det kommer til AI, det er en person bak gardinen snarere enn en algoritme,” sa hun, og legger til at det å bygge en god AI-system kreves en “massevis av data”, og at noen ganger designere ønsket å vite om det var tilstrekkelig etterspørsel etter en tjeneste før du gjør investeringen.
Denne tilnærmingen var ikke riktig i tilfelle av en psykologisk støtte tjeneste som Woebot, sa hun.
“Som psykologer vi blir guidet av en code of ethics. Ikke lure folk er helt klart en av de etiske prinsipper.”
Forskning har vist at mennesker har en tendens til å avsløre mer når de tror de snakker til en maskin, snarere enn en person, på grunn av stigma forbundet med å søke hjelp for ens mentale helse.
Et team fra University of Southern California testet dette med en virtuell terapeut som heter Ellie. De fant at veteraner med post-traumatisk stress lidelse var mer sannsynlig å røpe sine symptomer når de visste at Ellie var en AI-system versus da de ble fortalt at det var et menneske som du bruker maskinen.
Man 1 -, maskin-1: landmark debatt mellom AI og mennesker ender i uavgjort
Les mer
Andre mener selskapene bør alltid være åpen om hvordan deres tjenester fungerer.
“Jeg liker det ikke,” sa LaPlante av selskaper som later til å tilby AI-drevet tjenester, men faktisk ansette mennesker. “Det føles uærlig og villedende til meg, men ingen av dem er noe jeg ønsker fra en bedrift som jeg bruker.
“Og på arbeidstakerens side, det føles som om vi blir skjøvet bak en gardin. Jeg liker ikke min arbeidskraft blir brukt av et selskap som vil snu seg rundt og ligge til sine kunder om hva som virkelig skjer.”
Dette etiske dilemma også hever hodet med AI-systemer som later til å være menneske. Et nylig eksempel på dette er Google Tosidig utskrift, en robot-assistent som gjør uhyggelig realistisk telefonsamtaler komplett med ‘ums’ og ‘ers’ å bestille avtaler og gjøre reservasjoner.
Etter en første tilbakeslag, Google sa sin AI ville identifisere seg til mennesker det snakket til.
“I sin demo-versjon, det føles marginalt villedende i en lav-effekt samtale,” sa Darcy. Selv om bestilling av bord på en restaurant kan virke som en low-stakes samspill, den samme teknologien kan være mye mer manipulerende i feil hender.
Hva ville skje hvis du kunne gjøre levende samtaler simulere stemme på en kjendis eller politiker, for eksempel?
“Det er allerede stor frykt rundt AI og det er egentlig ikke hjelpe samtale når det er mangel på åpenhet,” Darcy sa.
Kontakt forfatter: olivia.solon@theguardian.com