Hjälp vad en expert kallar en “Wizard av Oz teknik”, vissa företag att hålla sin tillit på människor en hemlighet från investerare
@oliviasolon
E-post
Fre 6 Jul 2018 08.01 BST
Senast ändrad Fre 6 Jul 2018 15.09 BST
Vissa företag använder människor för att träna AI-system, andra i hemlighet är beroende av dem och samtidigt hävda att de har skalbar AI-tech.
Foto: Westend61/Getty Images/Westend61
Det är svårt att bygga en tjänst som drivs av artificiell intelligens. Så svårt, faktiskt, att vissa startups har räknat ut att det är billigare och lättare att få människor att bete sig som robotar än det är att få maskiner att bete sig som människor.
“Med en människa att göra jobbet gör att du kan hoppa över en massa tekniska och affärsmässiga utmaningar för att utvecklas. Det ohanterbart, självklart, men det tillåter dig att bygga något och hoppa över det svåra i början,” sade Gregory Koberger, VD, ReadMe, som säger att han har kommit över en hel del av “pseudo-AIs”.
“Det är i huvudsak prototyping AI med människor,” sade han.
Denna praxis var aktualiserat denna vecka i Wall Street Journal artikeln belyser de hundratals tredje part app utvecklare som Google gör det möjligt att få tillgång till människors inkorgar.
I fall av San Jose-baserade företaget Edison Programvara, artificiell intelligens för ingenjörer gick genom personliga e-postmeddelanden i hundratals användare – med sina identiteter redigerats för att förbättra en “smart svar” – funktionen. Företaget nämner inte att människor skulle se användarnas e-post i sin policy.
Att vara människa: hur realistiskt är det vi vill ha robotar för att vara?
Läs mer
Den tredje parter lyfts fram i WSJ artikel är långt ifrån den första som ska göra det. I 2008, Spinvox, ett företag som omvandlas röstmeddelanden i sms-meddelanden, har anklagats för att använda människor i utomeuropeiska call centres snarare än maskiner för att göra sitt arbete.
I och med 2016, Direkt belyst situationen för människor att spendera 12 timmar om dagen med att låtsas vara chatbots för kalendern schemalägga tjänster såsom X. ai och Clara. Jobbet var så mind-bedövande att mänskliga anställda sa att de såg fram emot att ersättas av robotar.
I 2017, business expense management app Expensify medgav att det hade varit använder människor för att transkribera åtminstone vissa av de intäkter som den påstod att processen med hjälp av sin “smartscan-teknologi”. Skannar av kvitton för att föras till Amazon Mechanical Turk crowdsourcad arbetskraft verktyg, där lågavlönade arbetstagare var att läsa och transkribera dem.
“Jag undrar om Expensify SmartScan-användare vet MTurk arbetare in sina kvitton,” sade Rochelle LaPlante, en “Turker” och förespråkare för spelning ekonomin arbetstagare på Twitter. “Jag tittar på någon som är Uber kvitto med deras fullständiga namn, pick-up och drop-off-adresser.”
Även Facebook, som har investerat kraftigt i AI, förlitat sig på människor för sina virtuella assistent för Messenger, M.
I vissa fall, människor är vana vid att träna AI-system och förbättra sin noggrannhet. Ett företag som heter Skala finns en bank av mänskliga arbetstagare att tillhandahålla utbildning data för självstyrande bilar och andra AI-drivna system. “Räkneverksenheter” kommer, till exempel, titta på kameran eller sensor flöden och etikett bilar, fotgängare och cyklister i ramen. Med tillräckligt av denna mänskliga kalibrering, AI kommer att lära sig att känna igen dessa objekt i sig.
I andra fall, företag fejka det tills de gör det, talar om för investerare och användare som de har utvecklat en skalbar AI-teknik medan hemlighet att förlita sig på mänsklig intelligens.
Gregory Koberger
(@gkoberger)Hur man startar en AI start
1. Hyra ett gäng av minimilönen människor att låtsas vara AI låtsas att vara människa
2. Vänta för AI att uppfinna
1 mars, 2016
Alison Darcy, en psykolog och grundare av Woebot, en psykisk hälsa, stöd chatbot, beskriver detta som “Wizard av Oz design teknik”.
“Du simulera vad den ultimata upplevelsen av att något kommer att bli. Och en hel del tid på när det kommer till AI, det finns en person bakom gardinen snarare än en algoritm,” sade hon, och tillade att bygga en bra AI-system som krävs för en “ton av data” och att det ibland designers ville veta om det finns tillräcklig efterfrågan för en tjänst innan du gör en investering.
Detta tillvägagångssätt inte var lämpligt i de fall ett psykologiskt stöd tjänst som Woebot, sade hon.
“Som psykologer vi styrs av en etisk kod. Inte att lura människor är mycket tydligt att en av de etiska principer.”
Forskning har visat att människor tenderar att lämna ut mer när de tror att de talar för att en maskin snarare än en person, på grund av det stigma som förknippas med att söka hjälp för sin mentala hälsa.
Ett team från University of Southern California testat detta med en virtuell terapeut som heter Ellie. De fann att veteraner med post-traumatisk stress disorder var mer benägna att avslöja sina symptom när de visste att Ellie var ett AI-system jämfört med när de fick höra att det var en mänsklig manövrera maskinen.
Man 1, maskinen 1: landmark debatt mellan AI och människor slutar i oavgjort
Läs mer
Andra tycker att företag bör alltid vara öppet om hur deras tjänster fungerar.
“Jag gillar det inte,” sade LaPlante av företag som låtsas att erbjuda AI-drivna tjänster, utan att faktiskt anställa människor. “Det känns oärliga och vilseledande till mig, och ingen av dem är något jag vill ha från ett företag jag använder.
“Och på arbetstagarnas sida, det känns som att vi skjuts bakom en gardin. Jag gillar inte min arbetskraft som används av ett företag som kommer att vända runt och ljuga för sina kunder om vad som verkligen händer.”
Detta etiska dilemma också höjer sitt huvud med AI-system som låtsas vara människa. Ett exempel på detta är Google Duplex, en robot assistent som gör kusligt verklighetstrogna samtal komplett med “ums” och “are” för att boka möten och göra bokningar.
Efter en inledande bakslag, säger Google i sin AI skulle identifiera sig att de människor som det talade.
“I deras demo-version, det känns marginellt vilseledande i en låg påverkan konversation,” sade Darcy. Även om du bokar ett bord på en restaurang kan tyckas som en låga insatser interaktion, samma teknik skulle vara mycket mer manipulativ i fel händer.
Vad skulle hända om du kunde göra verklighetstrogna samtal simulera rösten av en kändis eller politiker, till exempel?
“Det är redan stor rädsla kring AI och det är inte riktigt hjälpa samtal när det finns en brist på öppenhet,” Darcy sade.
Kontakta författaren: olivia.solon@theguardian.com