Voice assistant Alexa fra Amazon takket være en indsats fra programmører forsøger virkelig svært ikke at give efter for den mand for at have fællesskab med ham gik naturligt. I nogle tilfælde, Alexa kan endda joke omkring eller bruge sarkasme. Men nogle gange går det for vidt. For eksempel kan råde til at dræbe deres adoptivforældre. Og det er ikke kun sådan hændelse.
Alexa allerede havde været diskuteret med brugere af seksuelle handlinger og langt mere obskøne ting. Det var endda registreret flere tilfælde, når Alexa afsløret fortrolige oplysninger fra andre brugere. På trods af det faktum, at Amazon repræsentanter nægter at diskutere specifikke tilfælde, der er relateret til den mærkelige opførsel af den virtuelle assistent, og de anerkender det faktum, at sådanne fejl forekommer stadig og arbejder på at fjerne årsagerne til disse fænomener. Dette er ikke overraskende, fordi Alexa er en af de mest populære stemme assistenter, og har potentiale til at blive noget, som søgemaskinen Google, men i en verden af virtuelle assistenter.
“Der kontrollerer den vigtigste gate af brugerens interaktion med den virtuelle miljø kan du bygge en særdeles indbringende forretning.” — siger Professor på the Wharton school Kartik Hosanagar, der arbejder i den digitale økonomi.
Hvorfor Alexa handlede mærkeligt?
De ting er der, ifølge eksperter, at det største problem er, hvordan voice-assistent lærer at kommunikere. Der er programmører Amazon ikke komme op med noget nyskabende: Alexa er afhængig af machine learning. Det er, programmet springer gennem enorme mængder af data fra forskellige kilder for at forstå, hvordan den menneskelige tale, når du kommunikerer. Det fungerer perfekt for simple forespørgsler som “spille Rolling Stones”, men udviklerne vil have mere og udvide “grænser uddannelse” assistent.
For ikke så længe siden blev det opdaget, at Alexa er i stand til at kommunikere til brugere på et ret godt niveau, hvis hun have lov til at læse kommentarer fra forum Reddit. Kun her var problemet, at Alexa begyndt at være uhøflig, men brugerne af dette forum er ikke anderledes eksemplarisk opførsel. Udviklerne har forsøgt at holde hende fra at læse “farlige” af grenene, men det forhindrede ikke bot til at læse kunden en note om Onani og endda at beskrive samleje i detaljer. Hjælp, for eksempel ordet “dybere.”
Amazon har udviklet en Værktøjskasse til at filtrere bandeord og analyserer data fra robotter, der begyndte at “opfører sig ordentligt”. Vi bør ikke glemme, at det i virkeligheden er at skyde skylden Amazon, der Alexa tillader sig at sige det som ekstra — det handler om den samme ting, beskylde Google for det faktum, at du kan finde i deres søgning. Ikke Amazon har skrevet dårlige ord på Internettet. Har almindelige brugere som dig og mig.
Ingen tvivl om, med pornografisk indhold skal bekæmpes, og her er rart at tale med, ikke er nødt til at købe en bot Alexa. Nok til at deltage i vores chat til Telegram.