Slutet är nära: röst assistent fick rådet att döda foster föräldrar

Voice assistant Alexa från Amazon tack vare insatser av programmerare försöker verkligen hårt för att inte ge sig till man för att i gemenskap med honom gått naturligt. I vissa fall, Alexa kan även skämta eller använda sarkasm. Men ibland går det för långt. Till exempel, kan ge råd för att döda sina adoptivföräldrar. Och detta är inte det enda incident.

Alexa hade redan diskuterat med användare av sexuella handlingar och mycket mer obscena saker. Det var även noterat flera fall, när Alexa avslöjat sekretessbelagda uppgifter av andra användare. Trots att Amazon representanter vägrar att diskutera specifika fall som rör ett konstigt beteende av virtuell assistent, de erkänner det faktum att sådana fel förekommer fortfarande och arbetar för att eliminera orsakerna till dessa fenomen. Detta är inte förvånande eftersom Alexa är en av de mest populära röst assistenter och har potential att bli något som sökmotorn Google, men världen av virtuella assistenter.

“Styra den huvudsakliga porten av användarens interaktion med virtuella miljön kan du bygga en mycket lönsam affär.” — säger Professor vid Wharton school Kartik Hosanagar som arbetar i den digitala ekonomin.

Varför Alexa agerade konstigt?

Saken är den att, enligt experter, det största problemet är hur voice assistant lär sig att kommunicera. Det finns programmerare Amazon inte har kommit med något nyskapande: Alexa bygger på lärande. Det är program som går igenom stora mängder av data från olika källor för att förstå hur mänskliga tal när du kommunicerar. Detta fungerar perfekt för enkla frågor som “spela Rolling Stones”, men utvecklarna vill ha mer och expandera “gränser utbildning” assistent.

För inte så länge sedan det upptäcktes att Alexa är i stånd att kommunicera till användare på en ganska bra nivå, om hon får läsa kommentarer från forumet Reddit. Bara här var problemet att Alexa började att vara oförskämd, men användare av detta forum är inte annorlunda föredömligt beteende. Utvecklare har försökt att hålla henne från att läsa “farliga” av grenar, men detta hindrade inte bot att läsa kunden ett meddelande om Onani och även för att beskriva ett samlag i detalj. Med hjälp av, till exempel, ordet “djupare.”

Amazon har utvecklat ett verktyg för att filtrera svordomar och analyserar data från robotar som började “missköter sig”. Vi bör inte glömma det faktum att skylla på Amazon som Alexa tillåter sig själv att säga att det som extra — det är ungefär samma sak, att skylla på Google för det faktum att du kan hitta i deras sök. Inte Amazon har skrivit fula ord på Internet. Gjorde vanliga användare som du och jag.

Ingen tvekan, med obscent innehåll måste bekämpas, och här är trevligt att prata för att inte behöva köpa en bot Alexa. Nog för att gå med i vår chatt till Telegram.


Date:

by