Kinesisk meldinger-appen feil ser n-ordet som er brukt i oversettelsen

WeChat er å skylde på machine learning for feilaktig å konvertere et nøytralt uttrykk som betyr “svart utlending’ til noe langt mer offensiv

@alexhern

Fredag 13. oktober 2017 11.31 BST

Sist endret på fredag 13. oktober 2017 12.00 BST

Kinesisk meldinger-appen WeChat har angivelig ba om unnskyldning etter en AI feil resulterte i det å oversette en nøytral Kinesiske uttrykket til n-ordet.

Den WeChat feil ble rapportert av Shanghai-baserte teater produsent og skuespiller Ann James, en svart Amerikansk. I et innlegg på tjenesten Twitter-lignende Øyeblikk har hun skrev at det hadde oversatt hei laowai – et nøytralt uttrykk, som bokstavelig talt betyr “svart utlending” – som n-ordet.

“Vi er veldig lei for ukorrekt oversettelse,” en WeChat talsmann fortalte Kinesiske nyhetssiden Sjette Tonen. “Etter å ha mottatt brukernes tilbakemeldinger, vi umiddelbart løst problemet.”

WeChat tilføyes at oversettelse motoren bruker er en nevrale nettverk-basert tjeneste, som alltid blir forskjøvet for “mer nøyaktig, trofast, uttrykksfulle og elegante” utgang.

Slike systemer er beryktet for å innlemme den skjevheter og feil i data kilder som de er opplært, som ser ut til å være hva som skjedde her.

I eksempel James gitt, uakseptable setning lese “nigger er fortsatt for sent”. En rekke lignende tester fra en lokal nettavis, Som er Shanghai, åpenbart systemet er i stand til å gi en mer nøyaktig oversettelse for positive setninger. “Black utlendinger er kult” kommer ut mer eller mindre riktig, mens andre oversettelser brukt n-ordet når setningen kalte dem “lat” eller “en tyv”. I alle testene, den samme Kinesiske uttrykket, hei laowai, ble brukt.

På machine learning system kan da ha blitt trent på et korpus av Kinesisk og engelsk tekst, som inneholdt rasistiske uttalelser sammen med stereotype beskrivelser av svarte mennesker.

Tale til the Guardian, James sa: “Når jeg kjørte oversetter, n-ordet kom opp og jeg var gobsmacked.” Hun fortalte SixthTone at hun var unsurprised av feil. “Hvis du er en svart person i Kina, har du komme opp mot noen galskap,” sa hun. “Jeg vet det er mye av nysgjerrighet og mye uvitenhet om svarte mennesker [i Kina].”

James sa hun var fornøyd med WeChat svar. “WeChat endret algoritmen, og nå er det ingen som i 900 millioner brukere daglig noen gang vil ha å oversette det n-ordet igjen,” sa hun via e-post. “Ganske episk.”

Maskinen oversettelse å gjøre tvilsomme valg er ikke bare et problem i Kina. Googles egen oversettelse produkt, allment sett på som de beste på markedet, kan tilby problematisk utganger. Brukere som prøver å oversette kjønns-nøytral tyrkisk setninger for “de er en lege” og “de er en sykepleier”, for eksempel, vil i stedet med å finne tjenesten gjør sexistisk forutsetninger og oversette de to setningene som maskuline og feminine henholdsvis.

Og nesten to år siden, Google ble også tvunget til å be om unnskyldning etter sin machine vision-systemet hadde merket et bilde av to svarte mennesker som “gorillaer”.

WeChat ikke kommentar av publiseringen.


Date:

by