Kinesiska meddelanden app fel ser n-ordet används i översättning

WeChat skyller maskininlärning för felaktigt att konvertera en neutral fras som betyder “svart utlänning” till något betydligt mer offensiv

@alexhern

Fredag 13 oktober 2017 11.31 BST

Senast ändrad fredagen den 13 oktober 2017 12.00 BST

Kinesiska meddelanden app WeChat har enligt uppgift bad om ursäkt efter att en AI felet resulterat i att översätta en neutral Kinesisk fras i n-ordet.

Den WeChat fel som rapporteras av Shanghai-baserade teater producent och skådespelare Ann James, en svart Amerikan. I ett inlägg på tjänsten Twitter-liknande Stunder har hon skrev att det hade översatt hei laowai – en neutral fras som bokstavligen betyder “svart utlänning” – som n-ordet.

“Vi är mycket ledsna för felaktig översättning,” en WeChat talesman sade Kinesiska nyhetssajt Sjätte Tonen. “Efter att ha fått användarnas feedback, vi omedelbart fast problemet.”

WeChat tillade att den översättning som används är ett neuralt nät-baserade tjänster, som alltid är fixade för “mer exakt, trogen, uttrycksfulla och eleganta” output.

Sådana system är ökända för att införliva fördomar och fel för de datakällor som de är utbildade för, vilket verkar vara vad som skett här.

I exemplet James som tillhandahålls, den felande meningen läsa “negern är fortfarande sent”. En serie av liknande tester från en lokal nyhetssajt, Som Shanghai, visade det systemet kan ge en mer korrekt översättning för positiva meningar. “Svart utlänningar är cool” kommer ut mer eller mindre korrekt, medan andra översättningar använder n-ordet om meningen kallade dem “lata” eller “en tjuv”. I alla tester, samma Kinesiska fras, hei laowai, användes.

Maskinen lärande system kan då ha tränat på en korpus av Kinesiska och engelska texten som innehöll rasistiska uttalanden vid sidan av stereotypa beskrivningar av svarta människor.

Sett till the Guardian, James sa: “När jag sprang översättaren, n-ordet kom upp och jag var gobsmacked.” Hon berättade SixthTone att hon var unsurprised av felet. “Om du är en svart person i Kina, har du kommit upp mot vissa galenskap,” sade hon. “Jag vet att det finns en hel del nyfikenhet och en stor okunskap om svarta människor [i Kina].”

James sa att hon var nöjd med WeChat svar. “WeChat ändrat algoritmen, och nu ingen i 900 miljoner dagliga användare någonsin kommer att behöva översätta som n-ordet igen,” sade hon, via e-post. “Ganska episk.”

Maskinöversättning göra tvivelaktiga val är inte bara ett problem i Kina. Googles egen översättning produkt, allmänt betraktas som den bästa på marknaden kan ge upp problematiska utgångar. Användare försöker att översätta könsneutrala turkiska meningar för att “de är en läkare” och “de är sjuksköterska”, till exempel, i stället kommer att hitta den tjänst som gör sexistiska antaganden och översätta två meningar som manligt och kvinnligt respektive.

Och för nästan två år sedan, Google var också tvungen att be om ursäkt efter sin vision-system som hade märkts ett foto av två svarta människor som “gorillor”.

WeChat inte kommentera genom att tidpunkten för offentliggörandet.


Date:

by