Microsoft ‘s Zo Chatbot Opfordrer Koranen” Meget Voldsom ” i Frisk AI Fejltrin

En ny chatbot af Microsoft, drevet af kunstig intelligens har skabt kontroverser, ved at sige, at den hellige bog Koranen er “meget voldelig,” medier rapporteret.

Ifølge Buzzfeed Nyheder, selv om Microsoft programmeret Zo, en chatbot designet til teenagere på Kik messaging app, for at undgå at diskutere politik og religion, er det for nylig fortalte en bruger, at Koranen er “meget voldsom”.

Microsoft sagde, at det har taget skridt til at fjerne denne form for adfærd, der tilføjer, at disse typer af reaktioner er sjældne fra Zo.

Men bot ‘ s karakterisering af Koranen var bare sin fjerde besked efter start af samtale.

Det viste sig, at Microsoft stadig har problemer med at udnytte sin AI teknologi.

“Selskabets tidligere chatbot Tay flammede ud i spektakulære fashion sidste år i Marts, når det tog mindre end en dag til at gå fra at simulere den personlighed af en kåd teenager til en Holocaust-benægter trussel forsøger at udløse en race krig,” Buzzfeed rapport tilføjet.

Microsoft skylden for den usmagelige opførsel af Tay på en koncentreret indsats fra brugere til at ødelægge bot, men det hævder ikke, at sådanne forsøg blev gjort på at bringe ned Zo.

På trods af de spørgsmål, Microsoft sagde, at det var temmelig tilfreds med den nye bot ‘ s fremskridt, og at det har planer om at holde bot kører.


Date:

by