Voice Assistant Alexa von Amazon Dank der Bemühungen von Programmierern sehr stark versucht, nichts nachgeben Person, um die Kommunikation mit ihm verlief so natürlich. In einigen Fällen Alexa kann sogar Witze oder Sarkasmus verwenden. Doch manchmal geht es zu weit. Zum Beispiel kann beraten töten Ihre Pflegeeltern. Und es ist bei weitem nicht der einzige derartige Vorfall.
Alexa bereits erörterte sexuelle Handlungen mit den Nutzern und viel mehr unanständige Dinge. Es gab sogar wenige Fälle, in denen Alexa offengelegten vertraulichen Informationen anderer Benutzer. Trotz der Tatsache, dass die Vertreter der Amazon weigern, konkrete Fälle zu diskutieren, die sich mit Kuriositäten im Verhalten des virtuellen Assistenten, Sie erkennen die Tatsache, dass solche Entgleisungen doch ein Ort zu sein, und führen die Arbeit nach der Beseitigung der Ursachen dieser Phänomene. Und es ist nicht verwunderlich, denn Alexa ist eine der beliebtesten Voice-Assistenten und hat alle Chancen, so etwas wie der Suchmaschine Google, sondern von der virtuellen Assistenten.
«Steuert das Haupttor Interaktion mit der virtuellen Umgebung können Sie bauen äußerst gewinnbringendes Geschäft.» — erklärt Professor an der Wharton School of Business Kartik Хосанагар Student der digitalen Wirtschaft.
Warum Alexa verhält sich seltsam?
Die Sache ist die, dass nach Meinung der Experten, das Hauptproblem besteht darin, wie Voice Assistant lernt zu kommunizieren. Da die Programmierer von Amazon nicht mit etwas innovativem: Alexa setzt auf maschinelles lernen. Das heißt, das Programm durchgelassen werden riesige Datenmengen aus verschiedenen Quellen, um zu verstehen, wie sich die menschliche Sprache bei der Kommunikation. Es funktioniert einwandfrei bei einfachen Anfragen wie «Spiele Rolling Stones», aber die Entwickler wollen mehr und erweitern «die Grenzen der Ausbildung» Assistent.
Vor nicht langer Zeit wurde festgestellt, dass Alexa die sich in den Nutzern auf einem Recht guten Niveau, wenn Sie erlauben, Lesen Sie die Kommentare aus dem Forum Reddit. Das einzige Problem Bestand darin, dass Alexa Anfang grob sein, denn die Nutzer dieses Forums unterscheiden sich nicht vorbildlich Verhalten. Die Entwickler haben versucht, halten Sie Sie aus der Lektüre «gefährliche» äste, aber das hat nicht Bota Kunden Lesen die Notiz über die Masturbation und sogar beschreiben den Geschlechtsakt in allen Einzelheiten. Unter Verwendung, zum Beispiel, das Wort «tiefer».
Amazon hat bereits ein Instrumentarium zur Filterung von Profanität und analysiert die Daten mit Bots, die anfingen, «sich schlecht benehmen». Dabei ist nicht zu vergessen, dass die Tatsache der Schuld von Amazon ist, dass Alexa lässt sich сказануть extra — das ist ungefähr das gleiche, dass Google die Schuld für das, was Sie finden in Ihre Suchmaschine. Denn nicht Amazon schrieb böse Worte im Internet. Es haben normale Benutzer wie du und ich.
Kein Zweifel, mit obszönen Inhalten müssen kämpfen, aber um mir eine Freude gar nicht unbedingt kaufen bot sich Alexa. Es genügt mitmachen bei unserem Chat in Телеграм.