Black-Hole-Nachrichten Führt zu YouTube Schieben Platz Verschwörungstheorien

Illustration for article titled The Internet Is Fascinated by the Black Hole News, so Naturally, YouTube Is Recommending Space Conspiracy Theory Videos Screenshot: Patrick Howell O ‘ Neill

Die beliebteste Sache, die im internet am Mittwoch war das erste Bild von einem schwarzen Loch. Es war überall, und das aus gutem Grund: Dies ist ein historischer moment, es stärkt Einsteins Theorien, und es ist etwas, das schwer zu wickeln Sie Ihre Kopf herum.

Millionen von Menschen Lesen Artikel und videos angeschaut, die erklären das schwarze Loch news. Ein Zuschauer, der sah ein video auf der wissenschaftlichen Leistung auf YouTube hatte eine gute chance, die Plattform empfehlungsalgorithmen drücken Sie, um ein video über eine absurde Verschwörungstheorie—eine herbe Ironie im Angesicht der harten Wissenschaft, die Millionen von Menschen waren fasziniert von dieser Woche.

Die am meisten empfohlene video auf YouTube in dieser Woche, nach einem Dritten Forscher, “Sie Fanden Etwas Im Weltraum Und Es ist Auf Seine Art und Weise Hier” grundlos monetarisiert Verschwörungstheorie-video liefert in 13 Minuten von apokalyptischen Rede und der Idee, dass Menschen wirklich nur genetisch veränderten alien-Sklaven. Klingt wie etwas, das einer der weltweit führenden künstliche Intelligenz Unternehmen könnte wahrscheinlich gefangen haben!

Der YouTube-Empfehlung zahlen sind nach Untersuchungen von Guillaume Chaslot, eine ehemalige Google-software-Ingenieur tätig AlgoTransparency.org. Die Verschwörung-video angesehen wurde mehr als 130.000-mal in drei Tagen.

“Die KI empfohlen, diese Verschwörung, Millionen mal von mehr als 169 verschiedene Kanäle, einschließlich der europäischen Weltraumorganisation und Northrop Grumman,” Chaslot twitterte am Mittwoch. “Heute war ein historisches hoch für die Astronomie, und ein historischer Tiefpunkt für AI.”

Chaslot die Forschung untersucht, YouTube ist mächtig, aber kaum verstanden Empfehlung-Algorithmus. Durch die Beobachtung von tausenden von populären-Kanälen, AlgoTransparency sammelt und protokolliert die Empfehlungen, um besser zu verstehen, wie die YouTube-algorithmen arbeiten.

Es ist wichtig, die Forschung, weil die YouTube-algorithmen, die verantwortlich sind für eine unfassbare über 700 Millionen Stunden video-Wiedergabezeit jeden Tag, aber die bleiben eine wahre black box, in die fast niemand außerhalb von Google Sichtbarkeit—verantwortlich für die Popularisierung von Fehlinformationen und Verschwörungstheorien, die unter einer größeren Gruppe von Beleidigendem Inhalt.

Hier Chaslot ist (auf YouTube natürlich) erklärt, seine Forschung und, wie YouTube funktioniert zu fördern Verschwörungstheorien:

Früher in diesem Jahr, YouTube sagte, es würde sich ändern, seine Empfehlungen zu algorithmen, zu empfehlen, weniger Verschwörung und Desinformation videos. Es gab eine Menge Aufmerksamkeit auf die Ankündigung, sondern es entscheidend fehlten Angaben darüber, wie es eigentlich diesem Zweck.

“Wir werden beginnen, die Verringerung der Empfehlungen der borderline-Inhalte und Inhalte, die könnten haben Benutzer in schädigender Weise — wie-videos fördern, eine gefälschte Wunder Heilung für eine schwere Krankheit, die behaupten, die Erde ist flach, oder offensichtlich falsche Behauptungen über historische Ereignisse wie 9/11,” das Unternehmen sagte in einer Erklärung.

Wie es scheint, ist dies ein ganz klarer Fall von dieser bizarren Verschwörungstheorie passend genau in diese definition, aber immer noch empfohlen wird “millionenfach”, so Chaslot.

YouTube antwortet nicht auf eine Anfrage für Kommentar.

“Ich wurde sehr enthusiast über YouTube’ s Ankündigung,” Chaslot twitterte am Mittwoch, “aber lassen Sie uns ehrlich sein: nach zwei Monaten, die Dinge kaum geändert.”

Teilen Sie Diese Geschichte


Date:

by