YouTube Produkt-Chef: Extremisten Rabbit Holes? Was Extremistische Rabbit Holes?

Foto: Brian Ach (Getty)

In einem New York Times interview, das heute veröffentlicht wurde, Neal Mohan, YouTube-chief product officer, der versucht, zu entlarven “einige Mythen” über die Plattform der angeblichen Tendenz zur Radikalisierung der Benutzer durch seine Empfehlungen Algorithmus. Es könnte besser gegangen.

Mohan hat, was viele in der C-suite für Technikfreaks zu tun, wenn er von einem wütenden öffentlichkeit, die Presse, und eine fülle von anekdotische Evidenz, die Ihr Geschäft kann sein, dass einige negative Externalitäten auf die Gesellschaft an: Er umgangen Grundfragen und-Weiterleitung Schuld. Während Sie vielleicht nicht begreifen, das präzise Punkte Mohan macht, auch Leser, die Teil der Schlafentzug-Experimente oder unter dem Einfluss von starken Drogen, sollten weiterhin in der Lage sein zu identifizieren, die die verräterischen Anzeichen von Wiesel-y Antworten.

Also, die Frage bei der hand ist, wenn die YouTube-Empfehlungen Schubs-Nutzern das betrachten von Inhalten, die mit zunehmend extremen Standpunkte, führt Sie nach unten, so genannte extremistische Kaninchen Löcher. Neal?

Aus der Zeit:

Ja, so habe ich schon mal gehört, und ich denke, dass es einige Mythen, die gehen in die Beschreibung, ich denke, es wäre hilfreich für mich, zu entlarven.

Die erste ist diese Vorstellung, dass es irgendwie in unserem Interesse für die Empfehlungen zu verschieben Menschen in diese Richtung, weil es steigert die Uhr Zeit oder was haben Sie.

Ich erinnere mich nicht, jemanden zu Fragen, was ist in der YouTube-Interesse, so bedeutet es nicht viel, zu entlarven ein “Mythos” niemand war besonders investiert. Sorry zu unterbrechen, aber. Neal, fahren Sie bitte Fort:

Ich kann kategorisch sagen, dass ist nicht der Weg, dass unsere Empfehlung, die Systeme entworfen werden.

Das ist nicht zu sagen, das ist nicht, wie die empfehlungssysteme in der Praxis funktionieren. Trotzdem:

Uhr Zeit ist ein signal, die Sie verwenden, aber verwenden Sie eine Reihe von anderen engagement und die Zufriedenheit Signale von der Benutzer. Es ist nicht so, dass “extreme” content-Laufwerke eine höhere version von engagement oder schaue mal, als der Inhalt der anderen Arten.

Seltsam. Facebook hat bereits früher angedeutet, dass es drastische Zuwächse im engagement für Inhalte, die Sie als “borderline”—also nicht ganz gegen die Plattform-Regeln, aber in der Nähe der oberen Grenze von dem, was akzeptabel ist. In anderen Worten, extreme—etwas YouTube vage angekündigt, eine Absicht zu knacken auf im Januar. Bewegen Sie sich auf:

[W]enn wir Empfehlungen nachdem Sie ein video verbraucht worden, die wir nicht berücksichtigen, jede Vorstellung, ob das mehr oder weniger extrem.

Schwer vorstellbar, ein Unternehmen, drehen Sie die Lautstärke auf den Geschmack von videos, die Sie verfolgen nicht für Empfehlungen. In der einen oder anderen form, entweder Mohan-oder YouTube-das Presse-team könnte nur Geflunker!

Zu sehen, wie wir bekommen haben, aus, um so einen guten start, Neal beschlossen, zu versuchen, einige Alternative Erklärungen. Zum Beispiel, die Schuld auf die Benutzer für zündender und radikalisierender selbst:

Aber sehen Sie auch die videos, die waren weniger extrem, oder, dass Sie anrufen könnte mehr in Richtung der quote-unquote mainstream. Es ist aber auch — je nach Nutzerverhalten — wahrscheinlich, dass Sie haben könnte, begann auf eine extreme video-und tatsächlich bewegt sich in die andere Richtung […] ich sage nicht, dass ein Benutzer konnte nicht durch klicken auf eines dieser videos, die quote-unquote extremer werden, verbrauchen, und dann bekommen Sie einen anderen Satz von Empfehlungen und die Art von Bewegung zu halten in einem Pfad oder die andere. Alles was ich sage ist, dass es nicht zwangsläufig sein.

Falls die Empfehlungen der kiosk an der Brooklyn Public Library hatte nur Kopien von Moby Dick und Mein Kampf, ich vermute, ich würde sehen, ein Anstieg der anti-Semitismus unter meinen weniger Wale-Interessierte Nachbarn, und ich wäre im Recht, zumindest einige, die Schuld auf die Bibliothekare. Aber wirklich, wer Sie sind zu glauben, Neal Mohan oder Ihre liegende Augen?

[Ende der Blick ist] nicht ein signal, dass die feeds in den Empfehlungen. Das ist nur die Beobachtung, sehen Sie in der Systemsteuerung.

Was für eine Erleichterung.

Es gibt sicher eine Menge von Fragen, die nicht berührt in diesem kurzen Q&A. Wir haben eingeladen Mohan, ein Schwätzchen mit uns über diese nagende Zweifel, dass YouTube in der Tat, “setzen Ihre best foot forward.” Holen Sie sich bei uns, Neal!

[New York Times]

Teilen Sie Diese Geschichte


Date:

by