Foto: AP
Bald nachdem Mike Schroepfer, wurde gefördert, um Facebook CTO, er begann die Rekrutierung der besten neuronalen Netzwerk-Forscher auf den Aufbau der Firma AI-Funktionen. Zu der Zeit, er und CEO Mark Zuckerberg wollte mit dem maschinellen lernen, um den Fokus auf Bereiche wie Gesichts-Erkennung, gezielte Werbung, übersetzung, und chatbots.
Aber laut einem New York Times Bericht über den Zustand der Facebook – AI-Bemühungen, die Firma KI-Forschung und Schroepfer Rolle begannen sich zu verschieben, irgendwann in 2015. Nach dem Pariser Terroranschlag, bei der 130 Menschen wurden getötet, Zuckerberg angeblich angeworben Facebook Applied Machine Learning-team Wege zu finden, um die Adresse des Terrorismus-propaganda. Seitdem Facebook hat nur immer giftig, und die Welt hat das Bewusstsein für die Gefahren, die es birgt für die Gesellschaft und die Demokratie.
Bis Mitte 2017 soll das team war in Erster Linie auf das halten “toxische Inhalte” aus der site.
Reinigung Facebook der giftige Inhalt ist eine Unmögliche Aufgabe, aber es ist eines der Unternehmen erstellt, wenn es öffnete die Abwasser-Schleusen mit vielen Entscheidungen, wie zu einem de-facto-Verlag und die Schaffung eines livestream-Plattform, die erlaubt, dass Menschen zu teilen, die in einem “raw-persönliche spontane Art und Weise.” Es ist ein problem, das noch verschärft durch Facebook beharren darauf, so groß wie möglich und alles. Es ist ein problem, das wird nie, nie gehen Sie Weg.
Und jetzt, der CTO “ist eine position, die er nie sein wollte,” entsprechend den Zeiten. Er machte sich auf, eines zu bauen, Silicon Valley ‘ s top AI-labs. “Aber auf dem Weg, seine Rolle entwickelte sich zu einer Beseitigung der Bedrohung und der giftige Inhalt eliminator,” die Zeiten Staaten.
Es ist so, wie wenn Sie wurden angestellt, um zu erstellen ein dream-team, um herauszufinden, wie transformieren Sie Ihr Unternehmen und bereiten Sie Sie für die Zukunft—sondern Sie und Ihr team übernahm die Hausmeister-Aufgaben. Und anstatt den Umgang mit Menschen verschwenden, die Sie waren die Reinigung der Bagger der Menschheit, wie Sie zerstört das Gewebe der Gesellschaft.
Diese Rolle scheint ein Tribut an den CTO.
Als Schroepfer wurde zu erklären versucht, die Herausforderungen der Spülung Giftmüll aus Facebook, einem reporter erwähnt das livestream-video, dass die Christchurch-shooter veröffentlicht, die auf Facebook bei seinem Angriff auf zwei Moscheen getötet 51. Das original-video wurde auf Facebook für etwa eine Stunde, aber die Aufnahmen verbreitete sich schnell auf der gesamten Website. Nach gebeten über den Vorfall, “Schroepfer ging ruhig” und “seine Augen begannen zu glitzern,” entsprechend den Zeiten.
Es dauerte eine minute für Schroepfer zu reagieren. Er versuchte, “gelassen bleiben”, wie er sagte, sein team arbeitet bereits daran. “Es wird nicht behoben von morgen. Aber ich will nicht, um dieses Gespräch wieder in sechs Monaten. Wir können einen viel, viel besseren job, fangen diese,” Schroepfer sagte, die Zeit.
Die Zeiten bewertet, die Facebook gewährt die Zeitung den Zugang zu Schroepfer, um zu zeigen, dass AI hilft dem Unternehmen, reinigen Sie die Website, während auch die “Humanisierung seiner Führungskräfte.”
Dass Humanisierung zu haben scheint beteiligt zu Weinen. Wie die Zeiten Staaten:
In zwei der interviews, begann er mit einer optimistischen Botschaft, dass A. I. die Lösung sein könnte, bevor Sie emotional zu werden. An einem Punkt, er sagte, kommen, um zu arbeiten, hatte manchmal ein Kampf. Jedes mal, wenn er gewürgt bei der Diskussion über das Ausmaß der Probleme, die Facebook konfrontiert war und seine Aufgaben im Wandel.
Anscheinend sind die Leute, die die Arbeit mit Schroepfer bewusst ist toll, der seinen job übernommen hat, auf ihn.
“Ich glaube nicht, dass ich spreche, ohne an der Reihe zu sagen, dass ich gesehen habe [Schroepfer] Weinen bei der Arbeit,” Jocelyn Goldfein, ein Zetta-Venture-Partner-venture-Kapitalisten, arbeitete mit Schroepfer bei Facebook, sagte the Times.
Fast macht Sie fühlen sich schlecht für den Kerl. Bis Sie denken über die Cambridge Analytica Skandal, wie Facebook teilt oft seine Nutzer Daten, ohne dass die Nutzer es tun, und wie sich die Plattform spielte eine entscheidende Rolle in der Myanmar-Völkermord und Russland sich mit den US-Präsidentschaftswahlen.
Und natürlich, es ist nicht nur die Menschen, die hinter dem KI, die den Umgang mit diesem problem. Es sind die anderen, die gearbeitet haben, um sauber die Toxizität—die Moderatoren im Ausland und in den USA, die angeblich leidet an PTSD von den Schrecken, die Sie sehen. Schroepfer wird gut, Leute.
Teilen Sie Diese Geschichte