Lutto al 19 Marzo, 2019 veglia al di fuori moschea Al Noor nella città di Christchurch, in Nuova Zelanda, che, insieme con Linwood Centro Islamico, è stato preso di mira da un suprematista bianco che ha ucciso 50 persone su 15 Marzo 2019.Foto: Vincent Yu (AP)
Microsoft ha chiamato per l’industria di tecnologia per impostare un approccio uniforme alla violenti, estremisti contenuto seguente il nauseante massacro di Musulmani che frequentano la moschea a Christchurch, in Nuova Zelanda da una supremazia bianca, all’inizio di questo mese. Almeno 50 persone sono state brutalmente uccise, decine e decine di altri sono stati feriti, e riprese live-streaming su Facebook dal tiratore è andato virale su stomaco zangolatura scala.
In un post sul blog di domenica, il presidente di Microsoft Brad Smith ha scritto che “le Parole da sole non sono sufficienti. In tutto il settore di tecnologia, abbiamo bisogno di fare di più. Soprattutto per quelli di noi che operano in reti sociali o di comunicazioni digitali strumenti o piattaforme che sono stati utilizzati per amplificare la violenza, è chiaro che abbiamo bisogno di imparare e trarre nuova azione, che si basa su ciò che è accaduto in Christchurch.”
La scrittura che la Microsoft aveva già identificato come i suoi servizi sono stati utilizzati per diffondere il video e la società aveva “miglioramenti individuati siamo in grado di fare e muoversi tempestivamente per la loro attuazione,” Smith ha aggiunto, “in Definitiva, abbiamo bisogno di sviluppare un livello industriale approccio che sarà di principio, completa ed efficace. Il modo migliore per perseguire questo è nuovi e concreti passi in fretta in modi che costruire su ciò che già esiste”.
Mentre Smith ha riconosciuto nel post che “nessuno ancora ha tutte le risposte”, ha fatto proporre alcuni passi concreti. In primo luogo, egli ha suggerito miglioramenti di hashing tecnologia—una tecnica in cui un file specifico, come una foto o un video, viene assegnato un identificatore univoco che può essere utilizzato per tenere traccia di copie di esso caricato altrove. Smith ha scritto che, mentre questo sistema è stato efficace, piattaforme dovrebbe essere in grado di rilevare automaticamente le versioni modificate di quei video. Ha inoltre suggerito che il browser dovrebbe includere safe search caratteristiche simili a “bloccare l’accesso a tali contenuti al punto quando la gente tenta di visualizzare e scaricare.”
Smith ha aggiunto che le aziende che operano piattaforme web dovrebbe essere d’accordo su una categoria di “concordato ” ha confermato di eventi”, che determinerà la cooperazione tra le imprese, e chiamato per la comunità tech per promuovere un “sano ambiente in linea più generale.”
Alcune di queste idee sono suscettibili di essere controverso—e non solo all’interno di parti di internet ostile alle leggi contro l’odio, chiama violenza, e il contenuto di estremisti. Per uno, hash funziona identificando specifici pezzi di contenuto, che può essere facilmente simulato modificando i contenuti detto prima di caricare. Identificare le versioni modificate di un video è più complicato, e dato che i sistemi automatizzati che molti di grande scala uso di piattaforme per la gestione pieni di contenuto sono un disastro, uno potrebbe essere diffidenti che un tale sistema potrebbe spurgo relativamente benigna contenuto di design o di incidente.
Un esempio teorico: Una piattaforma di scrubbing filmati dei telegiornali che incorporano clip di un attacco terroristico. Politico critico dei media, Jack Schafer, per esempio, di recente rispetto Christchurch video per filmati dell ‘ 11 settembre 2001 gli attacchi al World Trade Center.
Schafer non può essere totalmente coerente confronto; riprese di gli attacchi di 9/11 è stato registrato da innocenti, mentre il Christchurch filmato è stato esplicitamente inteso come terroristico di propaganda. Ma la linea non è sempre pulito e tagliato su ciò che è bene per l’aria, e una lezione di questi ultimi anni è che le grandi aziende tecnologiche non sono immuni da pressioni politiche quando prendere queste decisioni. (Per inciso, un’altra possibilità è che tale tecnologia potrebbe essere utilizzata per ulteriori draconiane le misure di enforcement.)
Al contrario, Smith safe search-come proposta sembra meno problematico—il browser è in genere consentono agli utenti di procedere con il contenuto contrassegnato a proprio rischio e pericolo. E, per ora, è evidente che la sua chiamata per le aziende di tecnologia ad assumersi la responsabilità per le loro piattaforme è garantito, dato che essi abitualmente rivendicare la loro scala rende impossibile moderato contenuto… anche a incamerare profitti.
Uno studio dello scorso anno ha dimostrato che l’estrema destra e della supremazia bianca, YouTubers hanno capitalizzato del fattore di tecniche di diffondere in lungo e in largo. Facebook e Google sono stati criticati per la diffusione di anti-vax teorie del complotto. Odio dilagante non solo in luoghi come 4chan e 8chan, ma più mainstream web destinazioni come Reddit. Twitter verificato vetriolo razzisti come Richard Spencer e solo rintracciato dopo un intenso controllo mediatico (e di persone come il famigerato supremazia bianca, e l’ex Ku Klux Klan leader David Duke continuare a twittare su base giornaliera). Come il New York Times comitato di redazione ha scritto in un editoriale dello scorso anno, c’è qualche evidenza che il design fondamentale dei social media promuove tossici idee.
C’è, ovviamente, non è facile rispondere a queste domande! Ma il rovescio della medaglia, che non vuol dire che sono così difficili da giustificare lavarsi le mani. (In una recente MarketPlace Tech podcast, Harvard Kennedy School e ricercatore ex Facebook la privacy e la politica pubblica staffer Dipayan Ghosh ha suggerito di trattare il contenuto di estremisti come posta indesiderata.) Non c’è una scelta binaria tra totalitario internet e un vasto pozzo nero. Questo è probabilmente ciò che le persone peggiori online voglio che tu pensi.
[Microsoft tramite l’Orlo]
Condividi Questa Storia