I social media possono prevedere le sparatorie di massa prima che accadano?

Dayton Mass Shooting
Le persone in lutto partecipano a un servizio commemorativo nel distretto dell'Oregon per riconoscere le vittime di una sparatoria di massa al mattino presto nel famoso locale notturno di Dayton, Ohio. Scott Olson / Getty Images

Sulla scia di due sparatorie di massa nel fine settimana che hanno provocato la morte di almeno 31 persone, il presidente Donald Trump ha invitato le società di social media come Twitter e Facebook a "individuare i tiratori di massa prima che colpiscano".

"Sto dirigendo il Dipartimento di Giustizia a lavorare in collaborazione con lo stato e le agenzie federali locali, nonché con le società di social media, per sviluppare strumenti in grado di rilevare i tiratori di massa prima che colpiscano", ha dichiarato Trump in un discorso della Casa Bianca in risposta al sparatorie lunedì mattina.

La violenza del fine settimana ha riguardato una sparatoria a Walmart a El Paso, in Texas, sabato che ha causato la morte di 22 persone e un altro che ha causato 10 morti, incluso il tiratore, domenica mattina presto a Dayton, Ohio. Il presunto sparatutto di El Paso ha pubblicato un manifesto razzista pieno di punti di discussione sui suprematisti bianchi su 8chan, una bacheca online piena di odio. Per quanto le autorità sono state in grado di dire, entrambi i tiratori non hanno pubblicato un avviso sui social network tradizionali.

La vaga direttiva di Trump sposta una parte della colpa della violenza armata sulle società di social media, che gestiscono piattaforme enormi e possono setacciare i dati personali di miliardi di persone. Ma c'è una differenza tra ribaltare le autorità quando qualcuno pubblica una minaccia concreta di violenza e le aziende dei social media utilizzano algoritmi e le loro enormi scoperte di dati per identificare chi potrebbe potenzialmente essere uno sparatutto.

Aziende come Google, Facebook, Twitter e Amazon utilizzano già algoritmi per prevedere i tuoi interessi, i tuoi comportamenti e, soprattutto, ciò che ti piace comprare. A volte, un algoritmo può ottenere la tua personalità giusta, come quando Spotify riesce in qualche modo a mettere insieme una playlist piena di nuova musica che ami. In teoria, le aziende potrebbero utilizzare la stessa tecnologia per contrassegnare i potenziali tiratori.

"Per un algoritmo, il punteggio della tua propensione [ad] acquistare un particolare paio di scarpe non è molto diverso dal punteggio della tua propensione a diventare un assassino di massa – la differenza principale è il set di dati che viene valutato", ha scritto un consulente di tecnologia e marketing Shelly Palmer in una newsletter di domenica.

Ma prevenire le sparatorie di massa prima che accadano solleva alcune spinose domande legali: come si determina se qualcuno è solo arrabbiato online piuttosto che qualcuno che potrebbe effettivamente effettuare una sparatoria? Puoi arrestare qualcuno se un computer pensa che alla fine diventerà un tiratore?

Un portavoce di Twitter non ha parlato molto direttamente della proposta di Trump, ma ha detto a Digital Trends che la società ha sospeso 166.513 account collegati alla promozione del terrorismo durante la seconda metà del 2018. La politica di Twitter non consente minacce specifiche di violenza o desideri " per il grave danno fisico, morte o malattia di un individuo o di un gruppo di persone ".

Twitter lavora spesso anche per facilitare le indagini quando le autorità richiedono informazioni , ma la società evita in gran parte di segnalare in modo proattivo gli account vietati (o le persone dietro di loro) a quelle stesse autorità. Anche se lo facessero, ciò significherebbe segnalare 166.513 persone all'FBI – molte più persone di quante l'agenzia possa mai indagare.

Abbiamo contattato Facebook per avere dettagli su come potrebbe funzionare con i funzionari federali per prevenire ulteriori sparatorie di massa, ma non ci hanno risposto. Detto questo, la società ha una storia complicata quando si tratta di odiare la parola e la privacy . Facebook ha una politica dettagliata di incitamento all'odio e alla violenza , ma la decisione se rimuovere i contenuti o vietare un utente è lasciata ai moderatori soggettivi dei contenuti.

Anche se qualcuno pubblica post sui social media immediatamente prima di decidere di scatenare la violenza, spesso non è qualcosa che possa inciampare nelle politiche di Twitter o Facebook. L'uomo che ha ucciso tre persone al Gilroy Garlic Festival nella California del Nord ha pubblicato su Instagram dall'evento stesso – una volta chiamato il cibo servito lì "troppo caro" e un secondo che diceva alla gente di leggere un libro filo-fascista del XIX secolo che è popolare con nazionalisti bianchi.

Una semplice ricerca sia di Twitter che di Facebook rivelerà una retorica anti-immigrata e anti-ispanica simile a quella trovata nel manifesto del tiratore di El Paso. Anche i presunti tiratori dietro l'attacco alla sinagoga di Pittsburgh nel 2018 e le sparatorie nella moschea di Christchurch a marzo hanno entrambi espresso supporto per il nazionalismo bianco online. Le aziende potrebbero utilizzare algoritmi per rilevare e contrassegnare quel tipo di comportamento come indicatore del fatto che qualcuno sarebbe un tiratore di massa, ma richiederebbe un ampio cambiamento alle loro politiche esistenti. In sostanza, dovrebbero vietare gli account (o segnalarli alle autorità) prima che qualcuno costituisca una solida minaccia contro un'altra persona o gruppo.

C'è anche la questione se gli algoritmi possano farlo bene. La Partnership on AI, un'organizzazione che guarda al futuro dell'intelligenza artificiale, ha condotto uno studio intensivo sugli strumenti algoritmici che cercano di "prevedere" il crimine . La loro conclusione? "Questi strumenti non dovrebbero essere usati da soli per prendere decisioni su come trattenere o continuare la detenzione".

"Sebbene l'uso di questi strumenti sia in parte motivato dal desiderio di mitigare la fallibilità umana esistente nel sistema di giustizia penale, è un grave fraintendimento considerare gli strumenti come obiettivi o neutri semplicemente perché basati su dati", ha scritto l'organizzazione in il suo rapporto.

Abbiamo già visto cosa può succedere quando un algoritmo sbaglia. A volte è innocuo, come quando vedi un annuncio per qualcosa che non compreresti mai. Anche terze parti possono sfruttare gli algoritmi: alcuni estremisti di estrema destra hanno utilizzato l'algoritmo di YouTube per diffondere un messaggio di suprematismo bianco anti-immigrazione fino a quando YouTube non ha cambiato la sua politica di incitamento all'odio a giugno . Prevenire la radicalizzazione è una cosa: pr
evedere potenziali crimini futuri è un'altra cosa.

Abbiamo contattato il Dipartimento di Giustizia per vedere se avevano ulteriori dettagli su come le società di social media potevano prevenire le sparatorie prima che accadessero. Aggiorneremo questa storia se torneranno da noi.