Facebook, nuove misure contro il terrorrismo sul web ma un bug svela l'identità dei moderatori

Facebook, nuove misure contro il terrorrismo sul web ma un bug svela l'identità dei moderatori
Diventa più serrata la lotta al terrorismo, anche on line. Mark Zuckerberg, infatti, non rimane a guardare mentre le piattaforme web vengono utilizzate sempre più...

OFFERTA SPECIALE

2 ANNI
99,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA FLASH
ANNUALE
49,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
SCEGLI ORA
 
ANNUALE
49,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
99,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 3 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno
Diventa più serrata la lotta al terrorismo, anche on line. Mark Zuckerberg, infatti, non rimane a guardare mentre le piattaforme web vengono utilizzate sempre più spesso (troppo spesso) per veicolare messaggi di propaganda: ha creato un impero e non intende fare in modo che diventi il cavallo di Troia dei terroristi. Per questo motivo ha inaugurato “Hard Questions”, un blog dove intavolare un dialogo direttamente con gli utenti sui temi più delicati, dalla privacy ai post molesti. Non solo: perché a Menlo Park, quartier generale di Facebook, hanno scelto di dare nuove braccia e menti alla squadra che si occupa di contrastare i contenuti pericolosi (in tutto il mondo Facebook ha una rete di oltre 3mila operatori che agiscono h24 per supervisionare i post segnalati e agire di conseguenza). Attualmente sarebbero 150 quelli impegnati sul fronte anti-terrorismo e si tratta di accademici, ex militanti nelle forze dell’ordine, analisti.


Ma l’azione non è portata avanti soltanto da queste persone: il colosso dei social, infatti, ha sferrato l’attacco ricorrendo all’intelligenza artificiale, «per quanto recente sta già dando risultati», si legge nel post pubblicato sul blog proprio ieri. Il sistema lavora attraverso il riconoscimento delle immagini e del linguaggio ed è capace, ad esempio, di punire gli utenti recidivi o intercettare relazioni con altri giganti del web (come Youtube). Ma il team di Zuckerberg ha commesso un grave errore e il the Guardian se n’è accorto raccontando come verso la fine del 2016, a causa di un bug nel sistema, Facebook abbia rivelato proprio l’identità dei suoi “moderatori” esponendoli a potenziali terroristi. A quanto pare, da allora uno di loro vive segregato. Leggi l'articolo completo su
Il Mattino