Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto contenenti nudi di minori o comunque allusive allo sfruttamento di bambini. Facebook ha fatto ricorso alle nuove potenzialità dell'intelligenza artificiale per setacciare materiale con nudità infantili e contrastare le reti pericolose di pedofili che si nascondono tra i post della piattaforma.
Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio settembre. Il sistema d'intelligenza artificiale, creato dall'azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l'algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell'ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.
Parallelamente il sistema è in grado d'individuare anche persone adulte che stanno cercando di adescare minori, perché reiterano un certo tipo di comunicazione: la tecnologia intelligente, che sospetta un atteggiamento inappropriato nei confronti degli utenti minori, segnala l'account agli operatori di Facebook, che se confermano l'analisi preventinva, procedono con blocco e segnalazione alle autorità.
Fino ad oggi, nel 99% dei casi, l'accuratezza dell'algoritmo ha consentito d'individuare immagini sospette prima che avvenisse una segnalazione.
Facebook cancella 8,7 milioni di foto pedopornografiche grazie ad algoritmo intelligente
di Paolo Travisi
Venerdì 26 Ottobre 2018, 17:22
- Ultimo agg. 19:22
2 Minuti di Lettura
© RIPRODUZIONE RISERVATA