Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto...
OFFERTA SPECIALE
OFFERTA SPECIALE
OFFERTA SPECIALE
Tutto il sito - Mese
6,99€ 1 € al mese x 12 mesi
Poi solo 4,99€ invece di 6,99€/mese
oppure
1€ al mese per 3 mesi
Tutto il sito - Anno
79,99€ 9,99 € per 1 anno
Poi solo 49,99€ invece di 79,99€/anno
Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio settembre. Il sistema d'intelligenza artificiale, creato dall'azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l'algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell'ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.
Parallelamente il sistema è in grado d'individuare anche persone adulte che stanno cercando di adescare minori, perché reiterano un certo tipo di comunicazione: la tecnologia intelligente, che sospetta un atteggiamento inappropriato nei confronti degli utenti minori, segnala l'account agli operatori di Facebook, che se confermano l'analisi preventinva, procedono con blocco e segnalazione alle autorità.
Fino ad oggi, nel 99% dei casi, l'accuratezza dell'algoritmo ha consentito d'individuare immagini sospette prima che avvenisse una segnalazione. Leggi l'articolo completo su
Il Mattino