Youtube, stretta anti violenza
​contro l'odio task force «umana»

di Francesco Lo Dico
0
Bullismo, terrorismo, vendette sessuali, antisemitismo, cartoni
animati hard nella sezione famiglie e persino la piaga della
pedofilia: dopo una strenua resistenza opposta per anni alla
rimozione dei contenuti spregevoli, il vaso di Pandora di YouTube
è deflagrato in mille pezzi insieme ai suoi miliardi di clic
e di gettoni d'oro. Quello che si è appena chiuso
è stato l'anno più nero di sempre, per il colosso
dei video acquistato da Google nel 2006 per la cifra monstre di
1,65 miliardi di dollari. Troppo grande per fallire, ma troppo
grande per essere governata bene, la piattaforma ha così
deciso di recitare il mea culpa. Come annunciato dal ceo Susan
Wojcicki sul blog ufficiale dell'azienda, a Mountain View
è arrivata la svolta: per arginare i contenuti violenti
saranno assunti entro l'inizio dell'anno 10mila revisori in
carne ed ossa. Se non per amore, per interesse. Dove non hanno
potuto gli appelli etici, i contenziosi giudiziari, le grida nel
vuoto di chi, come Tiziana Cantone, ha chiesto invano la rimozione
di contenuti diffamatori prima di uccidersi, ha potuto infatti la
legge del business. Il doppio danno d'immagine patito a marzo e
bissato a novembre, è costato caro: il boicottaggio di oltre
250 multinazionali che hanno sospeso la pubblicità sulla
piattaforma perché associate a video estremisti e
ammiccamenti pedopornografici, ha generato un crollo dei profitti
pubblicitari di oltre 750 milioni di dollari.
La prima ondata di divorzi, è arrivata a marzo sulla scorta di un'inchiesta del Times: decine di marchi celebri accompagnavano video propagandistici inneggianti alla jihad e altre forme di terrorismo assortite. Una bufera che ha spinto marchi come McDonald's, Audi, Toyota, ma anche il partito laburista inglese, a sospendere i contratti pubblicitari con la piattaforma con effetto immediato. In quel caso, arrivarono le scuse di Ronan Harris, Managing Director di Google Uk: «Con milioni di siti sul nostro network e 400 ore di video pubblicate su YouTube ogni minuto, ci rendiamo conto che non ci azzecchiamo». Quattrocento ore di video pubblicate su YouTube ogni minuto. Non è un errore del country manager, ma la pura realtà che si cela nell'oceano di YouTube, dove ogni giorno vengono consumati dagli utenti un miliardo di ore di filmati che nel solo 2016 hanno generato un totale di undici miliardi di commenti. Un universo dalle proporzioni inimmaginabili, dove può annidarsi di tutto. In seguito alla denuncia del Times, YouTube si è messa di buzzo buono. Da giugno a novembre il team umano di Trust and Safety della compagnia ha rivisto manualmente circa 2 milioni di video con contenuti violenti di estremisti e ne ha eliminati di colpo 150mila, nel tentativo di addestrare la macchina di intelligenza artificiale a individuare in futuro con maggiore efficacia nuovi video estremisti. E qui entra in campo Al, ossia l'Automatic Machine Learning al quale fino a oggi YouTube ha affidato la moderazione dei contenuti video: si tratta del sistema di intelligenza artificiale studiato da Mountain View per riconoscere in automatico i filmati violenti. Secondo le statistiche della piattaforma, è un cecchino quasi infallibile, in grado di individuare e fermare il 98 per cento dei video pericolosi. Ma allora, perché circolano migliaia di clip violente su YouTube? Innanzitutto per una ragione statistica: il 2 per cento di quattrocento ore di filmati caricati ogni minuto, il 2 per cento di un miliardo di video visti e sfuggiti al controllo ogni giorno, equivale a numeri pazzeschi nonostante l'ottimo lavoro del povero Al.
Ma dietro l'inefficienza della macchina, si cela anche un limite tecnologico. Come hanno rivelato alcuni tecnici di Google, Al è infatti addestrato per filtrare i filmati in base alla qualità: quelli che mostrano alta risoluzione, buon montaggio, parametri di regia ottimali, spesso passano al vaglio di Al il censore, perché li reputa buoni. Per l'Isis, che della qualità tecnica dei video ha fatto la sua bandiera più scintillante, è stato come un invito a nozze. Ecco perché i revisori umani servono: occorre ciò che per un robot è incomprensibile: quella sensibilità etica che non può essere espressa in numeri. I limiti di Al, d'altra parte hanno provocato un altro patatrac a novembre, quando YouTube è finito invischiato nel bubbone della pedofilia.
Giovedì 4 Gennaio 2018, 10:50 - Ultimo aggiornamento: 04-01-2018 17:30
© RIPRODUZIONE RISERVATA
La prima ondata di divorzi, è arrivata a marzo sulla scorta di un'inchiesta del Times: decine di marchi celebri accompagnavano video propagandistici inneggianti alla jihad e altre forme di terrorismo assortite. Una bufera che ha spinto marchi come McDonald's, Audi, Toyota, ma anche il partito laburista inglese, a sospendere i contratti pubblicitari con la piattaforma con effetto immediato. In quel caso, arrivarono le scuse di Ronan Harris, Managing Director di Google Uk: «Con milioni di siti sul nostro network e 400 ore di video pubblicate su YouTube ogni minuto, ci rendiamo conto che non ci azzecchiamo». Quattrocento ore di video pubblicate su YouTube ogni minuto. Non è un errore del country manager, ma la pura realtà che si cela nell'oceano di YouTube, dove ogni giorno vengono consumati dagli utenti un miliardo di ore di filmati che nel solo 2016 hanno generato un totale di undici miliardi di commenti. Un universo dalle proporzioni inimmaginabili, dove può annidarsi di tutto. In seguito alla denuncia del Times, YouTube si è messa di buzzo buono. Da giugno a novembre il team umano di Trust and Safety della compagnia ha rivisto manualmente circa 2 milioni di video con contenuti violenti di estremisti e ne ha eliminati di colpo 150mila, nel tentativo di addestrare la macchina di intelligenza artificiale a individuare in futuro con maggiore efficacia nuovi video estremisti. E qui entra in campo Al, ossia l'Automatic Machine Learning al quale fino a oggi YouTube ha affidato la moderazione dei contenuti video: si tratta del sistema di intelligenza artificiale studiato da Mountain View per riconoscere in automatico i filmati violenti. Secondo le statistiche della piattaforma, è un cecchino quasi infallibile, in grado di individuare e fermare il 98 per cento dei video pericolosi. Ma allora, perché circolano migliaia di clip violente su YouTube? Innanzitutto per una ragione statistica: il 2 per cento di quattrocento ore di filmati caricati ogni minuto, il 2 per cento di un miliardo di video visti e sfuggiti al controllo ogni giorno, equivale a numeri pazzeschi nonostante l'ottimo lavoro del povero Al.
Ma dietro l'inefficienza della macchina, si cela anche un limite tecnologico. Come hanno rivelato alcuni tecnici di Google, Al è infatti addestrato per filtrare i filmati in base alla qualità: quelli che mostrano alta risoluzione, buon montaggio, parametri di regia ottimali, spesso passano al vaglio di Al il censore, perché li reputa buoni. Per l'Isis, che della qualità tecnica dei video ha fatto la sua bandiera più scintillante, è stato come un invito a nozze. Ecco perché i revisori umani servono: occorre ciò che per un robot è incomprensibile: quella sensibilità etica che non può essere espressa in numeri. I limiti di Al, d'altra parte hanno provocato un altro patatrac a novembre, quando YouTube è finito invischiato nel bubbone della pedofilia.
CONTINUA A LEGGERE L'ARTICOLO:
- Accesso illimitato agli articoli
selezionati dal quotidiano - Le edizioni del giornale ogni giorno
su PC, smartphone e tablet
Se sei già un cliente accedi con le tue credenziali:
© RIPRODUZIONE RISERVATA
ACCEDI AL MATTINO
oppure usa i dati del tuo account