Intelligenza artificiale, news di qualità a rischio con i chatbot giornalisti. Allarme di Newsguard: crescono i plagi

E Confartigianato: con i nuovi algoritmi sono in bilico 8,4 milioni di lavoratori

Intelligenza artificiale, news di qualità a rischio con i chatbot giornalisti. Allarme di Newsguard: crescono i plagi
Intelligenza artificiale, news di qualità a rischio con i chatbot giornalisti. Allarme di Newsguard: crescono i plagi
di Giacomo Andreoli
Venerdì 25 Agosto 2023, 00:14
3 Minuti di Lettura

Un plagio hi-tech, automatizzato e di massa dei giornali più autorevoli, realizzato tramite l’intelligenza artificiale. Crescono in maniera esponenziale i chat bot giornalistici, a lungo temuti più come prospettiva distopica che realtà. A lanciare l’allarme è Newsguard, l’organizzazione internazionale che valuta l’affidabilità dei siti di notizie, che spiega come il fenomeno si stia diffondendo in tutto il pianeta. Ad alimentarlo diversi siti di bassa qualità, che usano l’Ia per riscrivere i contenuti di alcune delle principali testate giornalistiche, dalla Cnn a Reuters, passando per il New York Times. 

Il caso ChatGPT/ Le regole (globali) indispensabili per la Rete


LE CONSEGUENZE
L’obiettivo è ottenere una posizione migliore nelle classifiche dei motori di ricerca, avere più clic e quindi guadagnare di più con gli annunci pubblicitari.

Spesso la copia è praticamente perfetta, con l’effetto di togliere lettori e abbonamenti ai giornali più qualificati con versioni online. Newsguard ha identificato almeno 37 siti che avrebbero utilizzato chatbot per riscrivere articoli apparsi su grandi testate giornalistiche, senza menzionare le fonti. 


Alcuni di questi siti hanno pubblicità di grosse aziende, il che significa che importanti brand stanno inconsapevolmente contribuendo a finanziare la pratica di utilizzare l’intelligenza artificiale per riprodurre in modo ingannevole i contenuti delle fonti tradizionali. C’è però da dire che, almeno in teoria, i due chatbot più importanti, Bard di Google e ChatGpt di OpenAI, non potrebbero essere utilizzati per plagiare contenuti. La diffusione di questo fenomeno sta già facendo interrogare le principali testate internazionali su come evitare il plagio o quantomeno renderlo più riconoscibile e quindi meno pericoloso, puntando sempre di più su approfondimenti e contenuti originali, dal riconoscibile carattere “umano”.


Ma le professioni intellettuali e creative come quella giornalistica non sono le sole che potrebbero essere messe in difficoltà dall’intelligenza artificiale. Secondo uno studio di Confartigianato sono 8,4 milioni i posti di lavoro a rischio in Italia da qui ai prossimi anni. Tra questi molti sono altamente qualificati. Si va dai dirigenti amministrativi e commerciali, agli specialisti delle scienze commerciali e dell’amministrazione, passando per i tecnici in scienze e ingegneria. A rischiare di meno, invece, sono le attività lavorative che hanno una componente manuale non standardizzata, difficilmente replicabile dalle macchine.


GLI ALTRI SETTORI COINVOLTI
Sul totale degli occupati il 36,2% subirà l’impatto delle profonde trasformazioni tecnologiche e dei processi di automazione. Le ripercussioni non saranno però uniformi lungo la penisola. La Regione più esposta sarà la Lombardia, con il 35,2% degli occupati assunti nel 2022 in bilico. Segue il Lazio con il 32%, mentre Piemonte e Valle d’Aosta sono insieme al terzo posto con il 27%. Ad oggi il 6,9% delle piccole e medie imprese italiane usa i robot, il 5,3% algoritmi, ma ben il 13% vuole investire nell’Ia nei prossimi anni.


Secondo il presidente di Confartigianato, Marco Granelli, l’intelligenza artificiale deve essere considerata come un «mezzo», non un «fine», ma soprattutto «non va temuta bensì governata dall’intelligenza artigiana». L’Ia, per Granelli, deve essere quindi «uno strumento capace di esaltare la creatività e le competenze, inimitabili, dei nostri imprenditori, perché non c’è robot o algoritmo che possa simulare l’anima dei prodotti e dei servizi che rendono unico nel mondo il nostro made in Italy».
 

© RIPRODUZIONE RISERVATA