Il professore di IA Di Noia: «La violenza sul Metavarso ha gli stessi effetti psicologici di quella fisica. Servono regole»

Secondo il docente, l'interazione virtuale è verosimile e non sembra artificiale

Il professore di IA Di Noia: «La violenza sul Metavarso ha gli stessi effetti psicologici di quella fisica. Servono regole»
di Beppe Stallone
Mercoledì 24 Gennaio 2024, 09:34 - Ultimo agg. 25 Gennaio, 07:38
4 Minuti di Lettura

Tommaso Di Noia è professore ordinario di Intelligenza Artificiale e Machine Learning al Politecnico di Bari.

Le sue attività di ricerca, focalizzate principalmente su IA e gestione dei dati, negli ultimi tempi si sono concentrate anche su questioni di sicurezza e privacy relative ai sistemi di raccomandazione.

Professor Di Noia, i confini fra realtà virtuale e realtà sono sempre più sottili. Come orientarsi per non restare vittime di veri e propri reati come nel recente caso della minorenne inglese abusata nel Metaverso?

«La realtà virtuale intesa come tecnologica è ormai una realtà ben strutturata, con basi fondate ed è estremamente matura.

Ma, come tutte le tecnologie che hanno un impatto sulla socialità delle persone, il loro utilizzo non si può fermare al mero aspetto tecnologico. C’è bisogno di guardare oltre, quello che è successo con i social. Bisogna regolamentare. E per la realtà virtuale c’è l’aggravante che quando ci si trova immersi all’interno di questi scenari, la realtà che si percepisce è quella all’interno della quale ci si trova».

Anche perché sono programmati per essere i più reali possibili.

«Gli scenari all’interno dei quali ci si muove hanno un livello di realismo molto spinto. Il tuo senso di realtà viene proiettato all’interno di questo mondo virtuale ed ecco che tutto quello che ti accade all’interno di questo mondo virtuale ha una ripercussione sulla tua persona fisica. In quel momento è quella la tua esperienza reale».

A livello psicologico, la violenza subita dall’avatar della ragazzina inglese, ha gli stessi effetti che avrebbe avuto se si fosse perpetrata una violenza fisica?

«Esattamente, la sua percezione di realtà era all’interno di una percezione in cui stava succedendo qualcosa. E questo ha avuto una ripercussione negativa sulla persona».

Si parla di IA dove vengono immessi una quantità di dati ma c’è un secondo livello in cui l’agente virtuale sviluppa una sua intelligenza. È questo il prossimo futuro?

«L’intelligenza artificiale generativa è in grado di generare dei contenuti estremamente verosimili: testi, dialoghi, immagini, ma anche scenari tridimensionali. Quindi l’IA può generare anche interazioni con un agente umano. Abbiamo dunque l’agente virtuale che interagisce con l’agente umano, e quello che fa è talmente verosimile che l’agente umano non lo percepisce come qualcosa di artificiale».

Occorrerebbe normare al più presto a livello globale, non crede?

«Da questo punto di vista l’Unione Europea ha già cominciato a farlo. Con l’Artificial Intelligence Act si è cominciato a regolamentare l’utilizzo di questi approcci algoritmici proprio perché quando un utente si trova dinanzi a un agente software che imita qualcosa in maniera estremamente verosimile deve essere informato in maniera esplicita che sta interagendo con qualcosa che non è un essere umano».

C’è anche un aspetto etico. Non crede che con questi agenti virtuali si stiano riproponendo stereotipi, della donna in particolare, superati se non scorretti?

«Un sistema di intelligenza artificiale si comporta come tale dopo aver processato tante informazioni precedenti. Un sistema di IA che genera dialoghi, lo fa sulla base dei dialoghi che “ha letto”. Se all’interno di questi è codificato in maniera involontaria un pregiudizio, ad esempio che l’ingegnere informatico è maschio e l’insegnante dell’asilo è femmina, l’intelligenza artificiale questa cosa la apprenderà e continuerà a utilizzarla nei propri dialoghi perché proviene dai dati con i quali è stata addestrata».

Bisognerebbe forse immettere best practices?

«È un fatto molto serio perché spesso questi sistemi si addestrano su dati che non sono “curati”. È importante immettere dati, documenti su cui addestrare l’IA ma nessuno si prende la briga di andare a controllare ogni singolo documento. E la funzione di controllo non può assolutamente assolverla l’intelligenza artificiale». 

© RIPRODUZIONE RISERVATA