Q-Star, come funziona l'Intelligenza artificiale che «minaccia l'umanità»: ha la stessa capacità cognitiva di un umano

Dentro OpenAi resistenze alla volontà di Altman di metterla in commercio

Q-Star, come funziona l'Intelligenza artificiale che «minaccia l'umanità»: ha la stessa capacità cognitiva di un umano
Q-Star, come funziona l'Intelligenza artificiale che «minaccia l'umanità»: ha la stessa capacità cognitiva di un umano
di Raffaele D’Ettorre
Giovedì 23 Novembre 2023, 22:48 - Ultimo agg. 23:38
4 Minuti di Lettura

Era una delle tante domande rimaste aperte dopo il weekend di fuoco che ha stravolto i vertici di OpenAi, società madre di ChatGPT fondata da Sam Altman nel 2015 e dalla quale lo stesso ceo era stato estromesso venerdì scorso, per poi essere reintegrato in corsa martedì grazie al sostegno interno dei dipendenti e alle pressioni esterne di Microsoft. Perché il cda aveva scelto di allontanare Altman? Ieri Reuters, citando come fonte due ricercatori interni all’azienda, ha dato una prima risposta: all’origine di tutto ci sarebbe una lettera firmata da diversi ricercatori di OpenAi in cui si fa riferimento a una nuova intelligenza artificiale (nome in codice Q*, si pronuncia Q-Star) che Altman sarebbe stato in procinto di commercializzare senza prima averne indagato appieno le possibili conseguenze per l’umanità. 

Intelligenza artificiale, Bill Gates: «Consentirà all'uomo di ridurre la settimana lavorativa a soli tre giorni»

I TIMORI
OpenAI non ha rilasciato commenti sulla lettera in questione, ma in un messaggio interno inviato ai dipendenti dalla dirigente Mira Murati è stata riconosciuta l’esistenza del progetto. Si tratta di un’IA talmente potente da aver spaventato gli stessi ricercatori dell’azienda, spingendoli a rivolgersi al board per denunciare i rischi di una scoperta che potrebbe «minacciare l’umanità». 

A preoccupare gli scienziati è il fatto che il nuovo sistema sia già in grado di risolvere problemi matematici di base. «Sebbene al momento possa eseguire calcoli solo a livello di studenti delle elementari - spiegano i ricercatori - il superamento di questi test ha reso gli scienziati molto ottimisti sul futuro di Q*».

Un salto netto rispetto a ChatGPT e alle IA generative, che eseguono calcoli in maniera probabilistica, cioè “indovinando” il risultato estrapolandolo da database grandi quanto la storia di internet. 

La nuova super intelligenza progettata da OpenAi non dovrà indovinare: la risposta che darà sarà esatta al cento per cento, rendendo così le sue capacità cognitive del tutto identiche a quelle umane. Nella visione di Altman, tutto conduce a questo momento: la creazione di AGI, “Artificial General Intelligence”, un’intelligenza artificiale di capacità pari a quelle umane. Una pietra miliare della tecnologia destinata a cambiare per sempre il nostro tessuto sociale e industriale. «Per me l’AGI - ha dichiarato Altman a inizio anno - deve essere in grado di svolgere qualsiasi compito che potrebbe svolgere un collega da remoto usando un computer. Quindi imparare a fare il medico o diventare un programmatore competente».

Non solo. L’Agi è il secondo dei tre livelli di capacità delle IA teorizzati da Nick Bostrom, filosofo della Oxford University. Al primo livello c’è l’ANI (Artificial Narrow Intelligence), un’Ia “ristretta”, capace di svolgere singole attività sulla base di regole ben definite dall’uomo. A questo gruppo appartengono gli assistenti vocali come Alexa e Google Assistant, ed è un’ANI anche ChatGPT, tutte le IA generative e la maggior parte delle IA attualmente in circolazione, bravissime nel concentrarsi su un problema solo e rapidissime a risolverlo. 

Al secondo livello appunto c’è l’AGI, un’IA capace di usare la logica, di ricordare e di contestualizzare, proprio come facciamo noi. Al terzo e ultimo livello c’è l’ASI, un’IA con capacità cognitive superiori a quelle umane.

IL PROGRESSO
Insomma, siamo quasi a metà strada. Ma il costo del progresso in questo caso potrebbe rivelarsi più alto del previsto. Secondo i ricercatori di OpenAi infatti l’Agi non sarebbe ancora pronta per essere commercializzata perché coperta «da un velo di ignoranza». Perché un modello generativo sviluppi abilità matematiche non probabilistiche infatti serve una capacità di ragionamento che va ben oltre quanto visto finora con i modelli GPT. Capacità che gli scienziati oggi non riescono a spiegare.
«Per quattro volte nella storia di OpenAI sono stato nella stanza in cui si spinge il velo dell’ignoranza indietro e la frontiera della scoperta in avanti, e poterlo fare è l’onore professionale di una vita», aveva dichiarato Altman il 16 novembre. Il giorno dopo il cda lo ha licenziato.
 

© RIPRODUZIONE RISERVATA