Previsioni per il 2024: il ruolo dell'Intelligenza Artificiale nella cybersecurity

La ricerca di McKinsey “The state of Ai in 2023: Generative Ai’s breakout year”

Previsioni per il 2024
Previsioni per il 2024
di Guglielmo Sbano
Domenica 31 Dicembre 2023, 19:00 - Ultimo agg. 1 Gennaio, 13:10
5 Minuti di Lettura

Nel 2023, l’Intelligenza Artificiale Generativa (Generative Ai) è diventata un fenomeno di massa, con un numero maggiore di persone che sfruttano questa tecnologia in tutti i settori e i livelli di responsabilità. Nella ricerca di McKinsey “The state of Ai in 2023: Generative Ai’s breakout year”, il 79% degli intervistati ha dichiarato di aver assistito all’uso di Ia generativa per lavoro o al di fuori di esso e il 22% ha affermato di utilizzarla regolarmente nel proprio lavoro. Sebbene l’adozione e gli investimenti nell’Ia generativa siano in aumento, il rapporto di McKinsey ha dimostrato che molte organizzazioni non stanno affrontando i potenziali rischi connessi all’uso della tecnologia e, solo meno di un terzo degli intervistati ha dichiarato di aver adottato misure per ridurre l’uso di tecnologie avanzate di Ia al fine di mitigare i rischi di cybersecurity. Nel 2024, si prevede che l’Ia generativa svolgerà un ruolo ancora più centrale nelle aziende e nella società: secondo studi recenti, infatti, la sua adozione è destinata a crescere in modo esponenziale, con una previsione di aumento del 30% in vari settori. Man mano che i sistemi intelligenti basati sull’Ia e Machine Learning diventano sempre più radicati nella nostra vita quotidiana, il panorama della cybersecurity è destinato a dover affrontare nuove sfide e innovazioni. Nel condividere queste previsioni, gli esperti di Vectra Ai hanno sottolineato aspetti che tutti i team di sicurezza, i Ciso (Chief Information Security Officer) e i responsabili dei Soc (Security Operation Centre) dovrebbero tenere bene a mente in vista del nuovo anno.

Prepararsi al futuro: Strategie di sicurezza informatica nell’era dell’Ia
Oliver Tavakoli, Chief Technology Officer, prevede che l’Ia generativa ridurrà l’efficacia della sicurezza delle e-mail. “Inoltre, l’utilizzo della Generative Ai negli attacchi di social engineering servirà a far capire che le attuali linee di difesa sono inadeguate.

Di conseguenza, prevedo che le organizzazioni si orienteranno verso approcci di sicurezza ‘a valle’, come Zero Trust, micro-segmentazione e meccanismi di rilevamento e risposta”.

Implicazioni politiche: Il ruolo dell’Ai nelle elezioni e l’integrità delle informazioni
Sohrob Kazerounian, ricercatore di Ia, ritiene che in vista delle elezioni del 2024 l’Ia generativa influenzerà la sfiducia e la disinformazione elettorale. “L’ampia disponibilità di modelli di Ia Generativa e la relativa facilità d’uso degli stessi, avranno effetti di vasta portata, dato che gli Stati Uniti si troveranno a confrontarsi con una importante tornata elettorale. La disinformazione su scala, con contenuti di qualità (ad esempio, audio e video di candidati falsificati, fake news di massa mascherate da notizie, ecc) diventerà più facile che mai, e l’incapacità di fidarci dei nostri sensi potrebbe portare a sfiducia e paranoia, incrinando ulteriormente le relazioni sociali e politiche tra le persone”.

Nuovi trend di Ai, calano gli Llm, aumentano i deep fake
Christian Borst, Cto Area Emea, ritiene invece che l’uso diffuso degli Llm (Large Language Models) sia destinato a diminuire, mentre i deep fake aumenteranno. “Molte organizzazioni stanno esplorando modi nuovi per utilizzare i Large Language Models dopo l’ondata iniziale di entusiasmo di quest’anno. Ma se si va a scavare sotto la superficie, è chiaro che il fattore novità si esaurirà presto. Gli Llm sono in genere piuttosto difficili da usare, perché non sono in grado di comprendere il contesto o di fornire risultati affidabili e di conseguenza un loro uso pratico più ampio è limitato. L’anno prossimo vedremo, quindi, le aziende ridurre l’uso degli Llm, in attesa che questi strumenti diventino più funzionali e facili da usare”. “Gli autori delle minacce informatiche dovranno affrontare gli stessi problemi nell’utilizzo degli Llm, quindi probabilmente non vedremo molte attività complesse come la generazione di codice maligno da parte dell’Ia. Tuttavia, possiamo aspettarci che i criminali informatici sfruttino la Generative Ai per creare deep fake più realistici e sofisticati. In questo modo essi avranno maggiori possibilità di ingannare gli utenti e indurli a fornire dati sensibili o a cliccare su qualcosa di dannoso utilizzando esche di phishing audio o visive più convincenti”.

Scenario normativo: equilibrio tra innovazione e controllo dell’Ai
Quando si parla di Ia Generativa – e più in generale di Ia – la regolamentazione e la politica giocheranno un ruolo importante nel 2024. Secondo Hitesh Sheth, Ceo di Vectra Ai, il futuro dell’intelligenza Artificiale dipenderà dalle decisioni normative. “Nel 2024, prevedo che assisteremo a progressi enormi nella regolamentazione e nella politica dell’Ia”. Sohrob Kazerounian, ricercatore nel campo dell’Ai, è d’accordo e prevede che i dilemmi etici, legali e politici dell’Ai saranno oggetto di numerose controversie. “Le questioni etiche, legali e socio-politiche riguardanti l’Ia non potranno che diventare più spinose. Data la paralisi politica generale negli Stati Uniti, è improbabile che emergano quadri normativi e legali solidi per la regolamentazione dell’Ia con la stessa rapidità con cui sono necessari. E le cause legali riguardanti materiale protetto da copyright utilizzato per addestrare modelli generativi di Ia aumenteranno di numero”.

In conclusione, non c’è dubbio che l’Ia Generativa trasformerà il panorama della cybersecurity in modo significativo, ritengono gli specialisti di Verta Ai. Essa ha il potenziale per far progredire gli strumenti di sicurezza, migliorare la threat intelligence e trasformare i Security Operation Center, per stare sempre un passo avanti agli attaccanti.

© RIPRODUZIONE RISERVATA