Cybersecurity: l’era AI cambia il panorama delle minacce?

Con l’avanzamento del progresso tecnologico e i cambiamenti della società nelle conversazioni globali si sta affermando il termine ‘AI’.
La crescente diffusione dei Large Language Model (LLM), le sempre più diffuse preoccupazioni per la sicurezza e la privacy legano l’Intelligenza artificiale direttamente al settore della cybersecurity.

L’ultimo Security Bulletin (KSB) di Kaspersky evidenzia la profonda influenza dell’AI sul panorama delle minacce IT del 2023. I ricercatori di Kaspersky spiegano come gli strumenti di Intelligenza artificiale abbiano aiutato i criminali informatici nelle attività malevole durante l’anno, mostrando anche le potenziali applicazioni difensive di questa tecnologia. E mostrano l’evoluzione del panorama delle minacce legate all’AI nel futuro.

Vulnerabilità più complesse

Con l’integrazione di LLM che seguono le istruzioni su un numero sempre maggiore di prodotti rivolti agli utenti finali, emergeranno nuove e complesse vulnerabilità nell’intersezione tra AI generativa probabilistica e le tecnologie deterministiche tradizionali. Ciò amplierà la superficie di attacco che i professionisti della sicurezza informatica dovranno proteggere, richiedendo agli sviluppatori di studiare nuove misure di protezione.
Un esempio è l’approvazione da parte dell’utente per le azioni avviate dagli agenti LLM.

I red teamer e i ricercatori sfruttano l’AI generativa per realizzare strumenti innovativi di cybersecurity, che potrebbero dare vita a un sistema di assistenza che utilizza LLM o machine learning. Questo strumento potrebbe automatizzare le attività di red teaming, offrendo indicazioni basate sui comandi eseguiti in un ambiente pentesting.

L’AI non sarà il driver di un cambiamento radicale

Il prossimo anno i criminali potrebbero migliorare le proprie tattiche utilizzando le reti neurali e sfruttando gli strumenti di AI per creare contenuti fraudolenti più convincenti. Grazie alla possibilità di generare senza sforzo immagini e video realistici le minacce legate a frodi e truffe si aggraveranno.

Nonostante le tendenze descritte, gli esperti di Kaspersky rimangono scettici sul fatto che l’AI possa cambiare significativamente il panorama delle minacce in tempi brevi.
Se da un lato i criminali informatici stanno adottando l’AI generativa, lo stesso vale per gli addetti alla cybersicurezza, che utilizzeranno gli stessi strumenti, o addirittura più avanzati, rendendo improbabile un’alterazione significativa del panorama degli attacchi.

Regolamentazione: il contributo del settore privato

Lo sviluppo tecnologico diviene anche una questione di policy e regolamentazione. Il numero di proposte di regolamentazione legate all’AI è destinato ad aumentare, e le aziende tecnologiche possono fornire indicazioni preziose per le discussioni su questo tema a livello nazionale e globale.

Per segnalare o identificare i contenuti generati dall’AI saranno necessarie più normative e policy per i provider, che continueranno a investire in tecnologie di rilevamento.
Gli sviluppatori e i ricercatori, dal canto loro, contribuiranno ai metodi di watermarking dei media creati dall’AI per facilitarne identificazione e tracciabilità.

Articoli collegati