Per la prima volta Google ha bloccato un attacco informatico di massa dove i criminali hanno usato l'intelligenza artificiale per scoprire e sfruttare una vulnerabilità zero-day. È il segnale che gli esperti temevano da anni.

Google ferma il primo attacco hacker creato con l'AI: ecco cosa è successo

Per la prima volta, Google ha annunciato di aver fermato un attacco informatico di massa dove i criminali hanno utilizzato l'intelligenza artificiale per scoprire e sfruttare una vulnerabilità zero-day, cioè una falla di sicurezza sconosciuta ai produttori del software. Il Threat Intelligence Group di Google ha identificato il primo caso noto di attaccanti che hanno usato l'AI non solo per pianificare, ma per creare effettivamente un'arma informatica nuova. L'azienda di Mountain View dice di aver bloccato l'operazione prima che potesse causare danni, ma l'episodio rappresenta il momento che gli esperti di cybersecurity temevano da anni: i criminali informatici hanno iniziato a usare l'AI per amplificare le loro capacità di attacco.

Cosa è successo

Secondo il rapporto di Google, un gruppo di criminali informatici "prominenti" stava pianificando un'operazione di sfruttamento di massa contro uno strumento open source per l'amministrazione web. La vulnerabilità che avevano trovato permetteva di aggirare l'autenticazione a due fattori, il meccanismo di sicurezza che protegge la maggior parte degli account online.

Ciò che rende questo caso storico è che Google ha trovato prove concrete che l'AI è stata usata per scoprire e sviluppare l'exploit. I ricercatori hanno individuato indizi nel codice Python utilizzato per l'attacco: una "valutazione CVSS allucinata" (un punteggio di gravità che non esiste nella realtà) e una formattazione "strutturata, da manuale" coerente con i dati di addestramento dei modelli di linguaggio. La vulnerabilità stessa sfruttava un difetto logico di alto livello nel sistema di autenticazione, dove lo sviluppatore aveva codificato un'assunzione di fiducia che non avrebbe dovuto fare.

Google specifica che non crede sia stato usato Gemini (il suo modello AI) per questo attacco. Tuttavia, il rapporto documenta come i criminali usano tecniche sofisticate per far generare codice malevolo dall'AI, come il "persona-driven jailbreaking": istruiscono il modello a fingere di essere un esperto di sicurezza e poi gli chiedono di trovare vulnerabilità. Alcuni gruppi alimentano i modelli AI con interi repository di dati su vulnerabilità passate per migliorare la precisione degli attacchi.

L'annuncio di Google arriva in un momento di crescente preoccupazione nel settore. A maggio 2026, Anthropic ha presentato Mythos, un modello AI specializzato proprio nella ricerca di vulnerabilità di sicurezza. Contemporaneamente, è stata scoperta una vulnerabilità Linux che era stata identificata con l'aiuto dell'AI. John Hultquist, capo analista del Threat Intelligence Group di Google, ha dichiarato: "È qui. L'era dello sfruttamento guidato dall'AI è già qui".

Chi c'è dietro

Google documenta che attori statali di Cina, Corea del Nord e Russia stanno già usando l'AI per cercare vulnerabilità e nascondere malware. Un esempio concreto: la Cina ha sviluppato un plugin Claude basato su "wooyun-legacy", un progetto GitHub che contiene oltre 85.000 casi reali di vulnerabilità dalla piattaforma cinese WooYun, progettato per aiutare i modelli AI ad analizzare il codice in modo più efficace.

I gruppi collegati alla Russia stanno incorporando codice di offuscamento generato dall'AI nei malware. Un esempio è PROMPTSPY, un malware per Android che utilizza l'API di Gemini per controllare i dispositivi in modo autonomo. Anche gruppi criminali come "TeamPCP" stanno prendendo di mira le catene di approvvigionamento dell'AI, attaccando pacchetti open source popolari.

Perché è importante

Questa notizia rappresenta un punto di non ritorno nella storia della cybersecurity. Fino a oggi, gli attacchi informatici erano principalmente il risultato di ricerca manuale, esperienza e strumenti specializzati. L'AI cambia completamente questo equilibrio: rende possibile automatizzare la ricerca di vulnerabilità su scala massiccia, riduce il tempo necessario per scoprire falle di sicurezza e abbassa significativamente la barriera di ingresso per i criminali meno esperti.

Per le aziende e gli utenti, il rischio è concreto. Se i criminali possono usare l'AI per trovare vulnerabilità zero-day più velocemente di quanto i team di sicurezza possono ripararle, il vantaggio si sposta drammaticamente dalla difesa all'attacco. Due-factor authentication, che fino a ieri era considerato uno standard di sicurezza quasi inviolabile, è stata bypassata in questo caso.

Google ha sviluppato i propri strumenti di controffensiva basati su AI, come Big Sleep e CodeMender, ma l'azienda riconosce implicitamente che la situazione è diventata più complessa. Il rapporto avverte anche che gli attaccanti stanno iniziando a prendere di mira i componenti integrati che danno utilità ai sistemi AI, come le competenze autonome e i connettori di dati di terze parti. In altre parole: il prossimo fronte della guerra informatica potrebbe essere l'AI stessa.

La questione ha attirato anche l'attenzione del governo americano. La Casa Bianca di Donald Trump sta riconsiderando il suo approccio alla regolamentazione dell'AI, con segnali contrastanti su se il governo dovrebbe giocare un ruolo maggiore nella supervisione dei modelli più potenti. Dean Ball, senior fellow della Foundation for American Innovation e precedente consigliere per la politica tecnologica della Casa Bianca, ha ammesso: "Non mi piace la regolamentazione, ma penso che in questo caso ne abbiamo bisogno".

Cosa aspettarsi

Nei prossimi mesi, osservate tre indicatori chiave:

Reazioni dei produttori di software: le aziende che mantengono strumenti web critici accelereranno i cicli di patch e implementeranno controlli di sicurezza più rigorosi. Alcuni potrebbero introdurre bug bounty specifici per vulnerabilità scoperte con AI.

Evoluzione dei modelli AI: Anthropic e altre aziende dovranno decidere se limitare le capacità di ricerca di vulnerabilità nei loro modelli o implementare filtri più severi. Google probabilmente annuncerà nuove funzionalità di sicurezza in Gemini.

Regolamentazione: il rapporto di Google potrebbe accelerare le discussioni sulla necessità di regolamentare i modelli AI specializzati in cybersecurity, almeno per quanto riguarda l'accesso da parte di attori ostili.

Adozione di contromisure: le aziende di cybersecurity inizieranno a offrire servizi basati su AI specificamente progettati per difendersi dagli attacchi generati da AI. Questo creerà un nuovo mercato di sicurezza.

L'episodio che Google ha fermato rappresenta solo il primo caso documentato. È probabile che molti altri attacchi simili siano già in corso senza essere stati scoperti.

📰 Fonti

  1. The DecoderGoogle says it stopped a mass cyberattack after AI was used to discover a zero-day exploit
  2. theverge.comGoogle stopped a zero-day hack that it says was developed with AI
  3. cnbc.comGoogle thwarts effort hacker group use AI 'mass exploitation event' - CNBC
  4. the-decoder.comGoogle says it stopped a mass cyberattack after AI was used to discover ...
  5. apnews.comGoogle says it disrupted an AI-driven effort to exploit a software bug ...
  6. fortune.com'It's here': Google issues dire warning after catching hackers using AI ...