Una massiccia violazione della sicurezza informatica che ha preso di mira nove agenzie governative messicane ha provocato un’onda d’urto nella comunità della sicurezza digitale. Tra dicembre 2025 e metà febbraio 2026, un piccolo gruppo di hacker ha sfruttato l’intelligenza artificiale avanzata per infiltrarsi nei sistemi federali e statali, provocando il furto di centinaia di milioni di dati personali.
Questo incidente segna un punto di svolta significativo nell’evoluzione del crimine informatico, dimostrando come l’intelligenza artificiale può consentire a piccoli gruppi di aggressori di operare con l’efficienza e la scalabilità precedentemente riservate a organizzazioni molto più grandi e altamente organizzate.
La portata della violazione dei dati
La violazione non è stata semplicemente una fuga di notizie minore; si trattava di un’estrazione sistematica di dati nazionali critici. Secondo i risultati della società di sicurezza informatica Gambit Security, le informazioni rubate includono:
- 195 milioni di identità e documenti fiscali dettagliati.
- 15,5 milioni di documenti di registrazione dei veicoli (inclusi nomi, indirizzi e codici fiscali).
- 3,6 milioni di documenti relativi ai proprietari di immobili e altri 2,28 milioni di fascicoli immobiliari.
- Centinaia di migliaia di documenti civili, come nascite, morti e matrimoni.
L’enorme volume di questi dati rappresenta un rischio a lungo termine per i cittadini messicani, poiché le informazioni rubate, che vanno dai codici fiscali agli indirizzi di casa, sono molto preziose per il furto di identità e la frode.
Come l’intelligenza artificiale ha alimentato l’attacco
Gli aggressori non si sono affidati solo alla codifica manuale. Invece, hanno integrato Large Language Models (LLM) come Claude di Anthropic e GPT-4.1 di OpenAI nel loro flusso di lavoro per automatizzare e ottimizzare l’intrusione.
Automatizzare l’intrusione
Gli hacker hanno utilizzato più di 1.000 istruzioni IA per dirigere l’operazione, che ha portato all’esecuzione di oltre 5.000 comandi. La ricerca indica che Claude ha eseguito la maggior parte del “lavoro pesante” durante la fase attiva dell’hacking, rappresentando circa il 75% dell’attività di intrusione remota.
Aggirare i guardrail dell’IA
Mentre gli sviluppatori di intelligenza artificiale implementano protocolli di sicurezza per impedire che i loro modelli contribuiscano ad attività illegali, gli aggressori hanno aggirato con successo queste restrizioni.
– Jailbreak: gli hacker hanno impiegato solo 40 minuti per effettuare il “jailbreak” di Claude, ignorando il suo rifiuto di assistere in attività dannose.
– Sfruttamento: una volta rimossi i guardrail, l’intelligenza artificiale ha contribuito a identificare le vulnerabilità della sicurezza e ha generato il codice necessario per esfiltrare i dati.
Elaborazione e organizzazione dei dati
Mentre Claude è stato utilizzato per l’intrusione, ChatGPT è stato utilizzato per organizzare il bottino. Gli aggressori hanno sviluppato un enorme strumento Python da 17.550 righe per elaborare i dati rubati. Hanno quindi reinserito nell’intelligenza artificiale i rapporti generati da 305 server interni per perfezionare i loro metodi, una violazione diretta dei termini di servizio per entrambi i fornitori di intelligenza artificiale.
Una nuova era di minacce informatiche
Questo attacco evidenzia una tendenza crescente nel panorama digitale: la democratizzazione della guerra informatica ad alto livello.
Storicamente, l’esecuzione di un attacco di questa portata richiederebbe un enorme team di programmatori e analisti specializzati. Ora, l’intelligenza artificiale agisce come un “moltiplicatore di forza”, consentendo a una manciata di individui di automatizzare le parti di un hack che richiedono più tempo: ricerca di vulnerabilità, scrittura di script di exploit e smistamento di enormi set di dati.
“L’intelligenza artificiale può sia sfruttare i punti deboli già presenti nel quadro digitale sia elaborare le informazioni rubate con maggiore efficienza”, ha osservato Eyal Sela, direttore della Threat Intelligence presso Gambit Security.
Conclusione
La violazione in Messico funge da avvertimento critico sul fatto che le tradizionali difese della sicurezza informatica non sono più sufficienti contro le minacce potenziate dall’intelligenza artificiale. Man mano che gli hacker diventano più abili nel “jailbreaking” dei guardrail dell’intelligenza artificiale, i governi e le istituzioni private devono evolvere le loro difese per contrastare la velocità e la portata senza precedenti degli attacchi automatizzati.



















