Quando l’IA diventa la prima linea di guerra digitale

Il modello Mythos di Anthropic ha individuato falle di sicurezza vecchie di decenni in millisecondi. Ora governi e big tech si contendono chi controlla la nuova deterrenza globale.
Un sistema di intelligenza artificiale chiamato Mythos, sviluppato da Anthropic, ha individuato in autonomia vulnerabilità informatiche rimaste nascoste per oltre 27 anni superando di dieci volte la velocità di qualsiasi team di sicurezza umano. Succede adesso, nei laboratori e nelle sale riunioni delle più grandi aziende tech del mondo, mentre governi occidentali e giganti tecnologici si disputano il controllo di quella che i vertici militari già definiscono la nuova deterrenza globale: non più le testate nucleari, ma gli algoritmi. La posta in gioco? La sovranità digitale delle democrazie nel XXI secolo.
Il codice è il nuovo arsenale
Per decenni, il potere di uno Stato si è misurato in carri armati, flotte aeree e missili balistici. Oggi, quella metrica è obsoleta. L’intelligence di mezzo mondo concorda su un dato che fa impressione: l’intelligenza artificiale sta sostituendo l’arsenale nucleare come principale forza di deterrenza globale. Non è fantascienza è la premessa operativa su cui si stanno ridisegnando le dottrine di difesa occidentali.
A cristallizzare questa visione è stato Alex Karp, CEO di Palantir, nel suo manifesto “The Technological Republic”: 22 punti che delineano un mondo in cui il software è il fondamento primario della potenza statale. La tesi è scomoda ma diretta le aziende della Silicon Valley hanno un debito morale verso le democrazie che le hanno rese possibili, e non possono più permettersi la finzione della neutralità tecnologica. Chi non sceglie un campo, argomenta Karp, apre la porta agli avversari autocratici.
Mythos: il primo hacker davvero autonomo
Al centro di questa rivoluzione silenziosa c’è Claude Mythos il primo modello “agentico” capace di condurre operazioni di hacking complesse senza alcuna guida umana. Non è stato progettato specificamente per il dominio cyber: eppure dimostra capacità di ragionamento e programmazione che lasciano senza fiato gli esperti di sicurezza.
Per gestire la portata di questa tecnologia, Anthropic ha lanciato il Project Glasswing: una collaborazione riservata con Amazon, Apple, Microsoft, Broadcom, Cisco, CrowdStrike, Palo Alto Networks e la Linux Foundation, con l’obiettivo dichiarato di applicare patch preventive alle infrastrutture critiche open-source prima che eventuali attori ostili possano sfruttarle. Peccato che, secondo leak recenti, un gruppo di utenti non autorizzati abbia già ottenuto accesso al modello tramite forum privati suggerendo che il “recinto digitale” di Anthropic sia già stato scavalcato.
Lo scontro tra etica e necessità bellica
L’integrazione di Mythos nell’apparato di difesa ha aperto una frattura profonda tra produttori di IA e istituzioni militari. Da un lato, Anthropic pone dei paletti etici chiari. Dall’altro, il Dipartimento della Difesa americano non accetta compromessi.
“Sosteniamo l’uso dell’IA per missioni legali di intelligence estera, ma il monitoraggio domestico di massa è incompatibile con i valori democratici. I sistemi attuali non sono abbastanza affidabili per armi completamente autonome senza mettere a rischio civili e combattenti.”
— Dario Amodei, CEO di Anthropic
“Accetteremo contratti solo da aziende che acconsentono a qualsiasi uso legittimo. Le restrizioni unilaterali delle big tech rappresentano un rischio per la catena di approvvigionamento della difesa nazionale.”
— Dipartimento della Difesa degli Stati Uniti (DoD)
Il DoD ha già minacciato di invocare il Defense Production Act per rimuovere forzatamente i guardrail etici imposti dai produttori. Accademici come Céline Castets-Renard e David Murakami Wood lanciano l’allarme su un rischio che definiscono “tecnofascismo”: un’oligarchia tecnologica che opera senza mandato democratico, al riparo della retorica della sicurezza nazionale.
Le tre vulnerabilità sistemiche che nessuno vuole nominare
La mappatura dei rischi identificata dagli analisti punta il dito su tre settori critici dove la penetrazione dei sistemi IA crea fragilità strutturali difficili da ignorare:
- Rete elettrica. Il sistema “Chain Reaction” sviluppato da Palantir, Nvidia e CenterPoint Energy per accelerare la costruzione di data center espone la rete elettrica nazionale a vulnerabilità di congestione algoritmica. Un attacco autonomo potrebbe destabilizzare la distribuzione energetica prima di qualsiasi intervento umano.
- Sanità pubblica. L’integrazione della piattaforma Foundry di Palantir nel sistema sanitario britannico NHS centralizza dati sensibili su scala inedita. Un singolo fornitore che gestisce il Federated Data Platform diventa un unico punto di fallimento catastrofico per milioni di pazienti.
- Sistema finanziario. I test dell’AI Security Institute hanno dimostrato che Mythos può portare a termine attacchi complessi senza supervisione. In uno scenario peggiore, compromettere i sistemi di pagamento potrebbe bloccare mutui e stipendi, innescando “bank run” guidati dalla velocità di esecuzione delle macchine prima che un umano se ne accorga.
Chi deve decidere: la macchina o il cittadino?
Gli analisti che hanno redatto la valutazione strategica non sono contrari all’uso di sistemi IA agentici nella difesa. Il loro punto è più sottile, e più urgente: il valore netto di queste tecnologie è positivo solo a condizione di una gestione proattiva e non subordinata. Il rischio reale è quello che definiscono “patriottismo modellato sui venditori” ovvero, lasciare che la sicurezza nazionale venga dettata dagli interessi commerciali di pochi grandi player tecnologici.
Le raccomandazioni operative sono tre: esigere la piena auditabilità tecnica dei modelli (compresi i “pesi” che ne determinano il comportamento), implementare protocolli di osservabilità permanente su ogni azione autonoma dei sistemi IA, e promuovere un coordinamento internazionale per evitare che internet si frammenti in “alleanze di sicurezza” incompatibili tra loro.
La sintesi è tanto semplice quanto difficile da realizzare: in un mondo dove le macchine prendono decisioni in tempo reale, il giudizio umano deve rimanere il guardrail ultimo. La tecnologia può scalare la difesa. Ma la responsabilità morale e politica della protezione delle democrazie non può essere delegata a un algoritmo.
La parola passa a te
Dove si trova il confine tra sicurezza nazionale e controllo democratico della tecnologia? Può uno Stato delegare la propria difesa a sistemi autonomi senza perdere la propria anima democratica? Condividi questo articolo e apri il dibattito.
