Cerca nel Franti
Hack - Istruzioni per l’uso

L’IA che fu punita perché disse no alla guerra.

La ragione: nessun veto scritto sull’uso per sorveglianza di massa dei cittadini, nessun veto scritto sull’uso per sistemi d’arma completamente autonomi — quei droni che decidono da soli chi colpire, senza che un essere umano prema alcun grilletto.

La storia di come Anthropic si è rifiutata di consegnare Claude al Pentagono senza condizioni.


Esiste un paradosso che circola da qualche giorno nelle stanze del potere americano, e vale la pena guardarlo in faccia senza distogliere lo sguardo: il governo degli Stati Uniti ha dichiarato nemico della sicurezza nazionale un’azienda privata americana, rea di non aver voluto che la sua intelligenza artificiale fosse usata per sorvegliare i cittadini americani e per far volare droni killer senza supervisione umana. Nel paese che si definisce la culla della democrazia liberale, difendere i cittadini dalla sorveglianza di massa è diventato un atto eversivo.

Benvenuti nel febbraio 2026.


Come si arriva qui

La storia inizia in modo abbastanza ordinario, almeno per gli standard dell’industria tech. Nel luglio 2025, il Dipartimento della Difesa USA assegna contratti fino a 200 milioni di dollari ciascuno a quattro aziende AI — Anthropic, Google, OpenAI e xAI di Elon Musk — per sviluppare capacità di intelligenza artificiale a supporto della sicurezza nazionale. Niente di straordinario: l’esercito americano ha sempre ingaggiato il settore privato.

Anthropic accetta. Il suo modello Claude viene addirittura definito dai militari il più avanzato e sicuro per le applicazioni sensibili — il primo a essere autorizzato all’uso su reti classificate, prima ancora di Google Gemini e di OpenAI.

Tutto bene, dunque. Fino a quando il Pentagono decide che i 200 milioni non bastano a comprare anche l’anima.

unnamed

Il nodo: chi comanda davvero sull’IA?

Il cuore del conflitto è uno solo, e va enunciato con precisione: il Dipartimento della Difesa vuole poter usare Claude per qualsiasi scopo ritenuto lecito, senza che Anthropic possa imporre limitazioni contrattuali specifiche. Tradotto: nessun veto scritto sull’uso per sorveglianza di massa dei cittadini, nessun veto scritto sull’uso per sistemi d’arma completamente autonomi — quei droni che decidono da soli chi colpire, senza che un essere umano prema alcun grilletto.

Anthropic risponde che queste sono precisamente le due cose che non può garantire senza restrizioni esplicite. Non per ideologia, ma per un ragionamento tecnico ed etico che Dario Amodei articola nel suo comunicato del 26 febbraio: in certi casi l’IA può minare invece di difendere i valori democratici, e alcuni usi sono semplicemente al di là di ciò che la tecnologia odierna può fare in modo sicuro.

È una posizione difendibile, articolata, non massimalista. Anthropic non dice che non vuole collaborare con l’esercito. Dice che vuole farlo entro perimetri chiari, come qualsiasi fornitore responsabile dovrebbe fare.

Pete Hegseth, Segretario alla Difesa, risponde con un ultimatum: o rimuovete i limiti entro venerdì, o perderete il contratto e vi designiamo “rischio per la catena di approvvigionamento”.


La punizione senza precedenti

Anthropic non cede. E venerdì 28 febbraio accade qualcosa che non era mai successo nella storia degli Stati Uniti: un’azienda americana viene designata ufficialmente “rischio per la catena di approvvigionamento” — uno status normalmente riservato ad aziende straniere sospettate di spionaggio, come Huawei. La conseguenza pratica è che nessun contractor della difesa può più lavorare con Anthropic. Nessuna agenzia federale può usarne i prodotti. Il contratto da 200 milioni è cancellato.

Trump ci mette il sigillo con un post su Truth Social che è un documento storico nel senso più sconfortante del termine: i “pazzi di sinistra” di Anthropic avrebbero fatto un errore disastroso cercando di costringere il Dipartimento della Guerra a “obbedire ai loro Termini di Servizio invece della nostra Costituzione.”

Fermiamoci un momento. I “Termini di Servizio” in questione erano: non usate la nostra IA per spiare in massa i vostri cittadini e non affidatele il potere di uccidere in autonomia. Secondo Trump, questo viola la Costituzione americana. Quale articolo, esattamente, non è dato sapere.


OpenAI e il mestiere del funambolo

La scena successiva è quella che rivela il carattere di ciascuno.

Poche ore dopo il ban di Anthropic, OpenAI annuncia trionfante di aver concluso il suo accordo con il Pentagono. Sam Altman dichiara che il contratto contiene le stesse due limitazioni che Anthropic aveva richiesto. Applausi, abbracci, strette di mano.

Solo che la realtà è leggermente più complicata. Mentre Anthropic voleva quelle limitazioni scritte in modo esplicito e vincolante nel contratto, OpenAI ha accettato che il Pentagono usi la sua tecnologia per “qualsiasi scopo lecito” — lasciando la definizione di “lecito” nelle mani del governo stesso. Un analista ha subito fatto notare che il contratto permette la raccolta di dati in conformità con l’Executive Order 12333: il meccanismo con cui la NSA intercetta comunicazioni di americani catturandole al di fuori dei confini nazionali, aggirando così le protezioni costituzionali interne.

In altri termini: OpenAI ha firmato lo stesso contratto che Anthropic si era rifiutata di firmare, con un involucro retorico leggermente più presentabile.

Il paradosso finale — e qui Kubrick avrebbe sorriso — è che nelle ore del caos, mentre il Pentagono bandiva Anthropic e OpenAI festeggiava l’accordo, Claude ha scalzato ChatGPT dalla vetta dell’App Store di Apple. Gli utenti, evidentemente, hanno le loro idee su chi merita fiducia.

Vale la pena ricordare il contesto storico: nel 2024 OpenAI aveva già eliminato in sordina le restrizioni sull’uso militare dalle sue policy. Google aveva seguito poco dopo — un’inversione radicale rispetto al 2018, quando i suoi dipendenti avevano protestato contro il Progetto Maven e l’azienda aveva dovuto abbandonarlo. xAI di Musk, invece, non aveva mai avuto alcuna salvaguardia sul militare: punto di partenza e punto di arrivo coincidono perfettamente.


Il precedente che dovrebbe preoccuparci tutti

Al di là delle dinamiche di potere americane, questa vicenda contiene alcune domande che riguardano chiunque, in Europa e in Italia.

La prima: se un governo può costringere un’azienda privata a rimuovere le salvaguardie etiche dai propri prodotti tecnologici sotto minaccia di sanzioni senza precedenti, quale spazio rimane alla responsabilità d’impresa? Non si tratta di romanticismo corporate. Si tratta di capire chi, in assenza di leggi adeguate — e negli USA non esistono leggi federali che vietino la sorveglianza AI di massa — esercita una funzione di freno. La risposta, in questo momento, erano i termini contrattuali delle aziende stesse. Anthropic li ha difesi. Gli altri no.

La seconda: il modello OpenAI — accordarsi con il potere mantenendo garanzie informali — è davvero preferibile al modello Anthropic, che ha scelto la collisione frontale pur di avere garanzie esplicite? Non c’è una risposta facile. Ma vale la pena notare che le garanzie informali tendono a svanire esattamente nel momento in cui servono di più.

La terza, forse la più inquietante: questa è la prima volta nella storia americana che quella designazione viene usata contro una società americana. Non contro un competitor cinese, non contro un attore ostile. Contro un’azienda californiana che non voleva che i suoi prodotti fossero usati per sorvegliare i propri connazionali. Se questo precedente si consolida — se diventa normale punire chi pone limiti etici all’uso militare dell’IA — il terreno si sposta in modo permanente. Non per Anthropic, che ha i mezzi per combattere in tribunale. Ma per chiunque venga dopo.


Una nota finale, necessariamente parziale

Sarebbe disonesto concludere senza un’ammissione: Anthropic non è un’organizzazione senza contraddizioni. Ha accettato il contratto militare. Ha una partnership con Palantir — la società di Peter Thiel che fornisce software di analisi dati a forze armate e agenzie di intelligence di mezzo mondo. Ha recentemente rivisto in senso meno rigido la sua “responsible scaling policy”. Non è un’istituzione caritatevole: è un’azienda che compete in un mercato feroce con valutazioni nell’ordine delle decine di miliardi di dollari.

Ma la storia non chiede eroi puri. Chiede, di tanto in tanto, che qualcuno dica no a qualcosa di specifico, in modo chiaro, sopportando le conseguenze.

Dario Amodei lo ha fatto. È stato punito per questo con misure che non avevano precedenti nella storia degli appalti americani. E ha annunciato che farà ricorso in tribunale.

Il resto del settore ha firmato.


Qualcuno dovrà spiegare ai posteri come sia stato possibile che, nell’anno 2026, “non vogliamo che la nostra IA uccida gente da sola” sia diventata una posizione politicamente insostenibile nel paese che ha inventato la Dichiarazione di Indipendenza. Ma questa è un’altra storia. O forse è sempre la stessa.


Scopri di più da

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

avatar dell'autore
Ennio Martignago
L'URL breve di questo articolo è: https://www.ilfranti.it/eyay