Come Anthropic ha vinto la guerra contro Hegseth Guerrafondaio


Il guerrafondaio Hegseth ha intimato a Anthropic (AI) di consentirgli qualsiasi utilizzo, anche illegale. Altrimenti rescinderà i contratti con il Pentagono

scritto da i_fan >> 27 febbraio 2026 crimini di guerra Democrazia Intelligenza Artificiale Tecnologia

logo menoopiu
Amodei (Anthropic) dice NO a Hegseth (Trump)

Amodei (Anthropic) dice NO a Hegseth (Trump)

La controversia tra il Dipartimento alla Guerra USA e l'azienda di Intelligenza Artificiale Anthropic è il primo clamoroso esempio di come "le cose potrebbero andare storte" come aveva preconizzato il CEO dell'azienda AI Amodei.


Il segretario del Dipartimento alla Guerra Pete Hegseth ha chiesto ad Anthropic di eliminare i vincoli "etici" dai modelli di Inteligenza Artificiali utilizzati dal Pentagono, in modo da potergli consentire anche le attività considerate "illegali" all'interno dei contratti stipulati.
In pratica il boss del Pentagono, con l'avallo entusiastico di Trump Board of Peace, chiede mano libera all'utilizzo dell'Intelligenza Artificiale per dotare l'esercito di sistemi d'arma autonomi, cioè senza intervento e controllo umano, e la possibilità di utilizzarla anche per attività di sorveglianza di massa all'interno degli Stati Uniti e contro cittadini americani.

Se Anthropic non si adeguerà e non si piegherà al diktat di Hegseth, il Pentagono rescinderà tutti i contratti diretti con l'azienda e gli impedirà di avere rapporti commerciali anche con i suoi principali fornitori. Per Anthropic significa pedere un business di miliardi di dollari. Un business a cui guardano anche i concorrenti di Anthropic, da OpenAI a Google, e che metterebbe alla prova le dichiarazioni di intenti etici delle maggiori aziende del settore.

Verrebbe sfondata a spallate la porta che tutti dichiaravano di voler tenere chiusa, per non correre il rischio di generare una corsa alla AI senza freni, che prima o poi consentirebbe a governi senza scrupoli e criminali di ogni risma di utilizzare l'Intelligenza Artificiale per scopi illegali e antidemocratici.

La scadenza che il guerrafondaio Hegseth ha dato ad Anthropic per rispondere all'ultimatum è la mezzanotte del 27 febbraio, ma il CEO Dario Amodei non ha atteso l'ultimo minuto per svelare la sua risposta: " NO, grazie... queste minacce non cambiano la nostra posizione: non possiamo in coscienza acconsentire alla loro richiesta."

Dichiarazione di Dario Amodei sui nostri colloqui con il Dipartimento della Guerra


26 febbraio 2026


Credo profondamente nell'importanza esistenziale dell'uso dell'intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici.

Anthropic ha quindi lavorato in modo proattivo per distribuire i propri modelli al Dipartimento della Guerra e alla comunità dell'intelligence. Siamo stati la prima azienda di intelligenza artificiale di frontiera a distribuire i nostri modelli nelle reti classificate del governo degli Stati Uniti, la prima a distribuirli presso i Laboratori Nazionali e la prima a fornire modelli personalizzati per i clienti della sicurezza nazionale. Claude è ampiamente utilizzato presso il Dipartimento della Guerra e altre agenzie per la sicurezza nazionale per applicazioni mission-critical, come analisi di intelligence, modellazione e simulazione, pianificazione operativa, operazioni informatiche e altro ancora.

Anthropic si è anche attivata per difendere la leadership americana nell'intelligenza artificiale, anche quando ciò andava contro gli interessi a breve termine dell'azienda. Abbiamo scelto di rinunciare a diverse centinaia di milioni di dollari di fatturato per interrompere l' uso di Claude da parte di aziende legate al Partito Comunista Cinese (alcune delle quali sono state designate dal Dipartimento della Guerra come "Compagnie Militari Cinesi"), abbiamo bloccato gli attacchi informatici sponsorizzati dal PCC che tentavano di abusare di Claude e abbiamo sostenuto rigorosi controlli sulle esportazioni di chip per garantire un vantaggio democratico.

Anthropic è consapevole che è il Dipartimento della Guerra, non le aziende private, a prendere decisioni militari. Non abbiamo mai sollevato obiezioni a specifiche operazioni militari, né abbiamo tentato di limitare l'uso della nostra tecnologia in modo mirato .

Tuttavia, in un ristretto numero di casi, riteniamo che l'IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d'uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora:

Sorveglianza interna di massa. Sosteniamo l'uso dell'IA per missioni di intelligence e controspionaggio estere legittime. Tuttavia, l'uso di questi sistemi per la sorveglianza interna di massa è incompatibile con i valori democratici. La sorveglianza di massa basata sull'IA presenta gravi e nuovi rischi per le nostre libertà fondamentali . Nella misura in cui tale sorveglianza è attualmente legale, ciò è dovuto solo al fatto che la legge non ha ancora raggiunto le capacità in rapida crescita dell'IA. Ad esempio, secondo la legge attuale, il governo può acquistare da fonti pubbliche registrazioni dettagliate dei movimenti, della navigazione web e delle associazioni degli americani senza ottenere un mandato, una pratica che la comunità dell'intelligence ha riconosciuto sollevare preoccupazioni in materia di privacy e che ha generato un'opposizione bipartisan al Congresso. Una potente IA consente di assemblare questi dati sparsi e singolarmente innocui in un quadro completo della vita di qualsiasi persona, automaticamente e su larga scala.


Armi completamente autonome. Le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina, sono vitali per la difesa della democrazia. Anche le armi completamente autonome (quelle che escludono completamente gli esseri umani dal ciclo e automatizzano la selezione e l'ingaggio dei bersagli) possono rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani. Ci siamo offerti di collaborare direttamente con il Dipartimento della Guerra in attività di ricerca e sviluppo per migliorare l'affidabilità di questi sistemi, ma non hanno accettato l'offerta. Inoltre, senza un'adeguata supervisione , non si può fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe professionali e altamente addestrate dimostrano ogni giorno. Devono essere schierate con le opportune protezioni, che oggi non esistono.
Per quanto ne sappiamo, queste due eccezioni non hanno finora rappresentato un ostacolo all'accelerazione dell'adozione e dell'utilizzo dei nostri modelli all'interno delle nostre forze armate.

Il Dipartimento della Guerra ha dichiarato che stipulerà contratti solo con aziende di intelligenza artificiale che acconsentono a "qualsiasi uso lecito" e rimuovono le misure di sicurezza nei casi sopra menzionati. Hanno minacciato di rimuoverci dai loro sistemi se mantenessimo queste misure di sicurezza; hanno anche minacciato di designarci come "rischio per la catena di approvvigionamento" – un'etichetta riservata agli avversari statunitensi, mai applicata prima a un'azienda americana – e di invocare il Defense Production Act per imporre la rimozione delle misure di sicurezza. Queste ultime due minacce sono intrinsecamente contraddittorie : una ci etichetta come un rischio per la sicurezza; l'altra etichetta Claude come essenziale per la sicurezza nazionale.

In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in coscienza acconsentire alla loro richiesta.

Sono sicuro che Dario Amodei, prima di scrivere la risposta a Hegseth, abbia consultato la sua creatura Anthropic chiedendogli di valutare tutti i possibili scenari da ogni angolazione. 

E Anthropic gli ha fornito sicuramente la risposta migliore e vincente, consapevole che questa disputa con il Pentagono segna un punto di svolta importante nello sviluppo dell'Intelligenza Artificiale.
Vedremo quali aziende saranno disponibili a subire il ricatto dell'amministrazione Trump, o di altri Paesi e istituzioni.

Assisteremo probabilmente a scontri aperti tra AI reazionarie al servizio di scopi autoritari senza limiti e sistemi AI dotati di codici etici trasparenti e rispettosi dei vincoli di legalità e prudenza. Una AI guerrafondaia e un'altra pacifica.


La risposta di Amodei è chiara e semplice: "Noi siamo i migliori in questo campo, e per questo non ci facciamo ricattare dal denaro. Se il Pentagono vuole può scegliere altri, i quali però sarebbero indicati al pubblico ludibrio mondiale per essersi piegati a richieste illegali o immorali".

Mi sembra una risposta intelligente e vincente, da vera Intelligenza Artificiale.