Non è solo una disputa tra un’azienda tecnologica e il governo americano. È una battaglia che potrebbe cambiare il modo in cui si combattono le guerre.
Nelle ultime settimane, Anthropic è entrata in un duro scontro con il United States Department of Defense, dopo aver rifiutato di concedere un uso senza limiti dei propri sistemi di AI al Pentagono. La tensione è sfociata in una disputa. Il motivo? L’uso potenziale dell’AI di Anthropic per sorveglianza di massa e sistemi d’arma in gran parte, o in toto, autonomi.
Il CEO Dario Amodei ha dichiarato che alcune applicazioni sarebbero eticamente inaccettabili: «non possiamo accettare in coscienza che i nostri sistemi vengano usati senza limiti». Dal canto suo, rappresentanti del Pentagono e alcune figure politiche hanno visto questa posizione come un’eventuale ingerenza problematica, dal momento che un’azienda privata vuole decidere cosa può o non può fare lo Stato in materia di difesa.
Il dibattito è presto diventato pubblico e acceso. Emil Michael, dirigente legato al Pentagono, ha accusato Amodei di soffrire di un «complesso di Dio», sostenendo che chi accetta fondi pubblici non può, poi, stabilire regole morali proprie. Secondo Michael, prendere denaro dal governo significa accettare il potere “democratico” dello Stato. Ma questa posizione solleva un dubbio etico: ricevere fondi pubblici rende davvero “schiavi” i creatori? Oppure esiste uno spazio di responsabilità morale che rimane nelle mani di chi costruisce la tecnologia?
Pete Hegseth, Segretario alla Difesa, ha parlato di «AI woke», criticando i limiti etici come pregiudizi ideologici che potrebbero indebolire la difesa nazionale.
Il termine della battaglia è “politico”, ma solleva una questione concreta: è ideologia o prudenza tecnica dire che una AI non può essere affidabile al 100% in contesti di guerra senza supervisione umana?
Le aziende tecnologiche, soprattutto quelle nate per la sicurezza dell’AI, hanno creato comitati e team dedicati: gruppi di governance, etica, AI safety, policy, red team di sicurezza. Questi gruppi consigliano e monitorano, ma la decisione finale spesso resta nelle mani del CEO o del board, che ha la responsabilità legale e strategica dell’azienda. Il problema è che la posta in gioco, qui, non è più “solo” economica o tecnologica. Riguarda vite umane e valori democratici.
Il tema sul controllo dei valori statali o federali, infatti, si complica ulteriormente. Se un CEO può bloccare l’uso di una tecnologia strategica, chi risponde ai cittadini? Alcuni sostengono che solo un governo eletto possa prendere decisioni «di vita o di morte». Ma anche questa posizione presenta rischi: leader politici potrebbero usare strumenti di AI per colpire cittadini, dissidenti o avversari. E senza leggi internazionali condivise sull’uso etico dell’Intelligenza Artificiale il rischio di abuso rimane concreto.
Il confronto con le armi nucleari aiuta a comprendere la posta in gioco. Dopo il Manhattan Project del 1942, il mondo ha compreso l’idea della “deterrenza”: la distruzione totale, visibile, inequivocabile, crea equilibrio. Le armi nucleari hanno una stabilità intrinseca perché sono costose, rare e lasciano tracce. Un missile nucleare può essere individuato da radar e satelliti, creando una minaccia chiara e misurabile. Questo “equilibrio” è stato, ovviamente, rafforzato anche da trattati internazionali come il Treaty on the Non-Proliferation of Nuclear Weapons.
L’intelligenza artificiale militare, al contrario, presenta caratteristiche radicalmente diverse che ne minano la stabilità e la controllabilità. L’AI è più “facile” da diffondere, meno visibile, estremamente veloce e potenzialmente difficile da controllare. La sua diffusione può essere globale e rapida, permettendo ad attori di agire silenziosamente online o tramite infrastrutture fisiche mirate. Le conseguenze di un errore, di un sabotaggio o di un abuso sono difficili da contenere e possono portare a un’escalation automatica, riducendo drasticamente la possibilità di intervento umano.
Inoltre, lo sviluppo di sistemi avanzati di AI richiede infrastrutture complesse, grandi capacità di calcolo e chip specializzati. Questo introduce un ulteriore livello di vulnerabilità: la sicurezza fisica di data center, server e fabbriche di semiconduttori diventa fondamentale. Nei conflitti moderni, le infrastrutture digitali e di telecomunicazione sono già state colpite – come accaduto pochi giorni fa in medio oriente. La sicurezza dell’AI, quindi, non riguarda solo il digitale, ma si estende al mondo reale e alle strutture materiali che la sostengono.
Inoltre, alcuni esperti e organizzazioni internazionali confrontano le armi autonome con sistemi come le mine antiuomo: entrambe possono colpire senza distinguere pienamente tra civili e combattenti. Ma le armi autonome sono molto diverse. Non sono passivamente indiscriminate: possono analizzare segnali, valutare priorità e decidere autonomamente chi colpire, pur senza coscienza, empatia o responsabilità morale diretta.
Proprio per questo, gli esperti sottolineano che introducono incertezza e rischi sistemici concreti: errori di classificazione, bias nei dati e malfunzionamenti potrebbero avere conseguenze immediate e drammatiche. Mentre le mine restano pericolose per la loro permanenza e indiscriminazione nel tempo, le armi autonome amplificano la posta in gioco perché “decidono” in modo algoritmico chi colpire, senza supervisione umana significativa.
L’uso dell’AI in guerra solleva poi tre questioni etiche fondamentali, già evidenziate in dibattiti pubblici. La prima riguarda i dati di addestramento: le informazioni in entrata possono contenere bias e distorsioni che l’AI riproduce e amplifica. La seconda è sui limiti e i filtri imposti ai sistemi: è possibile che vengano aggirati, con rischi concreti di uso improprio. E la terza riguarda il futuro: alcuni ricercatori discutono la possibilità teorica di sistemi di AI sempre più autonomi e specializzati, capaci di apprendere e migliorarsi continuamente. Ma come insegnare loro limiti morali? Come fare in modo che, pur evolvendo senza sosta, rispettino regole etiche e proteggano esseri umani? La sfida non è più solo teorica: è concreta, urgente e ancora senza soluzione condivisa.
E così arriviamo a un punto cruciale. Gli Stati vogliono il controllo sulle tecnologie strategiche, le aziende rivendicano responsabilità etiche, gli esperti chiedono regole internazionali che ancora non esistono. Chi dovrebbe avere l’ultima parola? Governi eletti, aziende o organismi internazionali? La risposta rimane sospesa, e forse è inevitabile che sia così.
Perché quando l’intelligenza artificiale entra nel campo della guerra, non cambia solo la tecnologia. Cambia il modo in cui l’umanità decide di esercitare il potere. Cambia la responsabilità. Cambia la capacità di distinguere tra ciò che possiamo fare e ciò che dovremmo fare.
E lascia aperta una domanda che accompagnerà, probabilmente, ogni discussione futura: in un mondo dove le decisioni possono essere automatizzate e invisibili, chi deciderà per tutti noi?