La pubblicazione del documento “IA e Difesa – Edizione 2026” da parte del Ministero della Difesa rappresenta uno dei primi tentativi organici, nel contesto italiano, di definire una strategia complessiva per l’impiego dell’intelligenza artificiale nel settore militare. Il testo delinea un percorso di trasformazione tecnologica della Difesa articolato su più dimensioni: operativa, organizzativa, formativa e industriale.
L’obiettivo dichiarato è quello di integrare l’intelligenza artificiale nei sistemi decisionali, nelle capacità operative e nello sviluppo dell’ecosistema tecnologico nazionale, rafforzando al contempo la competitività industriale e l’autonomia strategica del Paese.
Nel documento emerge con chiarezza la consapevolezza che il campo di battaglia contemporaneo è diventato un ambiente estremamente complesso e iperconnesso, caratterizzato da una crescente “trasparenza informativa” generata da sensori diffusi, satelliti commerciali, droni e piattaforme digitali. In questo contesto l’intelligenza artificiale viene concepita come uno strumento essenziale per l’analisi di grandi quantità di dati, per il supporto al processo decisionale e per la gestione di sistemi autonomi sempre più diffusi nello spazio di battaglia moderno.
Accanto alla dimensione operativa, la strategia attribuisce un ruolo centrale alla formazione del personale e allo sviluppo di un ecosistema industriale nazionale nel settore della cosiddetta Defense Tech. L’idea è quella di trasformare la Difesa da semplice acquirente di tecnologie in un partner strategico capace di guidare l’innovazione, promuovendo collaborazioni con università, centri di ricerca, start-up e PMI tecnologiche.
Tuttavia, se il documento rappresenta senza dubbio un passo importante nella modernizzazione tecnologica delle Forze Armate, esso solleva anche una serie di questioni che meritano una riflessione più approfondita, soprattutto sotto il profilo etico e giuridico.
La prima riguarda il tema della responsabilità nelle decisioni assistite da algoritmi. L’impiego di sistemi di intelligenza artificiale in ambito militare pone interrogativi fondamentali sulla catena di responsabilità nei processi decisionali che coinvolgono l’uso della forza. La tradizione giuridica del diritto dei conflitti armati presuppone infatti che le decisioni operative rimangano riconducibili alla responsabilità di un comandante umano. L’introduzione di sistemi di supporto decisionale basati su modelli algoritmici rischia di rendere più complessa la ricostruzione di tale responsabilità, soprattutto quando i sistemi impiegati sono caratterizzati da elevata opacità decisionale.
In questo contesto assume particolare rilevanza il principio del “meaningful human control” (controllo umano significativo), sempre più centrale nel dibattito internazionale sulle tecnologie militari emergenti. Tale principio richiede che le decisioni relative all’uso della forza rimangano sotto un controllo umano significativo, in modo da garantire la conformità al diritto internazionale umanitario e la possibilità di attribuire responsabilità giuridiche in caso di errori o violazioni.
Il Parlamento europeo ha più volte sottolineato l’importanza di questo principio, chiedendo che ogni sistema d’arma autonomo mantenga un controllo umano sulle funzioni critiche, proprio per evitare la delega integrale della decisione letale alle macchine.
Una seconda questione riguarda la dimensione etica più profonda della trasformazione tecnologica della guerra. L’impiego dell’intelligenza artificiale nei sistemi d’arma solleva interrogativi che vanno oltre il piano tecnico e giuridico, toccando temi fondamentali come la responsabilità morale, il ruolo del giudizio umano e la stessa natura dell’atto di guerra. L’eventualità che sistemi autonomi possano identificare e colpire obiettivi senza supervisione diretta, solleva interrogativi sulla legittimità morale della delega della decisione letale a una macchina.
Alcuni sostenitori delle tecnologie autonome ritengono che sistemi algoritmici avanzati potrebbero rendere la guerra più precisa e ridurre gli errori umani dovuti a stress, paura o vendetta. Altri osservatori, tuttavia, sottolineano come tali tecnologie rischino di indebolire il legame tra decisione e responsabilità morale, introducendo una forma di “deumanizzazione” della decisione militare.
A questo si aggiunge una terza criticità, di natura geopolitica.
L’intelligenza artificiale applicata alla difesa sta diventando uno dei principali ambiti di competizione strategica globale. Stati Uniti, Cina e Russia stanno investendo massicciamente nello sviluppo di capacità militari basate sull’IA, mentre l’Unione europea cerca di promuovere un modello regolatorio fondato su un approccio “human-centric”. (fonte: Parlamento Europeo).
La competizione tecnologica rischia però di generare una nuova corsa agli armamenti digitali. Alcuni studi evidenziano come lo sviluppo di sistemi d’arma autonomi possa abbassare il costo politico dell’uso della forza e aumentare il rischio di escalation nei conflitti internazionali.
Un ulteriore elemento di riflessione riguarda la sovranità tecnologica europea. Molte delle tecnologie chiave per lo sviluppo dell’intelligenza artificiale – infrastrutture cloud, semiconduttori avanzati, modelli di calcolo e piattaforme software – sono oggi concentrate in pochi attori globali. Senza una reale autonomia tecnologica europea, le strategie nazionali rischiano di dipendere da infrastrutture sviluppate e controllate da soggetti esterni al contesto europeo.
Infine, la crescente integrazione tra industria tecnologica e settore militare solleva nuove questioni di governance etica. Negli ultimi mesi il dibattito internazionale ha mostrato come anche le grandi aziende di intelligenza artificiale siano divise sul grado di collaborazione con i programmi militari. Alcune imprese hanno imposto limitazioni etiche sull’uso dei propri sistemi per armi autonome o sorveglianza di massa, mentre altri attori industriali hanno accettato collaborazioni più ampie con i governi.
Questo dimostra come la governance dell’intelligenza artificiale militare non sia soltanto una questione tecnologica o strategica, ma anche un tema di responsabilità etica condivisa tra istituzioni pubbliche, industria e comunità scientifica.
In questo scenario diventa sempre più importante sviluppare una riflessione etica strutturata che accompagni l’innovazione tecnologica. L’intelligenza artificiale applicata alla difesa non può essere valutata esclusivamente in termini di efficienza operativa o vantaggio strategico, ma deve essere inserita in un quadro più ampio di responsabilità democratica, tutela dei diritti fondamentali e rispetto del diritto internazionale.
La vera sfida non consiste quindi soltanto nello sviluppare tecnologie sempre più avanzate, ma nel definire regole, principi e meccanismi di controllo capaci di garantire che tali tecnologie rimangano strumenti al servizio dell’uomo e non sostituti della sua responsabilità morale.
In questa prospettiva, il dibattito sull’intelligenza artificiale militare rappresenta probabilmente uno dei terreni più delicati e decisivi per il futuro della governance tecnologica globale.




