La principale ragione per cui i modelli di intelligenza artificiale (AI) costituiscono oggi una questione critica di sicurezza nazionale risiede nella loro natura intrinsecamente dual use: sono tecnologie capaci di operare tanto in ambiti civili quanto in contesti strategici, militari e geopolitici. Ciò che distingue l’IA da altre tecnologie a duplice uso, tuttavia, è la soglia di accesso sempre più bassa. I requisiti di calcolo, competenza tecnica e infrastruttura si riducono progressivamente, consentendo a un numero crescente di attori – statali e non statali – di impiegarla in modo autonomo e potenzialmente destabilizzante.
In questo scenario, l’Intelligenza Artificiale Generativa (GenAI) si configura come uno strumento moltiplicatore di potenza senza precedenti. La sua capacità di generare contenuti, simulazioni operative, alternative strategiche e ricostruzioni cognitive in tempo reale le consente di agire non più solo come supporto, ma come vero e proprio elemento strutturale dello strumento militare.
A questo si affianca l’emergere di una IA agentica, ovvero modelli autonomi capaci non solo di analizzare e proporre, ma anche di agire direttamente all’interno di ambienti operativi complessi, senza intervento umano costante. Se la GenAI amplifica la dimensione cognitiva e predittiva, l’AI agentica introduce la possibilità di una delegazione parziale o totale dell’azione militare, fino a includere reazioni automatiche in contesti ad alta velocità come la difesa antimissile ipersonica o lo swarming autonomo.
Eppure, ogni moltiplicatore di potenza nasconde un paradosso. Ciò che potenzia l’azione, amplifica l’errore. Ciò che estende il dominio, può minare le fondamenta stesse della stabilità operativa. Nel caso estremo dei sistemi strategici nucleari, questa dinamica diventa esistenziale: l’impiego non controllato di AI agentica potrebbe introdurre rischi di escalation automatica, in cui la velocità operativa supera quella della riflessione umana, compromettendo i presupposti stessi della deterrenza razionale.
È in questa ambivalenza che si condensa la sfida strategica del nostro tempo: governare l’evoluzione dell’IA senza esserne travolti, mantenendo il primato umano sul giudizio, sulla legittimità e sull’uso della forza.
Se impiegata con dottrina chiara, supervisione costante e finalità difensive, la GenAI può rafforzare la deterrenza, ottimizzare l’allocazione delle risorse e ridurre i tempi decisionali. Ma se introdotta senza regole, in ambienti saturi di dati falsi, distorti o incompleti (cfr. Il silente avvelenamento dei pozzi digitali. Il nuovo sabotaggio cognitivo), essa può generare illusioni operative, escalation involontarie e un nuovo tipo di vulnerabilità: quella cognitiva.
Il pericolo, in questo caso, non è più l’assenza d’informazione, bensì l’eccesso di informazione mal interpretata, o peggio, artatamente manipolata.
La GenAI introduce infatti un rischio cognitivo strutturale: l’autorevolezza apparente dei suoi output, veicolata da un linguaggio fluido, assertivo e coerente, tende a mascherare la possibile infondatezza dei contenuti generati. In contesti critici, questa illusione di affidabilità può innescare effetti a cascata sui processi decisionali, amplificando bias, distorsioni e vulnerabilità sistemiche, soprattutto in assenza di controllo umano qualificato, informato e continuativo.
In questo scenario, si impone un inquadramento dottrinale aggiornato, capace di integrare strumenti generativi avanzati entro un quadro normativo, operativo ed etico, in cui il giudizio umano resti centrale e non delegabile.
Il pensiero militare degli anni Duemila si è fondato sulla logica della Network-Centric Warfare (NCW), secondo cui la superiorità operativa derivava dall’interconnessione tra piattaforme, sensori e centri decisionali, all’interno di un sistema distribuito, reattivo e integrato (The most significant war fighting model, Relia, 2015).
Questa visione, centrata sulla condivisione dell’informazione e sull’accelerazione del ciclo decisionale, ha costituito la base tecnologica e dottrinale per l’evoluzione, nel decennio successivo, verso il concetto più avanzato di Multidomain Operations (MDO). In questo paradigma, la supremazia militare non dipende più soltanto dall’interconnessione delle piattaforme, ma dalla capacità di generare effetti simultanei e coordinati in tutti i domini, fisici, cibernetici e cognitivi, attraverso un’integrazione operativa e strategica senza soluzione di continuità.
Oggi, tuttavia, si profila una nuova architettura concettuale, ancora più profonda e insidiosa: quella della Cognitive Warfare. In questo modello, il dominio del conflitto non si limita alla rete o alla simultaneità degli effetti, ma si trasferisce nella sfera dell’elaborazione e del controllo dei processi cognitivi tramite l’impiego sistematico di tecnologie digitali avanzate e strumenti di manipolazione informativa (NATO, 2020).
La guerra cognitiva è stata definita come: “l’arte di usare le tecnologie per influenzare profondamente le percezioni, i comportamenti e i processi decisionali dei singoli e delle società, alterando la cognizione e orientando le narrazioni.”
Questo concetto si collega a dottrine preesistenti, come information warfare, psychological operations (psyops), perception management e neurowarfare, ma se ne distingue per un elemento cruciale: l’assunto strategico che il campo di battaglia finale non sia più lo spazio fisico, bensì la mente umana. È nella percezione, della realtà operativa, della minaccia, del nemico, che oggi si gioca la supremazia (cfr. Cognitive superiority. Controlling the cognitive or sixth domain, Hartley, 2018).
In questo contesto, la guerra si configura sempre più come un conflitto di rappresentazioni. Vince chi è in grado di generare, più rapidamente e con maggiore verosimiglianza, scenari credibili, alternative persuasive, narrazioni operative e ambienti simulati. Il dominio dell’ingaggio non si conquista solo con la forza cinetica, ma con la capacità di modellare l’immaginario strategico dell’avversario, anticipandolo e disorientandolo prima ancora che il confronto abbia luogo.
Nel XXI secolo, il comando del cyberspazio si è affermato come elemento strategicamente decisivo, al pari del dominio marittimo nel XIX secolo e di quello aereo nel XX. Il cyberspazio non è soltanto un dominio operativo: è la nuova arena del conflitto globale, in cui si intrecciano dinamiche politiche, economiche, militari e culturali.“Cyberspace is now the new platform for political, economic, military, and cultural interactions and engagements”. (Cunningham, 2020)
Mai prima d’ora il teatro della guerra globale aveva coinciso così radicalmente con lo spazio quotidiano della vita umana.
In questo passaggio dalla rete alla mente, dalla connessione all’interpretazione, l’Intelligenza Artificiale Generativa si impone come nuovo dominio trasversale della potenza militare: un agente cognitivo autonomo, in grado di modificare tempi, priorità e geometrie del confronto strategico, accelerare i processi decisionali, simulare intenzioni e, in alcuni casi, persino anticipare l’esito dell’azione.
L’impiego dell’Intelligenza Artificiale Generativa (GenAI) nei teatri operativi rappresenta un cambio di paradigma radicale nella conduzione delle operazioni belliche. Se l’automazione tradizionale si è limitata a semplificare compiti circoscritti, come il targeting, la navigazione o il comando remoto, la GenAI introduce una capacità generativa di pensiero tattico e simulazione operativa, in grado di modificare strutturalmente le modalità stesse del combattimento.
Nei centri di comando avanzati, i modelli generativi sono oggi in grado di elaborare in tempo reale molteplici opzioni tattiche e strategiche, adattandole dinamicamente all’evoluzione dello scenario. Tali sistemi sintetizzano grandi volumi di dati provenienti da sensori terrestri, piattaforme ISR, assetti satellitari e fonti OSINT, rappresentano in modo probabilistico le reazioni nemiche previste e propongono sequenze operative plausibili, corredate da stime integrate su rischio, tempistiche e probabilità di successo, come già dimostrato dall’impiego in Ucraina di sistemi come Delta e di piattaforme predittive AI-assisted, capaci di fondere dati ISR, OSINT e satellitari per supportare decisioni operative in tempo reale e generare scenari dinamici adattivi. Il vero vantaggio non risiede soltanto nella rapidità di calcolo, ma nella capacità predittiva adattiva: non si tratta più di pianificare una singola azione “ottimale”, ma di aggiornare continuamente i piani in base al mutamento delle condizioni tattiche, delle priorità d’ingaggio e delle reazioni dell’avversario.
Nel contesto del combattimento multidominio, che coinvolge simultaneamente aria, terra, mare, spazio e cyberspazio, la GenAI può abilitare forme avanzate di swarming autonomo quali sciami di droni aerei, navali o terrestri, in grado di: reagire in modo distribuito a stimoli locali, modificare in tempo reale formazione e distribuzione degli obiettivi, saturare le difese nemiche, confondendo radar e sistemi anti-drone.
Grazie all’integrazione di modelli generativi avanzati, i sistemi di combattimento autonomi sono oggi in grado di apprendere dinamicamente dal contesto operativo, adattare il proprio comportamento alle condizioni mutevoli dello scenario e aggiornare in tempo reale le regole d’ingaggio, senza richiedere interventi umani diretti.
Si delinea così una nuova forma di “intelligenza tattica distribuita”, concepita come un ecosistema cooperativo e adattivo, in cui ogni piattaforma, terrestre, aerea o navale, agisce in sinergia con le altre, simulando dinamiche comportamentali emergenti ispirate ai sistemi biologici.
L’impiego di principi di biomimetica applicata, lo studio e l’imitazione dei meccanismi naturali per progettare comportamenti artificiali intelligenti, ha permesso di modellare sciami autonomi ispirati al comportamento collettivo di insetti sociali, stormi di uccelli o banchi di pesci. Questi algoritmi bio-ispirati conferiscono ai sistemi militari non solo resilienza e adattabilità, ma anche la capacità di operare in modo non deterministico, generando risposte evolutive imprevedibili per l’avversario.
Un esempio concreto dell’applicazione operativa di queste logiche è fornito dall’esperienza israeliana durante il conflitto con Hamas (ottobre 2023 – 2024). Le Forze di Difesa Israeliane (IDF) hanno impiegato il sistema Lavender, un modello di selezione automatica in grado di identificare fino a 37.000 sospetti operativi ritenuti potenzialmente affiliati a gruppi militanti, sulla base di correlazioni comportamentali e metadati digitali. In parallelo, il sistema Gospel è stato utilizzato per la generazione e selezione autonoma di obiettivi infrastrutturali, con una capacità produttiva di oltre 100 target al giorno: una scala operativa senza precedenti nel teatro urbano densamente popolato di Gaza.
Questi casi evidenziano con chiarezza le nuove criticità connesse all’“autorità apparente” dell’intelligenza artificiale, ovvero alla tendenza dei decisori umani ad accettare passivamente le raccomandazioni di un sistema altamente performativo, ma opaco nei suoi processi inferenziali. Tale dinamica alimenta rischi di errore sistemico, escalation non intenzionale e disumanizzazione del ciclo decisionale, imponendo una riflessione urgente sui modelli di AI assurance, sulla tracciabilità delle scelte e sulla responsabilità etico-giuridica nelle operazioni letali automatizzate.
In ambienti operativi ad alta pressione, come un centro di comando sotto attacco cibernetico o un teatro urbano caratterizzato da regole d’ingaggio complesse, fluide e spesso contraddittorie, l’intelligenza artificiale generativa non si limita più a eseguire compiti predefiniti, ma assume un ruolo attivo nel processo decisionale del comandante.
Questi sistemi sono in grado di generare in tempo reale piani d’azione formulati in linguaggio naturale, adattati al contesto tattico, agli obiettivi dichiarati e alle risorse effettivamente disponibili. Oltre a proporre linee d’azione operative, la GenAI è capace di sintetizzare visivamente rischi, vincoli, vantaggi attesi e traiettorie alternative, facilitando l’intuizione situazionale e la consapevolezza decisionale.
L’interfaccia uomo-macchina evolve così da strumento analitico a partner cognitivo, capace di orientare e ottimizzare le scelte del comandante in condizioni di incertezza e pressione temporale estrema.
Il tutto si svolge a una velocità incompatibile con le capacità elaborative umane, ma perfettamente sincronizzata con i tempi operativi del moderno ciclo “kill chain”: uno spazio decisionale compresso, multidominio e non lineare, in cui l’accelerazione dell’ingaggio è spesso decisiva per determinare la superiorità sul campo.
Dopo ogni attacco, la fase di valutazione dei danni, il cosiddetto Battle Damage Assessment (BDA), rappresenta un momento critico per orientare la prosecuzione, l’adattamento o l’interruzione dell’azione militare. Nell’era dell’intelligenza artificiale generativa, il BDA si evolve da funzione reattiva a leva decisionale proattiva.
L’integrazione automatica e dinamica di fonti eterogenee, immagini satellitari e da droni, dati ISR, sensori geospaziali, segnali acustici e rapporti HUMINT, consente alla GenAI di generare una sintesi operativa in tempo reale, capace non solo di documentare i danni materiali inflitti, ma anche di anticipare le reazioni nemiche.
Questa nuova generazione di BDA non si limita a essere descrittiva: diventa predittiva e interpretativa. I modelli generativi, infatti, incorporano pattern comportamentali, variabili cognitive e fattori sociopolitici, offrendo stime sulle conseguenze strategiche dell’azione: dal rischio di escalation militare alla tenuta del consenso interno, dalle reazioni dell’opinione pubblica alle risposte diplomatiche avversarie.
In tal modo, la valutazione dei danni si trasforma in un vero strumento di sensemaking strategico (interpretazione operativa ad alta intensità informativa), fondato non più solo su metriche cinetiche ma su indicatori cognitivi, percettivi e adattivi. La GenAI, dunque, non si limita a misurare il passato dell’azione: ne prefigura gli esiti futuri.