GenAI e potere militare. La rivoluzione silenziosa tra superiorità e rischio. Parte 3

Con la Generative AI come moltiplicatore cognitivo e l’AI agentica capace di agire autonomamente, la sfida del potere militare non è solo tecnologica ma dottrinale: come mantenere il primato umano, evitando che la velocità del codice superi la riflessione strategica? L’analisi del generale Pasquale Preziosa, già Capo di Stato Maggiore dell’Aeronautica Militare, membro esperto Comitato scientifico Eurispes e docente di Geopolitica e Geostrategia

In guerra, la logistica, si dice, sia un potere latente. Senza rifornimenti, comunicazioni, manutenzione e mobilità efficiente, anche l’apparato tecnologicamente più avanzato diventa vulnerabile, lento, esposto. Nell’era dell’Intelligenza Artificiale Generativa, la logistica smette di essere una funzione passiva e diventa un sistema cognitivo distribuito, capace di anticipare, correggere e reagire in tempo reale, adattandosi dinamicamente alle esigenze del campo di battaglia. Questo modello, già delineato in alcune dottrine avanzate, configura la logistica come parte integrante del ciclo decisionale operativo: un’infrastruttura intelligente, in grado di apprendere dai dati, elaborare scenari e suggerire azioni correttive in tempo reale, integrandosi direttamente con le kill chain e i sistemi C2/C4I di nuova generazione.

La trasformazione della logistica in sistema cognitivo adattivo trova una drammatica giustificazione nella storia della guerra moderna. La Battaglia di Stalingrado (1942–43), tra le più cruente e decisive del secondo conflitto mondiale, non fu soltanto una sconfitta militare e simbolica per la Wehrmacht, ma soprattutto una catastrofe logistica annunciata.

Il dipartimento logistico tedesco, già nelle fasi iniziali dell’Operazione Barbarossa, aveva chiaramente evidenziato l’insostenibilità del prolungamento del fronte oltre il Volga, denunciando l’impossibilità di garantire rifornimenti, carburante e supporto meccanico su distanze così estese, attraverso territori ostili e privi di infrastrutture adeguate. Eppure, tali valutazioni furono ignorate, sacrificate a favore di una visione strategica dominata da obiettivi simbolici e ideologici, che escluse deliberatamente la realtà logistica dai processi decisionali.

Oggi, nell’era della GenAI, la lezione di Stalingrado non può essere relegata al passato: essa rappresenta una costante della guerra moderna. Ogni volta che la logistica viene marginalizzata o trattata come funzione subordinata, l’illusione della manovra si trasforma rapidamente in disastro strategico.

La differenza, rispetto al passato, è che oggi disponiamo degli strumenti per evitare quegli errori, grazie alla capacità della GenAI di fornire consapevolezza predittiva, resilienza adattiva e integrazione cognitiva. Ma perché ciò accada, è necessario un profondo cambiamento culturale e dottrinale, capace di riconoscere nella logistica non un limite all’azione, ma una condizione della vittoria.

L’adozione dei digital twin generativi (Digital Twin for mission Planning) cioè di modelli digitali dinamici in grado di replicare in tempo reale asset fisici, ambienti operativi o intere catene logistiche, consente oggi alle forze armate di modellare l’ecosistema logistico nel suo complesso: scorte, vie di comunicazione, nodi portuali, basi avanzate, sistemi di rifornimento. Attraverso questi gemelli digitali, è possibile simulare scenari alternativi (interruzioni di linea, sabotaggi, attacchi cinetici o cyber), prevedere vulnerabilità sistemiche e generare strategie adattive di continuità operativa in ambienti contestati.

In contesti di alta intensità, ciò si traduce nella capacità di riprogrammare flussi logistici in tempo reale, riducendo la dipendenza da hub centrali, facilmente individuabili e attaccabili, e potenziando la resilienza distribuita lungo le linee avanzate. Nel contesto NATO, la realizzazione di digital twin interoperabili, intesi come mission critical tool, per esercitazioni congiunte, simulazioni di scenario e pianificazioni adattive rappresenta una nuova frontiera. In questo quadro, la logistica smette di essere semplice funzione di supporto e si trasforma in un vero e proprio fattore di manovra cognitiva: non solo sostiene l’azione operativa, ma la orienta, la anticipa e la rende adattiva rispetto all’evoluzione dello scenario.

Uno degli ambiti più promettenti dell’impiego della GenAI è la manutenzione predittiva. In linea con i principi della dottrina “Condition-Based Maintenance Plus” (CBM+), l’intelligenza artificiale generativa consente di trasformare il supporto tecnico da reattivo a proattivo. Grazie alla capacità di analizzare automaticamente i dati tecnici in tempo reale (vibrazioni, temperature, consumi), i log storici di guasti e avarie, le condizioni ambientali e i pattern d’impiego,

L’impiego della GenAI consente di anticipare malfunzionamenti prima che si verifichino, di ottimizzare la disponibilità di ricambi e la programmazione delle squadre manutentive e soprattutto di ridurre i tempi di fermo su asset critici come velivoli, navi o mezzi corazzati.

Nel contesto NATO, il concetto è stato ulteriormente sviluppato attraverso iniziative come il progetto “AI for Predictive Maintenance” promosso dall’Allied Command Transformation (ACT) e dall’Innovation Hub, con l’obiettivo di garantire prontezza operativa continua e interoperabilità logistica tra le forze alleate.

Questa trasformazione abilita un deployment più modulare e distribuito, in cui ogni unità può operare con maggiore autonomia logistica, riducendo l’impronta fisica sul campo e incrementando la mobilità tattica. Si tratta di un’evoluzione strategica del principio originario del Just in Time, traslato dal contesto industriale a quello militare, in scenari operativi ad alta intensità, dove l’incertezza è la norma e l’adattività cognitiva è la chiave. In questo senso, la GenAI consente un “Just in Time intelligente”, capace non solo di ottimizzare, ma di prevedere e reagire proattivamente alle condizioni reali del campo di battaglia.

La guerra moderna, soprattutto nel contesto europeo, è sempre più una questione di interoperabilità multinazionale. In scenari complessi e congiunti – come quelli della NATO e dell’Unione Europea – il successo operativo dipende dalla capacità di armonizzare dati, processi e decisioni tra alleati.

In questo quadro, l’Intelligenza Artificiale Generativa (GenAI) può svolgere un ruolo cruciale come facilitatore tecnico e strategico, contribuendo a: standardizzare i dati logistici tra gli Stati membri, migliorando la coerenza e la tempestività delle informazioni in teatri operativi congiunti, generare modelli predittivi condivisi, utili a simulare scenari di crisi ad alta intensità, come i flussi accelerati di truppe e mezzi dall’Atlantico ai confini orientali dell’Alleanza, supportare una catena di comando distribuita, aumentando la resilienza decisionale in ambienti contestati o ad alta entropia.

In tale architettura operativa, la GenAI può produrre opzioni logistiche di coalizione, calibrate non solo sulle esigenze tattiche, ma anche sulle specificità normative, giuridiche e geografiche dei diversi contingenti nazionali. Questo consente una pianificazione adattiva e sinergica, rafforzando la prontezza collettiva e la coesione strategica.

È un passaggio chiave verso una logistica di coalizione realmente adattiva, predittiva e interoperabile.

Nel dominio della deterrenza strategica, l’errore non è contemplato. Le dinamiche nucleari si reggono su un equilibrio fragile, fondato su credibilità, razionalità e controllo umano. L’introduzione dell’Intelligenza Artificiale Generativa in questo ambito può rappresentare una minaccia sistemica, capace di incrinare quel delicato bilanciamento proprio nel momento in cui lo si vorrebbe rafforzare.

L’integrazione della GenAI nei sistemi strategici richiede perciò un approccio estremamente prudente. Come evidenziato nella Nuclear Posture Review (NPR) degli Stati Uniti (2022), la deterrenza si fonda su tre pilastri: affidabilità tecnica, coerenza comunicativa e controllo umano del comando. Nessuno di questi può essere delegato a un sistema opaco, probabilistico o non spiegabile.

Le più recenti analisi sulla AI safety in ambito militare, promosse da RAND Corporation, CNA e SIPRI, evidenziano una vulnerabilità emergente: la verosimiglianza senza comprensione. Un LLM può generare scenari coerenti ma errati, simulazioni credibili ma fondate su dati incompleti, manipolati o male interpretati.

La storia fornisce moniti eloquenti. Il caso del colonnello Stanislav Petrov (1983), che evitò una guerra nucleare ignorando un falso allarme del sistema sovietico Oko, dimostra il valore insostituibile del giudizio umano. Un sistema generativo, posto al suo posto, avrebbe potuto proporre uno scenario di attacco imminente, credibile e dettagliato, ma del tutto infondato.

In questo contesto, la presenza dell’uomo nel ciclo decisionale strategico (human-in-the-loop) non è solo una misura di sicurezza, ma un vincolo politico, etico e dottrinale. La deterrenza funziona perché comunica intenzioni razionali e controllate, se affidata a modelli che non sono in grado di spiegare le proprie inferenze, diventa una scommessa algoritmica sulla stabilità del pianeta.

Per queste ragioni, diverse iniziative in ambito NATO, G7 e ONU stanno valutando l’introduzione di una moratoria sull’uso di GenAI nelle catene di comando nucleari, accompagnata da una governance multilaterale delle tecnologie dual-use, con particolare attenzione alla simulazione strategica automatizzata, alla sicurezza dei dati e alla resilienza dei processi cognitivi umani in contesti ad altissima criticità.

L’Intelligenza Artificiale Generativa (GenAI), per quanto potente, resta un modello probabilistico e statistico. La sua efficacia operativa e strategica è interamente legata alla qualità, integrità e affidabilità dei dati ricevuti, sia in fase di addestramento che in tempo reale. Questa dipendenza, in ambienti ostili, si traduce in un profilo di vulnerabilità sistemica.

Tra i principali rischi associati all’impiego di intelligenza artificiale generativa (GenAI) in ambito militare vi è l’avvelenamento intenzionale dei dataset di addestramento, noto come data poisoning, che può compromettere in modo grave l’affidabilità e la sicurezza delle funzioni AI-enabled, in particolare all’interno delle pipeline ISR (Intelligence, Surveillance, Reconnaissance) e dei sistemi di comando e controllo (C2).

In scenari di conflitto ad alta intensità, l’integrità dei dati diventa un asset critico e vulnerabile. Il data poisoning può essere attuato da attori ostili con lo scopo di inserire nei dataset di training elementi manipolati o infettati, capaci di orientare l’output della GenAI in modo fuorviante, falsare il riconoscimento di pattern, generare classificazioni errate di minacce, o addirittura indurre errori nei processi decisionali automatizzati. Si tratta di una forma sofisticata di sabotaggio cognitivo, in grado di minare la fiducia epistemica nei sistemi AI militari.

Laddove le architetture GenAI siano impiegate per supportare funzioni ISTAR, BDA (Battle Damage Assessment), target recognition, mission planning o persino generazione autonoma di scenari, un attacco riuscito alla supply chain dei dati compromette l’intero ciclo OODA (Observe, Orient, Decide, Act). I rischi diventano ancora più gravi in contesti multi-domain, in cui l’interoperabilità tra piattaforme (es. C4ISR, droni, satelliti, sensori e operatori umani) dipende da un flusso continuo e coerente di dati affidabili.

In uno scenario operativo sempre più dipendente da sistemi di supporto decisionale basati su intelligenza artificiale generativa (GenAI), il training data integrity si configura come una vulnerabilità strategica prioritaria, in particolare nei programmi C2 (Command & Control) abilitati dall’AI. La protezione dell’intero ciclo di vita del dato, dalla raccolta alla validazione, dall’addestramento al fine-tuning, rappresenta oggi una componente essenziale della postura difensiva digitale di ogni forza armata avanzata.

Le implicazioni strategiche del data poisoning sono profonde e si articolano su almeno quattro livelli: dottrinale, operativo, tecnologico ed etico-legale.

Questi rischi si sono già manifestati in scenari reali. Nel conflitto in Ucraina, sia le forze russe sia quelle ucraine hanno impiegato contromisure elettroniche e spoofing cognitivo, inclusa la generazione di tracce radar fittizie e segnature termiche simulate, per confondere i sistemi di targeting automatico. Quando tali segnali vengono recepiti da una GenAI non sufficientemente addestrata o non sottoposta a meccanismi di discriminazione semantica, possono produrre risposte errate, escalation non intenzionali o errori nel targeting cinetico.

Una forma ancora più sofisticata di attacco è la compromissione dei layer di visualizzazione all’interno di interfacce umane come mappe operative, dashboard tattiche o modelli predittivi sintetici. Secondo studi del MITRE (2022), anche operatori umani inseriti nel ciclo decisionale (human-in-the-loop) possono essere fuorviati da visualizzazioni visivamente coerenti ma concettualmente distorte, soprattutto in ambienti ad alta pressione informativa.

Tali rischi non sono teorici. Durante esercitazioni NATO recenti, come il Coalition Warrior Interoperability eXploration, Experimentation, and Examination eXperiment (CWIX), è stato dimostrato che l’impiego di digital twin generativi e modelli predittivi GenAI, se non accompagnati da solidi framework di AI assurance e adversarial testing, può amplificare distorsioni o manipolazioni provenienti da attori ostili. In questi contesti, l’adozione di sistemi IA avanzati, lungi dal ridurre il margine d’errore, rischia di esporre le forze alle vulnerabilità cognitive introdotte dal nemico.

In ambienti ad alta letalità, dove la velocità del ciclo decisionale supera quella del controllo umano, la plausibilità senza verifica può avere conseguenze strategiche irreversibili. (SIPRI, Military AI and Strategic Stability, 2023)

Il rischio più elevato emerge laddove la GenAI viene integrata nei sistemi di early warning e in quelli, anche solo parzialmente automatizzati, di risposta strategica (es. deterrenza ipersonica).

Le guerre future potrebbero non iniziare con una sirena antiaerea, ma con una allucinazione algoritmica, una notizia falsa generata ad arte, un’escalation costruita con parole, immagini e simulazioni. Per questo motivo, l’IA generativa è oggi arma e bersaglio al tempo stesso.
Serve un cambio di mentalità: accanto alla deterrenza nucleare e convenzionale, serve una deterrenza cognitiva, fondata su resilienza informativa della popolazione, capacità di verificare e smascherare contenuti generati e regole di ingaggio comunicative per evitare reazioni affrettate basate su percezioni errate.

L’avvento dell’intelligenza artificiale generativa nel dominio militare non introduce soltanto nuove capacità. Introduce nuove incognite, nuovi spazi di ambiguità, nuove forme di opacità decisionale, in guerra, l’incertezza non è mai neutrale. È un campo da conquistare, non un fattore da subire.

Nel pensiero strategico classico, dominare l’incertezza significava anticipare le mosse dell’avversario, ridurre la nebbia della guerra (fog of war), gestire il rischio. Oggi, nel contesto dell’AI generativa, l’incertezza si sposta all’interno del codice stesso: nasce dalle allucinazioni linguistiche di un modello, dalle inferenze non trasparenti di una rete neurale, dalla complessità emergente di sistemi autonomi integrati nel ciclo operativo.

Nel teatro cognitivo del XXI secolo, la vera supremazia è nella padronanza del codice. È lì che si decide chi ha l’iniziativa strategica. La GenAI non rappresenta una mera estensione delle capacità convenzionali. Non è un moltiplicatore lineare di potenza di fuoco, né un semplice acceleratore del ciclo OODA (Observe, Orient, Decide, Act). La GenAI è un agente cognitivo a tutti gli effetti, capace di modellare la realtà percepita, di alterare la rappresentazione del nemico, di simulare scenari, fabbricare narrazioni, orientare le decisioni, talvolta in modo impercettibile, talvolta con effetti sistemici.

Essa trasforma il conflitto in una guerra sulla semantica, una competizione per il controllo delle mappe cognitive, delle rappresentazioni mentali, degli ambienti sintetici in cui si prendono decisioni operative. Non si limita a combattere nel mondo reale: contribuisce a costruirlo, generando ambienti digitali (digital twin, dashboard operative) in cui la verità fattuale si mescola con la plausibilità statistica.

Di fronte a questa rivoluzione cognitiva, l’indeterminatezza non è più una variabile da ridurre, ma una posta in gioco da orientare. Il vantaggio asimmetrico non lo ottiene più solo chi ha la superiorità informativa, ma chi riesce a indirizzare l’incertezza verso l’avversario, facendone un moltiplicatore di disordine e una leva di disinformazione strategica.

In definitiva, la GenAI riconfigura l’architettura della guerra. Non solo perché introduce nuove armi, ma perché sposta il campo di battaglia dentro la mente, dentro il codice, dentro il linguaggio.

Previous slide
Next slide
Previous slide
Next slide
Previous slide
Next slide