GenAI e potere militare. La rivoluzione silenziosa tra superiorità e rischio. Parte 2

Con la Generative AI come moltiplicatore cognitivo e l’AI agentica capace di agire autonomamente, la sfida del potere militare non è solo tecnologica ma dottrinale: come mantenere il primato umano, evitando che la velocità del codice superi la riflessione strategica? L’analisi del generale Pasquale Preziosa, già Capo di Stato Maggiore dell’Aeronautica Militare, membro esperto Comitato scientifico Eurispes e docente di Geopolitica e Geostrategia

La GenAI riduce drasticamente i tempi decisionali, aumenta la reattività tattica e consente l’esecuzione di operazioni simultanee su più domini sia fisici sia cognitivi. Tuttavia, queste potenzialità portano con sé nuove sfide complesse, non solo tecniche ma dottrinali ovvero: come distinguere tra un’opzione tatticamente plausibile? Come assicurarsi che le azioni suggerite siano compatibili con i vincoli etici, giuridici e operativi imposti dalle Rules of Engagement (ROE)? Quanto spazio rimane alla responsabilità umana, in un ambiente in cui la macchina “vede prima, elabora più a fondo e decide più rapidamente”?

Il punto critico non è solo la capacità e velocità di calcolo, ma la necessità di una nuova cultura del comando e controllo. L’IA può vincere la battaglia del tempo ma non quella del senso. L’intelligenza generativa deve essere compresa, regolamentata e incardinata in un quadro dottrinale che non sacrifichi il giudizio alla velocità, e che assicuri che la superiorità cognitiva non si traduca in automatismi incontrollabili o in escalation non volute.

La GenAI promette di rivoluzionare la condotta delle operazioni militari riducendo drasticamente i tempi decisionali, incrementando la reattività tattica e abilitando l’esecuzione simultanea di azioni su più domini, fisici, cibernetici e cognitivi. Tuttavia, questa accelerazione senza precedenti impone nuove sfide complesse, che non sono soltanto di natura tecnica, ma profondamente dottrinali ed etico-giuridiche. Come distinguere, in tempo reale, tra un’opzione operativamente plausibile e una effettivamente lecita o strategicamente opportuna? Come garantire che le azioni suggerite dall’IA rispettino i vincoli imposti dalle Rules of Engagement (ROE), dal diritto internazionale umanitario o dai principi fondamentali della proporzionalità e della discriminazione?

Il nodo non risiede soltanto nella capacità computazionale o nella velocità di risposta, ma nell’urgenza di ridefinire la cultura stessa del comando e controllo. In un ambiente in cui la macchina “vede prima, elabora più a fondo e decide più rapidamente”, la responsabilità umana rischia di trasformarsi in mera validazione passiva, con un indebolimento del giudizio critico e dell’autonomia decisionale.

Per questo, la GenAI non può essere considerata solo come moltiplicatore di potenza, ma deve essere integrata entro un quadro concettuale robusto, in grado di contenerne i rischi e orientarne l’uso. Vincere la battaglia della velocità non significa necessariamente vincere quella del significato. La superiorità cognitiva – intesa come capacità di comprensione, anticipazione e discernimento, deve rimanere una prerogativa umana, supportata ma non sostituita dall’intelligenza artificiale. Solo così sarà possibile evitare derive legate agli automatismi, escalation non intenzionali o l’erosione della catena di comando e della responsabilità giuridica nei teatri operativi del futuro.

Se il fronte del combattimento è il volto più visibile della trasformazione militare, è nelle retro strutture cognitive e digitali, quelle che restano celate allo sguardo, che la GenAI sta generando i mutamenti più profondi. Il dominio della comunicazione, del comando e dell’informazione (C4I), insieme ai sistemi ISTAR (Intelligence, Surveillance, Target Acquisition and Reconnaissance) e alle capacità di guerra elettronica (EW), costituisce oggi la dorsale nevralgica dello strumento militare avanzato. È in questi snodi immateriali ma critici che si genera il vantaggio strategico, ed è lì che si determina – o si previene – l’errore operativo.

L’integrazione della Generative AI nei centri C4I sta inaugurando una nuova era di sistemi cognitivi, capaci non soltanto di acquisire ed elaborare dati provenienti da molti sensori, ma di formulare autonomamente opzioni operative, anticipando scenari e proponendo soluzioni innovative. Questi algoritmi non si limitano a replicare modelli storici o schemi prestabiliti: generano piani d’azione adattivi, simulano evoluzioni non lineari del campo di battaglia e costruiscono modelli multilivello aggiornabili in tempo reale.

Si tratta di veri e propri “motori predittivi di comando”, in grado di fondere, in modo simultaneo e contestualizzato, flussi geospaziali, immagini termiche, segnali radar, comunicazioni intercettate (SIGINT), pattern comportamentali storici, movimenti nemici correnti e input provenienti da sensori così detti edge-distributed. Il risultato è una capacità decisionale amplificata e accelerata, dove il ciclo osservazione-decisione-azione si comprime radicalmente, mutando la natura stessa del comando militare contemporaneo.

Il risultato è una mappa cognitiva dinamica, che si aggiorna costantemente e fornisce al comandante una serie sintetica di alternative operative, già valutate in base a criteri di efficacia, rischio, disponibilità di risorse e tempo d’intervento.

Ma proprio la velocità operativa delle nuove minacce, in particolare quelle poste dalle armi ipersoniche, capaci di superare Mach 5 e di manovrare lungo traiettorie imprevedibili, ha reso inadeguato il tradizionale ciclo OODA (Observe–Orient–Decide–Act), che presuppone un tempo minimo per l’intervento umano. In questi contesti, si ricorre a modelli agentici di GenAI, capaci di automatizzare l’intero ciclo decisionale, reagendo in millisecondi sulla base di scenari simulati e regole dinamiche preimpostate.

Non si tratta più solo di “assistenza alla decisione”, ma di azione autonoma condizionata, guidata da parametri adattivi e addestrata su milioni di traiettorie possibili.

Tuttavia, questo paradigma non può estendersi al dominio nucleare.

Nel caso di sistemi strategici come il Prompt Global Strike o le reti di early warning nucleari, la velocità non può sostituire il giudizio. La presenza dell’uomo nel processo decisionale, il principio del “human-in-the-loop”, rappresenta una condizione etica, dottrinale e geopolitica irrinunciabile.

Un singolo errore generativo, un’allucinazione algoritmica, una distorsione percettiva, un’inferenza errata provocata da manipolazione input-based o data poisoning, potrebbe attivare una risposta irreversibile, con conseguenze globali. La deterrenza nucleare si fonda sulla razionalità esplicita e sul controllo deliberato, non su automatismi incontrollati.

“Nel dominio nucleare, anche un solo errore generativo può distruggere il pianeta.”

Per questo, si impone con urgenza una governance multilaterale dell’intelligenza artificiale applicata agli armamenti, che affronti in modo trasparente: la gestione delle vulnerabilità intrinseche dei LLM (Large Language Models), i rischi di spoofing e sabotaggio informativo, l’opacità strutturale dei processi inferenziali su cui si basano molte delle attuali architetture generative.

Nel dominio dello spettro elettromagnetico, l’Intelligenza Artificiale Generativa (GenAI) assume un ruolo cruciale, potenziando in modo significativo le capacità di guerra elettronica (EW). Attraverso programmi sperimentali come il Cognitive EW Program , si stanno sviluppando sistemi in grado di apprendere dal contesto operativo in tempo reale, adattarsi dinamicamente a minacce emergenti e generare contromisure elettroniche resilienti e non lineari.

La GenAI consente la generazione automatica di segnali ingannevoli (spoofing), la mutazione continua delle frequenze, dei protocolli e delle firme elettromagnetiche per eludere l’identificazione, e l’adattamento evolutivo delle emissioni secondo logiche simili a quelle biologiche, riducendo drasticamente la prevedibilità delle contromisure.

In questo scenario, la guerra elettronica si trasforma in un ambiente cognitivo adattivo, dove la superiorità non dipende più dalla sola potenza di emissione o dalla larghezza di banda, ma dalla velocità di apprendimento e dalla capacità generativa autonoma di elaborare schemi di disturbo e difesa. L’Electronic Order of Battle non sarà più statico, ma mutevole, costruito e aggiornato in tempo reale da modelli che combinano deep learning, reinforcement learning (interazioni ripetute di tipo “trial-and-error), intelligenza distribuita.

Il risultato è un passaggio dottrinale profondo: dalla Electronic Warfare classica alla Cognitive Electromagnetic Warfare, in cui l’intelligenza artificiale diventa essa stessa un sensore, un analista e un attore attivo nel dominio invisibile dello scontro (DARPA, Cognitive electronic warfare).

La GenAI esprime la sua massima potenza nella velocità di sintesi e nella capacità generativa. Tuttavia, dietro questa forza si celano rischi rilevanti e strutturali: saturazione cognitiva dei decisori, quando la quantità di output generati prevale sulla qualità, e la rapidità compromette la comprensione, perdita di contesto, in cui soluzioni tatticamente corrette risultano, in realtà, strategicamente insensate o incoerenti con gli obiettivi di lungo periodo, allucinazioni (Hallucination) sistemiche, ossia contenuti costruiti su informazioni plausibili ma false, capaci di alterare gravemente la percezione situazionale e il processo decisionale (falsi positivi).

L’integrazione della GenAI nei sistemi C4I, ISTAR ed EW rappresenta una svolta nella conquista della superiorità informativa, ma impone un nuovo paradigma dottrinale e culturale. Il comando umano deve essere formato non solo a utilizzare l’IA, ma a interrogarla criticamente, interpretarne gli output e, quando necessario, contraddirla, preservando il primato del giudizio, della responsabilità e della coscienza. L’IA può generare opzioni, ma non può sostituire il discernimento, soprattutto in condizioni caratterizzate da ambiguità semantica, asimmetria informativa o elevata entropia cognitiva (“perdita di complessità interna del pensiero individuale a causa dell’eccessiva omogeneizzazione esterna dei codici comunicativi e culturali”).

Previous slide
Next slide
Previous slide
Next slide
Previous slide
Next slide