La guerra algoritmica
- Algopolio
- 9 dic 2025
- Tempo di lettura: 3 min
Fonte: Il Sole 24 Ore – Paolo Benanti, «La guerra algoritmica, un salto evolutivo dai laboratori all’azione», 3 dicembre 2025
L’entrata dell’AI nel dominio della difesa: la soglia che si infrange
L’articolo di Paolo Benanti segnala un punto di svolta storico: il Pentagono ha assegnato contratti miliardari a tre colossi dell’intelligenza artificiale — Anthropic, Google e xAI — per integrare sistemi avanzati di AI nei processi militari. Non si tratta più di tecnologie sperimentali: è l’ingresso ufficiale dell’AI nei comandi operativi, nelle analisi istantanee del campo di battaglia, nelle catene decisionali. Questo passaggio segna la fine della separazione tra ricerca e azione, tra laboratorio e fronte, e apre scenari etici e geopolitici che nessuna democrazia può permettersi di ignorare.
Dall’assistenza digitale all’agente operativo
Finora l’AI era stata concepita come strumento di supporto: analizzava dati, suggeriva strategie, ottimizzava processi. Il salto attuale è qualitativo: l’AI diventa “agente”, capace non solo di interpretare informazioni, ma di intraprendere flussi decisionali in autonomia. Il Pentagono parla di “intelligenza artificiale generativa integrata nel teatro operativo”, concetto che implica una delega inedita:
rapidità di valutazione in frazioni di secondo,
capacità di individuare minacce,
adattamento continuo dello scenario operativo.
Ma la velocità può diventare un pericolo quando precede la riflessione. Un sistema che reagisce senza comprendere il senso profondo delle sue azioni rischia di trasformare l’efficienza in vulnerabilità morale.
La dottrina del “human in the loop”: una linea sottile che rischia di spezzarsi
Benanti ricorda che la tradizionale dottrina americana proibisce di affidare a un algoritmo la facoltà di utilizzare la forza letale senza supervisione umana. Ma la pressione competitiva — Cina in primis — e la promessa di tempi decisionali infinitamente ridotti spingono verso un’integrazione più ampia, dove la supervisione potrebbe diventare puramente nominale. Il rischio non è teorico:
la velocità dell’AI potrebbe neutralizzare la capacità umana di valutare implicazioni etiche e geopolitiche;
il ciclo di feedback algoritmico potrebbe innescare escalation incontrollate;
la distanza tra “decisione tecnica” e “atto bellico” rischia di azzerarsi.
L’ambivalenza dell’AI militare: precisione o disinformazione?
L’articolo avverte contro un altro pericolo: la capacità dell’AI di generare nuove forme di disinformazione militare, alimentando strategie di manipolazione del nemico o della popolazione. La stessa infrastruttura che oggi promette “precisione chirurgica” negli interventi può essere utilizzata per creare narrazioni sintetiche, ricostruzioni false, inganni strategici. È l’AI come arma “morbida”, capace di sabotare la fiducia collettiva e di trasformare la percezione della realtà in un campo di battaglia parallelo.
Un ecosistema di difesa senza vincoli etici?
L’integrazione dell’AI nei sistemi militari richiede una ridefinizione del concetto di responsabilità. Chi risponde dell’azione di un agente autonomo? Quale diritto disciplina un algoritmo che agisce prima che una coscienza possa intervenire?Benanti sottolinea che, senza un presidio etico adeguato, rischiamo di delegare la sicurezza globale a entità che operano in base a criteri non umani: ottimizzazione, massimizzazione dell’efficacia, minimizzazione degli errori statistici. Ma la guerra non è un calcolo: coinvolge vite, equilibri politici, tensioni culturali.
Quando l’azione supera la deliberazione, la società perde il suo controllo sul potere.
Il significato per Algopolio: vigilare sul potere digitale prima che sia irreversibile
La riflessione di Benanti converge con uno dei temi più urgenti nella missione di Algopolio: la necessità di intervenire sulla governance del digitale prima che diventi impossibile farlo. L’associazione si impegna a:
analizzare i rischi etici e politici dell’automazione avanzata;
denunciare i pericoli derivanti da algoritmi opachi in contesti critici;
sostenere cittadini, ricercatori, professionisti e istituzioni nella comprensione dei sistemi autonomi;
promuovere forme di controllo democratico sulla tecnologia, anche nei settori dove il dibattito è più delicato, come quello militare.
Chiunque percepisca che l’intelligenza artificiale stia incidendo sulla propria sicurezza, sui propri diritti o sulla trasparenza delle decisioni può rivolgersi ad Algopolio: la tecnologia deve servire l’umanità, non sostituirla.


Commenti