top of page

Un nuovo complesso militare-industriale: come i “tech bros” stanno esaltando il ruolo dell’IA in guerra





Di Paul Lushenko e Keith Carter | 7 ottobre 2024


Un nuovo complesso militare-industriale: come i “tech bros” stanno esaltando il ruolo dell’IA in guerraDi Paul Lushenko e Keith Carter | 7 ottobre 2024

Dall’emergere dell’intelligenza artificiale generativa, gli studiosi hanno speculato sulle implicazioni di questa tecnologia per il carattere, se non la natura, della guerra. La promessa dell’IA sui campi di battaglia e nelle sale operative ha affascinato molti, che la definiscono “rivoluzionaria”, “trasformativa” e “pericolosa”, soprattutto in considerazione di un potenziale conflitto tra grandi potenze come Stati Uniti, Cina o Russia. In un contesto di guerra tra grandi potenze, in cui gli avversari hanno capacità militari paritarie, si sostiene che l’IA sia una conditio sine qua non, indispensabile per la vittoria. Questa valutazione si basa sull’idea che l’IA possa ridurre il tempo necessario tra il rilevamento di un obiettivo e la sua neutralizzazione, noto come “sensor-to-shooter timeline”, permettendo ai militari di mantenere un vantaggio letale sui rivali.

Sebbene comprensibile, questa linea di pensiero può risultare fuorviante per la modernizzazione, la prontezza e le operazioni militari. Gli esperti avvertono che i militari si trovano di fronte a un momento “eureka” o “Oppenheimer”, paragonabile allo sviluppo della bomba atomica durante la Seconda Guerra Mondiale. Tuttavia, questa caratterizzazione distorce i meriti e i limiti dell’IA nel contesto bellico, incoraggiando i decisori politici e i funzionari della difesa a percorrere quella che può essere definita una “strada illusoria della guerra abilitata dall’IA”, sancita dalla strategia del “terzo offset” dell’esercito statunitense. Questa visione è alimentata da previsioni grossolane e da un’eccessiva enfasi sulle capacità emergenti arricchite con qualche forma di IA, anziché da un’analisi empirica rigorosa delle sue implicazioni a livello tattico, operativo e strategico.

Il ruolo dei “tech bros” nel dibattito sull’IA militare

L’attuale dibattito sull’IA militare è in gran parte guidato da “tech bros” e imprenditori che potrebbero trarre enormi profitti dall’adozione da parte dei militari di capacità abilitate dall’IA. Queste figure del settore tecnologico, pur esercitando una forte influenza sulla conversazione, spesso non hanno esperienza operativa diretta e quindi non possono basarsi su esperienze di combattimento per giustificare le loro affermazioni. Si affidano invece ai loro successi nel mondo degli affari per promuovere un nuovo modello di sviluppo delle capacità, attraverso articoli di opinione su riviste prestigiose, discorsi in conferenze di sicurezza rinomate e presentazioni in università di alto livello.

Quando gli analisti esplorano le implicazioni dell’IA nella guerra, come nei conflitti a Gaza, in Libia o in Ucraina, evidenziano esempi limitati e discutibili del suo utilizzo, ne esagerano gli impatti e confondono la tecnologia con i miglioramenti organizzativi resi possibili dall’IA. È possibile che le tecnologie abilitate dall’IA, come i sistemi d’arma autonomi letali o i “killer robots”, cambino drammaticamente il volto della guerra in futuro. Tuttavia, il dibattito attuale ignora considerazioni politiche, operative e normative che indicano che l’IA potrebbe non avere gli impatti rivoluzionari che i suoi sostenitori affermano, almeno non nel breve termine.

Automazione, autonomia e intelligenza artificiale: chiarire le differenze

I termini automazione, autonomia e IA vengono spesso usati in modo intercambiabile, ma erroneamente.

  • Automazione: si riferisce alla routinizzazione dei compiti svolti da macchine, come il riordino automatico di rifornimenti militari esauriti, ma sotto la supervisione umana.

  • Autonomia: riduce il grado di supervisione umana, suddividendosi in tre livelli:

    1. On the loop: l’uomo mantiene il controllo finale (come per i droni convenzionali MQ-9 Reaper).

    2. In the loop: alcune decisioni sono delegate alle macchine.

    3. Off the loop: le macchine operano in totale autonomia, come nei “killer robots” che identificano e attaccano obiettivi senza intervento umano.

L’IA, d’altra parte, è progettata per compiti cognitivi complessi, come il ragionamento, riservati solitamente agli esseri umani. Gli osservatori privilegiano spesso una forma ristretta (debole) rispetto a una generativa (forte) di IA, come quella utilizzata in sistemi come ChatGPT.

Il complesso militare-industriale abilitato dall’IA

Un elemento chiave di questa “strada illusoria” è il nuovo complesso militare-industriale, guidato non solo dai tradizionali appaltatori della difesa, ma anche da start-up finanziate da venture capitalist. Aziende come Anduril, Palantir e ScaleAI investono miliardi nello sviluppo di tecnologie militari abilitate dall’IA, anticipando che i militari le acquisteranno per mantenere un vantaggio sui rivali. Questo modello capovolge i tradizionali processi di acquisizione della difesa, in cui l’industria risponde alle esigenze militari, spingendo invece i militari ad adattarsi alle tecnologie proposte dall’industria.

L’uso dell’IA e il futuro della guerra cognitiva

L’uso dell’intelligenza artificiale per creare nuovi testi, immagini e video probabilmente aggraverà le sfide legate alla guerra cognitiva. Questa forma di guerra non letale mira a influenzare le convinzioni degli avversari, con l’obiettivo generale di colpire le loro priorità difensive, la prontezza militare e le operazioni. In questo contesto, i paesi cercheranno di sfruttare l’IA per produrre disinformazione e propaganda, progettate per fuorviare e ingannare gli avversari, lungo tutto lo spettro delle competizioni, dalla pace alla guerra.

Durante le fasi di competizione, l’IA sarà probabilmente usata per alimentare conflitti sociali, politici ed economici tra gli avversari, portando a divisioni crescenti, disordini sociali e persino violenza politica. Ad esempio, la Russia ha utilizzato l’IA per manipolare e confondere gli elettori americani durante le elezioni presidenziali del 2020 e sta presumibilmente tentando di farlo nuovamente per le elezioni del 2024. Queste operazioni mirano ad aggravare le divisioni partigiane tra Democratici e Repubblicani e a delegittimare le istituzioni democratiche, con conseguenze sulla prontezza militare.

Durante i conflitti armati, le operazioni psicologiche generate dall’IA potrebbero minacciare la consapevolezza situazionale necessaria per prendere decisioni tempestive. Nei peggiori scenari, ciò potrebbe portare alla mancata identificazione delle forze amiche, causando incidenti di fuoco amico. L’IA potrebbe anche compromettere le alleanze, seminare disordini sociali nelle aree di operazione e fomentare proteste domestiche, riducendo così la volontà pubblica di sostenere operazioni militari prolungate. Inoltre, potrebbe essere usata per manipolare e ingannare le famiglie dei militari, influenzando il morale e la performance in combattimento.

L’IA come supporto alla pianificazione militare

D’altra parte, l’IA probabilmente migliorerà la pianificazione militare, in particolare per quanto riguarda l’intelligence e le manovre. Gli algoritmi avanzati, addestrati su dataset militari, miglioreranno la qualità delle analisi e accelereranno il lavoro di supporto che sostiene le operazioni moderne. Ad esempio, l’IA potrà condurre rapidamente analisi del terreno utilizzando dati geografici e batimetrici esistenti, facilitare la pianificazione delle manovre e prevedere le posizioni nemiche.

Il futuro: delega alle macchine e riorganizzazione militare

In un futuro più lontano, man mano che l’IA si svilupperà ulteriormente, una maggiore delega delle operazioni militari ai sistemi autonomi diventerà probabile. Questo fenomeno, spesso chiamato “guerra del Minotauro,” implica che le macchine controllino le azioni umane durante il combattimento in vari domini, dalla terra al mare e all’aria. Per realizzare questa visione, le organizzazioni militari dovranno affrontare riorganizzazioni radicali, con l’emergere di nuove carriere, competenze diverse, e un cambiamento nel concetto di comando e controllo.

Per affrontare queste sfide strategiche, sarà fondamentale valutare con attenzione i meriti e i limiti delle nuove tecnologie, evitando di seguire una strada illusoria verso una guerra completamente abilitata dall’IA.

Traduzione dall'Inglese con AI.

Commentaires


Attualità...
Cerca per etichetta...
Seguici su...
  • Facebook Basic Black
  • Twitter Basic Black
Archivio
bottom of page