Intelligenza artificiale e Relazioni Internazionali: alleanza o minaccia globale?
L’Intelligenza Artificiale (IA) sta ridefinendo le dinamiche delle relazioni internazionali, offrendo nuove opportunità ma anche sollevando sfide significative in ambito militare, spionaggio e diplomazia digitale.
IA in ambito militare: un nuovo capitolo nella guerra
L’uso dell’IA nelle operazioni militari sta crescendo rapidamente. Nel 2024, l’Ucraina ha acquisito quasi 2 milioni di droni, di cui 10.000 equipaggiati con IA, utilizzati per navigare, identificare obiettivi e operare anche in caso di interruzione delle comunicazioni tradizionali.
Nonostante nessun drone sia del tutto autonomo e sia necessaria la supervisione umana per approvare le azioni, l’uso di IA in ambito militare solleva preoccupazioni etiche e operative.
Al livello internazionale, la questione delle armi autonome alimentate dall’intelligenza artificiale è ormai da tempo oggetto di dibattito. Le Nazioni Unite hanno più volte sottolineato l’urgenza di una regolamentazione chiara e condivisa ma, nonostante le discussioni avviate già nel 2014 nell’ambito della Convenzione sulle Armi Convenzionali (CCW), i progressi restano lenti e frammentari. Nel maggio 2025, i Paesi membri si sono nuovamente riuniti presso le Nazioni Unite per affrontare la questione, tuttavia l’assenza di un opinione condivisa tra potenze chiave come Stati Uniti, Russia, Cina e India continua a rallentare il processo, alimentando le preoccupazioni delle organizzazioni per i diritti umani e degli esperti di controllo degli armamenti. Senza standard vincolanti, il rischio è che lo sviluppo di queste tecnologie superi la capacità della politica internazionale di gestirle in modo etico e sicuro.
Come cambierebbe la guerra se fosse condotta con l’Intelligenza Artificiale
Il termine Hyperwar descrive un nuovo e inquietante scenario di guerra, in cui le decisioni strategiche e operative vengono prese quasi interamente da sistemi automatizzati, con un intervento umano minimo o addirittura nullo. In un contesto del genere, l’intelligenza artificiale potrebbe coordinare milioni di operazioni simultaneamente, trasformando radicalmente la velocità e la portata del conflitto.
Immaginate un campo di battaglia in cui algoritmi decidono in pochi millesimi di secondo chi colpire, dove e come, senza attendere il giudizio umano; da un lato, questa capacità potrebbe garantire una rapidità d’azione impensabile per la mente umana, dall’altro, però, porta con sé il rischio concreto di perdere il controllo su processi potenzialmente letali con il pericolo di escalation incontrollate e danni irreparabili.
La riflessione non riguarda solo l’efficacia militare, ma tocca il cuore dell’etica: possiamo davvero delegare alle macchine scelte che coinvolgono la vita e la morte? E cosa accade quando un errore di calcolo scatena una reazione fuori dal nostro controllo?
Il concetto di hyperwar non appartiene più solo alla fantascienza ma si affaccia con forza nel dibattito contemporaneo su guerra, tecnologia e responsabilità.
Guerra e Intelligenza Artificiale: che fine faranno i soldati?
Immaginare un conflitto in cui i soldati vengano sostituiti da robot armati e intelligenti non è più fantascienza, l’evoluzione dell’intelligenza artificiale e della robotica sta rapidamente ridisegnando i confini tra tecnologia e guerra, ponendo domande urgenti sul futuro dei conflitti armati, sul ruolo dei militari e sulla natura stessa della sicurezza globale.
Secondo alcuni, l’impiego massiccio di robot nelle guerre del futuro potrebbe salvare vite umane, riducendo l’esposizione dei soldati a situazioni di estremo pericolo e aumentando la rapidità e la precisione degli interventi. Mentre altri si chiedono, se la guerra viene delegata a macchine capaci di uccidere, chi si assume la responsabilità morale e legale delle loro azioni?
Il nuovo ruolo dei militari
In questo nuovo contesto, che ruolo avranno i militari? Non scompariranno, ma saranno costretti a reinventarsi. Il soldato del futuro sarà probabilmente un tecnico, un analista, un esperto di sicurezza informatica, chiamato a gestire robot e difendere i confini nazionali non solo con le armi ma anche con codici e algoritmi. Inoltre, c’è chi evidenzia la possibilità che le guerre diventino più “facili” da combattere e quindi più frequenti, per l’assenza di costi diretti in vite umane.
Contemporaneamente si sta facendo largo un secondo tipo di “nuova” guerra: quella completamente digitale. Già oggi, gli attacchi informatici sono utilizzati per colpire infrastrutture critiche, sistemi di comunicazione, ospedali e reti elettriche. Si tratta di un conflitto silenzioso, senza bombe né fucili ma in grado di paralizzare un’intera nazione. In alcuni casi, un attacco cyber può essere più efficace di una battaglia sul campo.
Anche in questo caso, uno dei vantaggi è di sicuro che un conflitto digitale può evitare lo spargimento diretto di sangue e colpire bersagli strategici in modo preciso. Ma le vulnerabilità sono altrettanto chiare: è difficile attribuire un attacco informatico con certezza, e questo complica enormemente le risposte politiche e diplomatiche. Inoltre, i danni di una guerra cibernetica ricadono quasi sempre sulla popolazione civile, rendendo questa forma di guerra ancora più insidiosa.
Spionaggio e deepfake: sorveglianza e manipolazione.
L’intelligenza artificiale sta anche cambiando il volto dello spionaggio moderno. In un mondo dove l’informazione è potere, la capacità di raccogliere, manipolare e diffondere dati grazie all’IA rappresenta una nuova frontiera ricca di potenzialità ma anche di pericoli.
Un recente rapporto di Gladstone AI ha acceso i riflettori su una questione particolarmente preoccupante: i data center statunitensi, cuore pulsante dell’infrastruttura digitale del Paese, sarebbero altamente esposti al rischio di spionaggio da parte della Cina. In un clima di crescente tensione tra le due superpotenze la sicurezza nazionale degli Stati Uniti appare sempre più fragile. La possibilità che informazioni sensibili possano finire nelle mani sbagliate non è più uno scenario da film ma una minaccia concreta e attuale.
Accanto allo spionaggio, un altro fronte critico è quello della disinformazione alimentata dalle tecnologie di deepfake. Nuovi strumenti capaci di generare immagini e video falsi ma straordinariamente realistici, stanno aprendo nuovi spazi alla manipolazione dell’opinione pubblica. Un esempio emblematico è quello di Olga Loiek, una popolare YouTuber ucraina il cui volto è stato digitalmente clonato per creare video falsi, diffusi con l’intento di veicolare propaganda filorussa. Un attacco non solo alla verità ma anche all’identità personale e alla fiducia collettiva nei contenuti online.
In questo contesto complesso, emerge una domanda urgente: siamo davvero pronti ad affrontare le implicazioni etiche, politiche e sociali di un’intelligenza artificiale capace di manipolare la realtà stessa?
Diplomazia digitale
L’intelligenza artificiale sta aprendo nuove strade anche nel campo della diplomazia, offrendo strumenti sempre più sofisticati al servizio delle relazioni internazionali. Traduzioni automatiche in tempo reale, analisi predittive dei dati e simulazioni di scenari geopolitici sono solo alcune delle applicazioni che stanno trasformando il modo in cui gli Stati comunicano, negoziano e reagiscono agli eventi globali.
Un esempio concreto arriva dal Dipartimento di Stato degli Stati Uniti, che ha sviluppato CrisisMapper, una piattaforma alimentata da IA in grado di analizzare i dati provenienti dai social media per rilevare in tempo reale le reazioni pubbliche durante crisi internazionali o eventi diplomatici delicati. Grazie a strumenti come questo, le autorità possono intervenire in modo più informato e tempestivo adattando le loro strategie comunicative alle reazioni e alle percezioni della popolazione.
Tuttavia, accanto a queste potenzialità, emergono anche importanti interrogativi. L’uso di agenti IA per simulare la voce o l’identità di leader politici o diplomatici solleva seri dubbi sulla trasparenza e sull’autenticità delle comunicazioni ufficiali. In un mondo già segnato dalla disinformazione e dalle fake news, la possibilità che dichiarazioni apparentemente autorevoli siano generate da un algoritmo rischia di minare la fiducia tra governi e cittadini.
Implicazioni etiche
L’introduzione dell’intelligenza artificiale nel contesto bellico apre una delle questioni etiche più urgenti e delicate del nostro tempo. Affidare a sistemi automatizzati il potere di prendere decisioni significa riscrivere, in modo profondo e potenzialmente irreversibile, il rapporto tra guerra, responsabilità e coscienza umana.
Chi è responsabile di un attacco errato? Il programmatore che ha scritto il codice? Il comandante che ha dato l’input iniziale? O nessuno, perché tutto è stato delegato a una macchina? Questo vuoto etico e giuridico mina alla base i principi del diritto internazionale umanitario, fondato sull’idea che ogni azione in guerra deve essere valutata da una coscienza umana capace di discernere e di provare empatia.
La filosofia morale ha lungamente dibattuto sul concetto di responsabilità. Emmanuel Levinas, ad esempio, ci ricorda che l’etica nasce proprio dall’incontro con il volto dell’altro, un volto che ci interpella e ci costringe a rispondere. In un contesto automatizzato, questo incontro si perde e con esso si perde anche la possibilità di assumersi pienamente la responsabilità delle conseguenze.
Il processo decisionale umano, per quanto imperfetto, è profondamente radicato nell’emotività, nell’intuizione e nell’esperienza. Ridurre la complessità della guerra a un calcolo algoritmico rischia di spezzare il fragile equilibrio tra razionalità e umanità. Come osservava Viktor Frankl, psichiatra e filosofo sopravvissuto ai campi di concentramento, “la libertà di scelta è ciò che rende l’uomo veramente umano, anche nel dolore e nella tragedia.” Ma una macchina non sceglie, esegue.
Infine, c’è il tempo o meglio la sua assenza. L’automazione estrema accelera il ciclo decisionale a tal punto da ridurre lo spazio per la riflessione strategica, la diplomazia e persino il ripensamento.
La regolamentazione internazionale dell’intelligenza artificiale
In questo contesto, è urgente che la riflessione non sia lasciata solo agli ingegneri o ai militari, ma coinvolga filosofi, psicologi, giuristi e cittadini. L’IA può offrire strumenti straordinari, ma non può e non deve sostituire il giudizio morale umano. Se rinunciamo a interrogarci su come e perché usiamo queste tecnologie, rischiamo non solo di perdere il controllo della guerra ma anche di smarrire ciò che ci rende umani.
La regolamentazione internazionale dell’intelligenza artificiale sta finalmente prendendo forma, un passo significativo in questa direzione è rappresentato dalla Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale, adottata nel settembre 2024. Questo trattato, il primo legalmente vincolante a livello mondiale in materia di IA, è stato firmato da oltre 50 Paesi inclusi Stati Uniti, Regno Unito e Unione Europea. La Convenzione mira a garantire che lo sviluppo e l’uso dell’IA siano allineati con i diritti umani fondamentali, i valori democratici e lo stato di diritto, affrontando rischi come la disinformazione e le minacce alle istituzioni pubbliche.
Parallelamente, l’Unione Europea ha introdotto l’AI Act, entrato in vigore il 2 agosto 2024, che rappresenta la prima legislazione completa sull’IA a livello globale. Questo regolamento adotta un approccio basato sul rischio classificando le applicazioni dell’IA in diverse categorie per garantire che le tecnologie più pericolose siano soggette a controlli più rigorosi.
Tuttavia, non tutti i Paesi condividono la stessa visione: negli Stati Uniti si predilige un approccio più leggero con l’intento di promuovere l’innovazione. Questa divergenza di approcci evidenzia la necessità di una maggiore armonizzazione a livello globale per evitare frammentazioni che potrebbero ostacolare sia la protezione dei diritti sia lo sviluppo tecnologico.
In definitiva, la regolamentazione dell’IA non è solo una questione tecnica o giuridica, ma un imperativo etico.
Federica Cascio per Questione Civile
Sitografia
www.masterdirittiumanisapienza.it, Approfondimento 6/2024, Convenzione quadro del Consiglio D’Europa sull’ “Intelligenza artificiale e i diritti umani, la democrazia e lo stato di diritto”.
www.commission.europa.eu, AI Act enters into force.
www.reuters.com, Alessandro Diviggiano, In China, AI transformed Ukrainian YouTuber into a Russian
www.foxnews.com
www.cybersecurity360.it, Vulnerabilità dei data center di AI: anche Stargate a rischio di spionaggio cinese
www.coe.int, Sala stampa, Il Montenegro firma la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale
www.dirittobancario.it, La Convenzione IA del Consiglio d’Europa firmata dalla Commissione UE
www.biodiritto.org, Unione Europea – Regolamento sull’Intelligenza Artificiale (AI Act)
www.assolombarda.it, AI Act: al via le prime disposizioni UE sull’intelligenza artificiale
www.forumpa.it