Italiano
Margherita Furlan
February 16, 2026
© Photo: Public domain

Al terzo summit REAIM, solo 35 Paesi su 85 firmano la dichiarazione sull’uso responsabile dell’IA in ambito bellico. Washington e Pechino rifiutano: troppo rischioso limitarsi mentre la corsa tecnologica accelera. L’Europa resta sola a cercare regole per armi che ancora non sappiamo controllare.

Segue nostro Telegram.

Il fatto

Il 4 e 5 febbraio 2026, ad A Coruña, in Spagna, circa un terzo dei Paesi partecipanti al terzo vertice REAIM (Responsible Artificial Intelligence in the Military Domain) ha sottoscritto una dichiarazione congiunta sulla governance dell’Intelligenza Artificiale in ambito militare. Ma le due maggiori potenze militari del pianeta — Stati Uniti e Cina — hanno rifiutato di aderire.

Solo 35 nazioni su 85 presenti hanno firmato l’impegno su 20 principi relativi all’uso militare dell’IA , un numero che segna un drastico arretramento rispetto al precedente vertice di Seul del settembre 2024, dove circa 60 Paesi avevano sottoscritto principi analoghi. Il trend è chiaro e preoccupante: man mano che l’Intelligenza Artificiale diventa più potente e più integrata negli apparati militari, i Paesi che più la sviluppano diventano meno disponibili a regolamentarla.

Il dato va letto nella sua portata storica. Il processo REAIM era nato con un primo vertice all’Aia nel febbraio 2023, seguito dal summit di Seul nel settembre 2024.  In entrambe le occasioni, i documenti finali avevano goduto di un consenso internazionale più ampio. Il terzo vertice, ospitato dalla Spagna, avrebbe dovuto rappresentare il passaggio dalla teoria alla pratica — dalla definizione dei principi alla loro attuazione concreta. È accaduto l’opposto: il consenso si è ristretto proprio nel momento in cui serviva allargarsi.

Cosa prevedeva la dichiarazione

Il documento affrontava questioni cruciali di governance dell’IA militare: la responsabilità umana sui sistemi d’arma dotati di Intelligenza Artificiale, la definizione di chiare catene di comando e controllo, e la condivisione di informazioni sui meccanismi nazionali di supervisione delle applicazioni militari dell’IA.

Il documento finale del vertice 2026, intitolato “Pathways for Action”, era stato progettato per concentrarsi sull’implementazione dei principi legali e politici già concordati, piuttosto che sulla creazione di nuovi quadri normativi.  In sostanza, si chiedeva ai Paesi di passare dalle parole ai fatti — di tradurre le belle dichiarazioni di principio in procedure operative concrete. Una richiesta evidentemente troppo impegnativa per chi sta investendo miliardi nello sviluppo di sistemi d’arma autonomi.

Il cambio di rotta americano: da promotori a dissidenti

Il dato politicamente più significativo del vertice è il voltafaccia di Washington. Gli Stati Uniti avevano sottoscritto il Blueprint for Action di Seul nel 2024, ma hanno rifiutato di firmare la dichiarazione del 2026. Un cambiamento di politica netto, che riflette il diverso orientamento dell’attuale amministrazione.

Il vicepresidente J.D. Vance ha rappresentato gli Stati Uniti al vertice, motivando il rifiuto con il timore che una regolamentazione eccessiva possa soffocare l’innovazione e indebolire la sicurezza nazionale.  La logica è esplicita: qualsiasi vincolo internazionale sull’IA militare rischia di rallentare la macchina tecnologica americana proprio mentre la competizione con la Cina si fa più serrata.

A differenza dei vertici precedenti, gli Stati Uniti non hanno nemmeno guidato attivamente le discussioni al REAIM 2026, nonostante fossero stati tra i fondatori dell’iniziativa sotto l’amministrazione Biden.  Un disimpegno che diversi osservatori hanno interpretato come un segnale sulla reale volontà americana di contribuire a standard internazionali in materia. L’America che aveva lanciato il processo REAIM è la stessa America che ora se ne chiama fuori — un paradosso che racconta molto sull’evoluzione della politica estera di Washington.

Il messaggio sottinteso è chiaro: nell’era della competizione tra grandi potenze, le regole condivise sono un lusso che la prima potenza militare del mondo non intende più permettersi. L’IA è considerata il moltiplicatore di forza definitivo, e qualsiasi limite multilaterale viene percepito come un’autolimitazione strategica inaccettabile.

La Cina: presente ma mai firmataria

Pechino ha partecipato a tutti i vertici REAIM senza mai sottoscrivere le dichiarazioni finali. Gli analisti suggeriscono che la Cina sia riluttante ad assumere impegni specifici che potrebbero vincolarla o limitare il suo sviluppo dell’IA militare mentre compete con gli Stati Uniti.

La posizione cinese è strategicamente coerente, anche se politicamente ambigua. Pechino preferisce promuovere la propria “Iniziativa Globale per la Governance dell’IA” come quadro di riferimento alternativo , un approccio che le permette di presentarsi come attore responsabile sulla scena internazionale senza per questo accettare vincoli definiti da altri.

Già al vertice di Seul, la Cina si era astenuta principalmente a causa del linguaggio sulla necessità di mantenere il coinvolgimento umano nelle decisioni relative all’impiego di armi nucleari.  Un punto rivelatore: Pechino non vuole che nessun documento internazionale interferisca con la propria dottrina nucleare o con le proprie scelte sull’integrazione dell’IA nei sistemi di comando e controllo strategici.

Questo ci porta al cuore del problema. Se le due potenze che più investono nell’IA militare — e che più si confrontano strategicamente sull’Indo-Pacifico, su Taiwan, sullo spazio e nel cyberspazio — rifiutano entrambe di accettare regole comuni, il rischio di un vuoto normativo globale diventa concreto e pericoloso.

Il “dilemma del prigioniero”: la trappola della corsa tecnologica

Il ministro della Difesa olandese Ruben Brekelmans ha descritto con lucidità la situazione come un “dilemma del prigioniero”: i governi sono intrappolati tra l’esigenza di porre limiti responsabili all’IA militare e il timore di autolimitarsi rispetto agli avversari.

Le parole di Brekelmans meritano di essere lette con attenzione: “Russia e Cina si muovono molto velocemente. Questo crea urgenza nello sviluppare l’IA. Ma la stessa velocità aumenta l’urgenza di lavorare sul suo uso responsabile. Le due cose vanno di pari passo.”

La metafora del dilemma del prigioniero è particolarmente calzante. Nella teoria dei giochi, il dilemma del prigioniero descrive una situazione in cui due attori razionali, agendo nel proprio interesse individuale, producono un risultato peggiore per entrambi rispetto a quello che otterrebbero cooperando. Applicato all’IA militare, il concetto è inquietante: ogni potenza sa che sarebbe nell’interesse di tutti stabilire regole condivise, ma nessuna vuole essere la prima a limitarsi per paura che l’altra ne approfitti.

Il risultato è una corsa al ribasso normativo dove tutti corrono e nessuno frena, in un campo — quello delle armi autonome e dei sistemi decisionali militari basati sull’IA — dove gli errori possono avere conseguenze catastrofiche e irreversibili.

Le tensioni transatlantiche sullo sfondo

Le tensioni nelle relazioni tra Stati Uniti e alleati europei, unite all’incertezza sul futuro dei rapporti transatlantici, hanno reso diversi Paesi riluttanti a firmare accordi congiunti.

Questo elemento contestuale è fondamentale per comprendere il risultato del vertice. Il rifiuto americano non avviene nel vuoto: si inserisce in un quadro più ampio di ridefinizione dei rapporti tra Washington e i partner europei. L’attuale amministrazione americana ha più volte mostrato scetticismo verso gli approcci multilaterali alla governance tecnologica, preferendo accordi bilaterali o iniziative unilaterali che preservino la massima libertà d’azione.

Per l’Europa, il dilemma è particolarmente acuto. I Paesi europei che hanno firmato la dichiarazione di A Coruña si ritrovano con regole che vincolano solo loro, mentre i loro principali alleati (gli USA) e i loro principali competitori strategici (Cina e Russia) restano liberi di sviluppare e dispiegare sistemi d’IA militare senza alcun vincolo internazionale concordato. È una posizione nobile ma strategicamente scomoda.

I rischi concreti: perché servono regole

La preoccupazione condivisa da molti governi è che i progressi rapidissimi dell’Intelligenza Artificiale possano superare le regole del suo impiego militare, aumentando il rischio di incidenti, errori di calcolo o escalation non intenzionali.

Non si tratta di scenari di fantascienza. I sistemi d’arma dotati di IA sono già operativi in diversi teatri di conflitto. Droni autonomi, sistemi di sorveglianza intelligenti, algoritmi per la selezione degli obiettivi — tutto questo esiste già e viene utilizzato. La questione non è se l’IA verrà impiegata in guerra, ma in quali condizioni, con quali limiti e sotto quale supervisione umana.

Il rischio più insidioso non è quello di un’IA che “decide” autonomamente di lanciare un attacco — scenario ancora lontano dalla realtà operativa — ma quello di sistemi che operano troppo velocemente perché un essere umano possa effettivamente supervisionarli, che producono errori di identificazione o valutazione in contesti ad alta pressione, o che interagiscono tra loro in modi imprevisti, generando escalation non volute da nessuna delle parti.

Senza regole condivise su come testare, verificare e controllare questi sistemi, ogni Paese procede per conto proprio, con standard diversi e livelli di trasparenza variabili. È esattamente lo scenario che il processo REAIM cercava di evitare.

Cosa succede adesso

Il percorso REAIM si affianca alle iniziative formali delle Nazioni Unite sulla questione dell’IA militare. Una risoluzione dell’Assemblea Generale dell’ONU ha previsto una sessione di scambi informali a Ginevra per giugno 2026 , che potrebbe aprire la strada alla creazione di un gruppo di lavoro permanente (Open-Ended Working Group) dedicato al tema.

Il documento di A Coruña resta aperto a ulteriori adesioni da parte dei Paesi che non hanno firmato durante il vertice.  Ma la realtà politica è che senza la partecipazione di Stati Uniti e Cina, qualsiasi quadro normativo sull’IA militare rischia di restare lettera morta — un insieme di buone intenzioni senza capacità vincolante sugli attori che più contano.

Le organizzazioni della società civile, tra cui la coalizione Stop Killer Robots, continuano a chiedere trattati legalmente vincolanti anziché linee guida volontarie per governare i sistemi d’arma autonomi. Ma la distanza tra questa aspirazione e la realtà politica internazionale non è mai sembrata così ampia.

La chiave di lettura

Il vertice di A Coruña fotografa con precisione una delle contraddizioni fondamentali della nostra epoca: la tecnologia che più potrebbe trasformare la natura stessa della guerra — l’Intelligenza Artificiale — avanza senza che la comunità internazionale riesca a concordare regole minime per il suo impiego.

Non è un caso che siano proprio le due superpotenze più impegnate nella competizione strategica globale a rifiutare ogni vincolo. Per Washington e Pechino, l’IA militare non è un tema di governance internazionale: è un terreno di scontro dove il vantaggio tecnologico può determinare gli equilibri di potere dei prossimi decenni.

Il parallelo storico più inquietante è quello con la corsa agli armamenti nucleari, dove le regole — i trattati di non proliferazione, gli accordi sul controllo degli armamenti — sono arrivate solo dopo decenni di confronto e dopo che il mondo si era affacciato sull’abisso della distruzione reciproca. La domanda è se con l’IA militare possiamo permetterci lo stesso percorso, o se la velocità dello sviluppo tecnologico non richieda una risposta normativa altrettanto rapida.

Il dilemma del prigioniero, per ora, resta senza soluzione. E il campo di battaglia del futuro si avvicina senza un codice della strada.

Intelligenza artificiale e guerra: USA e Cina dicono no alle regole

Al terzo summit REAIM, solo 35 Paesi su 85 firmano la dichiarazione sull’uso responsabile dell’IA in ambito bellico. Washington e Pechino rifiutano: troppo rischioso limitarsi mentre la corsa tecnologica accelera. L’Europa resta sola a cercare regole per armi che ancora non sappiamo controllare.

Segue nostro Telegram.

Il fatto

Il 4 e 5 febbraio 2026, ad A Coruña, in Spagna, circa un terzo dei Paesi partecipanti al terzo vertice REAIM (Responsible Artificial Intelligence in the Military Domain) ha sottoscritto una dichiarazione congiunta sulla governance dell’Intelligenza Artificiale in ambito militare. Ma le due maggiori potenze militari del pianeta — Stati Uniti e Cina — hanno rifiutato di aderire.

Solo 35 nazioni su 85 presenti hanno firmato l’impegno su 20 principi relativi all’uso militare dell’IA , un numero che segna un drastico arretramento rispetto al precedente vertice di Seul del settembre 2024, dove circa 60 Paesi avevano sottoscritto principi analoghi. Il trend è chiaro e preoccupante: man mano che l’Intelligenza Artificiale diventa più potente e più integrata negli apparati militari, i Paesi che più la sviluppano diventano meno disponibili a regolamentarla.

Il dato va letto nella sua portata storica. Il processo REAIM era nato con un primo vertice all’Aia nel febbraio 2023, seguito dal summit di Seul nel settembre 2024.  In entrambe le occasioni, i documenti finali avevano goduto di un consenso internazionale più ampio. Il terzo vertice, ospitato dalla Spagna, avrebbe dovuto rappresentare il passaggio dalla teoria alla pratica — dalla definizione dei principi alla loro attuazione concreta. È accaduto l’opposto: il consenso si è ristretto proprio nel momento in cui serviva allargarsi.

Cosa prevedeva la dichiarazione

Il documento affrontava questioni cruciali di governance dell’IA militare: la responsabilità umana sui sistemi d’arma dotati di Intelligenza Artificiale, la definizione di chiare catene di comando e controllo, e la condivisione di informazioni sui meccanismi nazionali di supervisione delle applicazioni militari dell’IA.

Il documento finale del vertice 2026, intitolato “Pathways for Action”, era stato progettato per concentrarsi sull’implementazione dei principi legali e politici già concordati, piuttosto che sulla creazione di nuovi quadri normativi.  In sostanza, si chiedeva ai Paesi di passare dalle parole ai fatti — di tradurre le belle dichiarazioni di principio in procedure operative concrete. Una richiesta evidentemente troppo impegnativa per chi sta investendo miliardi nello sviluppo di sistemi d’arma autonomi.

Il cambio di rotta americano: da promotori a dissidenti

Il dato politicamente più significativo del vertice è il voltafaccia di Washington. Gli Stati Uniti avevano sottoscritto il Blueprint for Action di Seul nel 2024, ma hanno rifiutato di firmare la dichiarazione del 2026. Un cambiamento di politica netto, che riflette il diverso orientamento dell’attuale amministrazione.

Il vicepresidente J.D. Vance ha rappresentato gli Stati Uniti al vertice, motivando il rifiuto con il timore che una regolamentazione eccessiva possa soffocare l’innovazione e indebolire la sicurezza nazionale.  La logica è esplicita: qualsiasi vincolo internazionale sull’IA militare rischia di rallentare la macchina tecnologica americana proprio mentre la competizione con la Cina si fa più serrata.

A differenza dei vertici precedenti, gli Stati Uniti non hanno nemmeno guidato attivamente le discussioni al REAIM 2026, nonostante fossero stati tra i fondatori dell’iniziativa sotto l’amministrazione Biden.  Un disimpegno che diversi osservatori hanno interpretato come un segnale sulla reale volontà americana di contribuire a standard internazionali in materia. L’America che aveva lanciato il processo REAIM è la stessa America che ora se ne chiama fuori — un paradosso che racconta molto sull’evoluzione della politica estera di Washington.

Il messaggio sottinteso è chiaro: nell’era della competizione tra grandi potenze, le regole condivise sono un lusso che la prima potenza militare del mondo non intende più permettersi. L’IA è considerata il moltiplicatore di forza definitivo, e qualsiasi limite multilaterale viene percepito come un’autolimitazione strategica inaccettabile.

La Cina: presente ma mai firmataria

Pechino ha partecipato a tutti i vertici REAIM senza mai sottoscrivere le dichiarazioni finali. Gli analisti suggeriscono che la Cina sia riluttante ad assumere impegni specifici che potrebbero vincolarla o limitare il suo sviluppo dell’IA militare mentre compete con gli Stati Uniti.

La posizione cinese è strategicamente coerente, anche se politicamente ambigua. Pechino preferisce promuovere la propria “Iniziativa Globale per la Governance dell’IA” come quadro di riferimento alternativo , un approccio che le permette di presentarsi come attore responsabile sulla scena internazionale senza per questo accettare vincoli definiti da altri.

Già al vertice di Seul, la Cina si era astenuta principalmente a causa del linguaggio sulla necessità di mantenere il coinvolgimento umano nelle decisioni relative all’impiego di armi nucleari.  Un punto rivelatore: Pechino non vuole che nessun documento internazionale interferisca con la propria dottrina nucleare o con le proprie scelte sull’integrazione dell’IA nei sistemi di comando e controllo strategici.

Questo ci porta al cuore del problema. Se le due potenze che più investono nell’IA militare — e che più si confrontano strategicamente sull’Indo-Pacifico, su Taiwan, sullo spazio e nel cyberspazio — rifiutano entrambe di accettare regole comuni, il rischio di un vuoto normativo globale diventa concreto e pericoloso.

Il “dilemma del prigioniero”: la trappola della corsa tecnologica

Il ministro della Difesa olandese Ruben Brekelmans ha descritto con lucidità la situazione come un “dilemma del prigioniero”: i governi sono intrappolati tra l’esigenza di porre limiti responsabili all’IA militare e il timore di autolimitarsi rispetto agli avversari.

Le parole di Brekelmans meritano di essere lette con attenzione: “Russia e Cina si muovono molto velocemente. Questo crea urgenza nello sviluppare l’IA. Ma la stessa velocità aumenta l’urgenza di lavorare sul suo uso responsabile. Le due cose vanno di pari passo.”

La metafora del dilemma del prigioniero è particolarmente calzante. Nella teoria dei giochi, il dilemma del prigioniero descrive una situazione in cui due attori razionali, agendo nel proprio interesse individuale, producono un risultato peggiore per entrambi rispetto a quello che otterrebbero cooperando. Applicato all’IA militare, il concetto è inquietante: ogni potenza sa che sarebbe nell’interesse di tutti stabilire regole condivise, ma nessuna vuole essere la prima a limitarsi per paura che l’altra ne approfitti.

Il risultato è una corsa al ribasso normativo dove tutti corrono e nessuno frena, in un campo — quello delle armi autonome e dei sistemi decisionali militari basati sull’IA — dove gli errori possono avere conseguenze catastrofiche e irreversibili.

Le tensioni transatlantiche sullo sfondo

Le tensioni nelle relazioni tra Stati Uniti e alleati europei, unite all’incertezza sul futuro dei rapporti transatlantici, hanno reso diversi Paesi riluttanti a firmare accordi congiunti.

Questo elemento contestuale è fondamentale per comprendere il risultato del vertice. Il rifiuto americano non avviene nel vuoto: si inserisce in un quadro più ampio di ridefinizione dei rapporti tra Washington e i partner europei. L’attuale amministrazione americana ha più volte mostrato scetticismo verso gli approcci multilaterali alla governance tecnologica, preferendo accordi bilaterali o iniziative unilaterali che preservino la massima libertà d’azione.

Per l’Europa, il dilemma è particolarmente acuto. I Paesi europei che hanno firmato la dichiarazione di A Coruña si ritrovano con regole che vincolano solo loro, mentre i loro principali alleati (gli USA) e i loro principali competitori strategici (Cina e Russia) restano liberi di sviluppare e dispiegare sistemi d’IA militare senza alcun vincolo internazionale concordato. È una posizione nobile ma strategicamente scomoda.

I rischi concreti: perché servono regole

La preoccupazione condivisa da molti governi è che i progressi rapidissimi dell’Intelligenza Artificiale possano superare le regole del suo impiego militare, aumentando il rischio di incidenti, errori di calcolo o escalation non intenzionali.

Non si tratta di scenari di fantascienza. I sistemi d’arma dotati di IA sono già operativi in diversi teatri di conflitto. Droni autonomi, sistemi di sorveglianza intelligenti, algoritmi per la selezione degli obiettivi — tutto questo esiste già e viene utilizzato. La questione non è se l’IA verrà impiegata in guerra, ma in quali condizioni, con quali limiti e sotto quale supervisione umana.

Il rischio più insidioso non è quello di un’IA che “decide” autonomamente di lanciare un attacco — scenario ancora lontano dalla realtà operativa — ma quello di sistemi che operano troppo velocemente perché un essere umano possa effettivamente supervisionarli, che producono errori di identificazione o valutazione in contesti ad alta pressione, o che interagiscono tra loro in modi imprevisti, generando escalation non volute da nessuna delle parti.

Senza regole condivise su come testare, verificare e controllare questi sistemi, ogni Paese procede per conto proprio, con standard diversi e livelli di trasparenza variabili. È esattamente lo scenario che il processo REAIM cercava di evitare.

Cosa succede adesso

Il percorso REAIM si affianca alle iniziative formali delle Nazioni Unite sulla questione dell’IA militare. Una risoluzione dell’Assemblea Generale dell’ONU ha previsto una sessione di scambi informali a Ginevra per giugno 2026 , che potrebbe aprire la strada alla creazione di un gruppo di lavoro permanente (Open-Ended Working Group) dedicato al tema.

Il documento di A Coruña resta aperto a ulteriori adesioni da parte dei Paesi che non hanno firmato durante il vertice.  Ma la realtà politica è che senza la partecipazione di Stati Uniti e Cina, qualsiasi quadro normativo sull’IA militare rischia di restare lettera morta — un insieme di buone intenzioni senza capacità vincolante sugli attori che più contano.

Le organizzazioni della società civile, tra cui la coalizione Stop Killer Robots, continuano a chiedere trattati legalmente vincolanti anziché linee guida volontarie per governare i sistemi d’arma autonomi. Ma la distanza tra questa aspirazione e la realtà politica internazionale non è mai sembrata così ampia.

La chiave di lettura

Il vertice di A Coruña fotografa con precisione una delle contraddizioni fondamentali della nostra epoca: la tecnologia che più potrebbe trasformare la natura stessa della guerra — l’Intelligenza Artificiale — avanza senza che la comunità internazionale riesca a concordare regole minime per il suo impiego.

Non è un caso che siano proprio le due superpotenze più impegnate nella competizione strategica globale a rifiutare ogni vincolo. Per Washington e Pechino, l’IA militare non è un tema di governance internazionale: è un terreno di scontro dove il vantaggio tecnologico può determinare gli equilibri di potere dei prossimi decenni.

Il parallelo storico più inquietante è quello con la corsa agli armamenti nucleari, dove le regole — i trattati di non proliferazione, gli accordi sul controllo degli armamenti — sono arrivate solo dopo decenni di confronto e dopo che il mondo si era affacciato sull’abisso della distruzione reciproca. La domanda è se con l’IA militare possiamo permetterci lo stesso percorso, o se la velocità dello sviluppo tecnologico non richieda una risposta normativa altrettanto rapida.

Il dilemma del prigioniero, per ora, resta senza soluzione. E il campo di battaglia del futuro si avvicina senza un codice della strada.

Al terzo summit REAIM, solo 35 Paesi su 85 firmano la dichiarazione sull’uso responsabile dell’IA in ambito bellico. Washington e Pechino rifiutano: troppo rischioso limitarsi mentre la corsa tecnologica accelera. L’Europa resta sola a cercare regole per armi che ancora non sappiamo controllare.

Segue nostro Telegram.

Il fatto

Il 4 e 5 febbraio 2026, ad A Coruña, in Spagna, circa un terzo dei Paesi partecipanti al terzo vertice REAIM (Responsible Artificial Intelligence in the Military Domain) ha sottoscritto una dichiarazione congiunta sulla governance dell’Intelligenza Artificiale in ambito militare. Ma le due maggiori potenze militari del pianeta — Stati Uniti e Cina — hanno rifiutato di aderire.

Solo 35 nazioni su 85 presenti hanno firmato l’impegno su 20 principi relativi all’uso militare dell’IA , un numero che segna un drastico arretramento rispetto al precedente vertice di Seul del settembre 2024, dove circa 60 Paesi avevano sottoscritto principi analoghi. Il trend è chiaro e preoccupante: man mano che l’Intelligenza Artificiale diventa più potente e più integrata negli apparati militari, i Paesi che più la sviluppano diventano meno disponibili a regolamentarla.

Il dato va letto nella sua portata storica. Il processo REAIM era nato con un primo vertice all’Aia nel febbraio 2023, seguito dal summit di Seul nel settembre 2024.  In entrambe le occasioni, i documenti finali avevano goduto di un consenso internazionale più ampio. Il terzo vertice, ospitato dalla Spagna, avrebbe dovuto rappresentare il passaggio dalla teoria alla pratica — dalla definizione dei principi alla loro attuazione concreta. È accaduto l’opposto: il consenso si è ristretto proprio nel momento in cui serviva allargarsi.

Cosa prevedeva la dichiarazione

Il documento affrontava questioni cruciali di governance dell’IA militare: la responsabilità umana sui sistemi d’arma dotati di Intelligenza Artificiale, la definizione di chiare catene di comando e controllo, e la condivisione di informazioni sui meccanismi nazionali di supervisione delle applicazioni militari dell’IA.

Il documento finale del vertice 2026, intitolato “Pathways for Action”, era stato progettato per concentrarsi sull’implementazione dei principi legali e politici già concordati, piuttosto che sulla creazione di nuovi quadri normativi.  In sostanza, si chiedeva ai Paesi di passare dalle parole ai fatti — di tradurre le belle dichiarazioni di principio in procedure operative concrete. Una richiesta evidentemente troppo impegnativa per chi sta investendo miliardi nello sviluppo di sistemi d’arma autonomi.

Il cambio di rotta americano: da promotori a dissidenti

Il dato politicamente più significativo del vertice è il voltafaccia di Washington. Gli Stati Uniti avevano sottoscritto il Blueprint for Action di Seul nel 2024, ma hanno rifiutato di firmare la dichiarazione del 2026. Un cambiamento di politica netto, che riflette il diverso orientamento dell’attuale amministrazione.

Il vicepresidente J.D. Vance ha rappresentato gli Stati Uniti al vertice, motivando il rifiuto con il timore che una regolamentazione eccessiva possa soffocare l’innovazione e indebolire la sicurezza nazionale.  La logica è esplicita: qualsiasi vincolo internazionale sull’IA militare rischia di rallentare la macchina tecnologica americana proprio mentre la competizione con la Cina si fa più serrata.

A differenza dei vertici precedenti, gli Stati Uniti non hanno nemmeno guidato attivamente le discussioni al REAIM 2026, nonostante fossero stati tra i fondatori dell’iniziativa sotto l’amministrazione Biden.  Un disimpegno che diversi osservatori hanno interpretato come un segnale sulla reale volontà americana di contribuire a standard internazionali in materia. L’America che aveva lanciato il processo REAIM è la stessa America che ora se ne chiama fuori — un paradosso che racconta molto sull’evoluzione della politica estera di Washington.

Il messaggio sottinteso è chiaro: nell’era della competizione tra grandi potenze, le regole condivise sono un lusso che la prima potenza militare del mondo non intende più permettersi. L’IA è considerata il moltiplicatore di forza definitivo, e qualsiasi limite multilaterale viene percepito come un’autolimitazione strategica inaccettabile.

La Cina: presente ma mai firmataria

Pechino ha partecipato a tutti i vertici REAIM senza mai sottoscrivere le dichiarazioni finali. Gli analisti suggeriscono che la Cina sia riluttante ad assumere impegni specifici che potrebbero vincolarla o limitare il suo sviluppo dell’IA militare mentre compete con gli Stati Uniti.

La posizione cinese è strategicamente coerente, anche se politicamente ambigua. Pechino preferisce promuovere la propria “Iniziativa Globale per la Governance dell’IA” come quadro di riferimento alternativo , un approccio che le permette di presentarsi come attore responsabile sulla scena internazionale senza per questo accettare vincoli definiti da altri.

Già al vertice di Seul, la Cina si era astenuta principalmente a causa del linguaggio sulla necessità di mantenere il coinvolgimento umano nelle decisioni relative all’impiego di armi nucleari.  Un punto rivelatore: Pechino non vuole che nessun documento internazionale interferisca con la propria dottrina nucleare o con le proprie scelte sull’integrazione dell’IA nei sistemi di comando e controllo strategici.

Questo ci porta al cuore del problema. Se le due potenze che più investono nell’IA militare — e che più si confrontano strategicamente sull’Indo-Pacifico, su Taiwan, sullo spazio e nel cyberspazio — rifiutano entrambe di accettare regole comuni, il rischio di un vuoto normativo globale diventa concreto e pericoloso.

Il “dilemma del prigioniero”: la trappola della corsa tecnologica

Il ministro della Difesa olandese Ruben Brekelmans ha descritto con lucidità la situazione come un “dilemma del prigioniero”: i governi sono intrappolati tra l’esigenza di porre limiti responsabili all’IA militare e il timore di autolimitarsi rispetto agli avversari.

Le parole di Brekelmans meritano di essere lette con attenzione: “Russia e Cina si muovono molto velocemente. Questo crea urgenza nello sviluppare l’IA. Ma la stessa velocità aumenta l’urgenza di lavorare sul suo uso responsabile. Le due cose vanno di pari passo.”

La metafora del dilemma del prigioniero è particolarmente calzante. Nella teoria dei giochi, il dilemma del prigioniero descrive una situazione in cui due attori razionali, agendo nel proprio interesse individuale, producono un risultato peggiore per entrambi rispetto a quello che otterrebbero cooperando. Applicato all’IA militare, il concetto è inquietante: ogni potenza sa che sarebbe nell’interesse di tutti stabilire regole condivise, ma nessuna vuole essere la prima a limitarsi per paura che l’altra ne approfitti.

Il risultato è una corsa al ribasso normativo dove tutti corrono e nessuno frena, in un campo — quello delle armi autonome e dei sistemi decisionali militari basati sull’IA — dove gli errori possono avere conseguenze catastrofiche e irreversibili.

Le tensioni transatlantiche sullo sfondo

Le tensioni nelle relazioni tra Stati Uniti e alleati europei, unite all’incertezza sul futuro dei rapporti transatlantici, hanno reso diversi Paesi riluttanti a firmare accordi congiunti.

Questo elemento contestuale è fondamentale per comprendere il risultato del vertice. Il rifiuto americano non avviene nel vuoto: si inserisce in un quadro più ampio di ridefinizione dei rapporti tra Washington e i partner europei. L’attuale amministrazione americana ha più volte mostrato scetticismo verso gli approcci multilaterali alla governance tecnologica, preferendo accordi bilaterali o iniziative unilaterali che preservino la massima libertà d’azione.

Per l’Europa, il dilemma è particolarmente acuto. I Paesi europei che hanno firmato la dichiarazione di A Coruña si ritrovano con regole che vincolano solo loro, mentre i loro principali alleati (gli USA) e i loro principali competitori strategici (Cina e Russia) restano liberi di sviluppare e dispiegare sistemi d’IA militare senza alcun vincolo internazionale concordato. È una posizione nobile ma strategicamente scomoda.

I rischi concreti: perché servono regole

La preoccupazione condivisa da molti governi è che i progressi rapidissimi dell’Intelligenza Artificiale possano superare le regole del suo impiego militare, aumentando il rischio di incidenti, errori di calcolo o escalation non intenzionali.

Non si tratta di scenari di fantascienza. I sistemi d’arma dotati di IA sono già operativi in diversi teatri di conflitto. Droni autonomi, sistemi di sorveglianza intelligenti, algoritmi per la selezione degli obiettivi — tutto questo esiste già e viene utilizzato. La questione non è se l’IA verrà impiegata in guerra, ma in quali condizioni, con quali limiti e sotto quale supervisione umana.

Il rischio più insidioso non è quello di un’IA che “decide” autonomamente di lanciare un attacco — scenario ancora lontano dalla realtà operativa — ma quello di sistemi che operano troppo velocemente perché un essere umano possa effettivamente supervisionarli, che producono errori di identificazione o valutazione in contesti ad alta pressione, o che interagiscono tra loro in modi imprevisti, generando escalation non volute da nessuna delle parti.

Senza regole condivise su come testare, verificare e controllare questi sistemi, ogni Paese procede per conto proprio, con standard diversi e livelli di trasparenza variabili. È esattamente lo scenario che il processo REAIM cercava di evitare.

Cosa succede adesso

Il percorso REAIM si affianca alle iniziative formali delle Nazioni Unite sulla questione dell’IA militare. Una risoluzione dell’Assemblea Generale dell’ONU ha previsto una sessione di scambi informali a Ginevra per giugno 2026 , che potrebbe aprire la strada alla creazione di un gruppo di lavoro permanente (Open-Ended Working Group) dedicato al tema.

Il documento di A Coruña resta aperto a ulteriori adesioni da parte dei Paesi che non hanno firmato durante il vertice.  Ma la realtà politica è che senza la partecipazione di Stati Uniti e Cina, qualsiasi quadro normativo sull’IA militare rischia di restare lettera morta — un insieme di buone intenzioni senza capacità vincolante sugli attori che più contano.

Le organizzazioni della società civile, tra cui la coalizione Stop Killer Robots, continuano a chiedere trattati legalmente vincolanti anziché linee guida volontarie per governare i sistemi d’arma autonomi. Ma la distanza tra questa aspirazione e la realtà politica internazionale non è mai sembrata così ampia.

La chiave di lettura

Il vertice di A Coruña fotografa con precisione una delle contraddizioni fondamentali della nostra epoca: la tecnologia che più potrebbe trasformare la natura stessa della guerra — l’Intelligenza Artificiale — avanza senza che la comunità internazionale riesca a concordare regole minime per il suo impiego.

Non è un caso che siano proprio le due superpotenze più impegnate nella competizione strategica globale a rifiutare ogni vincolo. Per Washington e Pechino, l’IA militare non è un tema di governance internazionale: è un terreno di scontro dove il vantaggio tecnologico può determinare gli equilibri di potere dei prossimi decenni.

Il parallelo storico più inquietante è quello con la corsa agli armamenti nucleari, dove le regole — i trattati di non proliferazione, gli accordi sul controllo degli armamenti — sono arrivate solo dopo decenni di confronto e dopo che il mondo si era affacciato sull’abisso della distruzione reciproca. La domanda è se con l’IA militare possiamo permetterci lo stesso percorso, o se la velocità dello sviluppo tecnologico non richieda una risposta normativa altrettanto rapida.

Il dilemma del prigioniero, per ora, resta senza soluzione. E il campo di battaglia del futuro si avvicina senza un codice della strada.

The views of individual contributors do not necessarily represent those of the Strategic Culture Foundation.

See also

January 13, 2026

See also

January 13, 2026
The views of individual contributors do not necessarily represent those of the Strategic Culture Foundation.