Schiacciato, non per caso, dal rumore di fondo di argomenti minori, il tema dell'applicazione in campo militare dell'IA resta confinato nel girone dei ricercatori e delle industrie high-tech che li finanziano. Con gravi rischi per il futuro prossimo dell'umanità
Ora che a novembre, si spera non tardi e male, iniziano le trattative per fermare almeno temporaneamente la disastrosa guerra in Ucraina e che finisce la grande messa elettorale americana, bisogna cominciare ad aprire i canali per negoziare un trattato sugli usi militari dell’intelligenza artificiale (IA). Con chi? Ma ovviamente con gli “autoritari” Cina e Russia, tanto per cominciare. Per tre motivi: primo, i due paesi hanno espresso nella loro dichiarazione congiunta (04/02/2022) la loro intenzione di rafforzare il dialogo ed i contatti sull’intelligenza artificiale e di approfondire la collaborazione nel campo della sicurezza informatica internazionale e di contribuire alla costruzione di una ambiente ICT (Information Communication Technology) aperto, sicuro, sostenibile ed accessibile.
È francamente inutile avanzare dubbi preventivi sulla buona fede dei due paesi, inclusi quelli che derivano dalla guerra in corso, non perché esse non siano controparti temibili, ma perché i trattati di disarmo e controllo degli armamenti si fanno regolarmente con gli avversari o potenziali avversari. Inoltre questo è un affare di rilevanza globale, che interessa il futuro di 8 miliardi di persone, inclusi gli attuali belligeranti.
Il secondo motivo risale agli albori della corsa agli armamenti nucleari. Molto saggiamente l’Assemblea Generale delle Nazioni Unite creò un’apposita commissione per eliminare tutte le armi nucleari meno di un anno dopo gli orrori di Hiroshima e Nagasaki (1946) e, nello stesso anno con uguale saggezza, gli USA presentarono il piano Baruch per lo smantellamento unilaterale del piccolo arsenale statunitense (12 testate) ed il controllo internazionale dell’energia atomica. I sovietici non si fidarono, si astennero dal piano, ed il loro ministro degli Esteri, Andrey Gromyko (il celebre Mr Niet, di cui Serghei Lavrov è la versione più user friendly) fece una controproposta nel 1947, che fu bocciata da un Consiglio di Sicurezza a maggioranza occidentale. Alcuni negoziatori occidentali 38 anni dopo ebbero il dubbio che non si fosse persa un’occasione unica, se non di abolire tutte le armi nucleari (nel 1948 ci sarebbe stato il blocco sovietico di Berlino Ovest), almeno di limitare gli arsenali a poche bombe e non di arrivare a 10.000 testate circa per parte nel parossismo dell’accumulo nucleare. Come vedremo tra poco, le conseguenze dell’IA in campo militare sono assai problematiche.
L’ultima ragione è legata alla natura dello sviluppo dell’IA. Non solo questi algoritmi funzionano secondo logiche che al momento risultano non ricostruibili, spiegabili e tracciabili (come se un’areo volasse senza che sapessimo come funziona il motore al suo interno), ma la ricerca avviene largamente fuori da un reale controllo governativo. Parafrasando un duro statista francese come Clemenceau: “L’IA! È una cosa troppo rischiosa per lasciarla nelle mani degl’imprenditori”. Ai soliti zeloti del libero mercato andrebbe ricordato come la stessa Silicon Valley ammetta che la competizione economica rischi di favorire l’innovazione a scapito della sicurezza, tanto è vero che 1.000 specialisti hanno chiesto una moratoria per evitare lo sviluppo di “menti digitali che nessuno – nemmeno i loro creatori – può capire, prevedere o controllare in modo affidabile” (marzo 2023). Dopo un anno non è successo niente, con buona pace delle iniziative autonome non vincolanti.
Anche a livello internazionale, finora siamo ancora alle dichiarazioni d’intenti e principi: Global AI Governance Initiative cinese; Hiroshima Code of Conduct, G7; Bletchely Park Declaration, AI Safety Summit; rapporto Governing AI for Humanity, UN HLAB, tutte iniziative del 2023, ma spesso anticipate da lavori di UNESCO ed OCSE due anni prima.
Ci sono anche delle prime riflessioni su come potrebbe configurarsi un regime internazionale di controllo dell’IA, tra cui spicca un paper (21/03/2024) del Carnegie Endowment for International Peace di Emma Klein (assistente speciale del Presidente) e Stewart Patrick (direttore del programma Ordine ed Istituzioni Globali). In esso si prefigura, dopo aver analizzato precedenti modelli e campi d’applicazione, un regime di controllo complesso, basato sull’interazione di diverse agenzie ed attori, simile a quello che si usa per un problema altrettanto vasto quanto il cambiamento climatico.
Qui però quello che si propone non è un gollista “vaste programme”, ma un trattato inizialmente bilaterale (Stati Uniti, Cina), apribile in tempi ragionevoli ad altre potenze nucleari riconosciute (ed anche potenzialmente a quelle non riconosciute), concentrato sugli usi dell’IA nella dissuasione nucleare, perché la corsa alle capacità AI è già lanciata e bisogna accordarsi prima che una parte immagini di avere una supremazia consistente.
La deterrenza nucleare, che troppi danno per scontata, si è gradualmente erosa dagli anni ’80 in poi per: lo sviluppo di armi antimissile, la graduale perdita dell’invisibilità strategica dei sottomarini lanciamissili nucleari, la creazione di missili nucleari ipersonici manovrabili, l’avvento probabile di radar a tecnologia quantica ed altre capacità che non esistevano durante la Guerra Fredda.
Questo ha portato alcuni pensatori nucleari americani ad immaginare un nuovo sistema di allerta precoce e d’aiuto alla decisione presidenziale, basato sull’IA, il quale, in caso d’attacco nucleare, è capace di offrire al decisore menù di decisioni preconfezionate in base all’attacco individuato. In casi estremi, potrebbe reagire anche se il presidente fosse morto od incapace di comunicare, rafforzando la deterrenza con la ragionevole certezza di una rappresaglia in caso di riuscito attacco nemico a sorpresa.
Somiglia tanto alla “Macchina Fine del Mondo” del dottor Stranamore…
I negoziati per un simile trattato dovrebbero, in linea di principio, assicurare la parità d’efficacia nei sistemi d’allerta precoce per entrambe e poi tutte le controparti (aumentando così le probabilità di sopravvivenza dei vettori), l’inviolabilità dei sistemi informatici associati al deterrente nazionale, l’integrità e la maggiore affidabilità della catena di comando e dei canali di comunicazione tra le controparti. In altri termini, l’IA diventerebbe un fattore per rendere altamente improbabile un attacco strategico preventivo nucleare di ciascuno contro altre potenze nucleari.
Se la lungimiranza e la saggezza prevarranno sulle follie guerrafondaie e prevaricatrici così moda al momento, pochi paesi avranno il merito ed il vantaggio d’aver eliminato o minimizzato uno dei fattori rischio che potrebbero portare all’estinzione del homo sapiens. “Seguendo questa traiettoria, siamo molto probabilmente avviati a creare sistemi abbastanza potenti che possono o diventare armi con effetti catastrofici o sfuggire al controllo”, conclude il rapporto “Defense in depth” della Gladston AI per il Dipartimento di Stato (26/02/2024).
Non c’è tempo da perdere, bisogna cominciare a negoziare, qui ed ora.