L’IA nella guerra contemporanea

In questi giorni mi sono trovato a riflettere sull’utilizzo della AI in vari campi. Nel giornalismo in primis, per quello che significa. Ma soprattutto nella implicazioni più drammatiche, quelle belliche o terroristiche. Ho letto un documento interessante di Ferey e de Roucy-Rochegonde che offre un’analisi comparativa dell’impatto dell’AI nei conflitti ucraino e Gaza.

Quello che dobbiamo chiederci oggi è se l’uomo sarà ancora in grado di tenere il passo della velocità a cui adesso le macchine innescano bersagli e portano a termine obiettivi. Ma mentre facciamo questo dobbiamo renderci conto che in alcuni luoghi del mondo, anche a noi molto familiari, l’AI ha già ucciso. Senza scrupoli o senza mezzi termini. È utile quindi domandarci anche se con l’avvento delle nuove tecnologie – non sto parlando solo di droni – si stia in qualche modo de-responsabilizzando la tecnologia, come qualcuno fece anni fa, definendo intelligenti le bombe che cadevano distanti dai loro obiettivi.

Stiamo costruendo e usando sistemi così complessi che quando commetteranno atrocità, potremo sempre dire “è stato l’algoritmo”. Tutto questo è umano?

Ma di cosa parla il documento in esame? Vediamolo in 10 punti essenziali:

Paragone storico: Come la Guerra Civile Spagnola prefigurò la WWII, Ucraina e Gaza sono il banco di prova per le guerre future dominate dall’IA.

Moltiplicatore di forza: Il Pentagono definisce l’IA un “moltiplicatore di forza” da oltre un decennio, ma ora ne vediamo l’implementazione operativa.

Ucraina – il debole contro il forte: Kyiv compensa l’inferiorità numerica con droni massicci e sistemi AI per targeting, intelligence e guerra elettronica.

Big Tech in campo: Palantir, Microsoft, Google e Starlink hanno trasformato l’Ucraina in un laboratorio AI, con evidenti interessi commerciali (“Testato in Ucraina” come selling point).

Israele – il forte contro il debole: IDF usa sistemi come Lavender, Where’s Daddy? e Depth of Wisdom per mappare Gaza e identificare obiettivi.

Problemi algoritmici: In Gaza, dataset insufficienti hanno portato a targeting errato – attivisti e giornalisti scambiati per Hamas per semplici pattern di comunicazione.

Riduzione controllo umano: Soldati israeliani verificano target suggeriti da AI in soli 20 secondi, nonostante tasso d’errore del 10%.

Nuove vulnerabilità: Cyber-attacchi, avvelenamento algoritmico e “scatole nere” incomprensibili anche ai programmatori.

Gap prometeico: Concetto di Günther Anders – la tecnologia supera la nostra capacità di comprensione e controllo.

Fallimento regolatorio: Il dibattito su “killer robots” è in ritardo rispetto all’implementazione sul campo.

Focalizziamoci un attimo su ciò che disse Anders. Egli riprese il mito di Prometeo, il titano che rubò il fuoco agli dèi per donarlo agli uomini, simbolo dell’invenzione e della tecnica. Tuttavia, nella visione di Anders, l’uomo moderno si sente “vergognoso” e inadeguato di fronte ai propri stessi prodotti tecnologici, che sono diventati più perfetti e potenti di lui. Questa vergogna nasce dal fatto che l’uomo è incapace di controllare pienamente ciò che ha creato, sentendosi inferiore alle macchine e alla tecnologia che dominano il mondo.

Anders chiama questa divisione tra l’uomo e la tecnica “dislivello prometeico”: l’uomo è sempre più distante dai suoi stessi prodotti, che sembrano sfuggirgli, determinando una sensazione di alienazione e impotenza. L’uomo prova imbarazzo per la sua stessa condizione umana, essendo “troppo umano” in un mondo dominato da creazioni artificiali perfette. Questa condizione provoca una crisi identitaria e un senso di responsabilità difficile da affrontare, perché i prodotti tecnologici hanno un impatto e una capacità di distruzione che l’uomo fatica a comprendere e controllare.

Le rovine di Gaza oggi non sono poi diverse da quelle di Raqqa. Sono così simili che la stessa propaganda le ha utilizzate come sostitute ambivalenti per mettere in rilievo certi crimini di guerra. Eppure oggi sapere che Israele abbia bombardato strade e mercati con sistemi IA intelligenti ci fa storcere il naso. Quelle bombe, così precise non hanno funzionato? O forse hanno avuto una deflagrazione così potente da sfuggire al controllo dell’esercito?

La stessa cosa capitò a metà anni ’90 quando i giornalisti iniziarono a chiedersi come mai le cosiddette bombe intelligenti colpivano bus e ponti invece che obiettivi strategici. E tenendo conto del fallimento storico di quelle misure che ancora oggi non hanno trovato una soluzione nei Balcani, possiamo solo chiederci se la tecnologia è sempre un’arma vincente, prima coi radar e la tecnologia stealth e oggi con l’IA. La risposta è differente a seconda del luogo in cui si combatte. L’Ucraina dimostra che l’IA può ribaltare i rapporti di forza tradizionali, mentre Israele la usa per consolidare la superiorità. Due modelli opposti dello stesso fenomeno.

Vogliamo essere sospettosi? Allora possiamo dire che Palantir e Clearview AI usano l’Ucraina per ripulire la loro immagine dopo gli scandali privacy. È il complesso militare-industriale 2.0 ed è anche il compromesso.

A Gaza il sistema Lavender ha autorizzato danni collaterali massicci basandosi su dati fragili. Quando un algoritmo identifica obiettivi solo perché “cambiano telefono spesso” in una zona di guerra dove tutti perdono i cellulari, c’è inevitabilmente un problema epistemologico. Ma non è tutto, il tempo di decisione umano si riduce a secondi, l’uomo diventa un ingranaggio che approva senza comprendere ciò che sta realmente facendo o almeno le sue implicazioni.

Infine la sorveglianza di massa diventa targeting di massa. Il passaggio dalla raccolta dati all’azione letale è diventato fluido. Devo sparare, ho i dati, comando, bum.

L’IA non rende la guerra più “pulita” – la rende più efficiente nell’uccisione. Come dice Scharre, rischiamo conflitti che si svolgono a “velocità macchina” dove l’uomo non può più tenere il passo.

La regolamentazione è già anni luce indietro. Mentre l’ONU discute di killer robots, in Ucraina e Gaza l’IA ha già ucciso e lanciato attacchi.

Add a Comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *