IA Killer: se l'algoritmo 'progressista' decide chi deve morire

L’orrore ha un nuovo nome, ed è scritto in righe di codice che pensavamo fossero nate per aiutarci, non per annientarci. La notizia che rimbalza dai corridoi del Pentagono alle pagine del The Guardian è di quelle che tolgono il sonno: l’esercito degli Stati Uniti avrebbe utilizzato Claude, l’intelligenza artificiale di Anthropic, per coordinare e ottimizzare gli attacchi aerei in Iran. Il tutto sarebbe avvenuto ignorando apertamente un presunto divieto imposto dall'amministrazione Trump.
Il tradimento della "Tecnologia Etica"
Secondo quanto riportato dal The Guardian nell'articolo del 1° marzo 2026, l’uso di Claude segnerebbe un punto di non ritorno. Anthropic, la società creatrice di questo modello di linguaggio, si è sempre presentata al mondo come l'alternativa "etica" e "sicura" a OpenAI, basando il proprio sviluppo sulla cosiddetta Constitutional AI — un set di regole morali integrate nel software. Ma che fine fa la moralità quando le coordinate generate servono a centrare un obiettivo sensibile in territorio straniero?
Il passaggio del Guardian è agghiacciante: "L'integrazione di modelli linguistici avanzati nelle catene di comando tattiche ha permesso una velocità di analisi dei bersagli senza precedenti, sollevando però dubbi sul controllo umano effettivo". In altre parole, stiamo dando a una macchina la velocità di un computer per decidere della vita di esseri umani, eliminando quel prezioso istante di esitazione che ci rende persone.
Un cortocircuito politico e morale
L'aspetto quasi grottesco della vicenda è il contesto politico. Donald Trump avrebbe cercato di limitare o vietare l'uso di determinate IA civili per scopi militari, ufficialmente per proteggere la proprietà intellettuale americana o per timore di fughe di dati. Eppure, i vertici militari sembrerebbero aver agito nell'ombra. Questo solleva una questione di una gravità inaudita per i diritti civili: chi controlla chi? Se l'apparato militare può ignorare le direttive presidenziali e utilizzare strumenti civili per la guerra, la democrazia stessa è sotto attacco.
Per noi che ci occupiamo di diritti, questo è un campanello d'allarme rosso sangue. Se un'IA può essere addestrata a ignorare i propri limiti etici per una missione militare, cosa le impedirà domani di essere usata per identificare dissidenti, sorvegliare minoranze o discriminare sistematicamente chi non rientra nei parametri di un governo autoritario?
Perché l'Italia non può restare a guardare
Potrebbe sembrare una storia lontana, una faccenda tra Washington e Teheran. Non lo è. L'Italia, attraverso la sua partecipazione alla NATO e l'ospitalità concessa alle basi americane sul nostro territorio (da Sigonella ad Aviano), è parte integrante di questa infrastruttura tecnologica e bellica. Mentre nel nostro Paese discutiamo faticosamente di come regolamentare l'IA per proteggere il lavoro o la privacy, i nostri alleati la usano per premere grilletti invisibili.
In Italia abbiamo la Legge 164/82 che tutela l'identità, abbiamo battaglie aperte per il DDL Zan e la protezione dei diritti civili fondamentali; tutte conquiste basate sul riconoscimento della dignità umana. Ma l'IA bellica fa l'esatto opposto: de-umanizza l'avversario, trasformandolo in un set di dati da processare. Se accettiamo che la morte diventi un output algoritmico, stiamo svendendo il concetto stesso di diritto alla vita.
La responsabilità non è un optional
Non possiamo permettere che il progresso tecnologico diventi l'alibi per una nuova stagione di guerre oscure e senza responsabilità. Se un attacco coordinato da un'IA colpisce dei civili — come spesso accade nei conflitti moderni — chi ne risponderà davanti alla Corte Penale Internazionale? Il programmatore? L'algoritmo? O un generale che ha semplicemente cliccato su 'Accetta'?
Il caso Claude-Iran ci dice che il futuro è già qui, ed è spietato. I diritti civili non finiscono dove inizia la sicurezza nazionale; al contrario, è proprio lì che devono essere più forti. Se permettiamo che il codice sostituisca la coscienza, avremo costruito un mondo dove nessuno è più veramente al sicuro.
Siamo davvero pronti a vivere in un pianeta dove la pace e la guerra dipendono dalla versione del software installata in un server?
Fonte: US military reportedly used Claude in Iran strikes despite Trump’s ban · 2 marzo 2026
Contenuto generato con AI a partire da fonti pubbliche. Rappresenta un'opinione, non attività giornalistica.
Resta aggiornato
Ricevi i nostri approfondimenti su diritti civili e identità di genere.
Iscriviti alla newsletter