E-Mail: redazione@bullet-network.com
- Investimenti in startup europee della difesa: aumento del 30% in 12 mesi.
- L'onu ha condannato l'uso dell'ia a gaza con 15.000 morti.
- Leonardo e bayakar: joint venture nel settore droni da 100 miliardi.
Lo sviluppo delle armi autonome: una nuova era nel conflitto
Il panorama bellico sta subendo una trasformazione radicale, con l’emergere di sistemi d’arma autonomi capaci di operare senza intervento umano diretto. Droni e robot da combattimento, alimentati da algoritmi sofisticati, si profilano come i protagonisti del futuro, sollevando però interrogativi etici e legali di portata inedita. La delega di decisioni cruciali, come quelle che implicano la vita o la morte, a macchine prive di coscienza e sensibilità morale, rappresenta una sfida senza precedenti per la comunità internazionale.
L’impiego crescente dell’intelligenza artificiale (IA) nei conflitti armati ha accelerato la digitalizzazione della difesa, aprendo nuove frontiere nell’intelligence, nelle operazioni cibernetiche e nei combattimenti cinetici. L’IA si sta rivelando un fattore discriminante, una key capability essenziale per mantenere il vantaggio strategico sull’avversario. Tuttavia, questa tecnologia, sebbene vantaggiosa per la difesa, si presta a usi potenzialmente preoccupanti.
La guerra in Ucraina ha fornito un banco di prova per queste nuove tecnologie, con entrambi i fronti impegnati nell’utilizzo di armi autonome, nonostante la loro legittimità sia ancora oggetto di dibattito. Sistemi come Gospel e Lavender, impiegati da Israele per identificare obiettivi nella Striscia di Gaza, hanno destato allarme a causa dell’elevato tasso di falsi positivi e della mancanza di adeguati processi di controllo. Questi esempi concreti evidenziano i rischi di una “IA poco etica” in ambito militare, capace di violare i diritti fondamentali degli esseri umani e i valori fondanti delle società democratiche.
Il vuoto regolamentativo che circonda l’adozione dell’IA nella difesa è un elemento di forte preoccupazione. L’AI Act europeo, pur rappresentando un passo avanti nella governance dell’IA, esclude esplicitamente gli usi a scopo di difesa dal suo ambito di applicazione (Articolo 3). Le leggi umanitarie internazionali, sebbene applicabili anche all’IA, si rivelano difficili da far rispettare in concreto. L’attribuzione di responsabilità individuale per i crimini di guerra, principio cardine del diritto internazionale ribadito anche nel processo di Norimberga, diventa particolarmente problematica nel caso di armi autonome, prodotte in modo distribuito e capaci di azioni non previste né intese dai progettisti e dagli utenti.
La questione dell’etica dell’IA nella difesa rimane ai margini del dibattito pubblico. Alcuni pacifisti ritengono che l’etica sia ridondante, in quanto la guerra è in sé inaccettabile. Altri, più cinici, considerano l’etica dell’IA un ostacolo, in quanto limita l’uso di una tecnologia dal grande impatto strategico e tattico, svantaggiando potenzialmente il proprio Paese rispetto agli avversari. Entrambe le posizioni appaiono però insufficienti. Le guerre giustificate, quelle di difesa, devono essere combattute nel rispetto dei valori e dei diritti fondamentali. L’etica serve a identificare tali valori e a indicare la strada per rispettarli in contesti complessi come la guerra.
Il ruolo delle startup e i finanziamenti governativi
Le startup, agili e concentrate sull’innovazione rapida, svolgono un ruolo cruciale nello sviluppo di armi autonome. Aziende come la tedesca Helsing AI, con il suo sistema di analisi dei dati in tempo reale per i campi di battaglia, o l’americana Anduril Industris, con la sua piattaforma di telecomunicazioni Spacetime, stanno creando tecnologie che potrebbero ridefinire il volto della guerra.
Helsing AI, nata a Berlino nel 2021 grazie a un investimento di 100 milioni di euro del fondo Prima Materia, si propone come fornitore di tecnologie IA al servizio delle democrazie, escludendo a priori la collaborazione con regimi autoritari. Tuttavia, la definizione stessa di democrazia rimane complessa e soggetta a interpretazioni, sollevando interrogativi sulla coerenza e l’affidabilità di tale impegno. La startup estone Milrem Robotics ha sviluppato Themis, un veicolo terrestre senza pilota modulare utilizzato per supportare le truppe in operazioni di combattimento, trasporto e sorveglianza.
Il ruolo dei finanziamenti governativi è altrettanto determinante. L’Unione Europea, attraverso il Fondo Europeo per la Difesa, e la NATO, con il suo fondo per l’innovazione da 1 miliardo di dollari, investono massicciamente in tecnologie “dual-use“, utilizzabili sia in ambito civile che militare. Questo flusso di denaro alimenta la crescita delle startup del settore, ma solleva interrogativi sulla trasparenza e la responsabilità.
Secondo un recente rapporto Dealroom-Nato, gli investimenti nelle startup europee della difesa hanno registrato un incremento del 30% negli ultimi 12 mesi, raggiungendo i 5,2 miliardi di dollari. Questo boom di finanziamenti evidenzia come il settore della difesa sia diventato un mercato attraente per gli investitori, complice il mutato quadro geopolitico e il conflitto in Ucraina.
L’accordo firmato dall’italiana Leonardo con la turca Bayakar Technologies per la creazione di una joint venture nel settore dei sistemi di aerei senza pilota (droni), con un potenziale di mercato stimato in 100 miliardi di dollari, è un esempio emblematico delle sinergie che si stanno sviluppando tra grandi aziende e startup innovative nel settore della difesa. Accanto ai droni, l’intelligenza artificiale, con le sue capacità di riconoscimento degli obiettivi e di ottimizzazione degli attacchi, rappresenta un elemento chiave di questa trasformazione tecnologica.
Negli Stati Uniti, Epirus ha raccolto 250 milioni di dollari per potenziare il suo scudo anti-droni Leonidas, basato su semiconduttori di nitruro di gallio in grado di generare impulsi elettromagnetici per disabilitare l’elettronica dei droni. Saronic, invece, sta creando intere flotte di navi autonome destinate alla difesa marittima, rispondendo all’esigenza di flotte ibride, guidate in parte da personale militare e in parte da sistemi autonomi.
I dilemmi etici e il diritto internazionale
Il diritto internazionale umanitario stabilisce che, durante i conflitti, è necessario distinguere tra civili e obiettivi militari. Ma come può una macchina, priva di empatia e capacità di giudizio morale, fare questa distinzione in modo affidabile? L’errore umano è inevitabile, ma l’errore di una macchina potrebbe avere conseguenze su scala molto più ampia.
“I crimini contro il diritto internazionale sono commessi da esseri umani, non da entità astratte“, ricordano gli atti del processo di Norimberga, sollevando dubbi sull’attribuzione di responsabilità in caso di azioni compiute da armi autonome. Chi sarà ritenuto responsabile per un errore di valutazione di un algoritmo che causa la morte di civili innocenti? Il programmatore, il comandante militare, o la macchina stessa?
La Martens Clause, principio cardine del diritto internazionale umanitario, richiede l’osservanza dei principi di umanità e coscienza pubblica, anche di fronte all’evoluzione tecnologica. Questo implica la necessità di un coinvolgimento umano nel processo decisionale automatizzato, per garantire che l’IA sia utilizzata responsabilmente per la pace e la sicurezza internazionale.
La mancanza di regolamentazione in questo settore è un elemento di forte preoccupazione. L’AI Act europeo, ad esempio, esclude esplicitamente gli usi dell’IA a scopo di difesa dal suo ambito di applicazione. Questo vuoto normativo lascia spazio a interpretazioni ambigue e al rischio di abusi. La definizione di standard etici e legali per lo sviluppo e l’impiego di armi autonome è una priorità urgente per la comunità internazionale.
La guerra in Ucraina ha funto da catalizzatore per lo sviluppo e il test di nuove tecnologie militari basate sull’IA. Entrambi i fronti hanno utilizzato armi autonome, nonostante la loro legittimità sia ancora da accertare. Questo conflitto ha evidenziato il potenziale dell’IA per migliorare l’efficacia militare, ma anche i rischi di una sua applicazione incontrollata. Sistemi come Gospel e Lavender, utilizzati da Israele per identificare target nella Striscia di Gaza, hanno sollevato preoccupazioni per l’alta soglia di falsi positivi e la mancanza di adeguati processi di controllo. L’ONU ha fermamente condannato l’impiego dell’IA da parte di Israele nella Striscia di Gaza, dove più di 15.000 morti (quasi la metà di tutte le morti civili finora) sono avvenute durante le prime sei settimane successive al 7 ottobre 2024, quando i sistemi di intelligenza artificiale sembrano essere stati ampiamente utilizzati per la selezione dei bersagli.

Verso un futuro responsabile: l’etica come imperativo
Il dibattito sull’etica dell’IA in ambito militare è complesso e polarizzato. Alcuni sostengono che l’etica sia irrilevante in guerra, che l’obiettivo principale sia vincere a tutti i costi. Altri ritengono che l’IA possa rendere la guerra più “umana“, riducendo il rischio per i soldati e aumentando la precisione degli attacchi. Ma la realtà è che le armi autonome rappresentano un salto qualitativo nella tecnologia militare, con implicazioni imprevedibili.
Delegare decisioni di vita o di morte a macchine significa rinunciare a un elemento fondamentale della nostra umanità. Significa affidare il destino del mondo a degli algoritmi, senza la possibilità di appello. È un rischio che possiamo permetterci di correre?
La risposta a questa domanda non è semplice, ma è fondamentale che la società civile, i governi e le aziende del settore si confrontino apertamente su questi temi. Il futuro della guerra è già qui, e dobbiamo assicurarci che sia un futuro che rispetti i valori fondamentali di umanità, giustizia e responsabilità.
Conseguenze inattese e il bisogno di una riflessione profonda
L’avvento delle armi autonome non è solo una questione di efficienza militare o di progresso tecnologico; è una trasformazione che tocca le corde più profonde della nostra umanità e del nostro sistema di valori. Affidare ad algoritmi la decisione ultima sulla vita e sulla morte comporta la perdita di un elemento essenziale: la capacità di empatia e di discernimento morale che definisce la nostra specie. La velocità con cui queste tecnologie si stanno sviluppando supera di gran lunga la nostra capacità di comprenderne appieno le implicazioni etiche e legali.
La corsa agli armamenti autonomi, alimentata da finanziamenti pubblici e privati, rischia di sfuggire al controllo democratico, portando a conseguenze inattese e potenzialmente catastrofiche. La mancanza di regolamentazione a livello internazionale, unita alla complessità dell’attribuzione di responsabilità in caso di errori o malfunzionamenti, crea un vuoto pericoloso che potrebbe essere sfruttato da attori statali e non statali con agende oscure.
La società civile, i governi, le istituzioni accademiche e le aziende del settore devono avviare un dialogo aperto e trasparente sulle implicazioni etiche, legali e sociali delle armi autonome. È necessario definire standard internazionali rigorosi, che garantiscano il controllo umano sulle decisioni cruciali e la piena responsabilità per le azioni compiute da questi sistemi. Solo attraverso un impegno collettivo e una riflessione profonda possiamo sperare di governare questa tecnologia e di evitare che diventi una minaccia per la pace e la sicurezza globale.
Per comprendere meglio il rischio intrinseco di questi sistemi, è utile riflettere su un concetto base dell’IA: il bias. I modelli di apprendimento automatico, che sono alla base delle armi autonome, vengono addestrati su dati esistenti. Se questi dati riflettono pregiudizi e discriminazioni, il modello riprodurrà tali bias*, portando a decisioni ingiuste e potenzialmente letali. Un concetto più avanzato è quello della *robustezza dei modelli di IA. Un sistema d’arma autonomo deve essere in grado di operare in modo affidabile anche in condizioni impreviste e avverse, resistendo a tentativi di sabotaggio e attacchi informatici. La mancanza di robustezza potrebbe portare a malfunzionamenti e a conseguenze disastrose.
Il futuro che ci attende è intriso di incertezze, ma una cosa è certa: il destino dell’umanità è strettamente legato alla nostra capacità di governare la tecnologia e di orientarla verso il bene comune. Le armi autonome rappresentano una sfida cruciale, un bivio che ci impone di scegliere tra un futuro di progresso e di pace, o un futuro di conflitto e distruzione. La scelta è nelle nostre mani.