Per anni abbiamo immaginato il futuro della guerra tecnologica come uno scenario degno di un film di fantascienza: droni armati, robot soldato e carri armati autonomi pronti a dominare il campo di battaglia. Una visione che si sta trasformando in realtà, grazie allo sviluppo delle armi autonome, capaci di muoversi, individuare bersagli e persino aprire il fuoco senza intervento umano.
Questi sistemi, già impiegati in varie forme, includono droni, torrette armate automatizzate e veicoli come il Rex MK II, utilizzato dall’esercito israeliano. Tuttavia, se un tempo si pensava che l’intelligenza artificiale avrebbe affiancato i soldati, oggi essa si sta evolvendo in una direzione ancora più inquietante: la gestione strategica dei conflitti.
I moderni algoritmi di deep learning stanno assumendo ruoli da ufficiali militari, prendendo decisioni critiche come selezionare obiettivi, stabilire strategie e identificare vulnerabilità del nemico. Un esempio significativo è il sistema “Lavender“, utilizzato dall’esercito israeliano durante il conflitto a Gaza. Questo software, descritto da alcune fonti come una “fabbrica di omicidi di massa”, analizza enormi quantità di dati – dai nomi degli abitanti di Gaza a intercettazioni e filmati – per classificare le persone secondo la probabilità che facciano parte di gruppi armati come Hamas.
Secondo l’ex capo dell’IDF, Aviv Kochavi, Lavender è in grado di identificare fino a 100 obiettivi al giorno, una cifra ben superiore ai 50 annuali ottenuti con metodi tradizionali. Tuttavia, questa efficienza solleva gravi questioni etiche e legali. L’algoritmo opera su dati spesso imprecisi o incompleti, portando a errori di identificazione che possono risultare fatali, con innocenti scambiati per combattenti.
Inoltre, l’accettazione da parte dell’esercito di un tasso di errore fino al 10% implica un elevato rischio di vittime civili. Gli attacchi aerei, spesso mirati a luoghi abitati, hanno causato un tragico bilancio umano. Le fonti indicano che il rapporto tra civili uccisi e combattenti eliminati può arrivare a 15 a 1, o addirittura a 100 a 1 nel caso di alti comandanti.
Questa deriva tecnologica non riguarda solo Israele. Sistemi simili vengono utilizzati in Cina contro la minoranza uigura e in Ucraina per identificare obiettivi strategici russi. Aziende come Palantir forniscono piattaforme in grado di integrare dati da satelliti e droni, migliorando la precisione degli attacchi, ma alimentando un’escalation di violenza che non risparmia né soldati né civili.
L’utilizzo crescente di tali tecnologie pone interrogativi cruciali: quanto controllo umano stiamo cedendo alle macchine? E a che prezzo? Organizzazioni come Rete Pace Disarmo avvertono che l’intelligenza artificiale, lungi dal prevenire conflitti, potrebbe rendere le guerre sempre più devastanti e incontrollabili.
L’intelligenza artificiale sta ridefinendo il panorama militare, ma la sua applicazione solleva dubbi profondi sul rispetto dei diritti umani e sulle implicazioni etiche. Senza una regolamentazione chiara, il rischio è che la tecnologia, anziché avvicinare l’umanità alla pace, ci conduca verso conflitti ancora più letali.