L’intelligenza Artificiale (AI) è ultimamente diventato argomento di discussione comune grazie al rilascio per la massa dei primi chatbot come ChatGPT di OpenAI, ma dietro le quinte, la nuova dirompente tecnologia sta rivoluzionando anche il settore militare e, probabilmente, il modo con cui in futuro si farà la guerra.
L’infrastruttura militare di tutto il mondo sta subendo grandi cambiamenti e un rapido progresso tecnico. Joseph Biden, presidente degli Stati Uniti, ha osservato che:
“I prossimi dieci anni porteranno più rivoluzioni tecniche dei precedenti cinquanta messi insieme”.
Biden facendo una considerazione che era oramai evidente a chiunque. L’uso dell’intelligenza artificiale (AI) in campo militare ha cambiato drasticamente il modo di condurre le battaglie, poiché si sta evolvendo rapidamente e in modo esponenziale.
Quello che una volta era considerato fantascienza, ora sta diventando realtà. Dai droni alle armi autonome, dagli algoritmi decisionali ai sistemi di sorveglianza, questo settore della tecnologia sta cambiando tutto.
Nel suo libro “AI 2041: Ten Visions for Our Future”, Kai-Fu Lee, ex amministratore delegato di Sinovation Ventures e responsabile di Google China, ha affermato che:
“La terza rivoluzione nel combattimento, dopo l’uso della polvere da sparo e delle armi nucleari, è l’armamento autonomo.
Il passaggio dalle mine terrestri ai missili guidati è stato solo un prologo alla vera autonomia abilitata dall’IA, il pieno impegno nell’uccidere: cercare, scegliere di ingaggiare ed eliminare totalmente un’altra vita umana, senza alcun input umano”.
I vantaggi dell’IA in combattimento sono evidenti, ma ci sono anche considerazioni etiche e dubbi su come questa tecnologia possa influire sui futuri conflitti militari. Diamo prima un’occhiata più da vicino ai progressi fatti finora.
Table of Contents
Secondo un rapporto del CRS (Congressional Research Service), gli Stati Uniti, così come i loro avversari Cina e Russia, stanno incorporando una limitata quantità di Intelligenza Artificiale (AI) in una serie di applicazioni militari. Comando e controllo, logistica, operazioni informatiche, intelligence, sorveglianza e ricognizione, nonché veicoli semiautonomi e autonomi, sono alcune di queste applicazioni.
Al giorno d’oggi, l’impiego di veicoli aerei senza equipaggio (UAV) noti come droni, è uno degli sviluppi più importanti nella guerra per l’intelligenza artificiale (AI). Questi veicoli sono pesantemente utilizzati nelle operazioni militari per la raccolta di informazioni, la ricognizione e gli attacchi mirati.
L’uso della tecnologia AI è aumentato durante l’ultima escalation della guerra del Nagorno-Karabakh nel 2020. La flotta di veicoli aerei senza pilota (UAV) utilizzati in battaglia ha aumentato l’autonomia e la capacità di osservazione. Un altro esempio di utilizzo dell’intelligenza artificiale (AI) in combattimento è l’operazione “Guardian of the Walls”, uno scontro che avrà luogo nel maggio 2021 tra Israele e Hamas.
I lanciamissili e i tunnel utilizzati da Hamas sono presi di mira dall’esercito israeliano grazie all’apprendimento automatico e al supercalcolo. È noto come il primo conflitto tra intelligenze artificiali.
Un nuovo uso dei droni dotati di intelligenza artificiale (AI) in battaglia è stato reso evidente anche dalla guerra in corso tra Russia e Ucraina. Mentre la Russia utilizza l’intelligenza artificiale per rendere più efficaci i suoi droni e la guerra elettronica contro i soldati ucraini, l’intelligenza artificiale (AI) aiuta anche l’Ucraina a difendersi. Questa aiuta il paese invaso a rilevare le attività nemiche e a potenziare il proprio arsenale.
L’insieme di questi dati ha fornito una prova convincente di come i robot abilitati all’AI che escono dalle fabbriche di tutto il mondo stiano cambiando il modo in cui si combattono le guerre.
Qualche anno fa, il Future of Life Institute ha pubblicato sul proprio sito web un breve video distopico per mostrare di cosa è capace un particolare tipo di drone dotato di intelligenza artificiale (soprannominato “slaughterbot”).
Ecco la presentazione del corto:
All’epoca si trattava solo di proiezioni. Ma ora queste micidiali armi autonome potenziate dall’intelligenza artificiale, spesso note come “killer bot”, sono realmente utilizzate sul campo di battaglia.
Nel marzo 2021, le Nazioni Unite hanno osservato la prima applicazione pratica in Libia. Il primo caso riporta uno sciame di droni controllati dall’AI che si è visto in Israele in un breve periodo dello stesso anno. Secondo uno studio del New Scientist, le Forze di Difesa Israeliane (IDF) hanno utilizzato uno sciame di piccoli droni durante le operazioni a Gaza a metà maggio per localizzare, riconoscere e colpire i terroristi di Hamas.
La tecnologia dei droni è avanzata di recente, consentendo loro di formulare giudizi basati sull’analisi dei dati in tempo reale grazie ad algoritmi di intelligenza artificiale. il CTO di Omnipresent Robot Technologies, Jyoti Sinha.
Anche quando sono disponibili dispositivi di difesa guidata meno sofisticati, i droni a sciame alimentati dall’intelligenza artificiale possono distruggere e smantellare simultaneamente molti bersagli utilizzando configurazioni accurate dello sciame e la localizzazione in volo.
Anche se alcuni dei droni sono colpiti mentre attaccano le prime linee nemiche, gli algoritmi cognitivi dell’intelligenza artificiale prendono il controllo e riposizionano la rete di droni per preservare la consapevolezza della situazione e aiutare a portare a termine la missione.
Il Bayraktar TB2, di fabbricazione turca, capace sia di attacco armato che di intelligence, sorveglianza e ricognizione (ISR), e il Kalashnikov Zala Lancent, che pubblicizza il “rilevamento intelligente e il riconoscimento di oggetti per classe e tipo”, sono due esempi di queste armi autonome abilitate all’AI.
Sebbene questi progressi nell’uso dell’intelligenza artificiale (AI) per la tecnologia militare presentino dei vantaggi, si teme che possano anche avere conseguenze indesiderate e portare a una perdita di controllo sulle operazioni militari.
Le preoccupazioni morali relative all’uso della tecnologia militare in situazioni di conflitto e non, sono sollevate dal rapido progresso del settore. Ad esempio, c’è il rischio che l’intelligenza artificiale possa essere usata per monitorare e controllare le popolazioni civili. Con conseguenti violazioni dei diritti umani e della privacy. Questo rischio esiste anche se l’intelligenza artificiale (AI) può essere utilizzata per la sorveglianza e la raccolta di informazioni. Aiutando a identificare potenziali minacce e a prevenire attacchi.
Oltre alle sfide legate alla responsabilità di questi sistemi, una delle preoccupazioni principali è il rischio che i sistemi di intelligenza artificiale falliscano o vengano violati. Con effetti indesiderati o addirittura disastrosi. Soprattutto quando le armi autonome devono scegliere chi colpire e quando farlo.
In un recente rapporto intitolato “Political Statement on Responsible Military Use of Artificial Intelligence and Autonomy” (Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia), il Dipartimento di Stato americano ha esortato i Paesi che investono nell’AI a utilizzarla nelle operazioni militari in modo eticamente e responsabilmente accettabile.
Il governo degli Stati Uniti ha presentato il proprio quadro di riferimento. Ha inoltre invitato altri Paesi ad aderire, sostenendo che l’uso dell’intelligenza artificiale (IA) in ambito militare può e deve essere morale, responsabile e favorire la sicurezza globale. Lo stesso giorno della dichiarazione, più di 60 Paesi hanno firmato una “chiamata all’azione”. Scopo, quello di sollecitare l’uso appropriato dell’intelligenza artificiale (IA) in ambito militare. Tra queste spicca il nome della Cina, il principale nemico degli Stati Uniti.
Tuttavia, poiché non è chiaro quali tipi di sistemi autonomi o alimentati dall’IA siano inclusi nella dichiarazione, sono emersi dubbi su quanto la dichiarazione possa spingersi a mantenere la tecnologia militare entro i confini della moralità. Secondo la Reuters, esperti di diritti umani e accademici hanno sottolineato che la dichiarazione non è legalmente vincolante, oltre a non affrontare questioni come i droni guidati dall’IA, i “mattatoi” che potrebbero uccidere senza il coinvolgimento umano o il potenziale che un’IA possa esacerbare un confronto militare.
Il ruolo decisionale degli esseri umani sul campo di battaglia e il rischio che l’IA possa rendere il combattimento più amorale e distruttivo è un’altra area di preoccupazione. Secondo il Segretario generale delle Nazioni Unite António Guterres, è eticamente ripugnante che i computer abbiano la libertà e la capacità di prendere vite umane. In una dichiarazione pubblicata nel settembre 2018 sul sito web delle Nazioni Unite, ha affermato che,
“Il nostro dovere condiviso di garantire la pace e la sicurezza è direttamente minacciato dagli effetti delle nuove tecnologie in guerra”.
Quattro anni dopo, nel febbraio 2022, assistiamo all’avverarsi delle preoccupazioni e all’inizio della realizzazione di tali profezie con l’invasione russa dell’Ucraina. Un articolo di Insider sostiene che la crisi ucraina ha visto il maggior impiego di UAV potenziati dall’intelligenza artificiale rispetto a qualsiasi altro conflitto recente. Attualmente, nel corso del conflitto in corso, sia la Russia che l’Ucraina stanno impiegando tecnologie autonome l’una contro l’altra.
La Russia ha utilizzato ad esempio “munizioni vaganti” come gli Shahed-136 iraniani, comunemente noti come Geranium-2, e i Lanset di fabbricazione russa. Queste armi, spesso note come droni “kamikaze”, girano intorno a una certa area fino a quando non identificano una categoria di bersaglio predefinita, a quel punto si schiantano sul bersaglio, facendo esplodere l’esplosivo. D’altra parte, l’Ucraina ha utilizzato un drone sviluppato in Turchia, il Bayraktar TB2, che è completamente autonomo, a parte la scelta di quando sganciare le bombe a guida laser che trasporta.
La minore sorveglianza di queste armi, secondo Guterres, rappresenta un problema significativo, poiché compromette gli sforzi per contenere le minacce, fermare la diffusione dei conflitti e proteggere il diritto umanitario internazionale e i diritti umani. Elon Musk, amministratore delegato di Tesla, e altri 115 professionisti hanno formulato delle raccomandazioni in una lettera aperta alle Nazioni Unite, in cui si sottolineano le questioni etiche legate all’impiego di queste armi autonome.
Come si legge nella lettera:
“La terza rivoluzione nella guerra potrebbe essere lo sviluppo di armi autonome letali. Una volta perfezionate, esse consentiranno tempi più rapidi di quelli umanamente immaginabili e una guerra militare su scala più ampia che mai.
Queste possono includere armi del terrore, armi usate da terroristi e despoti contro popolazioni indifese e armi modificate per comportarsi in modo malevolo. Non abbiamo molto tempo per agire. Sarà difficile rimettere il coperchio a questo vaso di Pandora una volta aperto.”
Oltre ai problemi sopra descritti, non è ancora noto come la tecnologia AI influenzerà la stabilità geopolitica e la politica mondiale nel prossimo futuro. Gli analisti avvertono che il progresso della tecnologia militare potrebbe portare a una nuova corsa agli armamenti. Questo poiché i governi e le organizzazioni militari spendono enormi somme nella ricerca e nello sviluppo. Spesso con l’obiettivo di acquisire un vantaggio militare sui potenziali nuovi nemici. Anche se sembra che Stati Uniti, Cina e Russia siano in testa, il futuro rimane oscuro e complicato.
Secondo la ricerca di M. L. Cummings, i robot commerciali e militari finiranno per incorporare “un’intelligenza artificiale (IA) che potrebbe consentire loro di svolgere compiti e missioni autonomamente. Ma ci vorranno molti anni prima che l’AI sia in grado di approssimare l’intelligenza umana in situazioni di elevata incertezza, a causa dell’attuale difficoltà di dotare i computer di una vera conoscenza e di comportamenti basati su esperti. Nonché delle limitazioni nel senso della percezione”.
Il Segretario alla Difesa degli Stati Uniti, Lloyd J. Austin, ha dichiarato alla conferenza mondiale sulle tecnologie emergenti del National Security Committee on Artificial Intelligence,
“L’intelligenza artificiale è fondamentale per il nostro obiettivo di innovazione. Ci permette di utilizzare piattaforme diverse e di calcolare più rapidamente. E questo sarà fondamentale nella guerra in futuro”.
Dichiara come il Dipartimento della Difesa degli Stati Uniti spenderà circa 1,5 miliardi di dollari nei prossimi cinque anni per accelerare la diffusione dell’AI. Secondo gli esperti, le forze armate statunitensi avanzano lentamente, soprattutto se l’obiettivo è quello di tenere il passo con la Cina, che si dice investa ogni anno più di 1,6 miliardi di dollari in tecnologia militare. Nel 2017 la Cina ha dichiarato di voler guidare il mondo nel campo dell’intelligenza artificiale (AI) entro il 2030. Già allo stato attuale, il paese ha già raggiunto questo obiettivo in termini di documenti di ricerca e brevetti.
D’altra parte, la Russia ha fatto dello sviluppo e della diffusione delle applicazioni di IA una priorità nazionale e ha avviato una serie di programmi. Vladimir Putin, attuale presidente della Russia, ha parlato in diretta video:
“Chiunque diventi leader in questo settore diventerà il dominatore del mondo. L’AI rappresenta il futuro non solo per la Russia ma per tutta l’umanità.”
Nell’ambito di un programma di modernizzazione della difesa avviato nel 2008, la Russia ha fissato l’obiettivo di avere il 30% delle attrezzature militari automatizzate entro il 2025. Nonostante spenda in ricerca amilitare enormemente meno di Stati Uniti e Cina per la difesa.
Chi prevarrà nella corsa agli armamenti AI è oggetto di una varietà di punti di vista e previsioni. Ma, in ultima analisi, né questo né il più ampio sviluppo dell’AI in relazione al combattimento possono essere previsti con sicurezza. La linea che separa la fantascienza dalla realtà, tuttavia, potrebbe essere sempre meno netta.
Gli esperti prevedono che la forza militare aumenterà in modo significativo grazie alle tecnologie di intelligenza artificiale. Questo avrà un impatto sul carattere e sulle dinamiche della battaglia negli anni a venire.
Solo il tempo ci dirà se l’intelligenza artificiale inaugurerà un’era di splendore e progresso. Oppure una triste distopia.
Ci sarà uno stravolgimento totale del check-in in aeroporto rispetto a come lo conoscevamo. Chi…
Gli utenti Apple che sono appena passati a iPhone 16 potranno constatarlo con i loro…
Anche per il mese di ottobre vi sono cambiamenti nella numerazione della televisione: la lista…
Dal momento che stanno diventando sempre più interessanti gli investimenti in criptovalute, ecco i migliori…
Occasione importante per il nuovo iPhone16, il prezzo vantaggioso del nuovo dispositivo. Da sfruttare al…
Qual è il ritorno economico nell'investire 100 euro in Bitcoin, stando l'attuale situazione di mercato…