Applicazioni militari dell’IA

gundam

In parecchi ambienti, vi è una forte preoccupazione per l’utilizzo dell’IA in ambito militare, tanto che centinaia di ricercatori ed esperti dell’argomento, tra cui Elon Musk, Stephen Hawking, Steve Wozniak e Noam Chomsky hanno firmato una lettera aperta presentata durante la International Joint Conference on Artificial Intelligence di Buenos Aires in cui si chiedeva di bandire tale applicazione.

Gesto apprezzabile e condivisibile, ma temo, come ogni altro appello simile, dai tempi dell’invenzione della balestra in poi, poco efficace: perché purtroppo, come nelle armi nucleari, in questo caso vige il dilemma del prigioniero, che porta di fatto, per la sfiducia reciproca, alla scelta di una soluzione di escalation, nel timore che l’avversario faccia la stessa cosa.

Per cui, senza ipotizzare scenari alla Terminator, come la diffusione dell’IA in ambito militare divisa in più step. Il primo consistente nella diffusione pervasiva su armi leggere e pesanti di shooter assistant implementati su reti neurali, per migliorare l’efficienza, efficacia e precisione dei tiri e successivamente l’implementazione di un’IA inferenziale su droni, automi artificieri e tank, che doni loro una visione tattica, indipendente dalla presenza umana.

Fase che per una serie di motivi, dalla questione dei costi al MTBF, dalla robustezza agli attacchi di guerra elettronica alla flessibilità operativa, si realizzerà a medio termine, ma che porterà delle conseguenze pesanti, come:

  1. La banalizzazione della guerra dovuta al fatto che i soldati non rischiano più di persona
  2. Lo sviluppo della “porn war”, per il fatto che le armi robotiche registrano le azioni di guerra e queste finiscano poi in rete, stimolando il voyeurismo perverso degli utenti;
  3. La possibile moltiplicazione dei conflitti dovuta al disinteresse della gente comune, non più chiamata a dare un contributo di vite, non più soggetta a razionamenti di guerra, non più chiamata a contribuire con tasse speciali, non più chiamata a votare l’intervento in guerra. Cosa che di fatto è già realizzata nel concreto, in maniere indipendente dall’IA. Ad esempio, benché l’Italia abbia scritto a chiare lettere nella propria Costituzione di ripudiare la guerra come strumento di risoluzione delle controversie internazionale, negli ultimi anni ciò non ha impedito la partecipazione ad azioni militari, digerite dall’opinione pubblica perché avvenute in luoghi lontani e con un costo umani relativamente basso. Se a combattere saranno i robot, invece che persone, l’indifferenza sarà ancora più accentuata.
  4. Il rischio che tali armi, se diffuse a basso costo, possano fungere da moltiplicatore di forza per associazioni criminali o gruppi terroristici.

Questioni che nel concreto possono essere affrontate con:

  • Un’opportuna regolamentazione internazionale, con dei protocolli aggiuntivi della Convenzione di Ginevra CCWC del 1980, con dei meccanismi sanzionatori che impediscano furbate come quelle degli USA e di verifica dell’effettiva applicazione di quanto concordato;
  • Un meccanismo robusto di tracciabilità delle armi per sapere sempre esattamente a chi appartengono, chi né è responsabile, dove si trovano, cosa stanno facendo e cosa hanno fatto.
  • Un’informazione precisa e puntuale del loro utilizzo nei confronti dell’opinione pubblica, per evitare la sua deresponsabilizzazione, cosa ahimè assai difficile in Italia
Advertisements

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...