Presto i droni militari saranno in grado di decidere chi uccidere grazie all'IA

di

Di recente, l'Esercito Americano ha annunciato di essere al lavoro sui primi droni in grado di individuare ed indirizzare veicoli e persone, grazie all'utilizzo dell'intelligenza artificiale. SI tratta di un grande passo in avanti in quanto gli attuali droni militari sono ancora controllati dalle persone. La nuova tecnologia però cambierà le carte.

Il motivo è molto semplice: i futuri droni militari saranno in grado di decidere chi uccidere, senza alcun tipo di coinvolgimento umano.

Una volta completati, infatti, i droni rappresenteranno la militarizzazione definitiva dell'IA, il che sicuramente scatenerà non poche polemiche intorno ai possibili usi sinistri, senza dimenticare le varie implicazioni giuridiche ed etiche per la società. La possibilità che una guerra si sposti dal combattimento allo sterminio, infatti, è stata più volte paventata da scienziati e studiosi, ma almeno al momento ancora non ci sono avvisaglie da questa direzione.

I droni militari letali esistenti, come l'MQ-9 sono attentamente controllati e pilotati via satellite. Se un pilota lascia cadere una bomba o lancia un missile, un operatore umano lo guida attivamente sul bersaglio prescelto usando un laser. In questo caso, quindi, l'equipaggio ha l'ultima responsabilità etica, legale ed operativa per uccidere obiettivi umani designati.

Tuttavia, anche con queste tecniche, le emozioni umane, i giudici e l'etica sono sempre al centro di ogni conflitto. Specialisti dell'intelligence ed altro personale militare infatti analizzano regolarmente le riprese grafiche degli attacchi compiuti dai droni, ed alcune ricerche hanno dimostrato che è possibile soffrire di danni psicologici visualizzando frequentemente immagini di violenza estrema.

Secondo quanto affermato da The Next Web, anche nel momento in cui saranno lanciati questi droni, la responsabilità legale ed etica dietro agli attacchi non scomparirà del tutto, anche se viene tolta la supervisione umana. Anzi, "la responsabilità ricadrà sempre più su altre persone, compresi gli scienziati che lavorano sull'intelligenza artificiale", sostiene il sito.

Inoltre, aziende come Google ed i propri dipendenti o sistemi che sviluppano le tecnologie di base, potrebbero diventare passibili di attacchi da parte di uno stato nemico. L'esempio su Google non è certo casuale, dal momento che il motore di ricerca sta collaborando con il Pentagono. Se il proprio software per il riconoscimento delle immagini, Maven, dovesse essere utilizzato in un drone militare americano, la compagnia di Mountain View potrebbe trovarsi implicata in situazioni poco piacevoli.

A livello di apprendimento. Nel deep learning militarizzato, i leader politici, militari ed industriali dovranno specificare quante morti civili saranno considerate accettabili per perfezionare sempre più la tecnologia.

FONTE: TNW
Quanto è interessante?
9

Gli ultimi Smartphone, TV 4K o gli accessori più GEEK li trovate in offerta su Amazon.it