I giganti della tecnologia si impegnano a non sviluppare IA per sistemi militari
INFORMAZIONI SCHEDA
I giganti del settore tecnologico, tra cui Elon Musk ed i tre cofondatori della controllata di Google, DeepMind, hanno firmato un accordo attraverso cui si sono impegnati a non sviluppare sistemi militari basati sull'intelligenza artificiale, che potrebbero diventare potenzialmente dannosi per l'umanità.
Si tratta di una mossa molto attesa da parte degli osservatori, che già da tempo avevano chiesto un accordo del genere, per evitare possibili scenari catastrofici in cui delle armi autonome avrebbero potuto selezionare ed uccidere dei bersagli autonomamente e senza alcun tipo di intervento umano. Moralmente, sostengono i firmatari, la decisione non rispetta i canoni in quanto "la vita umana non dovrebbe mai essere controllata da una macchina". Sul fronte pragmatico, invece, i firmatari affermano che la diffusione di tali armi sarebbe "pericolosamente destabilizzante per ogni paese ed individuo".
L'impegno è stato firmato oggi all'International Joint Conference on Artificial Intelligente (IJCAI) a Stoccolma, un evento organizzato dal Future of Life Institute, un'associazione che mira a "mitigare il rischio esistenziale" per l'umanità. Lo stesso istituto in precedenza aveva chiesto a gran voce l'intervento delle Nazioni Unite sul tema delle così dette armi letali autonome, ma questa è la prima volta che persone coinvolte direttamente nel settore si impegnano individualmente a non sviluppare tale tecnologia.
Nei firmatari figurano il CEO di SpaceX e Tesla, Elon Musk, i tre cofondatori di DeepMind, Shane Legg, Mustafa Suleyman e Demis Hassabis, il fondatore di Skype Jaan Tallinn ed alcuni dei ricercatori più importanti del mondo, tra cui Stuart Russell, Yoshua Bengio e Jurgen Schmidhuber.
Max Tegman, un firmatario e professore di fisica al MIT, in un comunicato ha voluto sottolineare di come l'impegno assunto dai leader di passare dalle parole ai fatti sia ormai reale. "Le armi che decidono autonomamente di uccidere le persone sono disgustose e destabilizzanti come le armi biologiche e dovrebbero essere trattate allo stesso modo" ha affermato.
Fino ad ora, i tentativi erano andati tutti a vuoto, ma questo rappresenta un passo importante. Gli attivisti hanno anche suggerito che le armi da fuoco autonome dovrebbero essere soggette a restrizioni, come quelle a cui vengono sottoposte le armi chimiche e le mine antiuomo. La tecnologia, tuttavia, è già ampiamente diffusa e bisogna tracciare dei confini per stabilire cosa vietare e cosa no.
FONTE: The Verge
Rimani aggiornato seguendoci su Google News!
Unisciti all'orda: la chat telegramper parlare di videogiochi
Altri contenuti per Intelligenza artificiale
- E' terrificante: il governo americano usa le IA per simulazioni di guerra
- Queste due aziende stanno lavorando per creare una IA in grado di ragionare
- Scienziati in allarme: l'AI prenderà il posto degli umani negli studi?
- È stato scoperto che in questo campo l'AI è più intelligente dell'uomo
- Esiste un ristorante dove l'intelligenza artificiale fa tutto: ma anche cucinare?
Intelligenza artificiale
- Caratteristiche tecniche
- ,
Contenuti più Letti
- Al via gli Unieuro Specials: sconti imperdibili su tantissimi prodotti fino al 22 Aprile
- Follia Samsung Galaxy S24 Ultra: coupon Amazon ABBATTE IL PREZZO
- Unieuro lancia una SUPER OFFERTA su un NOTEBOOK GAMING HP con GPU RTX 4060
- Galaxy Tab S9+, solo per oggi il tablet Samsung lo paghi 300 euro in meno!
- Cosa comprare per trasformare una TV normale in Smart TV?
- Qual è la città al mondo dove si consuma più vino? Si trova in Italia
- 3 commentiMolti husky vengono abbandonati per questa tristissima ragione
- 2 commentiBimba e padre scoprono il fossile dell'ittiosauro più grande della storia: è record
- 4 commentiIl 98% di chi prova a trovare il numero di questo test per il QI fallisce miseramente
- Su 100 utenti che sfidano questo test, soltanto 3 risolvono la sequenza