No, affidare la giustizia ad intelligenze artificiali e software non è una buona idea
INFORMAZIONI SCHEDA
Una ricerca ha fatto una scoperta che definire inquietante è un eufemismo: a quanto pare Compas, un software su cui i tribunali statunitensi fanno affidamento dal 1998, e che viene impiegato per predire la recidività di un reo (valutazione da cui dipendono quisquilie come cauzione e affidamento in probation), sarebbe estremamente inaffidabile.
Eppure Compas –acronimo di Correctional Offender Management Profiling for Alternative Sanctions– ha deciso le sorti di oltre un milione di imputati da quando è stato introdotto nelle corti del diritto penale americano.
Gli accademici, guidati da Hany Farid, un professore del Dartmuth College, –riporta il The Guardian– hanno analizzato oltre 7.000 casi affidati a Compas. I ricercatori hanno, quindi, comparato il comportamento dei pregiudicati nei due anni successivi al giudizio emesso dal software, valutando il loro stile di vita e, soprattutto, se abbiano o meno reiterato la loro condotta antisociale. In altre parole: si è cercato di capire quale fosse la percentuale di successo del software, verificando in quante delle occasioni dove Compas aveva predetto che il reo avrebbe nuovamente violato la legge questo sia successo effettivamente. Ne è venuto fuori un tasso di accuratezza del 65%. Su 100 imputati, Compas sbaglierebbe nel 35% dei casi.
La cosa allarmante è che i ricercatori hanno chiesto anche ad alcuni uomini non formati in legge (ed assoldati online usando Amazon Mechanical Turk) di emettere un giudizio sui casi esaminati da Compas, fornendo loro solo sette criteri come sesso, numero di precedenti penali ed età. Ne è venuto fuori che –nonostante i solo sette criteri, contro gli oltre 137 utilizzati dal software– gli umani si sono dimostrati leggermente più precisi, azzeccando il giudizio nel 67% dei casi. E ricordiamo che a loro è bastato considerare un numero di informazioni nettamente inferiori rispetto a quelle usate dal software.
In altre parole no, affidare la libertà delle persone a dei software non è per nulla una buona idea. Almeno fintanto che non avremo Super AI con QI sopra i 10.000 punti. Ma forse anche in questo caso ci andremmo molto cauti.
FONTE: The Guardian
Rimani aggiornato seguendoci su Google News!
Unisciti all'orda: la chat telegramper parlare di videogiochi
Altri contenuti per Intelligenza artificiale
- E' terrificante: il governo americano usa le IA per simulazioni di guerra
- Queste due aziende stanno lavorando per creare una IA in grado di ragionare
- Scienziati in allarme: l'AI prenderà il posto degli umani negli studi?
- È stato scoperto che in questo campo l'AI è più intelligente dell'uomo
- Esiste un ristorante dove l'intelligenza artificiale fa tutto: ma anche cucinare?
Intelligenza artificiale
- Caratteristiche tecniche
- ,
Contenuti più Letti
- Al via gli Unieuro Specials: sconti imperdibili su tantissimi prodotti fino al 22 Aprile
- Follia Samsung Galaxy S24 Ultra: coupon Amazon ABBATTE IL PREZZO
- Unieuro lancia una SUPER OFFERTA su un NOTEBOOK GAMING HP con GPU RTX 4060
- Galaxy Tab S9+, solo per oggi il tablet Samsung lo paghi 300 euro in meno!
- Cosa comprare per trasformare una TV normale in Smart TV?
- Qual è la città al mondo dove si consuma più vino? Si trova in Italia
- 3 commentiMolti husky vengono abbandonati per questa tristissima ragione
- 2 commentiBimba e padre scoprono il fossile dell'ittiosauro più grande della storia: è record
- 4 commentiIl 98% di chi prova a trovare il numero di questo test per il QI fallisce miseramente
- Su 100 utenti che sfidano questo test, soltanto 3 risolvono la sequenza