Questa IA utilizzata in Argentina ricorda quanto abbiamo letto in 1984 di Orwell

Questa IA utilizzata in Argentina ricorda quanto abbiamo letto in 1984 di Orwell
di

Su richiesta della provincia argentina di Salta, Microsoft ha approvato lo sviluppo di un algoritmo di intelligenza artificiale capace di determinare quali adolescenti, che vivono in una condizione di basso reddito, potrebbero rimanere incinte. Sicuramente un software IA che molti potrebbero considerare "poco etico".

I dati utilizzati da Microsoft per l'analisi delle adolescenti riguardavano età, etnia, disabilità, paese di origine e se la loro casa avesse o meno acqua calda nel bagno (sì, avete letto bene). In questo modo - secondo i calcoli dell'algoritmo - si potevano identificare le ragazze "predestinate" alla maternità e che vivevano nella città di Salta.

Secondo quanto riporta Wired, l'algoritmo, noto come Piattaforma tecnologica per l'intervento sociale, e la stessa Microsoft sono stati al centro di una bufera mediatica. Il motivo è semplice: un'azienda americana famosa in tutto il mondo ha scelto di collaborare e implementare un programma del genere in un paese con una lunga storia di misure di sorveglianza e controllo della popolazione.

L'uso di questa tecnologia in mano al governo argentino non è stato per nulla etico. Per prima cosa, il governo non ha mai valutato formalmente l'impatto dell'algoritmo su ragazze e donne. Mentre secondariamente sono perfino stati rilasciati "agenti territoriali" che hanno intervistato le persone identificate dall'IA come predestinate alla gravidanza, scattando foto e persino registrando le loro posizioni GPS.

Certo, questo è sicuramente un caso unico, ma mostra come sia sicuramente più semplice controllare la popolazione attraverso l'intelligenza artificiale. Non vi ricorda vagamente un certo romanzo di George Orwell? A proposito, sapete che questa IA genera ipotesi a cui nessun essere umano aveva mai pensato?