Un'IA per monitorare le emozioni degli studenti: la controversa proposta di Intel

Un'IA per monitorare le emozioni degli studenti: la controversa proposta di Intel
di

Mentre Intel si avvia verso la leadership tecnologica, un'innovazione dell'azienda sta facendo molto discutere gli esperti di informatica e di pedagogia in tutto il mondo. La compagnia di Santa Clara, infatti, ha realizzato un software capace di riconoscere le emozioni degli studenti tramite l'IA.

Il software, pubblicato come parte della suite "Class" di Intel, pensata per gli istituti ancora costretti alla didattica a distanza, dovrebbe aiutare gli insegnanti nelle lezioni fornendo loro una sorta di "pannello di controllo" che mostra in tempo reale le emozioni degli studenti connessi da remoto grazie al tracking del loro volto, dei micromovimenti facciali e del linguaggio del corpo tramite la webcam del loro computer.

Per esempio, l'IA riconosce la noia, la distrazione e la confusione degli alunni, ma potrebbe essere utilizzata al pari di altri software per evitare che gli studenti copino durante verifiche e test. Per questo motivo, Intel ha spiegato di puntare a fare del software un prodotto commercializzabile, nonostante esso sia stato accolto da numerose critiche in tutto il mondo della didattica.

Sinem Aslan, uno degli ingegneri di Intel che si sono occupati del software, ha spiegato che in realtà il suo obiettivo è quello di migliorare le interazioni uno-a-uno tra insegnante e studente e dare ai docenti più informazioni sullo stato di salute mentale dei propri alunni, specie in condizioni particolarmente stressanti come quelle della didattica a distanza e dei lockdown.

Il problema principale del software, aspramente contestato da alcuni esperti, è che le sue premesse scientifiche sono labili, dal momento che l'idea di analizzare i movimenti del volto o del corpo per scoprire lo stato d'animo di una persona è ancora oggetto di dibattito in campo psicologico. In altre parole, l'IA di Intel, per quanto accurata possa essere, potrebbe non svolgere un lavoro scientificamente attendibile.

Inoltre, un software standardizzato come quello della casa di Santa Clara potrebbe faticare ad adeguarsi a culture diverse, ciascuna con il proprio modo di esprimere i sentimenti. In altre parole, i segni e i movimenti che in una cultura vengono collegati alla felicità in un'altra potrebbero corrispondere ad un altro stato d'animo, falsando la percezione dell'IA di Intel.

Un'ultima questione è poi quella della legittimità dell'analisi delle webcam degli studenti e dell'utilizzo di tecnologie di riconoscimento facciale su questi ultimi, specie tra i bambini. Qualche mese fa, per esempio, un analogo caso di riconoscimento facciale utilizzato in una mensa scolastica aveva sollevato diverse critiche nel Regno Unito.

Quanto è interessante?
1