Perché l'intelligenza artificiale non può risolvere ogni problema?

Quali sono gli attuali limiti della tecnologia alla base dell'intelligenza artificiale e perché questa non può risolvere ogni problema.

speciale Perché l'intelligenza artificiale non può risolvere ogni problema?
Articolo a cura di

Prima di addentrarsi in un discorso sulla tanto discussa intelligenza artificiale, è necessario stabilire in maniera non equivoca a cosa ci si riferisca. In questo articolo useremo la parola AI (artificial intelligence) al posto di "algoritmo in grado di imparare contestualmente agli input che gli vengono forniti", riferendoci dunque a qualsivoglia algoritmo di Machine Learning (traducibile in apprendimento automatico). Bisogna fin da subito escludere ogni riferimento ad altre AI, come ad esempio quella di un videogioco, che di fatto non è altro che una serie di script costretti ad eseguire quello che i programmatori hanno prestabilito, senza alcuna possibilità di variazione.
L'intelligenza artificiale è letteralmente ovunque: ci consiglia il miglior prodotto possibile da acquistare su Amazon, ci aiuta a decidere che film guardare su Netflix ed ottimizza le news in base ai nostri interessi. Silente ma presente, si è insinuata nella nostra vita senza che ce ne accorgessimo, mentre i media ci bombardavano di notizie sui pericoli dell'AI rappresentata come un Terminator model 101 qualunque. Invece ora corregge le foto del nostro smartphone, riuscendo ad arginare i limiti tecnici di un obiettivo di piccole dimensioni.
Quel che vogliamo analizzare, in questo articolo, sono le capacità di un algoritmo di intelligenza artificiale odierno e i paletti che ne limitano la sua applicazione in qualunque mansione.

AI applicata a qualunque contesto: reti neurali

Se non avete mai sentito parlare di reti neurali, forse è il caso che cominciate a dare un'occhiata al vero volto di quello che commercialmente viene denominato intelligenza artificiale. Una rete neurale è un modello matematico ispirato (concettualmente) alla rete neurale biologica. Può esservi presentata come un chip dedicato (negli smartphone) o come un algoritmo che gira su CPU o scheda grafica, ma il modello generico può ricondursi a quello descritto nella figura che segue: un modello che analizza gli input (a sinistra) ed imposta i propri coefficienti (ovvero dei numeri reali in corrispondenza dei neuroni) in base agli output desiderati (a destra).

La rete neurale ha una propria fase di apprendimento ed una volta che diventa operativa riesce a restituire l'output più sensato rispetto all'input che gli viene fornito. Potete immaginare di inserire i dati dei vostri film preferiti nella rete neurale per ottenere dei consigli su cosa guardare in streaming: i film in ingresso sono gli input e quelli consigliati sono gli output.
L'iPhone X sfrutta i dati del vostro viso per capire se sbloccare o meno lo smartphone: questo avviene tramite reti neurali, che a differenza di un qualunque algoritmo preimpostato possono aggiornare i propri coefficienti e rilevare delle variazioni fisiche (crescita di barba, occhiali, ...).

Come avrete inteso da questa premessa, è facile capire perché le aziende stiano sfruttando l'AI in qualunque contesto: facilitare la vita dei propri clienti con algoritmi automatizzati e intelligenti può dare una spinta decisiva ai loro prodotti. Il requisito fondamentale è avere a disposizione un gran quantità di dati, praticamente l'oro dell'epoca digitale.
Siamo nell'epoca dell'AI applicata ovunque: se una rete neurale riesce a rilevare una malattia specifica in modo più accurato di un dottore, è semplice arrivare alla conclusione che l'intelligenza artificiale possa aiutarci in molti altri ambiti socialmente utili. Purtroppo, la realtà è ben diversa ed è bene non sperare in miracoli o avere aspettative irrealistiche verso gli algoritmi intelligenti.

Quanto si punta all'AI?

Trascurando volontariamente chi afferma che l'AI sia la salvezza e chi invece la dipinge come lo Skynet che distruggerà l'umanità (che senza viaggi nel tempo è decisamente spacciata), cerchiamo di capire qual è lo stato attuale degli investimenti.
Il Regno Unito ha promesso di spendere 300 milioni di sterline nella ricerca sull'AI, così da posizionarsi come leader del settore, mentre la Francia vuole trasformarsi un HUB globale dell'intelligenza artificiale. I cinesi non vogliono essere da meno con il loro piano di creare un'industria che valga 150 miliardi di dollari entro il 2030.
Questi dati dovrebbero essere sufficienti per capire che l'AI continuerà a giocare un ruolo fondamentale nella corsa tecnologia dei prossimi anni e che la rivoluzione è appena iniziata.
Chiaramente il maggior obiettivo della ricerca è lo sviluppo di reti neurali sempre più performanti, che possono raggiungere una precisione sempre maggiore avendo a disposizione una grande quantità di dati. Nell'epoca dei Big Data non è certo difficile capire perché queste reti neurali stiano dando dei risultati considerevoli. Dal punto di vista hardware non mancano aziende come NVIDIA che stanno spingendo in modo massiccio per creare schede video adeguate che riescano a fornire l'enorme capacità di calcolo di cui hanno bisogno le reti neurali più complesse.

I limiti dell'intelligenza artificiale

L'AI necessità una gran quantità di dati: similmente ad un essere umano che impara dall'esperienza, una rete neurale ha bisogno di essere allenata per impostare i propri parametri (i neuroni), un processo che richiede tempo e terabyte di informazioni. Mentre per le aziende già affermate sul web questo requisito non è un problema, il settore pubblico ancora non è pronto per l'epoca dell'intelligenza artificiale. Prima di poter sfruttare le reti neurali a livello burocratico bisognerà attendere la completa digitalizzazione degli archivi cartacei e l'unificazione dei database, che spesso sono dispersi in diversi ministeri o dipartimenti governativi.

Quando le reti neurali saranno implementate nell'ambito della pubblica amministrazione bisognerà pensare anche al lato della sicurezza informatica. Sapendo che queste reti effettuano delle previsioni in base ai dati di cui dispongono, è semplice ingannarle forzandole a compiere decisioni errate.
Chi ci segue su Everyeye.it forse avrà già letto uno dei nostri speciali sull'AI , che tra i vari argomenti trattano anche dei problemi etici derivanti dalle scelte che un potenziale algoritmo intelligente deve compiere sulle vite delle persone: basti pensare ad un semplice caso in cui una macchina a guida automatica deve scegliere fra la sicurezza del proprio passeggero e tra un altro individuo nelle vicinanze. I più curiosi possono leggere il resoconto della conferenza "Humans. The next ones" che ha trattato questi argomenti analizzando a fondo l'aspetto etico nel formalizzare le regole dietro agli algoritmi intelligenti.

Per concludere, non ci rimane che analizzare l'ultima evidenza che è ormai chiara a tutti: attualmente (e non escludiamo nulla per il futuro) l'AI non è magica ed ha dei limiti invalicabili. Facebook credeva di poter risolvere il problema delle fake news e dell'hate speech a livello algoritmico, ma si è trovata di fronte ad un mondo pieno di variabili incalcolabili ed opinioni troppo differenziate. Lì dove neanche l'uomo può stabilire cosa è bene e cosa è male, anche le macchine falliscono. Tralasciando i casi eclatanti, attualmente il problema della diffusione di notizie false e di odio attraverso i social network non è risolvibile.
Nulla esclude che in futuro gli attuali limiti possano essere valicati con nuovi modelli, ma per ora Facebook ha deciso di affidarsi anche agli utenti per arginare la problematica dell'hate speech e delle fake news.
Quando parliamo di "non risolvibilità" intendiamo che esistono dei problemi che attualmente non si riesce a risolvere. Si è cercato di implementare delle AI per riconoscere dei tumori in alcuni ospedali americani, ma gli esperti umani hanno trovato un'estrema difficoltà nel fidarsi di un algoritmo. A causa di questa diffusa diffidenza il programma di ricerca è stato abbandonato in molti ospedali.

Un altro tipo di AI veniva usato nei tribunali americani per avere uno score sui criminali sotto accusa in modo che i giudici potessero avere un ulteriore consiglio: purtroppo il sistema è risultato tendenzialmente razzista ed è stato abbandonato. Chiaramente il problema è da ricercarsi nel tipo di dati forniti, che hanno influenzato la rete neurale a tal punto da renderla lontana da quella che viene comunemente chiamata "obiettività".
Bisogna differenziare i casi in cui le variabili necessarie sono semplicemente troppe e quelli in cui è l'interazione con l'essere umano ad impedire lo sviluppo di questa tecnologia, ma ad oggi è chiaro che esistono dei limiti che impediscono la diffusione dell'intelligenza artificiale. Nulla esclude che in futuro la maggior parte di questi venga superato a livello umano e tecnologico, favorendo l'introduzione di reti neurali lì dove adesso ci sono ostacoli insormontabili.