Nel giornalismo del futuro regnerà l'intelligenza artificiale?

Il mondo del giornalismo è a rischio: con lo sviluppo di IA sempre più complesse e potenti ogni giornalista potrebbe venire rimpiazzato da una di esse.

speciale Nel giornalismo del futuro regnerà l'intelligenza artificiale?
Articolo a cura di

È un discorso complesso da trattare, ma fondamentale per capire il nostro futuro: nel giornalismo regnerà davvero l'intelligenza artificiale? Con l'evoluzione degli algoritmi di ricerca, delle tecnologie e del machine learning, gli sviluppatori hanno già creato IA dal potenziale incredibile come GPT-3 o Generative Pre-trained Transformer 3, la terza versione del sistema generatore di testi sviluppato dall'organizzazione non profit OpenAI, usato anche dal "The Guardian" per scrivere un saggio da zero su temi scottanti in ambito tech-etico.
Alla luce dei risultati ottenuti, molti giornalisti ed esperti si sono preoccupati non poco delle implicazioni che può avere l'utilizzo di uno strumento simile nell'editoria, chiedendosi spesso quale potrebbe essere il suo impatto nel mondo dell'informazione e del lavoro.
Per trovare le risposte che ci servono, però, prima bisogna comprendere lo stato attuale del giornalismo, o meglio la percezione che hanno lettori, studenti di giornalismo e alcuni scrittori per blog e testate online.

Discorso sul metodo: tra approfondimenti e clickbait

In questa analisi ci limiteremo soltanto allo studio della situazione italiana, senza però citare giornalisti e testate specifiche, per capire qual è la percezione del giornalismo a livello nazionale partendo in particolare dall'opinione dei lettori.
In un'indagine del 2017 condotta dal Pew Research Center riguardante il rapporto tra news outlets e schieramento politico in Italia, i primi dati presentati sono proprio quelli riguardo la lettura e la fiducia dei media del Belpaese: sebbene circa il 75% reputi le testate italiane (online, cartacee o televisive che siano) importanti per la diffusione delle notizie principali, il 71% degli intervistati non ha fiducia in esse.

I motivi sono diversi: da una parte è stato evidenziato il problema dello schieramento politico e dell'oggettività dei giornalisti in questione, analizzato in una serie di sondaggi consultabili nel medesimo studio di Pew Research. D'altro canto, però, alcuni hanno affermato che a rendere il giornalismo così poco degno di fiducia è il metodo in cui vengono scritti e pubblicati gli articoli, soprattutto se si tratta di notizie veloci da leggere.

Questo parere è condiviso quotidianamente soprattutto dai giovani sui social, tanto che esistono anche pagine e gruppi su Facebook che si dedicano proprio alla condivisione e critica (a volte anche pesante, ndr) di articoli clickbait o ritenuti decisamente inutili e non professionali.

Sostituto o aiutante?

Molti esperti e ricercatori hanno già cercato di rispondere a queste domande, interrogandosi in generale sul futuro del giornalismo condizionato da algoritmi e IA. Uno di questi, apprezzato da diversi specialisti, è Newsmakers: Artificial Intelligence and the Future of Journalism del professore alla Columbia University a New York Francesco Marconi, capo del laboratorio media del Wall Street Journal e dell'Associated Press.
La sua tesi è chiara: il mondo del giornalismo non è al passo con l'evoluzione delle nuove tecnologie; pertanto, le redazioni dovrebbero trarre vantaggio da ciò che l'IA può offrire, creando un nuovo modello di business.
Per Marconi l'intelligenza artificiale dovrebbe diventare il cuore del giornalismo, ma non per rimpiazzare i giornalisti.
Prima abbiamo citato l'articolo di GPT-3 pubblicato dalla testata inglese The Guardian: per quanto di alta qualità, ha pur sempre richiesto un supporto dell'essere umano nella ricerca delle fonti, nelle istruzioni da rispettare e nella revisione finale dell'articolo che comprende tagli e la riorganizzazione di alcuni paragrafi. Il tempo necessario e i costi per scrivere l'editoriale sono sì risultati inferiori rispetto a quelli richiesti da un giornalista umano, ma il prodotto finale non è stato automaticamente migliore.

Secondo Marconi l'IA dovrebbe sostituire soltanto attorno all'8-12% dei giornalisti umani e solo in compiti specifici come la ricerca di fonti, la correzione degli articoli e la scrittura di notizie basate su dati statistici o matematici come i risultati delle partite di calcio, basket e tutti gli altri sport, gli accordi tra aziende e il meteo locale. Quella percentuale di redattori, invece, verrebbe riorientata verso contenuti prettamente umani come interviste, analisi, approfondimenti, giornalismo investigativo e sul campo.

Attualmente esistono già testate che si affidano all'IA per contenuti simili e non solo: vedi il caso de The Canadian Press, che lo usa per traduzioni e articoli su meteo e sport; o anche quello della testata francese Agence France-Presse, dove l'IA viene utilizzata per rilevare quali foto sono manipolate e quali invece possono essere utilizzate negli editoriali.
In altri casi ancora viene resa uno strumento fondamentale per la trascrizione di audio e video, database estremamente grandi e dati complessi, o anche l'analisi di fake news e deepfake. Poi però rimane l'essere umano colui che controlla tali dati, li analizza, contestualizza e riporta nella maniera giusta.
E i giovani giornalisti cosa ne pensano? Per loro è un'arma a doppio taglio: avere un'IA come GPT-3 in redazione può insegnare a scrivere bene, ma non dovrebbe diventare redattore al posto dell'essere umano; sarebbe molto meglio avere un algoritmo che controlli le notizie, aiuti nella ricerca di fonti e svolga i compiti precedentemente detti.

Il pericolo umano e artificiale: i bias

In questo lungo processo però va considerato un elemento da noi ancora non trattato: i bias, ovvero quell'insieme di pregiudizi - innati o appresi - che vanno a condizionare il prodotto finale. Per fare un esempio semplice, una testata allineata a un orientamento politico specifico riporterà più notizie riguardanti i politici di quello schieramento rispetto a quelli dei partiti opposti, magari legittimando maggiormente i loro punti di vista. Questo fattore è già presente nel giornalismo attuale e rimuoverlo completamente sarà un compito praticamente impossibile, ma si può notare anche in diverse intelligenze artificiali, soprattutto per quanto riguarda gli algoritmi per il riconoscimento facciale utilizzati per prevedere la criminalità dei cittadini.
A giugno è nata persino una coalizione chiamata Coalition for Critical Technology formata da 1700 esperti, la quale ha chiesto tramite una lettera aperta pubblicata su Medium di non pubblicare più studi a favore di questa tecnologia poiché "non esiste alcun modo per sviluppare un sistema in grado di prevedere la criminalità senza che questo meccanismo sia soggetto a bias, proprio perché la nozione di criminalità è naturalmente soggetta a pregiudizi".

Nel mondo del giornalismo, o della ricerca tout court, il problema potrebbe presentarsi allo stesso modo: essendo gli algoritmi scritti da sviluppatori umani, il rischio della presenza di bias in grado di alterare l'analisi dei dati è sempre presente. Anche per questo motivo l'IA non può essere lasciata sola nella scrittura di notizie, anzi dovrà essere il redattore umano a controllare questo strumento in base alle sue necessità.
E qui potrebbe nascere un circolo vizioso, poiché l'IA dovrebbe a sua volta controllare che l'essere umano non condizioni l'articolo con suoi bias personali.

Una questione professionale da non sottovalutare

Se dunque alla domanda iniziale può risultare difficile trovare una risposta definitiva, poiché all'"hype" per le nuove tecnologie controbatte la paranoia per la questione etica ed economica della possibile perdita dei posti di lavoro, possiamo provare a dare una risposta a un'altra domanda: è meglio un giornalismo completamente umano o supportato dall'intelligenza artificiale? Dotandoci di un po' di "cinismo" per quanto concerne il problema economico, sarebbe meglio un giornalismo in grado di offrire al mondo le notizie più approfondite, non soggette a bias politici e razziali e basate su fonti autorevoli.

Per raggiungere questo obiettivo, allora, servirebbe il supporto dell'IA non solo per aiutare il redattore umano nella ricerca di fonti e nella stesura e correzione dell'articolo, ma anche per controllare la sua attività; il presupposto aggiuntivo sarebbe quello dell'analisi dell'operato dello sviluppatore di tale algoritmo, magari da un regolatore internazionale super partes, per assicurarsi che l'intero apparato finale sia il più equo e corretto possibile.
Insomma, servirebbe trovare la via di mezzo adatta per garantire benefici sia al redattore che ai vertici della testata, ma ponendo il focus maggiore sull'offrire al lettore la migliore esperienza possibile.
Attualmente, però, proprio al lettore questo non risulta essere l'obiettivo della maggior parte delle testate nazionali e internazionali.

Tra hype e paranoia, resta comunque un'opportunità

Citando parte dell'incipit del report scritto da Charlie Beckett per Google News Initiative e la London School of Economics and Political Science, "No, i robot non prenderanno il posto del giornalismo. Sì, le macchine potrebbero presto essere in grado di fare molto lavoro giornalistico di routine. Ma la realtà e il potenziale dell'intelligenza artificiale (AI), dell'apprendimento automatico e dell'elaborazione dei dati vede come obiettivo dare ai giornalisti nuovi poteri di scoperta, creazione e connessione. [...] Gli algoritmi alimenteranno i sistemi, ma il tocco umano - l'intuizione e il giudizio del giornalista - sarà un elemento fondamentale. L'industria dell'informazione può cogliere questa opportunità?".

I problemi sono molti da ambo le parti, per questo per lungo tempo è e sarà una sfida cercare di capire come sfruttare l'intelligenza artificiale senza recare danni sia al giornalista che al prodotto del suo lavoro. Nonostante ciò, con la mentalità giusta sarà possibile affrontare la minaccia economica, etica ed editoriale dell'AI per renderla uno strumento in grado di potenziare le capacità di ricerca, per poi lasciare allo scrittore umano il compito di analizzare le fonti e trattare la tematica in questione nel modo più approfondito e professionale possibile.

Infine, non va sottovalutato il pericolo della "corruzione al clickbait", sfruttato spesso in maniera eccessiva per invogliare gli utenti a leggere notizie o editoriali e condividerli sui social network, che sia per criticare il titolo-esca o per discutere sull'articolo.
Una minaccia etica dunque già esiste e genera non poche controversie, ed è condizionata dall'attività di esseri umani e da algoritmi già rodati e funzionanti. Per cogliere l'opportunità dell'intelligenza artificiale, dunque, bisogna prima "fixare il bug" più pericoloso del giornalismo attuale.