Speciale Tech
Xiaomi 13 Pro: esperienza premium anche nel gaming

Dopo le preoccupazioni sollevate dai ricercatori per ChatGPT, che ancora non riesce a distinguere tra informazioni vere e false, un'altra voce si aggiunge al fitto panorama di critici dell'IA di OpenAI. Stavolta, infatti, è il più grande editore di testi accademici e scientifici a "chiudere le porte" al famosissimo chatbot.
Con un testo pubblicato su Nature, di cui è l'editore, Springer Nature ha messo dei paletti all'uso di ChatGPT a livello scientifico ed accademico. La casa editrice britannica, in particolare, ha spiegato che i ricercatore non potranno inserire alcuna IA, sia essa ChatGPT o un qualsiasi modello linguistico simili ad essa, tra le "firme" dei propri articoli scientifici.
Ciò però non significa che Springer Nature accetterà solo contenuti completamente umani: al contrario, l'editore ha spiegato di non vedere alcun problema nell'utilizzo dell'IA a supporto dell'attività di raccolta fonti, elaborazione dei testi e scrittura degli articoli accademici dei ricercatori e degli scienziati che pubblicano sulle migliaia di giornali specialistici editi dal gruppo Nature.
Insomma, niente articoli scritti per intero dall'IA, ma sì all'utilizzo di quest'ultima per facilitare (e, magari, velocizzare) il lavoro degli accademici: Springer Nature e le sue pubblicazioni non accetteranno dunque testi che non abbiano alcuna componente umana, specie in termini di revisione della correttezza di quanto scritto, nei loro processi produttivi.
La presa di posizione di Springer Nature, destinata a far molto discutere, arriva dopo che ChatGPT ha "firmato" diversi articoli accademici negli ultimi mesi, benché apportandovi un contributo molto variabile di caso in caso. L'editor in chief di Nature, Magdalena Skipper, ha spiegato a The Verge che "alla luce dei recenti avvenimenti, ci siamo sentiti obbligati a chiarire la nostra posizione. Lo facciamo per i nostri autori, per i nostri editor e per i nostri lettori".
Benché l'iniziativa di Springer Nature sia lodevole, resta il problema di discernere il lavoro di un'IA da quello di un umano: in questo caso, neanche i migliori editor al mondo possono stare certi di non farsi "fregare" da qualche chatbot particolarmente "istruito". Resta invece valida la misura della peer review dei testi accademici che, almeno limitatamente alle pubblicazioni specializzate, dovrebbe riuscire ad arginare le fake news e i falsi.
Altri contenuti per ChatGPT
Contenuti più Letti