1
Speciale Tech
Per OpenAI e Sam Altman l'IA è davvero pericolosa?

Mentre l'app di ChatGPT per iOS si fa attendere sul mercato italiano, una vera e propria doccia fredda arriva da OpenAI agli utenti europei di servizi come il suo popolare Chatbot. Il CEO della startup Sam Altman, infatti, ha spiegato che OpenAI potrebbe lasciare il mercato europeo qualora non dovesse trovare una "quadra" con i regolamenti dell'UE.
La questione è decisamente profonda: partita con il ban provvisorio di ChatGPT in Italia, risalente a fine marzo, essa è passata per le diffidenze reciproche tra OpenAI e le autorità europee e dei singoli Stati membri dell'Unione, che hanno portato ad un monitoraggio diretto di ChatGPT in Spagna e alla creazione di una task force europea di vigilanza su ChatGPT.
Questa task force dovrebbe portare all'approvazione dell'AI Act Europeo, che al momento è ancora in fase di finalizzazione da parte dei legislatori di Bruxelles. The Verge riporta che proprio la nuova regolamentazione europea preoccuperebbe molto Sam Altman, il quale ha spiegato di avere "molti timori" sull'AI Act dell'UE durante una talk a Londra.
Il Financial Times, invece, spiega che Sam Altman avrebbe detto che "i dettagli della proposta di legge saranno davvero importanti. Cercheremo di adeguarci alle richieste europee, ma, se non potremo farlo, smetteremo semplicemente in operare in Europa". Sembra che il principale nodo dell'AI Act sia la classificazione di ChatGPT e degli altri Chatbot come applicativi "ad alto rischio" per quanto riguarda la sicurezza e la trasparenza dei dati dei cittadini europei.
Se tale classificazione venisse approvata, OpenAI dovrebbe modificare i parametri di sicurezza e trasparenza del suo Chatbot per tutti gli utenti europei. Altman, a riguardo, ha riportato che "potremmo essere in grado di apportare le modifiche che eventualmente ci saranno richieste, oppure potremmo essere incapaci di farlo. Ci sono dei limiti tecnici a ciò che si può fare".
Un altro problema, secondo Altman, sarebbe l'eventuale obbligo per OpenAI di svelare il design del sistema di ChatGPT: quest'ultimo, infatti, era condiviso con il pubblico fino a marzo, ma quando il Chatbot è diventato di grande valore economico OpenAI ha smesso di pubblicare tali dati, temendo la concorrenza di altre compagnie.
Inoltre, c'è sempre la questione del possibile (e per ora non confermato) uso di informazioni protette da copyright per il training di ChatGPT, che, se fosse apertamente svelato al pubblico, rischierebbe di trascinare OpenAI in enormi guai giudiziari.
Altri contenuti per ChatGPT
Contenuti più Letti