Non è di certo passato inosservato lo statement di 22 parole sui rischi dell'IA firmato da nomi decisamente altisonanti del settore, tra cui figura anche Sam Altman, CEO di OpenAI. La figura chiave di ChatGPT non è neanche lontanamente il solo esperto a pensare che l'intelligenza artificiale vada trattata con cautela e presa anche come un rischio, tanto da essere accostata a pandemie e guerre nucleari. Sono associazioni forti e che attirano di certo l'attenzione, ma vanno contestualizzate in un ambito ben preciso, visto che quando si fa riferimento all'IA come "rischio esistenziale" è sempre bene prima fare un passo indietro ed evitare soprattutto di pensare a scenari alla Skynet (per usare un termine tanto "apprezzato" in rete): no, non è quello che intendono Altman e soci.
La parola chiave è regolamentazione
Tranquilli, al momento di scenari post apocalittici legati all'errato uso dell'IA non se ne vedono in vista. Il fatto è che l'intelligenza artificiale sta mostrando ampie potenzialità in molti campi, in un modo così rapido da far impallidire anche il settore tecnologico. Si parla di soluzioni in grado di accelerare il progresso, sia in modo positivo che in modo negativo. Basti pensare alla ricerca biochimica e biomedica, in cui si iniziando a vedere antibiotici creati in sole due ore proprio dall'IA.
L'altra faccia della medaglia? Si teme che una tecnologia di questo tipo possa portare a errori importanti o a casi di mal utilizzo dell'intelligenza artificiale. Basti vedere quanto si legge in uno studio pubblicato nel 2022 sul portale ufficiale del Parlamento Europeo, in cui vengono messi in evidenza sia alcuni potenziali benefici dell'applicazione dell'IA al campo medico che altrettante criticità. Si va da potenziali errori ai danni dei pazienti a questioni come la mancanza di trasparenza e le vulnerabilità relative alla violazione della privacy - senza neanche scomodare il recente utilizzo improprio fatto da un avvocato con ChatGPT, con tanto di "precedenti" inventati dal chatbot di sana pianta. Insomma, non serve nemmeno scendere troppo nel dettaglio per far comprendere la questione: estendendo un ragionamento di questo tipo a tutti i campi in cui l'IA può essere applicata, è chiaro che potrebbero esserci rischi perlomeno da non sottovalutare.
No, nessuna intelligenza artificiale senziente o situazioni da film di fantascienza. Il problema alla base è sempre lo stesso: l'uso che l'essere umano può fare di questi strumenti. Ecco, dunque, che le recenti dichiarazioni di alcune figure di spicco del mondo tech, che fanno riferimento all'IA come ad un "rischio esistenziale" assumono un significato un po' diverso, vero? Nella dichiarazione si legge: "Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".
Ciò che viene richiesto da parte degli esperti firmatari, che includono anche il CEO di Google DeepMind, Demis Hassabis, e Dario Amodei, CEO di Anthropic, è una regolamentazione rigida in materia, che al giorno d'oggi latita ancora un po' in tutto il mondo. D'altronde, è nell'interesse anche dei Big avere un settore regolamentato e in cui si possa innovare senza che qualcuno possa "rompere le regole". Il riferimento in questo caso potrebbe andare a realtà che stanno rendendo accessibili a tutti, anche direttamente da browser, modelli di intelligenza artificiale con paletti "controversi".
Ad esempio, il generatore di immagini IA Stable Diffusion è stato criticato perché consente input che possono portare a problematiche di disinformazione, violazione del copyright e simili. Di recente, in mezzo a una bufera di questo tipo è finito anche lo strumento indipendente Midjourney, utilizzato per realizzare foto false di Papa Francesco e Donald Trump, che hanno portato a un'ampia discussione sul tema. Certo, col passare del tempo si stanno prendendo sempre più precauzioni ma ancora oggi, da un browser, è tranquillamente possibile far generare in pochi secondi a un'IA immagini di personaggi noti senza troppi problemi.
Cosa c'entra OpenAI in tutto questo? Quella guidata da Sam Altman non è un'azienda classica, bensì un'organizzazione che da sempre si prefigge l'obiettivo di mostrare al mondo le potenzialità dell'IA in modo etico. Il termine friendly AI (IA amichevole) è infatti molto caro ad Altman e soci, sin dalla fondazione avvenuta a fine 2015. Tralasciando i dibattiti sul fatto che OpenAI stia perseguendo o meno l'obiettivo indicato nei suoi primi momenti (inizialmente si trattava di una totale no profit, mentre da qualche anno OpenAI ha una struttura ibrida capped-profit, cosa giustificata da Altman in quanto a suo dire necessaria per fare progressi in campo IA), l'idea di base è proprio quella di far discutere sul tema dell'Intelligenza Artificiale prima ancora che le Big Tech rilascino potenti servizi "chiusi" di cui solamente in pochi conoscono i dettagli.
D'altronde, non è un mistero che aziende come Google stiano lavorando in questo campo da lungo tempo, ben prima di chatbot come Bard. Il pensiero di Altman e degli altri firmatari, quindi, è ben chiaro: l'obiettivo è quello di rendere accessibile a tutti l'IA, così che nessuno abbia dei "superpoteri" in tal senso, nonché porre le basi per delle regole standardizzate e valide per tutti. Per fare in modo che non ci siano problemi, dunque, c'è il bisogno che anche la politica faccia dei passi in avanti in tal senso, in modo che si generi un dibattito globale attorno al tema e si utilizzino le potenzialità dell'IA per apportare benefici alle nostre vite, e non per potenziali minacce alla nostra esistenza.
Insomma, secondo gli esperti, questo settore ha bisogno al più presto di essere regolamentato e in generale dibattuto, così da scongiurare sul nascere gli scenari più nefasti. Una possibile chiave di lettura dello statement è quella secondo cui Altman e soci stiano cercando, in un momento di grande attenzione sul tema, di far comprendere anche alle autorità dei vari Paesi e alle persone in generale l'importanza di avere una regolamentazione ben strutturata in questo settore.
Associare l'IA a pandemie e guerre nucleari potrebbe sembrare un po' esagerato, ma di certo riesce a rendere bene l'idea di un'immediata esigenza di mettere dei paletti a una realtà che sta progredendo a velocità che difficilmente si sono viste in precedenza. Non è un caso che OpenAI abbia appena stanziato un fondo da un milione di dollari per proseguire nei tentativi di regolamentare l'IA, così da sovvenzionare ricercatori e aziende affinché arrivino proposte e idee per migliorarne il domani. Ci troviamo in una fase in cui molto probabilmente si andrà a decidere quale sarà il futuro uso dell'intelligenza artificiale e non sorprende che si stia discutendo in merito a un AI Act tutto europeo, ovvero la prima importante proposta di regolamentazione sull'IA al mondo, proprio in seno all'Unione Europea.
Abbiamo solo scalfito la superficie della questione e sarà il futuro a dirci in che direzione andremo, ma se stavate già pensando a Terminator, potete sedare gli "entusiasmi".
Quel che c'è per ora di concreto è infatti quanto descritto sul portale ufficiale di OpenAI: "L'intelligenza artificiale avrà impatti economici e sociali significativi e di vasta portata. La tecnologia plasma la vita degli individui, il modo in cui interagiamo gli uni con gli altri e l'evoluzione della società nel suo complesso. Riteniamo che le decisioni su come si comporta l'IA debbano essere modellate da diverse prospettive che riflettano l'interesse pubblico.
Le leggi codificano valori e norme per regolare il comportamento. Al di là di un quadro giuridico, l'IA, proprio come la società, ha bisogno di linee guida più complesse e adattive per la sua condotta. Ad esempio: in quali condizioni i sistemi di intelligenza artificiale dovrebbero condannare o criticare personaggi pubblici, date le opinioni diverse riguardo a tali figure? Come dovrebbero essere rappresentate le opinioni controverse nei risultati dell'IA? L'intelligenza artificiale per impostazione predefinita dovrebbe riflettere un individuo medio nel mondo, il Paese dell'utente, i dati demografici dell'utente o qualcosa di completamente diverso? Nessun singolo individuo, azienda o Paese dovrebbe dettare queste decisioni.
L'AGI (intelligenza artificiale forte, ovvero può che apprendere un qualsiasi compito intellettuale che può essere imparato da un umano, punto di arrivo non ancora raggiunto ma a cui si potrebbe arrivare in futuro secondo Altman, ndr) dovrebbe beneficiare tutta l'umanità ed essere modellata per essere più inclusiva possibile. Stiamo lanciando questo programma di sovvenzioni per fare un primo passo in questa direzione. Stiamo cercando team da tutto il mondo per sviluppare un processo democratico che possa rispondere a domande su quali regole dovrebbero seguire i sistemi di intelligenza artificiale. Vogliamo imparare da questi esperimenti e usarli come base per un processo più globale e più ambizioso in futuro.
Sebbene questi esperimenti iniziali non siano (almeno per ora) intesi come vincolanti per le decisioni, speriamo che esplorino questioni rilevanti per la decisione e costruiscano nuovi strumenti democratici che possano informare più direttamente le decisioni in futuro".
Per OpenAI l'IA è davvero pericolosa? La regolamentazione per Sam Altman
Perché il CEO di OpenAI ha firmato uno statement in cui si afferma che l'IA può rappresentare un rischio reale? Facciamo un po' di chiarezza.
Non è di certo passato inosservato lo statement di 22 parole sui rischi dell'IA firmato da nomi decisamente altisonanti del settore, tra cui figura anche Sam Altman, CEO di OpenAI.
La figura chiave di ChatGPT non è neanche lontanamente il solo esperto a pensare che l'intelligenza artificiale vada trattata con cautela e presa anche come un rischio, tanto da essere accostata a pandemie e guerre nucleari.
Sono associazioni forti e che attirano di certo l'attenzione, ma vanno contestualizzate in un ambito ben preciso, visto che quando si fa riferimento all'IA come "rischio esistenziale" è sempre bene prima fare un passo indietro ed evitare soprattutto di pensare a scenari alla Skynet (per usare un termine tanto "apprezzato" in rete): no, non è quello che intendono Altman e soci.
La parola chiave è regolamentazione
Tranquilli, al momento di scenari post apocalittici legati all'errato uso dell'IA non se ne vedono in vista. Il fatto è che l'intelligenza artificiale sta mostrando ampie potenzialità in molti campi, in un modo così rapido da far impallidire anche il settore tecnologico.
Si parla di soluzioni in grado di accelerare il progresso, sia in modo positivo che in modo negativo. Basti pensare alla ricerca biochimica e biomedica, in cui si iniziando a vedere antibiotici creati in sole due ore proprio dall'IA.
L'altra faccia della medaglia? Si teme che una tecnologia di questo tipo possa portare a errori importanti o a casi di mal utilizzo dell'intelligenza artificiale.
Basti vedere quanto si legge in uno studio pubblicato nel 2022 sul portale ufficiale del Parlamento Europeo, in cui vengono messi in evidenza sia alcuni potenziali benefici dell'applicazione dell'IA al campo medico che altrettante criticità.
Si va da potenziali errori ai danni dei pazienti a questioni come la mancanza di trasparenza e le vulnerabilità relative alla violazione della privacy - senza neanche scomodare il recente utilizzo improprio fatto da un avvocato con ChatGPT, con tanto di "precedenti" inventati dal chatbot di sana pianta.
Insomma, non serve nemmeno scendere troppo nel dettaglio per far comprendere la questione: estendendo un ragionamento di questo tipo a tutti i campi in cui l'IA può essere applicata, è chiaro che potrebbero esserci rischi perlomeno da non sottovalutare.
No, nessuna intelligenza artificiale senziente o situazioni da film di fantascienza. Il problema alla base è sempre lo stesso: l'uso che l'essere umano può fare di questi strumenti.
Ecco, dunque, che le recenti dichiarazioni di alcune figure di spicco del mondo tech, che fanno riferimento all'IA come ad un "rischio esistenziale" assumono un significato un po' diverso, vero?
Nella dichiarazione si legge: "Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".
Ciò che viene richiesto da parte degli esperti firmatari, che includono anche il CEO di Google DeepMind, Demis Hassabis, e Dario Amodei, CEO di Anthropic, è una regolamentazione rigida in materia, che al giorno d'oggi latita ancora un po' in tutto il mondo. D'altronde, è nell'interesse anche dei Big avere un settore regolamentato e in cui si possa innovare senza che qualcuno possa "rompere le regole".
Il riferimento in questo caso potrebbe andare a realtà che stanno rendendo accessibili a tutti, anche direttamente da browser, modelli di intelligenza artificiale con paletti "controversi".
Ad esempio, il generatore di immagini IA Stable Diffusion è stato criticato perché consente input che possono portare a problematiche di disinformazione, violazione del copyright e simili.
Di recente, in mezzo a una bufera di questo tipo è finito anche lo strumento indipendente Midjourney, utilizzato per realizzare foto false di Papa Francesco e Donald Trump, che hanno portato a un'ampia discussione sul tema.
Certo, col passare del tempo si stanno prendendo sempre più precauzioni ma ancora oggi, da un browser, è tranquillamente possibile far generare in pochi secondi a un'IA immagini di personaggi noti senza troppi problemi.
Cosa c'entra OpenAI in tutto questo? Quella guidata da Sam Altman non è un'azienda classica, bensì un'organizzazione che da sempre si prefigge l'obiettivo di mostrare al mondo le potenzialità dell'IA in modo etico. Il termine friendly AI (IA amichevole) è infatti molto caro ad Altman e soci, sin dalla fondazione avvenuta a fine 2015.
Tralasciando i dibattiti sul fatto che OpenAI stia perseguendo o meno l'obiettivo indicato nei suoi primi momenti (inizialmente si trattava di una totale no profit, mentre da qualche anno OpenAI ha una struttura ibrida capped-profit, cosa giustificata da Altman in quanto a suo dire necessaria per fare progressi in campo IA), l'idea di base è proprio quella di far discutere sul tema dell'Intelligenza Artificiale prima ancora che le Big Tech rilascino potenti servizi "chiusi" di cui solamente in pochi conoscono i dettagli.
D'altronde, non è un mistero che aziende come Google stiano lavorando in questo campo da lungo tempo, ben prima di chatbot come Bard.
Il pensiero di Altman e degli altri firmatari, quindi, è ben chiaro: l'obiettivo è quello di rendere accessibile a tutti l'IA, così che nessuno abbia dei "superpoteri" in tal senso, nonché porre le basi per delle regole standardizzate e valide per tutti.
Per fare in modo che non ci siano problemi, dunque, c'è il bisogno che anche la politica faccia dei passi in avanti in tal senso, in modo che si generi un dibattito globale attorno al tema e si utilizzino le potenzialità dell'IA per apportare benefici alle nostre vite, e non per potenziali minacce alla nostra esistenza.
Insomma, secondo gli esperti, questo settore ha bisogno al più presto di essere regolamentato e in generale dibattuto, così da scongiurare sul nascere gli scenari più nefasti.
Una possibile chiave di lettura dello statement è quella secondo cui Altman e soci stiano cercando, in un momento di grande attenzione sul tema, di far comprendere anche alle autorità dei vari Paesi e alle persone in generale l'importanza di avere una regolamentazione ben strutturata in questo settore.
Associare l'IA a pandemie e guerre nucleari potrebbe sembrare un po' esagerato, ma di certo riesce a rendere bene l'idea di un'immediata esigenza di mettere dei paletti a una realtà che sta progredendo a velocità che difficilmente si sono viste in precedenza.
Non è un caso che OpenAI abbia appena stanziato un fondo da un milione di dollari per proseguire nei tentativi di regolamentare l'IA, così da sovvenzionare ricercatori e aziende affinché arrivino proposte e idee per migliorarne il domani.
Ci troviamo in una fase in cui molto probabilmente si andrà a decidere quale sarà il futuro uso dell'intelligenza artificiale e non sorprende che si stia discutendo in merito a un AI Act tutto europeo, ovvero la prima importante proposta di regolamentazione sull'IA al mondo, proprio in seno all'Unione Europea.
Abbiamo solo scalfito la superficie della questione e sarà il futuro a dirci in che direzione andremo, ma se stavate già pensando a Terminator, potete sedare gli "entusiasmi".
Quel che c'è per ora di concreto è infatti quanto descritto sul portale ufficiale di OpenAI: "L'intelligenza artificiale avrà impatti economici e sociali significativi e di vasta portata. La tecnologia plasma la vita degli individui, il modo in cui interagiamo gli uni con gli altri e l'evoluzione della società nel suo complesso. Riteniamo che le decisioni su come si comporta l'IA debbano essere modellate da diverse prospettive che riflettano l'interesse pubblico.
Le leggi codificano valori e norme per regolare il comportamento. Al di là di un quadro giuridico, l'IA, proprio come la società, ha bisogno di linee guida più complesse e adattive per la sua condotta. Ad esempio: in quali condizioni i sistemi di intelligenza artificiale dovrebbero condannare o criticare personaggi pubblici, date le opinioni diverse riguardo a tali figure? Come dovrebbero essere rappresentate le opinioni controverse nei risultati dell'IA?
L'intelligenza artificiale per impostazione predefinita dovrebbe riflettere un individuo medio nel mondo, il Paese dell'utente, i dati demografici dell'utente o qualcosa di completamente diverso? Nessun singolo individuo, azienda o Paese dovrebbe dettare queste decisioni.
L'AGI (intelligenza artificiale forte, ovvero può che apprendere un qualsiasi compito intellettuale che può essere imparato da un umano, punto di arrivo non ancora raggiunto ma a cui si potrebbe arrivare in futuro secondo Altman, ndr) dovrebbe beneficiare tutta l'umanità ed essere modellata per essere più inclusiva possibile.
Stiamo lanciando questo programma di sovvenzioni per fare un primo passo in questa direzione. Stiamo cercando team da tutto il mondo per sviluppare un processo democratico che possa rispondere a domande su quali regole dovrebbero seguire i sistemi di intelligenza artificiale. Vogliamo imparare da questi esperimenti e usarli come base per un processo più globale e più ambizioso in futuro.
Sebbene questi esperimenti iniziali non siano (almeno per ora) intesi come vincolanti per le decisioni, speriamo che esplorino questioni rilevanti per la decisione e costruiscano nuovi strumenti democratici che possano informare più direttamente le decisioni in futuro".
Altri contenuti per Intelligenza artificiale