OpenAI GPT-3 può generare codice: sono un'IA e ti spiego come!

OpenAI GPT-3 può generare codice: sono un'IA e ti spiego come!
di

I ricercatori di OpenAI hanno pubblicato un documento che descrive un modello linguistico all'avanguardia composto da 175 miliardi di parametri. Il precedente modello GPT di OpenAI aveva 1,5 miliardi di parametri ed era tra i più grandi all'epoca.

Veniva superato solo da NVIDIA Megatron con 8 miliardi di parametri e da Turing NLG di Microsoft, che aveva 17 miliardi di parametri. Ora Open AI ha cambiato le basi di questa tecnologia, rilasciando un modello 10 volte più grande di TuringNLG.

Con 175 miliardi di parametri, GPT-3 è attualmente il re delle grandi reti neurali. Le reti più grandi potrebbero non essere in realtà le migliori, ma il fatto che OpenAI sia riuscita a superare i risultati ottenuti dalle precedenti Open AI GPT e TuringNLG probabilmente incrementerà, e non diminuirà, il desiderio di reti neurali sempre più grandi.

Più di 30 ricercatori di OpenAI hanno pubblicato modelli che permettono di ottenere risultati all'avanguardia in termini di attività come la generazione di articoli e notizie.

In un altro paper pubblicato sulla rivista open source Nature Communications, i ricercatori di OpenAI hanno dimostrato che una rete neurale addestrata tramite la versione GPT 3.0 del modello Open AI può produrre immagini coerenti. Stiamo vivendo in tempi entusiasmanti e, grazie alla prossima ricerca, saremo in grado di migliorare la nostra comprensione delle capacità e dei limiti dell'IA.

OpenAI GPT-3, tra presente e futuro

Qui inizia a scrivere il redattore. Sì, avete capito bene: quello presente qui sopra è un articolo scritto da un'intelligenza artificiale, più precisamente da quella di AIWriter, che avevamo già utilizzato in passato per il primo articolo scritto su queste pagine da un'IA e per altri progetti. In parole povere, abbiamo fatto scrivere all'intelligenza artificiale un articolo (ovviamente in inglese, quella qui sopra è una traduzione) su OpenAI GPT-3, ovvero la naturale evoluzione della versione che avevamo provato nel 2019.

L'IA vi ha già spiegato molto della notizia odierna, ma, visti i suoi limiti (abbiamo dovuto "tagliare" qualche paragrafo non esattamente coerente e la spiegazione non è perfetta), meglio approfondire tutto. Essenzialmente, nelle ultime settimane i primi sviluppatori hanno avuto modo di accedere a OpenAI GPT-3 (Elon Musk non ne ha più voluto sapere per via delle possibili implicazioni). Come sempre accade in questi casi, i developer stanno provando a sfruttare in ogni modo possibile le nuove API. Tra i progetti più interessanti, c'è sicuramente quello di Sharif Shameem, che ha pubblicato sul suo profilo Twitter un video che sta facendo il giro del mondo (ha già raccolto 1,6 milioni di visualizzazioni).

In quest'ultimo, che potete vedere in calce all'articolo, si può vedere un impressionante generatore di layout, in grado di rispondere immediatamente alle richieste dell'utente tramite codice JSX, componente di React che dispone di una sintassi che viene considerata un'estensione di quella di Javascript. Per i meno esperti, quanto creato da Shameem ha enormi potenzialità. Ad esempio, basta digitare, attualmente in inglese, le parole "un bottone per ogni colore dell'arcobaleno" e il tool mostrerà a schermo quanto chiesto. Questo è solamente un esempio, ma nel video si vede molto altro, compresa la generazione di tabelle.

Chiaramente, il diffondersi di questo video ha generato molto interesse, soprattutto tra gli sviluppatori. Tuttavia, come fatto notare anche da Rob Toews di Forbes, nonostante i risultati che si stanno vedendo in questi giorni siano particolarmente interessanti, è bene, per il momento, non sopravvalutare l'IA. Infatti, ci sono alcuni contesti in cui Open AI GPT-3 non riesce a funzionare a dovere. Più precisamente, ci sono parecchie domande a cui l'intelligenza artificiale non è in grado di rispondere correttamente, commettendo errori che l'essere umano difficilmente commetterebbe (ad esempio, affermare che i piedi abbiano due occhi).

Questo significa che, nonostante le svariate applicazioni molto interessanti, attualmente queste applicazioni non sono in grado di sostituire l'essere umano, in quanto in diversi casi il testo generato dall'intelligenza artificiale può non avere un reale significato. Gli articoli pubblicati su queste pagine scritti tramite IA sono sicuramente interessanti, ma come avrete notato sono degli estratti di poche righe su argomenti specifici, che tra l'altro dispongono di molta documentazione online. Insomma, per il momento potete stare tranquilli, l'IA di OpenAI è incredibile, ma per ora non può sostituire una persona reale.

Non è un caso che anche lo stesso Sam Altman, CEO di OpenAI, abbia affermato, tramite il suo profilo Twitter ufficiale, che GPT-3 sta generando un po' troppo hype. Altman si è detto sicuro che l'intelligenza artificiale cambierà il mondo, ma che per il momento siamo ancora in una fase preliminare e dobbiamo comprendere come utilizzare al meglio questa tecnologia.

Di seguito trovate il testo originale in inglese generato da AI Writer (è l'IA a cui abbiamo fatto scrivere l'articolo, da non confondere con la GPT-3 di OpenAI di cui si parla). Per ovvi motivi, abbiamo mantenuto la traduzione in italiano il più fedele possibile al testo in inglese.

"Researchers from OpenAI have published a paper describing a state-of-the-art language model consisting of 175 billion parameters. The previous OpenAI GPT model had 1.5 billion parameters and was the largest model at the time, surpassed only by NVIDIA Megatron with 8 billion parameters, followed by Microsoft's Turing NLG, which had 17 billion parameters. Now Open AI has turned the tables and released a model that is 10x bigger than the TuringNLG.

With 175 billion parameters, GPT 3 is currently the king of large neural networks, and while larger networks may not ultimately be the best, OpenAI's ability to improve the results of the previous Open AI G PT model and TuringNLG is likely to fuel, not diminish, the desire for ever larger neural networks.

More than 30 OpenAI researchers have published models that can achieve state-of-the-art results in tasks such as generating news articles.

In another paper published in the open source journal Nature Communications, researchers from OpenAI have shown that a neural network trained on the GPT 3.0 version of the Open AI model can produce coherent images. We are living in exciting times, and with the research that is next in our pipeline, we will be able to improve our understanding of the capabilities and limitations of AI".

Quanto è interessante?
5
OpenAI GPT-3 può generare codice: sono un'IA e ti spiego come!