Tra RTX, DLSS e Unreal Engine 5: cosa ci riserva il futuro del gaming?

Un tuffo nel viale dell'innovazione, con un occhio di riguardo verso quei grandi dell'industria che hanno reso possibile l'impossibile.

Tra RTX, DLSS e Unreal Engine 5: cosa ci riserva il futuro del gaming?
Articolo a cura di

Mai come negli ultimi anni abbiamo avuto la possibilità di vivere l'evoluzione e il cambiamento nell'industria videoludica, abituati a percepire i salti generazionali in maniera graduale e spesso senza neanche accorgercene, salvo poi guardarci indietro e scoprire quanta strada si è fatta.
Se ci pensiamo un attimo, al Ray Tracing sono bastati appena tre anni per passare da feature a normalità, eppure se facciamo giusto qualche passo indietro, per l'esattezza al Gamescom 2018, il terremoto mediatico di Project Sol ha lasciato tutti a bocca aperta, fra luci e riflessi in tempo reale e quell'oggetto un tempo misterioso ma divenuto oggi quasi imprescindibile, il DLSS.
Nella corsa al fotorealismo, l'industria videoludica ha investito fortemente nello sviluppo di macchine sempre più potenti, ma il vero cambio di marcia è avvenuto nel momento in cui si è iniziato a lavorare anche su tecnologie in grado di collaborare con l'hardware e svolgere un lavoro sinergico per il raggiungimento del risultato finale, privo di compromessi.

Per questo motivo Turing non rappresenta solo un salto generazionale e prestazionale, un refresh o un rebranding della gamma GeForce, ma la sua esaltazione, portando nelle nostre case un nuovo concetto di PC Gaming, quello che il fotorealismo ce l'ha nel sangue.

L'algoritmo di Ray Tracing non è uno scherzo

Per comprendere appieno il fenomeno RTX è necessario fare chiarezza su ciò che si nasconde dietro a queste tre lettere. Come dicevamo, il Ray Tracing rappresenta senza dubbio uno dei più grandi step evolutivi dell'industria, uno strumento che ha cambiato definitivamente il concetto di illuminazione e della sua interazione con l'ambiente circostante riprodotto dal PC, e le più recenti implementazioni di questa tecnologia hanno dimostrato una volta per tutte come un corretto calcolo dei riflessi, delle fonti luminose e delle loro conseguenze sulle superfici possano davvero ribaltare il concetto di grafica. Il tutto tramite un algoritmo che in realtà esiste da oltre quarant'anni e che nella cinematografia e nel design si usa già da più lustri.
Perché allora da anni parliamo di rivoluzione NVIDIA? L'algoritmo del ray tracing comporta, in termini di performance, un costo esagerato. Fino a due anni fa, anche solo pensare di inserirlo nel contesto di un rendering in tempo reale era passibile di abiura come le dichiarazioni di Galileo. Anni in cui già si assisteva alla proiezione di numerose pellicole con ray tracing, perché la sua implementazione nella cinematografia è stata non meno dispendiosa in termini di risorse ma agevolata dai tempi di lavorazione, che potevano durare anche centinaia di ore. Il parametro temporale nel cinema è infatti assolutamente secondario, poiché conta solo il risultato finale.

L'architettura Turing nasconde al suo interno delle unità in grado di effettuare i calcoli in ray tracing in un ambiente "interattivo", dunque mentre visualizziamo il contenuto a schermo, oltre 25 volte più velocemente rispetto a Pascal e questo è solo un indizio di quanto questa tecnica possa essere dispendiosa. Turing a oggi rappresenta infatti la condizione minima per ottenere questi effetti. Ma non si tratta certamente solo di mera potenza di calcolo. Per questo NVIDIA ha preso il toro per le corna e ha sviluppato il cosiddetto processo di denoising, senza il quale tutto questo non sarebbe mai stato possibile: l'algoritmo di ray tracing crea moltissimo rumore, una mole talmente elevata che per ottenere una qualità d'immagine sufficientemente adeguata sarebbero necessari dai 3000 ai 5000 sample per pixel. Cifre che, appunto, ci si può permettere solo in altri ambiti, come appunto nel cinema.

La tecnica di Denoising sviluppata da NVIDIA si basa sugli stessi principi su cui poggia anche il DLSS: la rete neurale, il deep learning e i Tensor Core. Studiando una determinata mole di immagini di repertorio, il cosiddetto Training Set di NVIDIA, vengono creati modelli di IA da dare in pasto ai Tensor Core che poi saranno perfettamente in grado di ricostruire l'immagine renderizzata ad appena 4 sample per pixel.

Per migliorare ulteriormente l'esperienza complessiva, NVIDIA ha sviluppato appunto il DLSS, un sistema che definire rivoluzionario sarebbe riduttivo. L'arma segreta di NVIDIA consente di ottenere un incredibile boost del Framerate sfruttando l'Intelligenza Artificiale. Non a caso, DLSS è l'acronimo di Deep Learning Super Sampling. Il DLSS rientra fra le metodologie di upscaling, un nutrito gruppo di tecniche che, a partire da un'immagine a una data risoluzione, riescono a ottenere un risultato finale a risoluzione maggiore. Nel DLSS questo processo viene proposto e migliorato esponenzialmente grazie all'IA e al Deep Learning. Il lavoro di ricerca pluriennale di NVIDIA vede finalmente la luce nella sua prima iterazione nel 2019.

Inizialmente adombrato dal ben più promettente Ray Tracing, il DLSS ha avuto modo sin da subito di mostrare tutto il suo potenziale sui seppur pochi giochi supportati, ma in realtà le ricerche sul rendering basato su IA nei laboratori NVIDIA erano già in piedi da diversi anni. Le prime ipotesi di utilizzo in ambito prettamente fotografico fecero immediatamente comprendere come l'applicazione nel PC Gaming avrebbe potuto scuotere l'industria dalle fondamenta.

I titoli che hanno segnato l'avvento del Ray Tracing

Il primo anno di vita delle nuove RTX Serie 2000 non è stato esattamente in discesa. Complice un parco titoli ridotto nel numero benché qualitativamente ottimo, sia Ray Tracing che DLSS hanno potuto mostrare solo limitatamente il loro potenziale. Tre i titoli più significativi della prima fase RTX, ma anche gli unici nei primi mesi di diffusione: Battlefield V, Shadow of the Tomb Raider e lo straniante Metro Exodus, unico del lotto a presentare un'illuminazione globale interamente gestita in ray tracing.

Il manifesto della prima ondata è stato certamente Battlefield V con i suoi incredibili riflessi, mentre dovremo aspettare fino all'anno successivo per poter apprezzare la tech demo di Quake 2 RTX, esempio lampante di come il path tracing possa stravolgere l'impatto visivo di un videogioco. Un'esperienza simile sono riusciti a metterla sul piatto anche i ragazzi di Mojang grazie alla rivisitazione di Minecraft con Ray Tracing e DLSS 2.0.
A proposito di DLSS, la sua prima implementazione permetteva di ottenere risultati eccellenti in termini prestazionali riuscendo a fornire fino al 40% in più di Frame al secondo. Lo scotto da pagare era, naturalmente, in termini di qualità visiva. Come? Attraverso il cosiddetto Super Sampling. Con il DLSS alla GPU viene concesso di renderizzare a risoluzione più bassa rispetto a quella impostata, poi sarà appunto questa particolare tecnica a permettere al PC di ricreare un'immagine quanto più simile possibile a quella a risoluzione nativa, nonostante la mancanza di informazioni sui pixel aggiuntivi.

Le informazioni aggiuntive non erano certamente generate a caso. Sfruttando il potenziale del machine learning, NVIDIA allenava i propri supercomputer a produrre dei modelli di intelligenza artificiale. Queste librerie, poi distribuite tramite i driver Game Ready, erano il frutto del campionamento di innumerevoli frame e i relativi "fotogrammi perfetti" prodotti tramite supersampling 64x, provenienti da ogni singolo gioco supportato.

Ogni coppia di immagini andava poi a finire nel set di addestramento che insegnava all'IA a riempire gli FPS dei giochi dei pixel mancanti. Proprio questo passaggio ci aiuta a comprendere il reale valore di questa tecnica e la sua sostanziale differenza dal più tradizionale SSAA, che permette di effettuare il supersampling renderizzando localmente l'immagine a risoluzione più elevata ma che comporta un costo estremamente più elevato in termini di risorse della GPU. Nel DLSS, questo passaggio viene effettuato appunto dalla rete neurale di NVIDIA e all'utente finale arriverà solo il modello "digerito" da dare in pasto ai Tensor Core.
Nell'estate del 2019 arriva un gioco che è valso da solo, per i proprietari delle nuove GPU, tutto il prezzo del biglietto: Control. Una prova di forza e di sostanza, quella di Remedy, che ha sprigionato tutto il potenziale del Ray Tracing e del DLSS con effetti mozzafiato.

Tutto cambia, di nuovo

Nel corso del 2020 molte software house hanno iniziato a prendere le misure per l'implementazione dei nuovi dogmi dell'illuminazione in tempo reale, finché NVIDIA non ha deciso di dare un'ulteriore scossa al mercato con l'annuncio della DLSS 2.0. Il SuperSampling mediato dall'IA di NVIDIA, nella sua seconda versione, permette infatti di spingere ancora di più sull'impianto di illuminazione senza preoccuparsi di prestazioni e degradazione dell'immagine. Il nuovo DLSS promette boost prestazionali fino al 75% e una qualità dell'immagine vicina all'originale.

Il DLSS 2.0 segna la consacrazione definitiva del miracolo di NVIDIA e riesce a farci comprendere una volta per tutte la sua filosofia. Da questo momento in poi diventa di fatto una componente imprescindibile per i giochi di nuova generazione, con e senza Ray Tracing. Lo stesso lavoro di Remedy Entertainment sfrutta in prima battuta il DLSS 1.9 per poi virare verso la definitiva versione 2.0.

Nella nostra analisi tecnica di Control siamo rimasti affascinati dai passi in avanti compiuti da NVIDIA. Grazie al confronto fra la versione iniziale e quella con DLSS 2.0, abbiamo effettivamente verificato come la nuova metodica a risoluzione 1080p riesca a sfornare fotogrammi migliori rispetto alla versione precedente a 1440p. In pochissimo tempo NVIDIA è riuscita non solo a creare ma anche ad affinare il suo filtro al punto da renderlo talmente performante da riuscire a ridurre se non eliminare del tutto il ghosting temporale.

La soluzione definitiva risiede nell'abbattimento dei limiti imposti dalla prima generazione. La nuova rete neurale di NVIDIA consente di superare le barriere dello studio per singolo gioco: adesso l'unità centrale può imparare regole generiche valide per tutti i titoli supportati. Le novità del DLSS 2.0 però non si fermano certamente qui, poiché le numerose ottimizzazioni implementate da NVIDIA permettono ai Tensor Core di massimizzare la loro efficienza ed effettuare calcoli a una velocità pressoché raddoppiata rispetto alla versione iniziale. Ove implementato, il DLSS 2.0 permetterà adesso di scegliere fra tre diversi preset qualitativi, consentendo all'utente finale di decidere se impostarlo sulla massima qualità, sulle massime prestazioni oppure su una soluzione intermedia.

Un salto generazionale impressionante ma soprattutto privo di controindicazioni, dato che il supporto alla seconda versione è stato garantito anche per i possessori di schede video RTX di prima generazione, vale a dire le NVIDIA GeForce RTX Serie 20. Fra i titoli migliori per mettere in luce le prodezze dei vostri Tensor Core, consigliamo senza dubbio di tornare nelle lande desolate di Metro Exodus con la bellissima Enhanced Edition, gratuita per i possessori della versione originale. Un titolo brillante dal punto di vista tecnico, che permette di godere appieno del Ray Tracing in una delle sue migliori implementazioni di sempre. Mai come in questo titolo l'utilizzo del DLSS risulta imprescindibile. La sua attivazione ci accompagnerà in un mondo di gioco fluido e semplicemente perfetto sotto il profilo della nitidezza, senza scendere praticamente mai a patti con il diavolo. Uno sguardo verso la nuova generazione, attraverso le lenti di un mondo devastato dalla guerra atomica.

Oggi possiamo perderci nella trasgressione di Night City e farci terrorizzare da Capcom e dal suo orrorifico Resident Evil Village, nella cui analisi tecnica abbiamo potuto notare la maggiore propensione delle nuove GPU NVIDIA nella gestione del Ray Tracing in termini assoluti, anche senza l'utilizzo del DLSS.

Sempre oggi, di titoli compatibili ne contiamo più di 50. Il panorama che ci si staglia davanti non potrebbe essere più roseo. Un 2021 già inequivocabilmente segnato dalla Enhanced Edition di Metro Exodus e dallo strabordante tripudio di neon di Ghostrunner vede l'arrivo del DLSS anche nella realtà virtuale grazie all'aggiornamento 2.1, lo stato dell'arte. L'ultimo aggiornamento di NVIDIA alza ulteriormente l'asticella, mettendo sotto scacco il rendering a risoluzione nativa. L'ultima versione del DLSS mira, senza mezzi termini, all'8K. Grazie all'Ultra Performance Mode è infatti possibile attingere a un ulteriore serbatoio di Frame su titoli come Wolfenstein: Youngblood e Cyberpunk 2077. Questa modalità però è fortemente consigliata solo a risoluzioni target davvero elevate, pena una pesante compromissione della componente estetica.

Come dicevamo, con l'avvento della 2.1, il DLSS sbarca definitivamente anche nella VR e perdersi nello spazio profondo di No Man's Sky alla ricerca di glifi e portali non è mai stato così appagante. Indossato il visore, l'universo procedurale di Hello Games è pronto a mozzare il fiato di vecchi e nuovi navigatori con prestazioni raddoppiate rispetto al passato e adesso davvero alla portata di tutti, consentendo di ottenere un framerate stabile di 90FPS a dettagli Ultra su una RTX 3080.

Quale direzione per il futuro?

La stessa NVIDIA poi è al lavoro ormai da diverso tempo sulle cosiddette Ray-Traced Caustics, ovvero la riproduzione di un fenomeno fisico generato dai raggi riflessi, le caustiche. Si tratta di quel comune comportamento della luce che disegna particolari forme geometriche in risposta all'incontro con alcune specifiche superfici. L'esempio più efficace è senza dubbio quello delle forme che vanno a disegnarsi sul fondale di una piscina quando il sole è alto oppure sul soffitto se è una vasca indoor, o ancora i disegni impressi sul muro o sul tavolo da un bicchiere.
Chiaramente l'arrivo sul mercato delle schede RTX ha influito enormemente anche nel settore della grafica professionale, dove queste tecnologie hanno impattato drasticamente non solo sul processo di creazione e rendering ma anche sulle tempistiche di produzione.
Un esempio pratico dell'ingerenza degli strumenti un tempo specifici dell'industria videoludica in ambito professionale sono proprio questi fini giochi di luce, ottenibili mediante l'algoritmo di Photon Mapping, già implementati in tempo reale nell'Unreal Engine 4.

A proposito di Epic

Unreal Engine 5 porterà sul tavolo Lumen e Nanite. Da un lato abbiamo Lumen, un sistema di illuminazione dinamica globale calcolabile in tempo reale con metodiche Ray Tracing completamente differenti rispetto a quanto proposto da NVIDIA - che quindi non necessita di hardware dedicato per funzionare. Il tutto con un tool perfettamente integrato all'interno del motore grafico e in grado di generare le mappe di luce con pochissimi click, risparmiando ai designer e progettisti una ingente mole di lavoro e garantendo al contempo una vasta compatibilità con le schede video in commercio.

Naturalmente anche Lumen ha i suoi limiti e riguardano principalmente il tipo di geometrie supportate e la resa generale. Non si esclude tra l'altro la produzione di artefatti, quantomeno nelle versioni più precoci. Per questo motivo Lumen non rinuncerà all'accelerazione hardware degli effetti in Ray Tracing mediante quelle unità di calcolo dedicate presenti nelle GPU di ultima generazione, come appunto gli RT-Core e i Tensor Core delle schede RTX. Sarà quindi possibile beneficiare di queste unità altamente specializzate per ottenere una migliore resa finale, con riflessi sulle superfici interne ed esterne più precisi e fotorealistici, ampliando le possibilità del motore ma riducendo al contempo il quantitativo di configurazioni compatibili.

In Unreal Engine 5 ci sarà spazio anche per Nanite che, dall'altra parte, mira a ribaltare il concetto di rendering dalla radice. Il nuovo algoritmo di Epic permetterà di importare asset di qualità cinematografica e non compressa, indipendentemente dal numero di poligoni presenti, per portarli a schermo in maniera molto più efficiente rispetto agli attuali standard, scalando istantaneamente il LOD e dunque i poligoni in base al livello di ingrandimento rispetto al punto di visione. La casa madre promette livelli di dettaglio illimitati, senza mezzi termini, e i primi test sul campo non smentiscono queste affermazioni. Anche in questo caso, l'implementazione è questione di pochi secondi. Basta una spunta sugli elementi statici da convertire in mesh Nanite per rendere effettiva la modifica.

In anticipo sulla tabella di marcia?

È chiaro quindi che il lavoro in prospettiva dei principali attori dell'industria sta iniziando a dare i suoi frutti. Una chiara inversione di tendenza rispetto al passato in cui si è reso necessario intervenire dalle fondamenta per garantire una migliore ottimizzazione delle risorse nelle generazioni a venire, attraverso la riscrittura dei dogmi del settore e la loro sostituzione con nuovi algoritmi e nuove concezioni del fare gaming.

Strumenti come l'intelligenza artificiale ci hanno permesso di compiere un balzo generazionale senza precedenti, riducendo drasticamente i "tempi di cottura", mentre il processo di semplificazione dei workflow aiuterà gli sviluppatori a ottenere risultati ancora più incredibili con maggiore semplicità.
Non ci resta che impugnare mouse e tastiera o, per chi preferisce, il controller e allacciare le cinture perché se abbiamo assaggiato il bello, il meglio deve ancora arrivare.