Ray Tracing e DLSS alla prova con 3DMark Port Royal ed RTX 2080 Ti

Abbiamo messo alla prova la RTX 2080 Ti con il benchmark di 3DMark, recentemente aggiornato con il supporto al DLSS.

Articolo a cura di

Nei prossimi mesi il supporto al Ray Tracing e al DLSS è destinato a crescere. Da Anthem a Metro Exodus sono diversi i titoli in arrivo ad utilizzarli. Del resto, Battlefiled V ha insegnato che serve tempo e una buona ottimizzazione per sfruttare al meglio gli RT Core presenti nelle GPU RTX e il Ray Tracing, stessa cosa si può dire per il DLSS e per i Tensor Core. In attesa di mettere alla prova le tecnologie NVIDIA in titoli diversi da Battlefield V, abbiamo utilizzato uno dei pochi benchmark disponibili oggi a sfruttare tutte le novità pensate dalla casa americana.
Realizzato da 3DMark, Port Royal da uno spaccato di quello che è possibile ottenere da queste schede video, integrando al suo interno sia il supporto al Ray Tracing che al DLSS. A prescindere dall'impatto grafico del Ray Tracing, il test è importante perché rappresenta una delle prime apparizioni pubbliche del DLSS, una tecnologia che, come vedremo, offre un boost prestazionale incredibile, ma che deve ancora essere affinata a dovere, soprattutto alle risoluzioni più basse.

Cos'è il Ray Tracing e come funziona il DLSS

Gli attuali engine grafici usano la rasterizzazione come tecnica di rendering. Gli ambienti di gioco vengono creati con poligoni e triangoli, convertiti in pixel e poi riportati su una mappa bidimensionale. A questo punto vengono applicate diverse tipologie di effetti, compresi quelli di luce, modificando così il colore dei pixel per mostrare a schermo il tipo di illuminazione desiderata. Come si può capire, questo processo è influenzato in modo marcato dalle capacità del singolo sviluppatore, che attraverso le proprie competenze può creare effetti di luce più o meno realistici, ma lontani dalla perfezione. Gli elementi da considerare quando si crea un sistema di illuminazione per un videogioco sono teoricamente tantissimi, dai riflessi alle proprietà delle diverse superfici, fino al punto di vista dell'osservatore.
Il numero di variabili è troppo elevato per tenere conto di tutti questi fattori, ecco perché il Ray Tracing è un passo in avanti necessario per raggiungere il fotorealismo. Utilizzando questa tecnica di rendering, la conversione della scena tridimensionale in una bidimensionale non è più necessaria, il percorso della luce viene simulato direttamente in 3D grazie a migliaia di raggi luminosi che partono dal punto di vista dell'osservatore fino alle componenti della scena tridimensionale, terminando poi alla fonte di illuminazione primaria. In questo modo è possibile automatizzare il processo di illuminazione, rendendola allo stesso tempo molto più realistica.

Il problema, finora, era però l'enorme potenza di calcolo necessaria per gestire il Ray Tracing. NVIDIA ha utilizzato delle unità di calcolo dedicate solo a questo compito nelle schede video RTX, gli RT Core. Come abbiamo visto in questi mesi con Battlefield V, all'inizio la potenza computazionale delle GPU RTX non sembrava sufficiente a gestire il titolo con RT attivo, ma gli affinamenti apportati dagli sviluppatori consentono oggi di giocare con tutta la gamma di GPU RTX, dalla 2060 alla 2080 Ti, ovviamente con differenze nella risoluzione utilizzata.


Ma è possibile limitare ulteriormente l'impatto del Ray Tracing sulle prestazioni? La risposta a questa domanda è sì, ed per questo che è stato creato il DLSS, una nuova tecnica di post processing che applica un super-sampling alle immagini, per aumentare la risoluzione finale, e allo stesso tempo anche una sorta di anti-aliasing per eliminare le fastidiose scalettature. Per togliere ulteriore lavoro ai CUDA Core, le GPU RTX hanno integrato i Tensor Core, unità di calcolo specifiche e pensate per il Deep Learning.

Cosa centra il Deep Learning con il DLSS? Ebbene, per capirlo bisogna conoscere cosa c'è dietro al DLSS. Ogni gioco necessita di un algoritmo specifico per sfruttare il DLSS, algoritmo che non può essere generato con la semplice potenza di una GPU domestica. NVIDIA sfrutta quindi il super computer SATURNV per far comprendere a una rete neurale come applicare il super-sampling e ridurre allo stesso tempo l'aliasing a livello generale, creando così un algoritmo valido per tutti i giochi ma poco preciso. Per integrare il DLSS in un determinato titolo, gli sviluppatori devono inviare a NVIDIA i dati e le immagini del gioco che vogliono rendere compatibile, dei rinforzi in pratica, in modo da adattare l'algoritmo generale a un singolo gioco.
Il sistema apprende costantemente nuove informazioni ed è quindi in grado di migliorare nel tempo. Questa lunga premessa è necessaria, oltre che per capire l'alto livello tecnologico delle funzioni di cui stiamo parlando, anche per comprendere alcune delle affermazioni e alcuni esempi pratici che faremo in seguito, che vedono un DLSS in grande forma in 4K ma un po' meno alle risoluzioni inferiori, segno che gli algoritmi dedicati al benchmark Port Royal devono ancora essere affinati.

Una manna per il 4K

Il benchmark Port Royal è interessante perché permette di capire l'influenza del DLSS sulle prestazioni e sulla qualità grafica finale. Abbiamo utilizzato una RTX 2080 Ti, insieme a un processore Intel i9-9900K e a 16 GB di RAM a 3400 MHz, effettuando sia benchmark con DLSS attivo, sia con questa tecnologia disattivata, scoprendo dettagli importanti. Partiamo dal test senza DLSS: in questo caso la RTX 2080 Ti non ha superato la soglia dei 60 fps, nemmeno in Full HD. Ricordiamo che siamo di fronte a un benchmark pensato per mettere alle corde le GPU, non deve essere giocabile ma semplicemente offrire uno spaccato delle prestazioni offerte da una determinata configurazione, in modo da poter fare delle comparazioni.

Il Ray Tracing ha un impatto marcato sulle prestazioni, impatto che, come dimostrato dai benchmark con il DLSS attivo, viene ridotto di molto utilizzando questa tecnologia. Il guadagno è netto a tutte le risoluzioni, anche se il dato più interessante riguarda il 4K, con le performance che sono vicine a raddoppiare. Ci aspettavamo una grande prova dal DLSS e così è stato, confermando quanto dichiarato da NVIDIA negli scorsi mesi sul tema. Ma ci sono differenze nella qualità grafica finale? In questo caso, appare chiaro che NVIDIA deve ancora lavorare per "allenare" l'algoritmo che gestisce il DLSS in questo benchmark, come potete notare dalle immagini qui sotto.

DLSS Attivo

DLSS Spento

A prima vista sembrano simili, ma basta concentrare lo sguardo e zoomare sugli uccelli in volo per capire che qualcosa non va nell'eliminazione dell'aliasing con DLSS attivo. Il contorno degli uccelli appare scalettato, e questo lo si nota anche in altri frangenti della demo. Interessante notare come queste foto sono state scattate con il benchmark a risoluzione 1080p. La stesso fenomeno è avvertibile selezionando la risoluzione 1440p, ma in maniera meno evidente.

Cosa accade però scegliendo il 4K? In questo caso, trovare dei difetti nell'immagine creata dal benchmark è davvero difficile, e se si pensa che la semplice applicazione del DLSS ha raddoppiato le prestazioni, allora l'importanza di questa tecnologia diventa palese, arrivando quasi a superare quella del Ray Tracing. Per spiegare la resa alle risoluzioni inferiori dobbiamo invece entrare nel campo delle ipotesi: sembra plausibile che l'algoritmo utilizzato dal DLSS sia più allenato a gestire il 4K rispetto alle risoluzioni inferiori, del resto è anche più semplice eliminare l'aliasing quando si ha a che fare con immagini più definite. Inoltre, è proprio in 4K che gli effetti positivi del DLSS si fanno più evidenti e utili, aumentando il frame rate dove serve davvero. Schede video come la RTX 2080 Ti e la RTX 2080 offrono frame rate già molto elevati fino al 1440p, per cui è un bene che i benefici di questa tecnologia si notino soprattutto in 4K.

NVIDIA GeForce RTX 2080 La nostra prima prova del DLSS ci ha lasciato davvero stupiti. In 4K questa tecnologia riesce quasi raddoppiare il frame rate senza penalizzare la qualità grafica, se non ci fossero algoritmi e deep learning dietro saremmo di fronte a un piccolo miracolo. Abbassando la risoluzione i limiti vengono a galla sul fronte visivo, mantenendo invece inalterati i benefici sul frame rate. A questo punto non vediamo l'ora di mettere alla prova il DLSS con un gioco reale, perchè se i risultati di questo benchamark saranno replicati, 4K e Ray Tracing insieme non sono più un miraggio, ma una realtà concreta. Molto importante sarà però migliorare la resa alle risoluzioni inferiori, più adatte a GPU come la RTX 2070 e 2060, che trarrebbero enormi benefici dal suo utilizzo. La speranza è che la diffusione del DLSS cresca col passare del tempo, per una tecnologia fondamentale per il futuro del Ray Tracing su GPU NVIDIA.