NVIDIA RTX 2080 Founders Edition Recensione: tanta tecnologia per il futuro

La nuova GPU di NVIDIA alla prova in tutte le risoluzioni più utilizzate, dal 1080p al 4K, per una scheda che detta il futuro della grafica su PC.

recensione NVIDIA RTX 2080 Founders Edition Recensione: tanta tecnologia per il futuro
Articolo a cura di

Quest'anno qualcosa è cambiato nel panorama delle schede video. Un rivoluzione come questa era attesa da tempo e detterà gli sviluppi della grafica su PC e console da qui ai prossimi anni. Questa rivoluzione si chiama Ray Tracing, un termine che è bene imparare, perché sarà ricorrente in futuro. A dare inizio alla nuova era della grafica è NVIDIA, che con le sue GPU della gamma GeForce RTX ha messo sul mercato delle schede mai viste fino ad ora, dotate di unità di calcolo general purpose e special purpose per raggiungere un solo obbiettivo: portare la grafica a un livello sempre più vicino al fotorealismo.
Il futuro ormai sembra segnato, ma dobbiamo considerare che chi acquista le nuove RTX le vuole usare nel presente, ed è qui che la situazione si complica, come vedremo nel corso di questa recensione della nuova RTX 2080 Founders Edition.

Design

La nuova RTX 2080 ha una qualità costruttiva semplicemente impressionante. Lo spesso metallo è di gran lunga l'elemento più utilizzato, mentre il design a doppia ventola permette ora una migliore gestione delle temperature. Il PCB rimane celato sotto lo spesso strato di metallo, che da a questa GPU e alla sorella maggiore RTX 2080 Ti una sensazione di solidità e di qualità molto elevata. Quest'anno per i partner sarà dura, perché la scelta tra una scheda custom e una Founders non è più così scontata. Il sistema di dissipazione è composto, come anticipato, da due ventole, posizionate sopra un sistema di vapor chamber e di heatpipe che limitano l'aumento della temperatura. Le novità però non sono finite, anche se non si vedono ad occhio nudo. Sotto al dissipatore infatti sono installate 8 fasi di alimentazione, contro le 7 disponibili nella GTX 1080 e le 13 della 2080 Ti, che danno margini superiori di overclock e un'alimentazione più stabile alla GPU.
In alto, coperto da un piccolo inserto in solida plastica cromata, troviamo il connettore SLI, per collegare due schede e ottenere così ancora più potenza. Questo sfrutta la tecnologia NVLINK, che permette una banda passante 50 volte superiore rispetto al passato. Sempre nel bordo alto sono collocati i connettori a 8 e 6 pin per l'alimentazione, che diventano invece due da 8 pin nella 2080 Ti. Molto complete le connessioni, che includono 3 Display port, una HDMI e una USB 3.1 Type C, utilizzata per la tecnologia VirtualLink. Grazie ad essa è possibile collegare un visore virtuale compatibile usando un solo cavo, trasportando così sia i dati che l'energia necessaria al suo funzionamento. L'unico LED installato sulla scheda illumina il logo "GeForce RTX" posto in alto, per il resto non c'è altro tipo di illuminazione, una piccola concessione fatta ai partner, che possono così differenziarsi meglio da questi modelli reference.

Caratteristiche tecniche

La GeForce RTX 2080 è basata su architettura Turing, realizzata con un processo produttivo a 12 nm, contro i 16 nm della generazione precedente. Nonostante il miglioramento del processo produttivo, NVIDIA ha creato una delle GPU più grandi della sua storia, anche se la Tesla GV100 con architettura Volta rimane imbattibile sotto questo fronte. Rispetto alla 1080 Ti tuttavia la dimensione del chip è superiore del 60%: la causa principale sono le unità di calcolo speciali inserite al suo interno. Troviamo infatti 2.944 CUDA Core, presenti anche in passato, ma anche 368 Tensor Core e 46 RT Core. I Tensor Core sono unità di calcolo pensate per processi di Machine Learning e impiegate per il DLSS (Deep Learning Super Sampling), una tecnica di post-processing che include un anti-aliasing di nuova concezione, mentre gli RT Core invece sono utilizzati per il Ray Tracing ibrido. Si tratta delle novità più importanti di questa generazione di GPU, che potete approfondire nel nostro speciale dedicato.
Il clock base della RTX 2080 Founders Edition è di 1515 MHz, mentre quello boost è di 1710 MHz, 1800 MHz in modalità OC. I dati sulle frequenze di clock tuttavia lasciano il tempo che trovano, visto che la scheda utilizzata per la prova, senza alcun bisogno di overclock, si setta automaticamente 1920 MHz durante il gioco, grazie alla tecnologia GPU Boost, che tira fuori il massimo dai chip in base alla loro capacità di salire con il clock, alle temperature e al contesto di utilizzo. La scheda utilizza 8 GB di RAM GDDR6 che lavorano a una frequenza di 7000 MHz, con un bus a 256 bit e un bandwidth di 448 GB/s; troviamo poi 64 ROPs e 184 TMU, mentre il TDP è di 225W per questa Founders Edition, che viene venduta ad un prezzo ufficiale di 869€.

Ray Tracing e DLSS

Il Ray Tracing è certamente la tecnologia di punta di questa nuova generazione di GPU, ma come funziona? Cercheremo di spiegarvelo con parole comprensibili, adottando ovviamente delle semplificazioni. Fino a questo momento, il rendering dei giochi è stato effettuato con la tecnica della rasterizzazione. La scena tridimensionale è rappresentata sullo schermo attraverso dei poligoni e dei triangoli, che vengono poi convertiti in pixel e riportati su una mappa bidimensionale. In questa fase del rendering vengono applicati diversi effetti, tra cui quelli di luce, che apportano ai pixel le dovute modifiche al colore in base all'illuminazione scelta. Questo processo è fortemente dipendente dalla bravura degli sviluppatori nel realizzare un'illuminazione realistica, che tuttavia, per forza di cose, non può essere precisa. Il problema è che i fattori da tenere in considerazione sono tanti, dalla fonte di illuminazione agli oggetti che riflettono la luce nell'ambiente, con quale angolazione viene riflessa, le proprietà riflettenti dei singoli materiali fino alla posizione di chi osserva la scena. Basta un minimo cambiamento e bisogna riadattare tutte le variabili per fornire un'illuminazione realistica. Come potete capire, prevederli è impossibile, ecco perchè interviene il Ray Tracing, tecnica di rendering che tutti noi abbiamo osservato in questi anni, ma solo al cinema. Con il Ray Tracing, la conversione della scena tridimensionale in una bidimensionale non è più necessaria, perchè la luce viene simulata direttamente in 3D, seguendo il percorso di migliaia di raggi luminosi dal punto di vista dell'osservatore ai vari elementi della scena tridimensionale, fino alla fonte primaria di illuminazione.

Questo permette di automatizzare il processo di illuminazione, a patto di avere un'adeguata potenza di calcolo, ecco il motivo per cui NVIDIA ha inserito delle unità apposite nell'architettura Turing, gli RT Core, ed ecco perchè il DLSS è fondamentale, a nostro avviso, per migliorare la resa e le prestazioni dei titoli in Ray Tracing. Il DLSS non è un vero e proprio anti-aliasing, visto che l'approccio di NVIDIA è unico e ingegnoso, ma è una nuova tecnica di post-processing che include al suo interno anche l'anti-aliasing, insieme al super-sampling per aumentare la risoluzione finale.
Per capire come funziona il DLSS, partiamo dai Tensor Core, unità di calcolo, anche queste specifiche, ma pensate per il Deep Learning. I primi test effettuati sui giochi Ray Tracing, per quanto poco affidabili visto l'utilizzo di driver acerbi e di titoli poco ottimizzati, non hanno mostrato prestazioni entusiasmanti, e soprattutto hanno indicato che dovrebbe essere il Full HD la risoluzione prediletta per i giochi che sfrutteranno la nuova tecnologia di rendering.

Le critiche non sono mancate, ma la verità è che siamo agli albori di una nuova era nella grafica, e i primi che arrivano, in questi casi, devono sempre andare incontro a qualche limite. Rendere meno pesante l'impatto prestazionale di un anti-aliasing intensivo, molto utile a risoluzioni inferiori al 4K, ha richiesto l'adozione di una tecnica particolare, il DLSS appunto. Questa tecnica di post-processing è stata pensata per fare un compito molto simile a quello dell'anti-aliasing tradizionale, ma utilizzando molte meno risorse computazionali, affidandosi ai Tensor Core e liberando così i CUDA Core dal compito. Il DLSS, in modalità base, dovrebbe offrire la stessa qualità del TAA, andando però a migliorare alcuni punti deboli di questa tecnica, come ad esempio la presenza di blur nell'immagine.

Ma come funziona il DLSS? Creare una IA, e quindi un algoritmo, capace di eliminare l'aliasing dai giochi partendo dalle GPU che troviamo nei PC sarebbe impossibile, richiederebbe troppa potenza di calcolo. Ecco perché NVIDIA utilizza il super computer SATURNV per insegnare alla rete neurale come portare a termine questo compito, che una volta appreso può essere svolto anche con i semplici Tensor Core delle GPU RTX. Il continuo allenamento a cui è sottoposto SATURNV gli permette da un lato di apprendere come applicare il super-sampling e ridurre l'aliasing a livello generale, una tecnica teoricamente utilizzabile, con risultati più o meno riusciti, da tutti i videogiochi. Dall'altro, gli sviluppatori non devono fare altro che inviare ad NVIDIA i dati relativi al gioco che vogliono rendere compatibile, dei rinforzi in grado di insegnare alla IA a gestire meglio un determinato titolo, e questa attraverso il Deep Learning impara pian piano ad applicarlo al meglio. Il magico mondo delle IA è complesso e non è facile entrare in questa nuova era, ma la cosa bella di questo meccanismo è che migliora nel tempo, per cui più SATURNV si allena, più la resa finale del DLSS incrementa la sua efficacia. Il guadagno prestazionale dovrebbe essere marcato, anche superiore al 40% in alcuni casi, ma la qualità è la stessa di un vero anti-aliasing?

Purtroppo, a questo domanda non c'è una risposta. Come nel caso del Ray Tracing, allo stato attuale non ci sono titoli in commercio che supportano queste novità. Finora si sono viste solo delle Tech Demo, troppo poco per poter esprimere un giudizio: semplicemente, mancano le informazioni necessarie per farlo. Un vero peccato, perché in questo modo due delle caratteristiche salienti della nuova architettura non possono essere analizzate, con la conseguenza che tutte le considerazioni su queste tecnologie devono essere rimandate fino al loro reale utilizzo pratico nel contesto videoludico. Nel frattempo, a questi link potete trovare tutti i giochi in arrivo con supporto al Ray Tracing e al DLSS.

Benchmark, temperature e overclock

La RTX 2080 è la GPU dedicata ai giocatori più veloce in commercio. Lo diciamo senza remore, sono i dati a parlare. Certo, c'è la 2080 Ti, sempre gamma GeForce e sempre pensata per il gioco, ma il suo prezzo, di 1279€, la rende estremamente esclusiva, un oggetto di lusso per un pubblico ristretto che tuttavia può contare ora su prestazioni semplicemente mostruose, che superano quelle della 2080 di un buon 30%. Tornando alla RTX 2080, abbiamo testato la scheda con un processore Intel i7-7820X, utilizzando una scheda madre Asus Prime X299-A e 16 GB di RAM a 3200 MHz, insieme a un monitor Acer Predator X27. Per comprendere appieno i numeri precisiamo che i test sono stati svolti impostando dettagli e filtri alla massima qualità (salvo dove indicato diversamente), e soprattutto questi ultimi pesano molto sul frame rate.
Per la prima prova abbiamo utilizzato il benchmark 3D Mark TimeSpy, totalizzando 10756 punti. Passando invece ai più indicativi benchmark con giochi reali, siamo partiti da Shadow of the Tomb Rader, utilizzando le DirectX 12 e il TAA, con HDR spento. In 1080p ha fatto segnare 108 fps e in 1440p 76, mentre in 4K il frame rate si è fermato a 43. Attivando l'HDR, sempre in 4K, non ci sono stati cali rilevanti nelle prestazioni, con una media di 42 fps.

Batman: Arkham Knight invece ha mostrato 116 fps in 1080p, 94 in 1440p e 63 in 4K, con tutti i dettagli al massimo ed effetti NVIDIA GameWorks attivi. Ghost Recon Wildlands è partito dai 75 fps generati in 1080p per poi passare ai 60 del 1440p, chiudendo con 38 fps in 4K (ma con HBAO, Texture su Ultra e Illuminazione avanzata attivi). L'ultimo gioco provato è Deus Ex: Mankind Divided, titolo molto pesante ed ottimizzato per GPU AMD, che ha fatto segnare 74 fps in 1080p, 51 fps in 1440p e 27 in 4K, in modalità DirectX 12 e con MSAA 2x. Come anticipato, il frame rate non eccezionale in alcuni test 4K è dovuto alla non ottimizzazione delle impostazioni grafiche, ad esempio in Deus Ex, eliminando dall'equazione l'MSAA 2x e impostando le texture su "Alto" invece che su "Ultra", si guadagnano tranquillamente una ventina di frame.

Nella pratica, la nuova RTX 2080 è più veloce di circa l'8-12% rispetto a una GTX 1080 Ti, il guadagno c'è ma non è evidente come nel passaggio tra le GPU Maxwell e quelle Pascal. Non si tratta di un dato che stupisce, del resto l'aumento prestazionale è dato soprattutto dalle frequenze di clock più elevate, buona parte delle novità hardware introdotte non vengono utilizzate per il rendering tradizionale. RT Core e Tensor Core non vengono impiegati, e questo non permette alla RTX 2080 di mostrare le sue vere potenzialità. Ad ogni modo, per il 4K, l'unica GPU a dare uno strappo netto rispetto al passato rimane la 2080 Ti, che riesce a gestire molto bene questa risoluzione, senza compromessi dal punto di vista qualitativo.

Sul fronte temperature e overclock, la scheda ha toccato i 71° durante i benchmark, mentre in Idle la temperatura era fissa sui 31 gradi. Si tratta di valori costanti che abbiamo ravvisato nei vari cicli di carico-scarico della GPU. Siamo riusciti a portare la frequenza di clock della GPU fino a 2100 MHz, mentre le memorie sono arrivate 7300 MHz: in questa configurazione abbiamo completato due cicli di benchmark con Shadow of the Tomb Raider senza incorrere in blocchi del sistema, portando il frame rate da 43 a 46 fps medi con risoluzione 4K.

NVIDIA GeForce RTX 2080 La nuova RTX 2080 Founders Edition è un vero concentrato di tecnologia. Escludendo la variante Ti, incredibilmente potente ma anche molto costosa, si tratta della GPU migliore oggi in commercio. Il guadagno prestazionale rispetto alla GTX 1080 Ti c’è ma non è così marcato da giustificare un update allo stato attuale, diverso il discorso con la GTX 1080, dove le performance superiori sono più evidenti, soprattutto in 4K. 4K che rimane perfettamente gestibile con questa scheda, ma se cercate i 60 fps in ogni condizione, l'unica alternativa rimane la 2080 Ti. Ad ogni modo, NVIDIA ha messo in campo diverse tecnologie innovative, come il DLSS, e altre assolutamente rivoluzionare, come il rendering Ray Tracing, peccato solo che, allo stato attuale, non siano analizzabili nella pratica. Mancano i titoli per capire le vere potenzialità di queste schede, non bastano le poche Tech Demo disponibili per comprendere cosa sono in grado di fare le RTX. Trarre qualsiasi conclusione ora, senza prove dirette delle prestazioni con Ray Tracing attivo e con i titoli compatibili con il DLSS, porterebbe inevitabilmente a un errore di valutazione. Per cui, se state cercando una GPU di fascia alta, possedete un monitor 4K, siete degli early adopter e volete avere subito un assaggio di futuro, la RTX 2080 è certamente la scelta migliore da fare. Se invece avete già una 1080 Ti, oppure non avete un monitor 4K, allora forse è meglio attendere qualche mese prima di fare l’acquisto, tempo necessario ai primi titoli Ray Tracing per arrivare sul mercato e al DLSS per diffondersi. Questa non deve essere presa come una bocciatura, è esattamente l'opposto, da appassionati siamo molto eccitati per le potenzialità delle nuove RTX e le seguiremo da vicino nei prossimi mesi, ma fino a quando non saranno osservabili nella pratica, esprimere un giudizio, in positivo o in negativo, è semplicemente impossibile.