Provato La magia di G-Sync

La nuova tecnologia NVIDIA per sconfiggere tearing e stuttering: ecco svelato come funziona.

Provato La magia di G-Sync
INFORMAZIONI SCHEDA
Articolo a cura di

Nonostante l’incredibile balzo tecnologico avuto degli ultimi 10 anni, tearing e stuttering sono un problema che affligge ancora gran parte dei PC gamer di tutto il mondo. Un palliativo c’è già da tempo: si chiama vertical synchronization - o semplicemente V-Sync - e cerca di limitare il fastidioso effetto che spezza l’immagine lungo l’asse orizzontale e che ne toglie tridimensionalità ed efficacia. Gli ingegneri di NVIDIA hanno pensato a lungo ad una nuova soluzione per lenire il problema, e l’hanno fatto con un’innovativo approccio hardware. Con G-Sync preparatevi a dire addio per sempre agli annosi problemi legati alla frequenza video. Si tratta di un procesore che consente di sincronizzare il monitor all'output della GPU, invece di adattare la GPU al monitor. Avevamo già saggiato la tecnologia qualche mese fa, in occasione di un evento NVIDIA in Canada: ora abbiamo finalmente messo le mani su uno schermo Asus equipaggiato con il modulo hardware già in vendita.

VIDEOGIOCHI: GPU VS MONITOR

Il rapporto tra scheda grafica e schermo è più complicato di quanto sembri, creando molteplici dubbi tra i puristi del gaming e della qualità grafica. V-Sync On o V-Sync Off? Lag o tearing? Fino a questo momento il PC gamer poteva solo scegliere il proverbiale “male minore”. Se stiamo giocando online, il consiglio è naturalmente quello di non attivare la sincronia verticale, dato che il filtro software tanto utilizzato evita sì lo spiacevole effetto video, ma porta inevitabilmente a soffrire di un lag sempre penalizzante durante le partite multigiocatore. Al contrario, se ci troviamo di fronte allo schermo per un campagna single player dalla storia mozzafiato, caratterizzata da una grafica all’ultimo grido, il tearing può essere alquanto fastidioso. Per spiegare il funzionamento del V-Sync possiamo avvalerci di alcuni semplici diagrammi, che prendono in analisi la situazione di uno schermo tradizionale con frequenza di 60Hz (i più comuni attualmente in commercio).
Uno schermo con frequenza di 60Hz ha un timing di aggiornamento pari a 16,7ms circa. Questo significa che ogni 16,7ms lo schermo è in grado di mostrarci un nuovo frame, quindi una nuova immagine renderizzata dalla GPU. La scheda grafica, però, lavora indipendentemente e senza tenere in considerazione il refresh rate del monitor. Il risultato - quando il V-Sync è disattivato - è il cosiddetto tearing. Riassumendo in tre punti:

- Il primo frame viene inviato al monitor non appena la GPU lo ha renderizzato;
- Il frame successivo viene poi presentato al display, anche se la visualizzazione del frame precedente non è ancora stata completata;
- Il processo continua, “strappando” l’immagine a schermo nel momento esatto in cui i due frame s’incontrano.

Come possiamo vedere nello schema, il "Frame 1" viene renderizzato più rapidamente rispetto a quello che è il tempo di scansione del monitor (16,7ms), il che significa che il "Frame 2" interromperà bruscamente la visualizzazione del "Frame 1", con la lacerazione orizzontale dell’immagine che ben tutti conosciamo. In parole più semplici, è come se il monitor volesse mostrarci due immagini contemporaneamente.
Attivando il V-Sync, invece, il software adegua i dati in arrivo dalla GPU ai 60Hz del pannello: in questo modo, i frame che non possono essere renderizzati molto rapidamente (sotto ai soliti 16,7ms), dovranno attendere fino al termine del ciclo di aggiornamento del monitor per essere visualizzati.

L’immagine qui sopra spiega molto semplicemente quello che succede. Il “Frame 1” viene renderizzato ad un timing inferiore a quello di aggiornamento dello schermo, quindi non crea grossi problemi ai fini visivi. Il successivo invece, il “Frame 2”, impiega molto più tempo per essere renderizzato (quasi il doppio), superando il tempo di scansione del monitor. Il risultato è che il secondo frame “resta in attesa” per non sovrapporsi al precedente. Se stessimo giocando ad un board game diremmo che il “Frame 2” salta il turno, lasciando ulteriore spazio al “Frame 1”. Dallo schema qui sopra scorgiamo infatti che il primo frame resta sullo schermo per un tempo più lungo di quello ottimale (esattamente il doppio). Anche in questo caso ci sono delle controindicazioni però. La prima è lo stuttering, ovvero un passaggio repentino da 60 a 30 frame al secondo: l’occhio allenato lo vede immediatamente e si avvertono dei micro-scatti particolarmente fastidiosi, soprattutto nei titoli veloci e adrenalinici. In secondo luogo abbiamo un input lag, discretamente dannoso qualora stessimo giocando in multiplayer.
Il V-Sync torna particolarmente utile in tutti quei giochi nei quali non è facile avere una performance di 60 fps costanti nel tempo. Uno dei migliori esempi è l’Anvil Next di Ubisoft saggiato qualche mese fa con Assassin’s Creed IV: Black Flag. Nel titolo a tema piratesco della softco francese non è insolito passare da ambienti ricchissimi di dettagli e filtri (vegetazione, effetti particellari, PhysX) a scenari più semplici da renderizzare. Con V-Sync è possibile evitare gli spiecevoli effetti di tearing, ma ciò si traduce in drastici passaggi da 60 a 30 frame al secondo.

ARRIVA G-SYNC

Ironicamente, quello che fa G-Sync attraverso il modulo hardware collegato allo schermo, è proprio l’opposto di quello che siamo tradizionalmente abituati a vedere su PC. Se infatti V-Sync previene lo screen tearing con una sorta di lock dell’aggiornamento d’immagine (cosa che comunque non riesce sempre con successo), il modulo di NVIDIA modifica la frequenza del monitor per assecondarlo a lavorare sui framerate del flusso video in arrivo dalla GPU. La frequenza dello schermo non è quindi più fissa, ma variabile.

Lo schema parla abbastanza chiaro: la GPU renderizza l’immagine come ha sempre fatto, mentre G-Sync modifica il timing di scansione del monitor. Se quindi la nostra GPU sta renderizzando a 40 frame al secondo (perché oltre non riesce in quel momento), allora il pannello andrà a 40Hz. La scheda grafica arriva a 53fps? Nessun problema: G-Sync adegua il pannello ad una frequenza di 53Hz. Con questa soluzione hardware, NVIDIA risolve entrambi i problemi legati al refresh rate dei monitor, ovvero tearing e stuttering. Il lag rimane, ma è tanto ridotto da non essere quasi percettibile. Rimane qualche piccolo dubbio circa l’affaticamento della vista a osservare per lungo tempo uno schermo con frequenza variabile; comunque gli ingegneri NVIDIA hanno inserito un blocco che impedisce di scendere al di sotto dei 30Hz (al di sotto dei quali non solo subentra lo stuttering, ma anche rischi fisiologici per l’occhio e la vista).

ALL’ATTO PRATICO

Ora che abbiamo capito come funziona G-Sync voi ci chiederete: serve davvero? La tecnologia funziona, non c’è dubbio, e lo fa anche molto bene. Quello che sembra magia è invece pura realtà, nonché una tecnologia relativamente semplice, almeno nel concetto (perché cercare una soluzione software ad un “difetto” hardware, quando puoi risolverlo con l’hardware stesso?).
Abbiamo testato la tecnologia con vari giochi molto complessi, tra i quali figurano Metro: Last Light, Borderlands 2, Rome II: Total War e Assassin’s Creed III. Mettendo fianco a fianco i due monitor Asus, uno con tecnologia G-Sync e l’altro tradizionale, la differenza era chiara e sempre visibile: se sul primo schermo l’immagine risultava nitida e priva d’imperfezioni con tutti i giochi presi in analisi, sul secondo spesso si notavano i difetti menzionati nel corso dell’articolo. Per utilizzare G-Sync e indispensabile un pannello da 144Hz compatibile - più malleabile e adeguato rispetto ai precedenti da 60Hz - una scheda video NVIDIA serie 600/700 e Windows 7, 8 o 8.1.

G-Sync G-Sync è una tecnologia davvero promettente, l’unica in grado di contrastare veramente gli effetti di tearing e stuttering, almeno fino a quando la tecnologia degli schermi LED riuscirà a superare le attuali barriere di frequenza. Al momento attuale, l’unico grosso scoglio è quello della compatibilità: G-Sync richiede infatti una scheda video GeForce per funzionare, una cosa che, per quanto sensata, rischia di essere un grande vincolo per il gamer che già dispone di una GPU della concorrenza e che non ha intenzione di cambiare. Per quanto riguarda il prezzo invece, il modulo hardware DIY (disponibile al momento solo in USA e Canada) costa 199 $ (145 € circa al cambio attuale) ed è compatibile con il solo monitor Asus VG248QE. In futuro arriveranno sul mercato schermi gaming di Asus, Benq e Philips già dotati di tale tecnologia.