Nonostante l’incredibile balzo tecnologico avuto degli ultimi 10 anni, tearing e stuttering sono un problema che affligge ancora gran parte dei PC gamer di tutto il mondo. Un palliativo c’è già da tempo: si chiama vertical synchronization - o semplicemente V-Sync - e cerca di limitare il fastidioso effetto che spezza l’immagine lungo l’asse orizzontale e che ne toglie tridimensionalità ed efficacia. Gli ingegneri di NVIDIA hanno pensato a lungo ad una nuova soluzione per lenire il problema, e l’hanno fatto con un’innovativo approccio hardware. Con G-Sync preparatevi a dire addio per sempre agli annosi problemi legati alla frequenza video. Si tratta di un procesore che consente di sincronizzare il monitor all'output della GPU, invece di adattare la GPU al monitor. Avevamo già saggiato la tecnologia qualche mese fa, in occasione di un evento NVIDIA in Canada: ora abbiamo finalmente messo le mani su uno schermo Asus equipaggiato con il modulo hardware già in vendita.
VIDEOGIOCHI: GPU VS MONITOR
Il rapporto tra scheda grafica e schermo è più complicato di quanto sembri, creando molteplici dubbi tra i puristi del gaming e della qualità grafica. V-Sync On o V-Sync Off? Lag o tearing? Fino a questo momento il PC gamer poteva solo scegliere il proverbiale “male minore”. Se stiamo giocando online, il consiglio è naturalmente quello di non attivare la sincronia verticale, dato che il filtro software tanto utilizzato evita sì lo spiacevole effetto video, ma porta inevitabilmente a soffrire di un lag sempre penalizzante durante le partite multigiocatore. Al contrario, se ci troviamo di fronte allo schermo per un campagna single player dalla storia mozzafiato, caratterizzata da una grafica all’ultimo grido, il tearing può essere alquanto fastidioso. Per spiegare il funzionamento del V-Sync possiamo avvalerci di alcuni semplici diagrammi, che prendono in analisi la situazione di uno schermo tradizionale con frequenza di 60Hz (i più comuni attualmente in commercio).
Uno schermo con frequenza di 60Hz ha un timing di aggiornamento pari a 16,7ms circa. Questo significa che ogni 16,7ms lo schermo è in grado di mostrarci un nuovo frame, quindi una nuova immagine renderizzata dalla GPU. La scheda grafica, però, lavora indipendentemente e senza tenere in considerazione il refresh rate del monitor. Il risultato - quando il V-Sync è disattivato - è il cosiddetto tearing. Riassumendo in tre punti:
- Il primo frame viene inviato al monitor non appena la GPU lo ha renderizzato;
- Il frame successivo viene poi presentato al display, anche se la visualizzazione del frame precedente non è ancora stata completata;
- Il processo continua, “strappando” l’immagine a schermo nel momento esatto in cui i due frame s’incontrano.
Attivando il V-Sync, invece, il software adegua i dati in arrivo dalla GPU ai 60Hz del pannello: in questo modo, i frame che non possono essere renderizzati molto rapidamente (sotto ai soliti 16,7ms), dovranno attendere fino al termine del ciclo di aggiornamento del monitor per essere visualizzati.
Il V-Sync torna particolarmente utile in tutti quei giochi nei quali non è facile avere una performance di 60 fps costanti nel tempo. Uno dei migliori esempi è l’Anvil Next di Ubisoft saggiato qualche mese fa con Assassin’s Creed IV: Black Flag. Nel titolo a tema piratesco della softco francese non è insolito passare da ambienti ricchissimi di dettagli e filtri (vegetazione, effetti particellari, PhysX) a scenari più semplici da renderizzare. Con V-Sync è possibile evitare gli spiecevoli effetti di tearing, ma ciò si traduce in drastici passaggi da 60 a 30 frame al secondo.
ARRIVA G-SYNC
Ironicamente, quello che fa G-Sync attraverso il modulo hardware collegato allo schermo, è proprio l’opposto di quello che siamo tradizionalmente abituati a vedere su PC. Se infatti V-Sync previene lo screen tearing con una sorta di lock dell’aggiornamento d’immagine (cosa che comunque non riesce sempre con successo), il modulo di NVIDIA modifica la frequenza del monitor per assecondarlo a lavorare sui framerate del flusso video in arrivo dalla GPU. La frequenza dello schermo non è quindi più fissa, ma variabile.
ALL’ATTO PRATICO
Ora che abbiamo capito come funziona G-Sync voi ci chiederete: serve davvero? La tecnologia funziona, non c’è dubbio, e lo fa anche molto bene. Quello che sembra magia è invece pura realtà, nonché una tecnologia relativamente semplice, almeno nel concetto (perché cercare una soluzione software ad un “difetto” hardware, quando puoi risolverlo con l’hardware stesso?).
Abbiamo testato la tecnologia con vari giochi molto complessi, tra i quali figurano Metro: Last Light, Borderlands 2, Rome II: Total War e Assassin’s Creed III. Mettendo fianco a fianco i due monitor Asus, uno con tecnologia G-Sync e l’altro tradizionale, la differenza era chiara e sempre visibile: se sul primo schermo l’immagine risultava nitida e priva d’imperfezioni con tutti i giochi presi in analisi, sul secondo spesso si notavano i difetti menzionati nel corso dell’articolo. Per utilizzare G-Sync e indispensabile un pannello da 144Hz compatibile - più malleabile e adeguato rispetto ai precedenti da 60Hz - una scheda video NVIDIA serie 600/700 e Windows 7, 8 o 8.1.
G-Sync è una tecnologia davvero promettente, l’unica in grado di contrastare veramente gli effetti di tearing e stuttering, almeno fino a quando la tecnologia degli schermi LED riuscirà a superare le attuali barriere di frequenza. Al momento attuale, l’unico grosso scoglio è quello della compatibilità: G-Sync richiede infatti una scheda video GeForce per funzionare, una cosa che, per quanto sensata, rischia di essere un grande vincolo per il gamer che già dispone di una GPU della concorrenza e che non ha intenzione di cambiare. Per quanto riguarda il prezzo invece, il modulo hardware DIY (disponibile al momento solo in USA e Canada) costa 199 $ (145 € circa al cambio attuale) ed è compatibile con il solo monitor Asus VG248QE. In futuro arriveranno sul mercato schermi gaming di Asus, Benq e Philips già dotati di tale tecnologia.