La recensione della nuova GTX 680 di Nvidia

Finalmente Kepler! La Gtx 680 in tutta la sua potenza.

recensione La recensione della nuova GTX 680 di Nvidia
INFORMAZIONI SCHEDA
Articolo a cura di

Dopo tanta attesa, finalmente il grande evento hardware che tutti gli appassionati di PC gaming stavano aspettando è giunto. La nuova serie 6 di Nvidia si rivela al pubblico e abbiamo avuto l'occasione di presenziare all'evento tenutosi durante la GDC di San Francisco, per poi testare da noi una Gtx 680 con tutti gli ultimi giochi a disposizione. La piattaforma denominata Kepler entrerà sul mercato alla pubblicazione di questo articolo (in volumi rilevanti probabilmente più avanti), al prezzo consigliato che trovate a destra. Durante la stessa conferenza è stata presentata anche la piattaforma mobile della nuova GPU di Santa Clara, la 640M, su un portatile Acer di cui troverete la recensione prossimamente sui nostri lidi. Oggi l'attenzione è tutta per la nuova scheda video interna, analizzata dal punto di vista del gamer in questa completissima recensione. Premettiamo subito che volutamente non abbiamo incluso un confronto diretto con la Radeon 7970 di AMD e abbiamo preferito concentrarci esclusivamente sulle prestazioni e le caratteristiche della scheda Nvidia. Questa scelta sottende la nostra volontà di fare un confronto diretto più sintetico ed esteso tra le due schede nell'imminente futuro, ma non ci impedisce ovviamente di trarre le conclusioni necessarie al merito dell'analisi, di ben più ampio spettro rispetto alla pura e sterile conta degli FPS.

Nota per i lettori: durante questo lungo articolo ci riferiremo più volte a termini specifici come PowerTune, ZeroCore, FXAA, TXAA e Vsync. Per comprendere appieno il pezzo, se non sapete a cosa ci stiamo riferendo, vi consigliamo la lettura dei nostri articoli dove offriamo una breve spiegazione di queste tecnologie. Il primo è quello dedicato alle schede video Radeon serie 7; il secondo è invece quello dedicato alle nuove tecnologie grafiche di Nvidia; il terzo infine è l'articolo relativo alle tecnologie di post Processing più comuni nei videogame.
Everyeye HardwareEveryeye Hardware nasce in risposta all'esigenza di noi utenti PC di conoscere la tecnologia del momento in ambito gaming, ovvero quali prodotti soddisfano le nostre elevate aspettative di videogiocatori.
Grazie a Everyeye Hardware i nostri lettori scopriranno insieme a noi quali sono le periferiche migliori da prendere in considerazione per raggiungere un'esperienza di gioco su PC adatta alle loro esigenze, sulle loro macchine.
Leggi subito la Guida alle Valutazioni per imparare a capire il nostro metro di giudizio.

Presentazione e caratteristiche tecniche

Al panel di presentazione siamo stati accolti da Tony Tamasi e Drew Henry, rispettivamente Senior Vice President e General Manager di Nvidia. L'intento della casa verde è chiaro: ottenere le massime prestazioni disponibili sul mercato per le GPU singole. Durante la conferenza si sono alternati altri speaker di diverse compagnie, tra cui spiccano Mark Rein, fondatore di Epic, Randy Pitchford, CEO di Gearbox, Rei Casais, CTO di FunCom, e Simon Ramsey, Head PR di Rockstar. I nomi in ballo parlano chiaro: Borderlands 2, Max Payne 3, The Secret World e soprattutto Unreal Engine 4. In più è stata proiettata una slide riassuntiva dei nomi che ufficialmente han fatto parte dei test Nvidia delle nuove schede e che sicuramente saranno pensati per sfruttarle. Tra tutti spicca Crytek, che non poteva certo mancare, e ovviamente DICE, falsa assente, ovvero non citata nonostante il Frostbite 2 sia stato usato per compiere tutti i test dal vivo ai quali abbiamo assistito grazie a Battlefiled 3. Insomma la politica di Nvidia è molto chiara: supporto al gaming che parte da un hardware pensato apposta e arriva ad accordi specifici con tutti i maggiori produttori di videogame. Una politica che negli ultimi anni si è rivelata vincente e che siamo sicuro ci riserverà parecchie sorprese già nell'immediato futuro.

Videogame in uscita delle software house partner di Nvidia. Interessante la presenza di Slant Six Games (autori di SOCOM e Resident Evil: Operation Raccoon City) e di Bitsquid (creatori del motore che muoverà War of the Roses).


Il numero di Mark Rein noi di Everyeye l'avevamo già visto il giorno precedente: tre schede Gtx 580 e un alimentatore da 1200 W "cestinati" per la supposta regina delle schede video, la Gtx 680. Samaritan è partito subito sul proiettore e ancora una volta l'abbiamo visionato in tutto il suo calcolato splendore. Il fatto che riesca a girare su una singola scheda, mentre prima ne erano necessarie tre, è davvero di riguardo e sicuramente è un primo indice di dove Nvidia ha puntato di più in assoluto, ovvero l'ottimizzazione dei consumi. Vedremo più avanti nel dettaglio cosa esattamente è stato pensato per ottenere un simile eccitante risultato, ma sfatiamo subito un'impressione che i più potrebbero avere dopo una simile performance del paffuto Rein: la Gtx 680 non offre il triplo delle prestazioni di una 580. Bensì anticipiamo che viaggia circa il doppio a livello pratico, ed è giusto sottolineare che è comunque un grandissimo risultato.


Schema semplificato dell'architettura interna di Kepler.


Le differenze sostanziali tra le due schede le trovate schematizzate nella tabella sottostante e sono ovviamente riferite alle versioni reference, ovvero non alterate da alcuna modifica dei produttori ma riportate così come escono da Nvidia.

Foto in sezione della GPU Kepler GK104


Gtx 580Gtx 680
Chipset e CodenameGF110 - Codename FermiGK104 - Codename Kepler
Processo Produttivo40 nm28nm
Streaming Multiprocessor (SM)168
CUDA Core per SM32192
CUDA Core totali5121536
Base Clock772 Mhz1006 Mhz*
Boost Clock/1058 Mhz*
Quantitativo memoria1.5 Gb2Gb
Interfaccia memoria384 bit256 bit
Clock memoria2010 Mhz (4 Gbps)3005 Mhz (6 Gbps)
TDP250 W195 W
Connettori alimentazione1x6pin e 1x8pin2x6pin
InterfacciaPCI-E 2.1PCI-E 3.0
Versione DirectX1111.1
Connettori video2x DVI-I Double Link
1x HDMI 1.4a
1x DVI-D Double Link
1x DVI-I Double Link
1x HDMI 1.4a
1x Display Port 1.2
*Valori medi indicativi. Vedere la descrizione della nuova tecnologia GPU Boost.


Tenete sotto mano questa tabella perchè la useremo durante tutto il corso dell'articolo per spiegare alcune scelte compiute che potrebbero far discutere (su tutte, la metà degli Stream Processor e il ritorno ad un'interfaccia di memoria a 256 bit). Tuttavia precisiamo che in questo caso specifico tutto converge in quella che attualmente è la scheda video più potente mai creata fino ad oggi.

SMX e Gpu Boost

La prima grande differenza tra le due piattaforme è sicuramente il processo produttivo che si riduce come da previsioni, andando a superare quello delle CPU ed affiancandosi alla rivale AMD.
I benefici che si traggono da un simile passaggio sono molteplici e riassumono quasi le specifiche rimanenti.
Anche se, detto un po' brutalmente, di base i benefici più rilevanti consistono in consumi ridotti e nel maggior numero possibile per ciascun SM di CUDA Core.
Questi ultimi sono di fatto le entità che gestiscono il calcolo effettivo della scheda, la "forza bruta" dedicata alla computazione video, e il loro aumento è in generale direttamente proporzionale ad un aumento di prestazioni.


Struttura schematizzata dell'interno di uno Streaming Multiprocessor eXtended (SMX)


Invece che aumentare il numero totale di SM quindi, Nvidia l'ha dimezzato da 16 a 8 ma ha inserito un numero di CUDA Core sei volte maggiore in ciascuno, passando da 32 a 192. Detto fuori dai denti, Gtx 680 può calcolare contemporaneamente meno istruzioni in parallelo della sorella minore 580, ma lo può fare incredibilmente più in fretta. Questa nuova architettura, la cui schematizzazione potete visionare nell'immagine soprastante, è stata chiamata Streaming Multiprocessor eXtended (SMX) e ad una densissima quantità di CUDA Core accompagna un consumo molto ridotto (globalmente dovuto forse al dimezzanto degli SM), tanto che il rapporto delle Performance su Watt (Perf/Watt) è raddoppiato rispetto al passato.

Ma SMX è solo la punta dell'iceberg. E' con GPU Boost che Nvidia ci ha sorpreso alla presentazione di San Francisco. Questa nuova tecnologia in pratica riprende quel Turbo Boost già visto sui processori Intel più recenti che aumentano il clock a seconda del carico di lavoro che effettivamente stanno gestendo, all'aumentare della richiesta di computo da parte del software in uso. Per noi che mastichiamo pane e videogames, la questione si fa decisamente interessante dato che siamo di fronte a un "overclock automatizzato" della scheda video, senza che l'utente abbia bisogno di modificare alcunchè dalle impostazioni. Per poter applicare una variazione così sensibile alla GPU, Nvidia ha pensato bene di basare sull'effettivo consumo di energia le stime necessarie al software interno per capire quando aumentare il clock della Gtx 680.

Nel grafico vediamo l'Opportunità di Boost (verde chiaro) offerta dai vari giochi testati da Nvidia (verde scuro), ordinati da sinistra a destra rispettivamente da quello che consuma meno a quello che consuma di più. L'ultimo software a destra sul quale sembra abbiano tarato tutti gli altri si riferisce a 3DMark 11 che a detta loro rappresenta lo scenario peggiore per il rapporto tra Performance e Watt, con un consumo effettivo di 200 W all'esecuzione.


Come vediamo dal grafico e dalla sua descrizione, ogni applicazione richiede un certo quantitativo di lavoro alla GPU che si traduce in un certo quantitativo di Watt da consumare e relativo calore da dissipare. Per questo ogni 100ms la Gtx 680 monitora il consumo richiesto dall'applicazione attiva e, a seconda del consumo massimo per cui è impostata, aumenta il clock della GPU fino ad arrivare letteralmente a consumare quanto può a seconda del sistema di dissipazione che utilizza.
Dalla serie 6 in avanti le GPU Nvidia saranno quindi dotate di due valori di clock: il Base Clock e il Boost Clock. Il Base Clock è semplicemente il clock di riferimento della scheda, quello classico che tutti siamo abitutati a trovare come valore fisso delle schede pasate e che è in sostanza una "media", sotto la quale si può scendere per risparmiare preziosa energia, ma che normalmente si raggiunge per un uso quotidiano degli applicativi più comuni su PC. Il Boost Clock invece è la velocità media di riferimento a cui si imposta la Gtx 680 durante l'utilizzo di applicazioni che richiedono un calcolo più intenso, come i videogiochi. In ogni caso entrambi i valori sono indicativi e non rappresentano un limite alla velocità effettiva raggiungibile sia in un senso che nell'altro (ovvero ben oltre il Boost Clock e ben sotto il Base Clock, per risparmiare sui consumi). Se ad esempio Battlefield 3 richiedesse una maggiore potenza di calcolo in un certo frangente, la Gtx 680 riconoscerebbe l'improvvisa richiesta di potenza aggiuntiva, la tradurrebbe in consumo effettivo e aumenterebbe le prestazioni di conseguenza senza alcun limite teorico.


Schematizzazione del funzionamento del GPU Boost. La linea retta rappresenta l'andamento dell'incremento delle prestazioni (sulle ordinate) all'aumentare del consumo (sulle ascisse). Entrambi i punti verdi (Base Clock e Boost Clock) sono quindi solamente dei valori indicativi al passaggio dinamico (ad intervalli di 100ms) tra un clock e l'altro.



All'atto pratico è quindi impossibile stabilire un clock di paragone per questa scheda, ma durante le nostre prove siamo riusciti ad arrivare ad un massimo di 1128 Mhz. Tutto questo potrebbe allarmare chi è abituato a overcloccare la propria scheda, dato anche il fatto che GPU Boost non si può disattivare. Tuttavia agendo tramite Rivatuner o programmi simili, Nvidia non impedisce all'utente di compiere il classico Overclocking.


Schematizzazione dell'overclocking su piattaforma dotata di GPU Boost. Overcloccare equivale a traslare la retta verso l'alto, ovvero ad avere valori più elevati di clock (ordinate) per gli stessi valori di consumo (ascisse).


Cosa vuol dire Overclocking su una simile piattaforma quindi? Semplicemente aumentare il parametro che gestisce la frequenza della GPU (GPU clock offset nell'immagine), di modo che ad uno stesso incremento di consumo, corrisponde un aumento maggiore di clock della GPU rispetto alla scheda "liscia". Tuttavia esistono due limiti connaturati a una simile struttura. Il primo è quello dell'alimentazione effettiva: di fatto usando due connettori da 6pin invece che uno da 8 e uno da 6 si limita il Wattaggio totale a cui la scheda può attingere e di conseguenza si introduce un tetto massimo di frequenza raggiungibile. Tuttavia precisiamo che queste considerazioni per ora non abbiamo avuto modo di verificarle e rimangono nostre considerazioni teoriche. Infatti potrebbe benissimo darsi che il tetto di consumo sia comunque in pratica talmente elevato anche usando due connettori da 6pin da non rappresentare un problema.

Schema riassuntivo che evidenzia la possibilità di overclocking diretto dell'utente e il guadagno relativo rispetto al normale uso del GPU Boost (verde molto chiaro).


La seconda perplessità è riassumibile in una domanda: Il GPU Boost tiene conto della temperatura della scheda? Insomma, non ci pareva verosimile che si potesse aumentare il clock e le performance senza restrizioni in un campo d'applicazione reale. Ebbene la risposta che ci è stata fornita era quella attesa, ovvero che il software interno della Gtx 680 è stato calibrato apposta per non incorrere in fatali errori e blocchi dovuti al surriscaldamento che ne comprometterebbero il funzionamento. Quindi un limite pratico ovviamente esiste ed è stato introdotto proprio nel software di gestione di GPU Boost per non fondere la Gtx 680. Tuttavia dobbiamo ribadire come di fatto questo limite sia aggirabile già sulle schede reference tramite la descritta possibilità di overclocking del Base Clock, fornite dal software EVGA precision descritto più avanti. Inoltre siamo stati informati che già dal lancio sul mercato (disponibili da oggi, anche se non si sa la data esatta per una distribuzione in volumi di vendita rilevanti per il mercato italiano) vedremo versioni non reference della Gtx 680, proposte dalle usuali partner Nvidia come Zotac, EVGA e MSI e costruite per sfruttare al meglio il GPU Boost con sistemi di raffreddamento e disposizioni delle componenti sul PCB ad hoc e conseguente ritaratura del limite di consumo della scheda specifica all'uscita dal negozio, senza interventi diretti dell'acquirente.

In definitiva GPU Boost è la risposta di Nvidia alla tecnologia PowerTune delle schede Radeon, ma rinviamo al nostro futuro articolo comparativo il confronto diretto. Per ora possiamo dire che grazie al partner EVGA, famoso produttore di schede Nvidia, è stato approntato un software per sfruttare il GPU Boost intuitivamente, calibrando passo-passo la propria scheda. Stiamo parlando dell'EVGA Precision X, già esistente da tempo e basato sul famoso Rivatuner. Trovate una descrizione delle sue feature principali nel paragrafo di questo articolo dedicato al software.
ConsumiLa Gtx 680 è la scheda che, considerando la stessa fascia prestazionale, consuma meno in assoluto a pieno carico, ovvero 195 W totali contro i 250 W dell'antagonista Radeon HD 7970. Un divario davvero significativo che permetterà sicuramente a Nvidia e ai suoi partner produttori di ottimizzare ulteriormente la concezione strutturale dei circuiti stampati per aumentare l'efficienza della dissipazione e automaticamente arrivare a valori più elevati di Boost Clock.
In idle, ovvero a carico quasi nullo della Gtx 680 da parte del sistema, assistiamo all'intervento del GPU Boost che riduce le frequenze fino ad un minimo di circa 300Mhz. Chiedendo i dati ufficiali direttamente a Nvidia, ci hanno fatto sapere che la scheda a carico minimo consuma soli 15W. Siamo ben contenti che GPU Boost funzioni anche per andare sotto il Base Clock e risparmiare in termini di Wattaggio e dissipazione. A questo proposito ricordiamo che il record di minor consumo in idle spetta quindi a Radeon 7970 che grazie alla tecnologia ZeroCore, consuma soli 3 Watt a carico di lavoro quasi nullo.

FXAA e Adaptive Vsync

Prima di procedere alla descrizione tecnica di queste nuove tecnologie ci teniamo a sottolineare che, in seguito al lancio delle Gtx 680, alla prossima release dei driver Nvidia abiliterà l'uso di FXAA e Adaptive Vsync anche a tutti i possessori di schede Nvidia dotate di chip Fermi.

Comparativa FXAA (Clicca per ingrandire). Il titolo da cui sono stati tratti gli screen è Deus Ex: Human Revolution che permette il pieno supporto della tecnologia FXAA direttamente via software.


Con l'uscita di Kepler, sono state introdotte due novità molto rilevanti in ambito gaming. La prima è la possibilità di forzare via hardware, tramite Nvidia Control Panel, l'ormai famoso filtro di post-processing detto Fast approXimate Anti Aliasing (FXAA), proposto da Nvidia circa un anno fa e già implementato in molti titoli come Skyrim e Deus Ex: Human Revolution. Per la descrizione del suo funzionamento vi invitiamo a leggere il nostro articolo sul Post-Processing. In questa sede vogliamo porre l'accento sull'effettivo uso di tale filtro nei maggiori videogame finora rilasciati. Al di là degli algoritmi che ne governano l'utilizzo rispetto ad altri filtri simili (come l'MLAA di AMD), la resa finale, nonostante le presentazioni entusiastiche è globalmente inferiore al classico Multi Sampling Anti Aliasing (MSAA), sebbene il risultato raggiunto -è giusto dirlo- pesa meno della metà sulle prestazioni di qualsiasi macchina. Ci sentiamo molto sicuri della nostra affermazione proprio perchè, avendo la possibilità di testare le schede su tutti i giochi per PC più in voga, ci siamo accorti che in movimento (ovvero mentre si gioca e ci si muove nello'ambiente 3D) l'FXAA si presta ad errori di visualizzazione nell'ottimizzazione dei colori sui bordi dei poligoni, nettamente più evidenti di quelli del classico MSAA. Tuttavia il guadagno prestazionale è molto rilevante e sarebbe scorretto bollare questa tecnica come un fallimento tout court, dato che comunque il fenomeno dell'alias viene arginato ad un costo minimo rispetto ad altri filtri.
Segnialiamo comunque che forzare l'FXAA dai driver presenta tutti i problemi comuni al forzare l'engine di un gioco generico all'utilizzo di una qualsiasi tecnica di Anti Aliasing. In altre parole forzarne l'uso risulta efficace solo nei giochi che Nvidia si procurerà di supportare via driver, come già accade forzando ad esempio il Super Sampling tramite Control Panel o Nvinspector.

Grafico che evidenzia l'andamento del frame rate in relazione al fenomeno del Tearing in un gioco qualsiasi in cui il generico Vsync è disattivato. Come messo in evidenza nell'immagine, alla fluttuazione del frame rate tra le due soglie chiave di 30 e 60 FPS, ai picchi della curva del frame rate, si può presentare il cosiddetto tearing. Specifichiamo che potrebbe presentarsi anche ai solchi della curva (per un ritardo dell'invio dei frame), ma ciò accade molto meno frequentemente e in ogni caso è quasi sempre accompagnato da rallentamenti vistosi del motore del gioco che tendono a mascherarlo.


Oltre alla possibilità di forzare via hardware l'FXAA, uno dei protagonisti principali delle nuove tecnologie Nvidia e forse la novità più interessante per noi gamer è l'Adaptive Vsync. Abbiamo già descritto che cosa sono il Vsync e il Tearing ed offriamo ai nostri lettori un breve riepilogo nella descrizione dell'immagine riportata sopra. L'Adaptive Vsync è una tecnologia pensata per risolvere il grave problema dell'attivazione del Vsync in un gioco qualsiasi, presentando stuttering alla fluttuazione del frame rate sotto le soglie chiave di 20, 30 e 60 FPS. Un'immagine vale più di mille parole e per questo vi offriamo un altro grafico esplicativo.

Grafico che evidenzia il problema dello stuttering all'implementazione del Vsync in un gioco qualsiasi in cui le prestazioni del PC in uso non sono sufficientemente elevate per mantenere i 30 o i 60 FPS costanti. Quando viene rilevato che il gioco sta andando sotto una delle soglie tipiche appena citate, il classico Vsync passa senza mezzi termini da un limite di 60 a un limite di 30 (o viceversa), facendo scattare il gioco.


Lo stuttering è in pratica il rallentamento del motore di un gioco, nella forma di vistosi scatti a singhiozzo. Si può verificare per molte ragioni (ad esempio in un gioco online potrebbe essere legato alla latenza), ma sostanzialmente si verifica per due motivi possibili: la mancata ottimizzazione del motore del gioco da parte degli sviluppatori per la piattaforma su cui si esegue il videogame; e le scarse prestazioni della macchina su cui si fa girare il videogame stesso.
In uno scenario tipico sulle macchine da gaming recenti (non necessariamente nuove di pacca), implementare il Vsync in un gioco già pesante da far girare (come Battlefield 3) può generare rallentamenti improvvisi del frame rate -stuttering-, dovuti ad esempio al passaggio tra i 60 e i 30 FPS. Per questo Nvidia ha pensato ad un sistema automatico che disattiva il Vsync quando il gioco scende sotto la soglia impostata e lo riattiva quando va oltre.

Alla fluttuazione del frame rate sotto la soglia di frame rate impostata, l'Adaptive Vsync si disattiva, riducendo lo stuttering. Sottolineiamo che questa tecnologia non elimina rallentamenti generici dovuti ad altri limiti tecnici della macchina che si sta usando per eseguire il gioco.


Dopo la nostra attenta descrizione dell'Adaptive Vsync anticipiamo che questa nuova introduzione è semplicemente impeccabile. Su qualsiasi gioco che abbiamo testato infatti non abbiamo riscontrato alcun problema di implementazione, riscontrato invece nel forzare l'FXAA. La spiegazione è semplice, ovvero che l'Adaptive Vsync rimpiazza in toto il normale Vsync e non è una tecnica aggiuntiva ma un vero e proprio approccio alternativo. All'atto pratico attivare l'Adaptive Vsync tramite pannello di controllo equivale ad attivare il Vsync classico, con il vantaggio però del ridotto stuttering sui giochi che pesano di più sul nostro sistema. Grazie a questo le performance di ogni gioco aumentano senza mezzi termini su ogni piattaforma su cui è già consigliato usare il Vsync. Un risultato davvero ottimo da parte di Nvidia che dunque elogiamo senza mezzi termini.

TXAA e Global Illumination

Abbiamo già parlato delle nuove tecnologie grafiche di Nvidia presentate durante l'ultima GDC nel nostro articolo dedicato che non smetteremo mai di segnalarvi. Come già detto per FXAA e Adaptive Vsync, ci teniamo a sottolineare che il TXAA e la Global Illumination saranno rese disponibili in futuro anche a tutti i possessori di schede Nvidia basate su chip Fermi.

Comparativa tra MSAA 8x e TXAA 2. La tech demo da cui sono tratte è interna ad Nvidia ma mostra chiaramente i benefici delle tre componenti implementate nel TXAA rispetto alla tecnica canonica del Multi Sampling.

Per motivi di spazio, vi invitiamo a consultare l'articolo che vi abbiamo già più volte ricordato di leggere per la descrizione accurata del Temporal approXimate Anti Aliasing (TXAA). Come potete vedere dalla comparativa soprastante, le tre componenti che lo caratterizzano (MSAA, filtro temporale derivato dall'FXAA e filtro aggiuntivo dedicato all'HDR) mostrano una qualità dell'immagine davvero eccezionale, ad un costo in risorse nettamente inferiore al classico Multi Sampling.
Il paragone corretto però, per capire i miglioramenti effettivi di un simile approccio, deve includere ovviamente anche il filtro FXAA, cosa che attualmente non siamo stati in grado di fare dato che ad oggi i driver pre-release che ci ha fornito Nvidia non includono la possibilità di testare questa nuova tecnologia sui giochi più recenti. Intervistando il gentilissimo PR Nvidia, abbiamo ottenuto immediatamente una risposta a riguardo: il problema è che questa tecnologia è talmente recente che non c'è stato il tempo fisico di implementarla in nessun gioco, nè a livello driver, nè ovviamente a livello di sviluppo del software. Per ora dovrete fidarvi quindi delle nostre impressioni a caldo maturate alla presentazione.
Il TXAA include di fatto le routine del Multi Sampling 2x (nella versione TXAA 1) e 4x (nella versione TXAA 2) e per questo con l'immagine in movimento gli artefatti creati dal filtro FXAA vengono quasi del tutto arginati. Rimangono alcune incertezze impossibili da verificare senza il prodotto sotto mano che sono essenzialmente una possibile sfocatura globale dell'immagine (simile a quella evidente che riscontriamo per i filtri AA di Crysis 2), che di fatto la "sbiadisce" rispetto a quella senza filtri, e una probabile anzichè certa eccessiva invasività del filtro sui dettagli molto piccoli e distanti rispetto alla visuale del giocatore, sui quali questo nuovo filtro smussa eccessivamente i contorni, "mangiandosi" parte dei motivi delle texture del poligono e dello sfondo. Tuttavia queste considerazioni rimangono puramente teoriche finchè non avremo modo di testare il TXAA di persona.


Nuove routine Nvidia dedicate alla Global Illumination. L'immagine è tratta dalla tech demo interna dell'azienda di Santa Clara.


Grosse novità anche in ambito illuminazione dinamica in tempo reale, importantissima per raggiungere livelli di realismo sempre più elevati. Già adottata nei due motori più in voga del momento (Frostbite 2 e Cryengine 3), la Global Illumination è in generale la tecnica che permette di calcolare nel rendering 3D dell'immagine la luce riflessa, rifratta e diffusa sull'intera scena. Trovate una spiegazione più estesa al solito link. In questa sede facciamo delle semplici considerazioni.
Come per il TXAA non abbiamo potuto verificare la bontà delle nuove implementazioni sulla nostra macchina, ma l'efficacia della tecnica mostrata era palese ai nostri occhi durante la visione della tech demo. Una simile implementazione deve tuttavia necessariamente passare per le mani degli sviluppatori di un videogioco che la implementa e quindi passerà molto tempo prima di avere un riscontro reale della Global Illumination Nvidia. La differenza tra le implementazioni software di Frostbite 2 e Cryengine 3 e le routine Nvidia è fondamentale: con queste istruzioni il calcolo della luce diffusa sarà eseguito direttamente a livello hardware, fatto che in teoria ne velocizza il computo in maniera significativa. Inoltre i tecnici Nvidia sono riusciti, a nostro avviso, a rendere l'effetto in maniera particolarmente efficace rispetto agli engine che utilizzano algoritmi proprietari.
L'immagine che abbiamo riportato sopra è molto esplicativa in questo senso: si nota innanzitutto l'uso del SSAO per il calcolo delle ombre e in seguito (sulla destra e sulla sinistra) potete notare la luce diffusa con effetto bleeding dei colori sulle colonne della struttura e sui drappeggi. Quanto mancherà per vedere implementate simili efficaci routine nei titoli futuri? Noi non vediamo l'ora!

Physx e 3D Vision Surround

Come già detto per altre precedenti tecnologie descritte in questa sede, ci teniamo a sottolineare che anche le due nuove tecnologie di Physx saranno rese disponibili in futuro a tutti i possessori di schede Nvidia basate su chip Fermi. Trovate al solito la loro descrizione completa nel nostro articolo dedicato già pubblicato su Everyeye. Discorso differente invece per la nuova gestione delle configurazioni multi-schermo, ovvero della tecnologia Surround che è stata rivista e migliorata in funzione dell'incredibile aumento prestazionale rispetto alla generazione di schede precedente e che rimane quindi esclusivo appannaggio della Gtx 680.

Routine di distruzione e Fur Shading rinnovate, rispettivamente per la distruzione dei corpi solidi -da noi chiamata Fracture, in assenza di nome ufficiale- e per la resa realistica del pelo e dei capelli. Le immagini sono relative alle tech demo mostrate, che potete visionare sulla nostra WebTv cliccando sopra gli screenshot
Anche il tanto chiaccherato Physx otterrà delle nuove implementazioni. Le due tech demo relative mostravano tutta la bontà delle nuove introduzioni, ma abbiamo già descritto a sufficienza le due tecnologie e vi offriamo quindi un estratto dal nostro articolo completo:

Lavorando insieme ad Epic, Nvidia ha sviluppato due tecniche molto interessanti. La prima, che chiameremo Fracture, anche se non esiste un vero e proprio nome ufficiale, si occupa della distruzione dinamica degli oggetti in tempo reale. La differenza più grande rispetto alla tecnologia implementata fino ad oggi, sta nel poter applicare in modo prestazionalmente poco esoso gli algoritmi di distruzione a tutti i corpi rigidi di una scena in 3D.
[...]Il Fur Shading è una tecnica di simulazione e resa 3D di capelli e pelo già usata da molti anni nei videogame, ma ancora una volta Nvidia ha voluto migliorare incredibilmente l'effetto, aggiornando l'algoritmo relativo nel suo Physx engine. Ora ogni capello è renderizzato singolarmente sulla superficie interessata ed è dotato di volume, facendo scomparire del tutto quell'effetto "piatto" tipico di molti videogame. Oltre a questo ogni capello è anche animato verosimilmente per interagire con gli eventi esterni e i movimenti del personaggio. Il trucco per alleggerire il calcolo fisico di migliaia e migliaia di elementi -in questo caso i peli- è quello di selezionare un certo numero di "peli guida" che, muovendosi, permettono di semplificare la direzione e il movimento dei peli circostanti.


Scheda di presentazione del 3D Vision Surround e principali nuove introduzioni.


Non poteva mancare anche un completo aggiornamento nella gestione della tecnologia Nvidia dedicata al gaming multi-schermo, denominata Nvidia Surround, e alla tecnologia 3D Vision. Usate assieme le due tecnologie compongono il cosiddetto 3D Vision Surround per un'esperienza immersiva in ogni gioco che la supporta. La combinazione è equivalente a quella proposta da AMD con le tecnologie Eyefinity e HD3D, con la grossa differenza che Nvidia offre anche ai propri clienti gli strumenti necessari per la visualizzazione del 3D a casa propria, ovvero schermi e occhialini.
Abbiamo già descritto ampiamente la resa del 3D Vision 2 e della tecnologia Surround in ben due articoli già pubblicati tra Ottobre e Novembre e di cui vi proponiamo nuovemente i link: Batman: Arkham City, Lightboost e 3D Vision Surround; 3D Vision 2: Diablo III, Battlefield 3 e Skyrim.
Come già espresso quindi la bontà dell'offerta Nvidia ci permette di consigliare a tutti queste tecnologie, il cui limite intrinseco riguarda una questione più logistica che tecnica, ovvero il costo molto elevato di una piattaforma adeguata dotata di schede video e processore molto performanti, nonchè di ben 3 schermi per supportarla.

Configurazione Nvidia Surround a 4 schermi.


La prima novità riguarda dunque proprio gli schermi, che da 3 supportati passano a 4 totali da montare come riportato sopra in figura. Sfruttando i 4 connettori della Gtx 680 potremo accedere ad un'esperienza totalmente immersiva nei giochi che la supportano e la lista è davvero notevole segno che a Nvidia lavorano costantemente per espanderla di titolo in titolo. Come potete vedere il quarto schermo non sarà adibito alla visualizzazione del gioco, ma alla visualizzazione contemporanea del desktop di Windows o di un altro applicativo, in una configurazione molto utile per effettuare dei benchmark e dunque appannaggio dei soli utenti enthusiast per prezzi e spazio.
La seconda introduzione riguarda una migliore gestione di Windows per un uso quotidiano del Surround. Ora le finestre potranno essere espanse in pochi click fino alle dimensioni di uno specifico schermo e la taskbar verrà visualizzata sempre sullo schermo centrale e non più su quello laterale di sinistra. Anche queste due ottime introduzioni.


Possibilità di passare tramite shortcut da tastiera (Ctrl+Alt+B) dalla visualizzazione multi-schermo che tiene conto delle cornici (Bezel) a quella invece che ne è priva, visualizzando gli elementi che vengono coperti.


La terza introduzione è dedicata invece al cosiddetto fenomeno del Bezel Peaking, ovvero la "copertura" di alcuni elementi renderizzati da parte delle cornici degli schermi affiancati. Grazie ad uno shortcut adesso potremo istantaneamente visualizzare gli elementi nascosti per tornare poi alla renderizzazione corretta delle proporzioni dell'immagine, utile per visualizzare menu e pannelli in-game senza dover spostare la visuale.
Infine l'ultima novità riguarda l'ottimizzazione della configurazione multi-schermo sui titoli che non la supportano direttamente. Fino ad oggi infatti dovevamo passare dal pannello di controllo a gioco non avviato per segnalare alla scheda se l'applicazione che stavamo per eseguire supportava o no una configurazione a 3 schermi. Ora questo non è più necessario e i driver riconoscono automaticamente se un gioco supporta tale feature o meno. Nel caso non fosse possibile usare il Surround, questo verrà quindi disattivato all'avvio del programma e la scheda si concentrerà nel rendering del solo schermo centrale, evitando spiacevoli crash e riavvii conseguenti dovuti al mancato supporto.


Opzioni per il Surround Nvidia del pannello di controllo.


Tutte queste introduzioni per 3D Vision 2 e Nvidia Surround mostrano un'attenzione eccezionale verso questa tecnologia, che -siamo sicuri- potrebbe finalmente entrare nelle case di più di qualche sporadico pioniere. L'unica piccola sbavatura la riscontriamo tuttavia nelle uscite video della Gtx 680. Infatti sono 4 uscite totalmente differenti l'una dall'altra e dovremo fare molta attenzione già nella scelta dei cavi, ma soprattutto nell'adottare quattro schermi compatibili con tutte le tecnologie, dato che è consigliato caldamente averne 4 uguali identici. La domanda è quindi: esiste sul mercato uno schermo a 120Hz (adatto quindi alla visualizzazione del 3D) che supporta DVI-D, HDMI 1.4a e Display Port 1.2 contemporaneamente? La risposta purtroppo non è positiva a causa proprio della tecnologia Display Port che è per ora implementata raramente dai produttori di schermi. Nemmeno lo splendido ASUS VG278H è dotato di una connessione simile e dovremo ancora attendere il futuro per vedere delle implementazioni in questo senso. Anche l'uscita HDMI 1.4a presenta dei problemi. Infatti se su console non c'è motivo di preoccuparsi data la risoluzione sub-HD nativa di tutti i titoli, su PC in grado di far girare un gioco su 3 schermi a 1080p e risoluzione 3D è necessaria una frequenza del segnale a 60Hz (che non c'entra con il valore di refresh degli schermi), cosa non supportata dalla maggior parte dei cavi HDMI 1.4a in circolazione. Tuttavia entrambi i problemi non sono così gravi dato che esistono dei comodi adattatori per passare da un segnale all'altro, ma è comunque spiacevole che un cliente che spende una simile cifra per godersi appieno ad esempio Diablo 3 possa andare incontro a simili questioni. Purtroppo dobbiamo ammettere che Nvidia centra solo in parte in tutto questo: la "guerra" dei formati di trasmissione via cavo dei video HD è ancora in corso e probabilmente non vedremo mai un vero "vincitore", dato che tutti i formati sembrano avere terreno fertile in qualche ambito.
In ogni caso la via da seguire è quella di adottare 4 cavi DVI-D Double Link e relativi adattatori per godersi il 3D Vision Surround su 4 schermi grazie alla Gtx 680: una sola scheda in grado di far girare i titoli in questa configurazione mostro, dapprima esclusivo appannaggio dello SLI, con tutti i problemi di compatibilità coi giochi che comportano le configurazioni multi-GPU. Un altro problema risolto quindi, anche se ancora la strada da percorrere è lunga perchè il tutto veda un'implementazione costante nei videogame.

Software - Nvidia control panel ed EVGA Precision X


(Clicca per Ingrandire) Le nuove opzioni dell'Nvidia Control Panel. Oltre alla nuova opzione FXAA (forzabile in parallelo al normale AA), potete notare nella tendina di sinistra anche la nuova sezione 3D Surround e Physx che permette una migliore gestione delle configurazioni 3D multi-schermo.


Con la scheda fornitaci direttamente da Nvidia, abbiamo ovviamente avuto accesso ai driver pre-release della casa verde (versione 300.99), pannello di controllo aggiornato e feature esclusive per il chip Kepler. Come anticipato le opzioni dedicate al TXAA sono assenti, ma possiamo impostare cinque differenti valori di Adaptive Vsync:

Le cinque impostazioni relative all'Adaptive Vsync.


Al di là dell'usuale Usa l'impostazione dell'applicazione 3D, che lascia gestire al gioco l'uso del Vsync, le altre occorre spiegarle:

  • Forza disattivata - Il Vsync viene completamente disattivato
  • Forza attivata - Il Vsync viene attivato indipendentemente dalle impostazioni del gioco nella forma classica, non Adaptive.
  • Automatica - Attiva l'Adaptive Vsync in tutti i giochi senza restrizioni al frame rate.
  • Automatico (intervallo 2) - Attiva l'Adaptive Vsync su un intervallo preciso di frame rate, ovvero la scheda cercherà di mantenere a tutti i costi un intervallo di FPS compreso tra poco più di 60 (o 30) e poco meno del valore stesso.


    Il pannello principale dell'EVGA Precision X. Lo screenshot è stato preso con la scheda a carico quasi minimo e sono da notare la temperatura di 26° e il clock a 300 Mhz (barra arancione).


    Il software fornitoci in anteprima da Nvidia pensato per sfruttare appieno il GPU Boost si avvale della piattaforma Rivatuner implementata anche dal popolare MSI Afterburner. EVGA ha collaborato con Nvidia per introdurre quattro nuove caratteristiche di rilievo nella gestione del GPU Boost: lo slider Power Target per decidere il valore massimo di Watt attingibili dalla scheda; lo slider GPU clock offset per incrementare il valore del Base Clock senza passare dal GPU Boost (ovvero per overcloccare direttamente la Gtx 680); una barra estesa di monitoring (in basso) che include la voce Power; e un pulsante Frame Rate Target alla sua sinistra per specificare un valore consigliato di Frame Rate all'esecuzione del videogioco.
    Lo slider Power Target determina fino a che percentuale sfruttare il wattaggio massimo consentito della scheda e conseguentemente fino a che punto può spingersi il GPU Boost. Il valore di default corrisponde a 195 W per la slider impostata al 100%.
    Lo slider GPU clock offset invece si riferisce esattamente a quanto abbiamo riportato nella descrizione del GPU Boost nella pagina precedente. In pratica usando questa opzione si aumenta di tot Mhz la frequenza effettiva della Gtx 680, indipendentemente dal GPU Boost, che quindi non si può disabilitare, ma non impedisce di procedere autonomamente all'overclock. Anzi, il tutto è molto piàù semplice che in precedenza dato che i voltaggi vengono settati in automatico. Durante le nostre prove abbiamo tenuto a +100Mhz questa barra.
    Il pulsante Frame Rate Target apre una finestra dove impostare il valore massimo di FPS che la scheda cercherà di mantenere in maniera costante. Ciò è utile per evitare problemi in-game dovuti a un frame rate troppo ballerino, con il gioco che presenta in quel caso stuttering dovuto ad altre ragioni rispetto all'alternanza del Vsync non Adaptive tra i vari scalini. Adaptive Vsync e Frame Rate Target lavorano ovviamente in stretta precedenza: dapprima la scehda verifica che l'Adaptive Vsync sia attivo; nel caso in cui lo fosse manterrà le routine che lo gestiscono per quando il frame rate si discosta troppo verso l'alto rispetto al valore consigliato di -generalmente- 60 fps; al contrario se invece il valore scenderà troppo entreranno in azione le routine del Frame Rate Target per cercare di riportare i frame al valore indicato. Sembrerebbe che la funzione dell'FPS limiter sia analoga e ridondante riseptto all'Adaptive Vsync ma non è affatto così. Infatti questa rimane un'implementazione esclusivamente software e molto meno affidabile della normale correzione Vsync.
    Infine troviamo poi il Performance Log, ottimo per monitorare in tempo reale le performance della Gtx 680, magari su un secondo schermo.

    Benchmark - Introduzione e 3DMark 11

    La prima regola per affrontare scientificamente un buon Benchmark è accertarsi dei limiti imposti dalla macchina su cui si eseguono i test. Per questo vi riportiamo le caratteristiche dettagliate della piattaforma su cui abbiamo eseguito tutti i benchmark della Gtx 680:

    Configurazione di benchmark (testbed)
    CPUIntel Core i7 920
    Frequenza CPU4210 Mhz
    DissipatoreNoctua NH-D14
    Scheda MadreASUS P6X58D Premium
    Memoria RAMG.Skill Pi-greco 3x2Gb DDR3 1600
    Hard Disk DriveWestern Digital Velociraptor 450Gb 10.000 rpm
    AlimentatoreEnermax MODU 87+ 750W
    Sistema OperativoWindows 7 x64 Ultimate

    Il testbed merita una particolare valutazione. Per motivi interni redazionali (dovuti esssenzialmente ai tempi molto stretti di recensione) non abbiamo potuto effettuare i nostri test su una piattaforma che eliminasse totalmente eventuali colli di bottiglia hardware. Nel nostro caso questi ultimi sono dovuti a due fattori, uno meno significativo e un altro invece più rilevante.
    Il primo è la mancanza di un Hard Disk di tipo SSD, fatto che comunque, considerando la qualità eccellente del drive Western Digital, non rappressenta quasi affatto un limite nell'esecuzione dei benchmark. Il secondo invece è, non lo nascondiamo, limitante ai fini dei test, ovvero che la scheda madre ASUS è di primissima generazione per la piattaforma LGA 1366 e ciò significa che non è dotata di interfaccia PCI-E 3.0, bensì della sorella minore 2.0, fatto che limita la banda passante in modo rilevante da 8GT/s a 6.4GT/s (intendendo con GT/s l'unità di misura comune per il calcolo della bandwidth, ovvero i gigatransfer). Il passaggio da PCI-E 3.0 a PCI-E 2.0 dimezzerebbe le prestazioni totali teoriche della memoria del sistema andando ad inficiare i risultati. Tuttavia la scheda madre è dotata di tecnologia Intel Quickpath Interconnect che ottimizza la banda passante aumentando i gigatransfer e avvicinandosi alla nuova piattaforma 3.0 uscita a Dicembre 2011, ma senza ovviamente eguagliarla.
    In definitiva riconosciamo gli errori sistematici della macchina di prova, ma essendone completamente consci possiamo dormire sonni tranquilli e valutare la scheda su una piattaforma più comune, in modo da rilevarne le prestazioni per una più ampia base consumer che magari può già prendersi questa scheda, in attesa del ben più costoso passaggio a PCI-E 3.0. Intendiamoci: questa scelta per noi è stata forzata, ma non esitiamo comunque a metterne in evidenza alcuni aspetti positivi.
    Infine riportiamo anche che l'ambiente di testing riportava una temperatura media di circa 28°, molto alta come temperatura in questa stagione. Questo è dovuto alla presenza di un riscaldamento a pannelli nell'edificio che quindi ha aumentato di conseguenza tutte le temperature rilevate durante i benchmark.

    Scheda comparativa delle feature Nvidia presentate in titoli selezionati da loro. E negli altri?


    Posta la base per tutti i nostri test, procediamo a descrivervi i semplici criteri che li hanno caratterizzati:

    1. I benchmark sono stati effettuati su tutti i titoli tecnicamente più importanti e recenti in circolazione, tralasciando altri molto usati ma a nostro giudizio ormai tecnicamente obsoleti e poco incidenti in termini assoluti, come Crysis 1 e Metro 2033.

    2. I risultati sono stati effettuati su run singole da circa 10 minuti ciascuna. Gli FPS riportati sono i valori medi della run.

    3. Il profilo del pannello di controllo Nvidia usato per effettuare i test, è specifico per ogni titolo analizzato e pensato per ciascuno per ottenere il massimo dal titolo in questione. Per ulteriori approfondimenti su questo aspetto vi invitiamo a consultare i nostri forum PC, dove troverete tutte -o quasi- le impostazioni che abbiamo usato.

    4. Abbiamo effettuato un leggero overclock tramite il software EVGA Precision X. Abbiamo quindi impostato il consumo al massimo consentito per sfruttare appieno il GPU Boost tramite lo slider Power Target e un valore di clock offset di +100Mhz (tranne che nel test 3dmark), per testare direttamente anche questa feature.




    E' importantissimo cominciare tutti i nostri test con un benchamrk dedicato a 3DMark 11. La piattaforma Futuremark infatti è stata esplicitamente usata da Nvidia per calibrare il GPU Boost e costruire i parametri che gestiscono l'intera scheda.


    Risultati relativi al benchmark 3DMark 11 Advanced. Notare come la conta del framerate sia nullo. Questo software di benchmarking infatti disabilita completamente il monitor Rivatuner dedicato agli FPS.


    La run è stata eseguita sui 5 test del software Futuremark a settaggi custom Extreme, il massimo possibile in assoluto. Tralasciamo di riferirvi i valori esatti relativi al framerate (molto bassi, intorno ai 20 FPS di media su ogni bench con cali vistosi in alcuni) perchè in generale non hanno alcun valore pratico all'usufrutto della GPU in ambiente comune, data la scarsa ottimizzazione di 3DMark 11. Anche i cosiddetti 3D Marks non abbiamo potuto rilevarli, dato che il software dava errore all'abilitazione dello schermo intero, segno che c'è qualcosa che non funziona sempre da parte di Futuremark, dato che di fatto la scheda video non la riconosce.

    Potete notare innanzitutto il valore percentuale di Power. Esso si riferisce all'impostazione settata dallo slider Power Target come valore di 100%. Quindi in generale la Gtx 680 si è tenuta all'incirca intorno al massimo da noi impostato. Il Memory Clock è rimasto costante a 6 GBPS, come da attese: il GPU Boost infatti -per ora- funziona solo sul clock della GPU che a questo proposito vediamo raggiungere il valore di 1112 Mhz in tutti i test. La temperatura infine (in basso) si è attestata a pieno carico intorno a valori di circa 72 gradi, ottimi per quanto riguarda questo stress test e forse maggiori della media a causa della temperatura interna della stanza.

    Benchmark - Battlefield 3, Crysis 2 e Rage

    Importante: A ausa di una mancanza davvero cronica di tempo, all'appello mancano due benchmark su due titoli che riteniamo tecnologicamente rilevanti, ovvero Batman Arkham City e Shogun 2. Non appena avremo modo, li includeremo insieme agli altri già presenti.


    Immagine relativa a Battelfield 3 Benchmark #2 (Clicca per ingrandire).


    Battelfield 3 Benchmark #1
    1280x720, Caspian Border, DX11, Ultra settings, SSAO High, MSAA 4x, Giocatori sul server: 62, ping alla connessione 17.
    FPS: 90
    Power: 77%
    Boost Clock: 1210 Mhz
    Carico GPU: 87%
    Temp. GPU: 73°
    Carico Memoria: 1590 Mb

    Battelfield 3 Benchmark #2
    1920x1080, Caspian Border, DX11, Ultra settings, SSAO High, MSAA 4x, Giocatori sul server: 58, ping alla connessione 18.
    FPS: 66
    Power: 87%
    Boost Clock: 1210 Mhz
    Carico GPU: 98%
    Temp. GPU: 75°
    Carico Memoria: 1746 Mb


    Immagine relativa a Crysis 2 Benchmark #2 (Clicca per ingrandire).


    Crysis 2 Benchmark #1
    1280x720, DX11, Ultra settings, Texture pack HD
    FPS: 74
    Power: 92%
    Boost Clock: 1202
    Carico GPU: 92%
    Temp. GPU: 75°
    Carico Memoria: 1853 Mb

    Crysis 2 Benchmark #2
    1920x1080, DX11, Ultra settings, Texture pack HD
    FPS: 50
    Power: 99%
    Boost Clock: 1215
    Carico GPU: 99%
    Temp. GPU: 77°
    Carico Memoria: 1959 Mb


    Immagine relativa a Rage Benchmark #2 (Clicca per ingrandire).


    Rage Benchmark #1
    1280x720, OpenGL, AA 16x, Anisotropic Filter: Large, GPU Transcode enabled
    FPS: 60
    Power: 68%
    Boost Clock: 1215 Mhz
    Carico GPU: 54%
    Temp. GPU: 71°
    Carico Memoria: 1208 Mb

    Rage Benchmark #2
    1920x1080, OpenGL, AA 16x, Anisotropic Filter: Large, GPU Transcode enabled
    FPS: 60
    Power: 95%
    Boost Clock: 1228 Mhz
    Carico GPU: 95%
    Temp. GPU: 63°
    Carico Memoria: 1327 Mb

    Abbiamo preferito impostare il test su Battlefield 3 in un ambiente online, uso tipico dei giocatori di questo titolo, su una mappa molto vasta e in ambiente tipicamente molto intenso in termini prestazionali, come solo un server pieno sa fare. Ebbene non abbiamo riscontrato alcuna incertezza, nonostante i player appassionati preferiscano ben altri valori di frame rate per giocare (molto superiori a quelli riscontrati). Per Crysis 2 invece assistiamo a dei picchi notevoli per lo sfruttamento della memoria, segno che a Crytek sanno quello che fanno quando includono delle texture. Certo, avrebbero potuto rilasciarle all'uscita, ma è un altro discorso. Infine per Rage, unico titolo in test che sfrutta le OpenGL, vediamo come sia di fatto limitato internamente nel frame rate, fisso a 60. Le cosiddette megatextutre non sembrano poi così mega andando a contare i MegaByte che dovrebbero contraddistinguerle. Riportiamo anche per questo titolo un evidente problema di tearing con il Vsync disattivato.

    Benchmark - Mass Effect 3, The Witcher 2, Skyrim e Alan Wake


    Immagine relativa a Mass Effect 3 Benchmark #2 (Clicca per ingrandire).


    Mass Effect 3 Benchmark #1
    1280x720, DX9, Anti Aliasing On, Dynamic Shadows On
    FPS: 62
    Power: 51%
    Boost Clock: 1131 Mhz
    Carico GPU: 46%
    Temp. GPU: 60°
    Carico Memoria: 825 Mb

    Mass Effect 3 Benchmark #2
    1920x1080, DX9, Anti Aliasing On, Dynamic Shadows On
    FPS: 62
    Power: 71%
    Boost Clock: 1228 Mhz
    Carico GPU: 69%
    Temp. GPU: 66°
    Carico Memoria: 966 Mb


    Immagine relativa a The Witcher 2 Benchmark #3 (Clicca per ingrandire).


    The Witcher 2 Benchmark #1
    1280x720, DX9, Ultra settings (editati), Ubersampling OFF
    FPS: 87
    Power: 79%
    Boost Clock: 1228 Mhz
    Carico GPU: 64%
    Temp. GPU: 67°
    Carico Memoria: 1078 Mb

    The Witcher 2 Benchmark #2
    1920x1080, DX9, Ultra settings (editati), Ubersampling OFF
    FPS: 74
    Power: 96%
    Boost Clock: 1202 Mhz
    Carico GPU: 98%
    Temp. GPU: 71°
    Carico Memoria: 1076 Mb

    The Witcher 2 Benchmark #3
    1920x1080, DX9, Ultra settings (editati), Ubersampling ON
    FPS: 73
    Power: 95%
    Boost Clock: 1228 Mhz
    Carico GPU: 96%
    Temp. GPU: 63°
    Carico Memoria: 1102 Mb


    Immagine relativa a Skyrim Benchmark #2 (Clicca per ingrandire).


    Skyrim Benchmark #1
    1280x720, DX9, Ultra Settings, ugridstoload=9, FXAA On, MSAA 2x, SSAO On, Transparency SS 2x
    FPS: 62
    Power: 68%
    Boost Clock: 1228 Mhz
    Carico GPU: 58%
    Temp. GPU: 62°
    Carico Memoria: 1832 Mb

    Skyrim Benchmark #2
    1920x1080, DX9, Ultra Settings, ugridstoload=9, FXAA On, MSAA 2x, SSAO On, Transparency SS 2x
    FPS: 54
    Power: 97%
    Boost Clock: 1202 Mhz
    Carico GPU: 81%
    Temp. GPU: 74°
    Carico Memoria: 1932 Mb


    Immagine relativa ad Alan Wake Benchmark #2 (Clicca per ingrandire).


    Alan Wake Benchmark #1
    1280x720, DX9, High settings, MSAA 4x, AF 16x
    FPS: 94
    Power: 85%
    Boost Clock: 1228 Mhz
    Carico GPU: 97%
    Temp. GPU: 60°
    Carico Memoria: 823 Mb

    Alan Wake Benchmark #2
    1920x1080, DX9, High settings, MSAA 4x, AF 16x
    FPS: 54
    Power: 93%
    Boost Clock: 1228 Mhz
    Carico GPU: 99%
    Temp. GPU: 61°
    Carico Memoria: 1016 Mb

    Per quanto riguarda Mass Effect 3, confessiamo di averlo incluso solo per curiosità statistica. Infatti il motore che lo muove non si può certo definire tra i meglio ottimizzati del momento. Lo scarso utilizzo della memoria video e il frame rate comunque basso, anche se molto solido, sottendono il preciso intento di Bioware di appoggiare la larga utenza, magari trascurando molte opzioni care agli utenti PC (come il ridottissimo pannello di configurazione video) che sospettiamo derivino dal brutale porting da console. Forzando alcuni valori dal pannello di controlo (come il SSAO), abbiamo anche notato vistosi rallentamenti ingiustificati e sistematici, che sono comparsi sempre negli stessi punti esatti del gioco.
    Discorso diverso per The Witcher 2 che esce egregiamente da questi test in tutto e per tutto. Notevoli le prestazioni della Gtx 680 abilitando l'Ubersampling (un Super Sampling molto pesante), che segna un netto distacco dalla generazione Nvidia passata, permettendo

  • Nvidia GTX 680 Abbiamo detto di tutto e di più sulla nuova architettura di Nvidia, sulle nuove tecnologie che la accompagnano e sulla Gtx 680, la scheda attualmente più veloce sul mercato. Il margine di guadagno rispetto alla top di gamma AMD per ora non è stato preso in analisi (lo faremo presto in un articolo apposito), ma le considerazioni che stiamo per fare ci permettono di assegnare il nostro premio più alto su queste pagine, la medaglia d'oro che vedete qui a fianco. Il punto cruciale è che le fantastiche prestazioni con consumi ridottissimi, sono senza precedenti e rappresentano un risultato tecnologico eccezionale. Non importa se avremmo voluto un'interfaccia di memoria a 384 bit, perchè sono i risultati quelli che contano. E i benchmark parlano chiaro. Aggiungiamo poi tutte le nuove tecnologie che sfruttano al massimo la scheda, come l'FXAA hardware e l'Adaptive Vsync. Certo verranno introdotte successivamente anche per chi possiede le schede con architettura Fermi (serie 4 e 5), ma godersi Battlefield 3 a un simile livello di dettaglio o uno Skyrim con un simile LOD distance non ha prezzo. Non c'è nulla sul mercato attualmente più indicato per sfruttare al massimo le proprie piattaforme senza preoccuparsi di overclocking. Le perplessità riguardo alla particolare gestione del clock, che parrebbe limitare i risultati in quest'ultimo ambito, rimangono e cercheremo di verificarle il prima possibile. GPU Boost è una tecnologia molto interessante, che sembrerebbe venire incontro alle esigenze dell'utente che ignora gli smanettamenti più spinti, ma potrebbe appunto presentare dei limiti non ben chiari da questi primi test. Quello che è parso comunque chiaro è la sua struttura: complessa ma ben gestita dalla scheda stessa. Precisiamo comunque che ai fortunati possessori di schede 580 e 590 non possiamo totalmente consigliarne l'acquisto (a meno di non volere una scheda con supporto DirectX 11.1), perchè l'incremento prestazionale (di circa il 20% sfruttando Power Target e clock offset) non ne giustifica -per ora- l'usufrutto in uno scenario di videogaming tipico, se non per il puro godimento di ottenere quella percentuale in più di prestazioni, stemperata da un'ottimizzazione dei driver ancora in corso. Tuttavia ribadiamo come le prestazioni non siano l'unico elemento nel giudicare una scheda video: i consumi contano tantissimo e proprio in questo Kepler vince a mani basse a pieno carico. Quindi concludiamo la recensione affermando con convinzione che in ambito schede video attualmente non potete chiedere di più.