GUIDA Tutto quello che c'è da sapere sulle Schede Video (2019)

crimescene

Super Moderatore
Staff Forum
Utente Èlite
67,096
31,271
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro

Cosa è una Scheda Video


Esistono diversi tipi di schede grafiche, in questa guida ci occuperemmo principalmente delle Schede video dedicate per Desktop ma ne esistono anche di integrate.
Seguono alcune immagini:

341169
341170

Di seguito alcune proposte di AMD
341171


341502

Se tolgiamo il sistema di dissipazione auna scheda grafica si presenterà in questo modo:

341179

Il chip grafico è situato al centro del PCB (il circuito stampato) intorno sono situati i chip di memoria. La scheda può essere dotata di connettori (in alto a sinistra) per l'accoppiamento di più schede grafiche.
In basso troviamo l'aggancio PCi-EX

Per rispondere alla definizione di "scheda video" possiamo prendere le informazioni che ci offre wikipedia:

In informatica ed elettronica una scheda video] è un componente hardware del computer, sotto forma di scheda elettronica che ha lo scopo di elaborazione del segnale video ovvero generare, a partire da un segnale elettrico in input dal processore, un determinato segnale elettrico in output che possa essere poi inviato in input a video (display o monitor) per essere tradotto da quest'ultimo in segnale ottico visivo e mostrato all'utente.



Cap.1: GPU vista da vicino



341181
Il nuovissimo chip Turing sviluppato da Nvidia porta con se alcune innovazioni come gli effetti in Ray tracing.

Similmente alle CPU anche le GPU hanno caratteristiche fondamentali che vengono ad ogni generazione potenziate, sono:
  • il numero di transistor
  • Il processo produttivo
  • La dimesione del DIE
Programmi come GPU-Z ci aiutano a verificare questi dati che sono evidenziati nella foto sottostante:

341205


Controlliamo meglio apprendendone il significato:
"Die"non ha una traduzione precisa, lo si può descrivere come un "contenitore" per i transistor
I Transistor sono interruttori che memorizzano uno stato, di tipo binario (acceso o spento)
Il processo produttivo è la "grandezza fisica" dei transistor


Più il processo produttivo è raffinato più transistor si potranno mettere nello stesso spazio. Attualmente Nvidia è arrivata ad un processo produttivo di 8nm mentre AMD si 7nm.
Per rendere l'idea un Virus può avere una grandezza fino a 300nm!

Non è detto che le dimensioni del DIE diminuiscano all'aumentare del processo produttivo, si cerca di mettere il maggior numero di transistor possibile di conseguenza la grandezza del Die può essere variabile.



Cap. 1.1: La GPU e la Frequenza di Clock


Similmente alle CPU la frequenza di clock è importante, maggiore sarà quest'ultima maggiore sarà la velocità del chip, viene misurata in Hertz/
Una scheda video ha diversi "step di frequenza" per reagire in maniera "adattativa" al carico di lavoro necessario
Nelle immagini sottostanti possiamo vedere con il programma "Msi afterburner" la frequenza minima e massima di una scheda video:
341167
341168

La freccetta rossa indica la frequenza di boost, questa è una particolare frequenza che può essere raggiunta solo se le condizioni ti carico e temperatura lo permettono.

Non è consigliabile, dal pannello di controllo, usare le prestazioni massime. Questa impostazione non permetterà alla scheda di usare gli step di frequenza minimi e intermedi, ma solo lo step di frequenza massimo.
Non ci sono contro indicazioni nel farlo, ma non è nemmeno utile, le temperature in idle risulteranno più elevate!




Cap. 2: La Memeoria Video


La quantità di memoria è un numero espresso in GB. Per Capire a cosa serve la memoria video si dovrà fare una premessa.
L'elaborazione di un immagine ha bisogno sia della CPU che della GPU, la prima si occuperà dei poligoni, mentre per il resto sarà la scheda grafica ad occuparsene! Affinché questo avvenga abbiamo bisogno di un gran flusso di dati quindi anche di una memoria che consenta il transito di questi dati in maniera veloce e costante!

Nell'immagine che segue viene riportata in termini di banda la quantità di dati necessaria a seconda delle risoluzioni in gioco


341175

Appare subito chiaro che la quantità di dati necessaria per sostenere risoluzioni elevate è notevole

Facendo una analogia possiamo pensare alla memoria come al serbatoio di un auto, al flusso dati come la benzina che scorre nei tubi ed al motore dell'auto come un pò al sistema rappresentato dal chip grafico e dalla CPU che elaborano le informazioni.
Da questa semplice analogia appare subito abbastanza chiaro che se il nostro motore sarà poco potente non servirà a nulla mettere un serbatoio molto capiente, anzi potrebbe addirittura peggiorare le cose!

Il bandwidth di memoria si ottiene semplicemente moltiplicando la frequenza di clock per l'ampiezza di bus diviso 8


Una scheda con un'ampiezza di bus a 256bit, con una frequenza di memoria di 8008 Mhz avrà un bandwich che sarà di 256gb/s circa secondo l'operazione (8008x256)/8.

La tecnologia più utilizzata finora per l'architettura di memoria video è "GDDR" (Graphhics Double Data Rate), si tratta in pratica di RAM classica adattata per funzionare come memoria video, siamo arrivati alla sesta generazione di memoria GDDR. .

Non tutte le schede però utilizzano questa architettura.
Esistono memorie di tipo HBR arrivate alla loro seconda generazione (HBR2). Questa tecnologia è stata finora utilizzata solo da AMD per alcuni dei suoi prodotti di fascia alta.
Le memoria HBR hanno consentito ad alcuen schede grafiche di avere una larghezza di banda più elevata, ma anche un maggior costo di produzione!




Cap. 3: Le unità di Shader


Una Unità di Shader si occupa delle operazioni di ombreggiatura e rendering, possono avere diversi nomi. si conoscono con il nome di "Sharder Processing Units".
Per Nvidia sono indicate come "Cuda Cores" mentre per AMD sono "Steam Processors". Avendo le due aziende preso strade diverse non vi è un rapporto di 1:1 e il numero di shader non è direttamente confrontabile!

Tutti gli effetti che vengono mostrati a schermo vengono processati in tempo reale dalle SPU secondo un particolare algoritmo, che può anche cambiare in tempo reale mentre la scena viene mostrata all'utente.

Semplificando di molto il concetto + shader ha una scheda meglio è!

Diamo in seguito una spiegazione ad alcuni acronimi usati in ambito grafico:

TMU = Texture Mapping Unit ha il compito di recuperare i dati relativi alle texture, eventualmente manipolarli, piazzarli nel posto giusto su un oggetto o all'interno di una scena! Più il numero di TMU è alto più questo tipo di operazioni saranno veloci

Pixel e Texel fill-rate rappresentano rispettivamente il numero massimo di pixel e di textel che la scheda è in grado di reinderizzare in un secondo!
Si tratta di un valore espresso in GB/s.
N.B. Nel caso del Textel fill-rate c'è una correlazione con il TMU.

ROP
= Render Output Unit sono le unità che si occupano della visualizzazione finale della scena, raccolgono tutti i dati e li mettono insieme per mostrarci l'immagine finita.
Si occupano anche di operazioni di post processing e antialiasing



Cap. 3.1: Ray Tracing RTX


Introdotto con la serie 20 di Nvidia il "Ray tracing" è l'ultima novità per ciò che riguarda l'accuratezza nella rappresentazione grafica.
Nvidia ha appena introdotto la serie 3000 che dovrebbe migliorare notevolmente le prestazioni della serie precedente
Come sappiamo l'elaborazione di un immagine 3D è molto complessa,viene usata una tecnica che prende il nome di "rasterizzazione".

Il ray tracing invece cerca di simulare l'effettivo percorso della luce ed il suo comportamento fisico!
Lo fa partendo dal punto di vista dell'osservatore andando a ritroso per giungere fino alle fonti luminose.

341213


Al livello teorico il ray tracing non è qualcosa di nuovo, si tratta di una tecnica già utilizzata in ambito cinematografico da molto tempo, la vera rivoluzione è riuscire ad elaborare questi effetti in tempo reale proprio mentre stiamo giocando

Essendo una tecnica molto pesante al livello di calcolo, servono molte tecnologie secondarie per alleggerirlo e fare in modo che le schede grafiche possano eseguirlo in tempo reale

A tal proposito Nvidia ha dotato le sue nuove schede di un hardware dedicato aggiuntivo che comprende una serie di core dedicati a diversi scopi. Vediamo in dettaglio quali sono:

RT CORE: Si tratta di core dedicati al calcolo dei "raggi di luce" che raggiungono l'osservatore. Questo tipo di core è progettato per suddividere l'immagine in "marco-volumi" che vengono a loro volta suddivisi l'algoritmo va avanti fino a trovare quale modello poligonale viene colpito dal raggio luminoso.

TENSOR CORE: Si tratta di una vera e propria AI in grado di riempire quelle zone su cui non si ha alcuna informazione.
Il Ray tracing è un processo talmente dispendioso che non è possibile generare un immagine ad alta risoluzione, ed è qui che entra in gioco l'intelligenza artificiale, riempie quelle zone mancanti utilizzando il calcolo statistico





Cap. 4: PCI-Express


Ogni Scheda video deve essere collegata alla scheda madre per comunicare con il resto del pc e lo fa attraverso lo slot PCI-EXPRESS di cui vediamo un immagine qui sotto:
341227

Si tratta del bus utilizzato per la comunicazione tra scheda madre e scheda video, ci sono diverse versioni, oggi siamo arrivati al 4.0 che consente un trasferimento dati di ben 64 GB/s. Lo slot è in grado di fornire anche 75W max di potenza.




Cap. 4.1: Connettori

Se i 75w di potenza forniti attraverso lo slot PCi-ex non sono sufficienti si ricorre ai connettori PCI-ex
341278
Sono a 6+2 pin e a secondo della potenza richiesta possono essere anche più di uno.

341279
Nell'esempio la scheda ha bisogno di 2 connettori, uno a 6 pin l'altro a 8 pin. Ogni connettore PCI-EX a 6+2 pin è in grado di fornire alla scheda una potenza aggiuntiva massima di 150W
Di seguito alcuni esempi:

341290

Cap.4.2: TDP


Si tratta di un acronimo Thermal Desing Power, rappresenta un indicazione del calore dissipato di un microprocessore che il sistema di raffreddamento dovrà smaltire per mantenere la temperatura stessa del processore e dei suoi componenti entro un limite di sicurezza.
Viene misurato in watt


[h5]Cap. 5 : FLOPS[/h5]​

Si tratta di un termine che viene evocato spesso nel mondo delle console per descriverne la potenza.
Il ternione FLOPS è riferito a Floating Operation Point e sono le operazioni in virgola mobile che la GPU dovrebbe in linea torica riuscire a compiere.
Tera FLOPS è un multiplo, e sta ad indicare un miliardo di FLOPS, possono essere di diverso tipo interi, in virgola mobile, a prescisione singola o doppia.


I TFLOPS possono essere calcolati anche secondo la formula:

FLOPS=Numero di core x Frequenza operativax FLOPS/ciclo (2)

Quindi facendo un rapido esempio una GTX 1080 ha 2560 Cuda core che moltiplicati per 1733 Hmz ed ancora x2 cicli di FLOPS abbiamo

2560x1733x2=8.3 TFLOPS



Cap. 6: VRM


Per prima cosa un immagine che identifica i VRM in una scheda video:

341358

VRM sta a significare letteralmente Voltage Regulation Module, molti pensano che sia un "singolo elemento", in realtà si tratta come di un "modulo" formato da un insieme di elementi diversi!
Ci sono fasi, regolatori di tensioni, condensatori, MOSFSET tra quelli principali, il loro scopo è fornire l'alimentazione alla GPU in maniera PRECISA E PULITA.




Cap. 7: Sistemi di Raffreddamento



tra i avri sistemi di dissipazione si cercherà di elencare i più diffusi atraverso una serie di immagini:

341359
341360
341361
341362
341363
341364
341367

Le soluzioni più comuni e diffuse sono rappresentate da modelli di dissipazione bi o tri-ventola, risulta sempre più rarto che vengano adottate soluzioni di tipo "blower" o mono ventola mentre per chi vuole qualcosa di più aggressivi esistono ormai diverse soluzioni che prevedono l'utilizzo di loop o AIO a liquido.



Cap. 7.1: Uscite Video


Diamo infine uno sguardo alle varie uscite video che possiamo trovare in dotazione:

341429




Cap. 7.2: HDMI



341471
Esistono più versioni dell'HDMI, se comprate un dispositivo oggi molto probabilmente sarà in hdmi 2.0 o superiore, nella tabella sottostante le differenze tra le varie versioni.

341433


L'HDMI è frutto dell'acronimo High Definition Multimedia Interface, è capace di trasportare sia il segnale audio che video, ed è frutto dello sforzo congiunto dell'industria televisiva e cinematografica.



Cap. 7.3: Display Port (DP)



341472
Anche in questo caso per facilità di sintesi ci serve una bella tabella:



341444


Il display port può trasportare sia il segnale audio che video, sulle schede con molta troviamo la versione 1.4 che è in grado di reggere risoluzioni a 8k fino a 60Hz o a 4k fino a 120Hz.
Il Display port è stato introdotto nel 2006 allo scopo di sostituire la tecnologia DVI.



Cap. 7.4: DVi


Acronimo di Digital Visual Interface sono esistiti ed esistono varie porte DVI che si sono susseguite nel tempo per facilitare le cose andiamo a vedere l'immagine sottostante:

341468
Fu introdotto nel 1999 ne esistono di diversi tipi, dall'analogico al digitale, era presente fino a pochi anni fa in tutte le schede, oggi sta scomparendo, ma è possibile trovarlo ancora in alcuni modelli. Supporta un massimo di 2560x1600 a 60hz o 1920x1080 a 144hz in digitale.



Cap. 7.5: VGA



341475

"Video Graphics Array" e fu introdotto nel lontano 1987 da IBM. Supportava un max di 640x480, non trasportava audio.
Nel corso del tempo fu superata da altri standard come il Super VGA, XGA, ed altri che man mano aumentavano il limite massimo di risoluzione, ormai è obsoleto.



Ringrazio l'utente @Vectoryzed di cui ho preso alcuni spunti nella sua vecchia guida.
Ringrazio @R3d3x da cui ho imparato molto.
 
Ultima modifica:

crimescene

Super Moderatore
Staff Forum
Utente Èlite
67,096
31,271
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
Questo è un aggionamento visto che alcuni utenti hanno mostrato interesse, si aggiungono alcuni approfondimenti alla guida principale, che comunque come promesso non viene lasciata, ma viene aggiornata.


Cap8: La Memoria Video (Approfondimento)



Ho sentito la necessità di approfondire questo capitolo in quanto c'è abbastanza interesse sull'argomento ma anche parecchia disinformazione in giro, vediamo in maniera più approfondita come funziona la memoria video.

Nel secondo capitolo abbiamo spiegato in parte il funzionamento della memoria video in questo capitolo andiamo ad approfondire alcuni concetti quali

Quanta memoria serve? Cosa c'è dentro? Avere più memoria renderà il mio gioco oppure le immagini migliori?




Cosa contiene la memoria video e cosa fa?



La memoria video contiene tutte le informazioni che servono per generare un immagine, sullo schermo dati sull'illuminazione, l'antialiasing, i vari filtri, bump map, shadow map, i vari buffer.





Avere una scheda con più memeoria mi fa "vedere" meglio le immagini?
Assolutamente no! Avere più memoria non fa avere un dettaglio grafico migliore, uan scheda da 4GB impostata ad un determinato dettaglio grafico avrà la stessa identica resa grafica di una scheda da 8GB impostata allo stesso dettaglio grafico.



Quanto pesa un immagine?
Un immagine in full hd con la profondità di colore di 32 bit pesa circa 8.33 MB un immagine in 1440p pesa 14.8 MB mentre un immagine in 4k pesa 33.1 MB.


Ma quindi quanta memoria video mi serve?
Non c'è e non ci può essere una risposta precisa, in quanto se avete letto fino a qui riuscite benissimo a capire che dipende da:
  • chip grafico
  • velocità della memoria
  • dal gioco che si va a giocare e da come è stato programmato
  • tipo di scheda dalla velocità stessa della memoria
Ogni gioco ha dei requisiti minimi, se c'è bisogno di una grande quantità di memoria video molto probabilmente ci sarà scritto

Ecco un esempio:

Annotazione 2020-05-15 142053.jpg

Anche riguardo alle considerazioni fatte nei capitoli precedenti si può affermare tranquillamente che:
  • 4GB per giocare in fullHD
  • 4GB/6GB per il 1440p
  • 8GB/11GB per il 4k

Che cosa succede se la memoria video non basta?
In quel caso verrà utilizzata la memoria centrale (la Ram), ma essendo più lenta e non ottimizzata per questo tipo di compiti il gioco avrà un calo evidente nelle performance con evidente stuttering ed un frame molto incostante che, a seconda della gravità, può anche arrivare al freeze o al lag.



Cap. 8.1: Refresh Rate


Il refresh rate non è altro che la frequenza di aggiornamento del monitor

Un monitor che ha 60 Hertz significa che la sua frequenza di aggiornamento è di 60 volte al secondo, uno da 144 Hertz sarà di 144 volte al secondo ed uno di 240 Hertz sarà di 240 volte al secondo

Perché è importante? Perché un monitor potrà mostrare al massimo un numero di frame pari al valore della propria frequenza massima di aggiornamento, non uno di più!
Ma a me hanno detto che un gioco più frame fa è meglio è....?! Mi prendi in giro vero?


Purtroppo no, qualsiasi frame superiore alla frequenza del monitor non può essere fisicamente mostrato, perxciò se un monitor ha 60hz potrà mostrare al massimo 60 frame al secondo!

Per tale motivo è importantissimo dimensionare il monitor alla propria scheda grafica avere una scheda troppo potente significherà non sfruttarla, al contrario avere un monitor con una risoluzione o una frequenza di aggiornamento troppo elevati potrebbero mettere in difficoltà la scheda video che non riesce a produrre frame sufficienti!



Cap 8.2: Profondità Del Colore & Framebuffer (introduzione)


La memoria video ha una zona dedicata al "frame buffer" che contiene dei frame "completi" o più dettagliatamente una bitmap che ha tutte le informazioni del colore di ogni singolo pixel presente sullo schermo!

Oggi i monitor hanno in genere una profondità di colore di 24 bit

1 pixel è un piccolo "quadratino" che è sullo schermo, ogni pixel oggi ha al suo interno 3 colori Rosso, Verde, Blu (Red, Green, Blu) meglio noto come RGB :luxhello:, li possiamo definire come 3 piccoli "puntini" all'interno di un pixel ogni "puntino" di colore al suo interno può avere la particolarità di "mostrare un determinato numero di "tonalità" che è espresso in BIT!

Vediamo come:

  • 1 bit = 2^1 cioè 2 tonalità (monocromatico)
  • 2 bit = 2^2 cioè 4 tonalità ( Grafica CGA)
  • 4 bit = 2^4 cioè 16 tonalità ( VGA standard a bassa risoluzione)
  • 8 bit = 2^8 cioè 256 tonalità (VGA ad alta risoluzione)
  • 10bit = 2^10 cioè 1024 tonalità
Come abbiamo visto sopra un pixel ha 3 colori se ogni colore è di 8 bit (8x3=24bit) significa come abbiamo visto che sarà in grado di "mostrare" ben 256 tonalità di quel colore, di conseguenza essendo un pixel formato da 3 colori ecco che si ha 256x256x256 = 16.7 milioni di colori circa!

Servono 2 zone della memoria video dedicate al buffering, queste zone sono posti in cui vengono tenuti "temporaneamente" la bitmap di dati, per poi essere spostata dalla memoria al monitor.
Una bitmap nel famebuffer contiene quindi 2 informazioni fondamentali, quella relativa alla risoluzione e quella alla profondità del colore.



Capitolo 8.3: Sincronia Verticale & Framebuffer (funzionamento)


La sincronia Verticale non è altro che un sistema che cerca di impedire il TEARING

Per spiegare il Tearing serve una premessa che parte dai vecchi monitor, che formavano l'immagine attraverso una eccitazione degli elettroni che venivano sparati attraverso il tubo catodico.
Questo fascio di elettroni fatti convergere in "raggi catodici" va a colpire lo schermo che ha un rivestimento fatto in modo che, eccitato da questi raggi, emette luce andando alla fine a formare un immagine!

In modo da rendere la spiegazione più chiara ho allegato una gif animata, come si può vedere l'immagine veniva formata partendo dall'alto ed alla fine della corsa viene emesso un "segnale" chiamato "Vertical Blancking Interval" o abbreviato VBI.

Refresh-Rates,--V-Sync-Settings-and-Frame-Buffers-Explained.gif



I monitor LCD e LED non hanno tecnicamente bisogno del VBI ma per avere una retro compatibilità ed in modo che ci sia un sistema in grado di "capire" quando finisce la frequenza di aggiornamento - il VBI è stato sostituito da un sistema molto simile che si chiama "Vertical Blanking Synchronization Signal" o più semplicemente V-Sync!

Fatta questa premessa dobbiamo capire come funziona il framebuffer e perchè ci interessa così tanto in questo caso.

Una immagine che aiuterà a capire:


Come si vede nell'immagine sono 2 i buffer che la scheda utilizza per mandare le immagini su schermo, nel momento in cui il "FRONT BUFFER" è pronto in memoria viene rinominato in "BACK BUFFER", quando entrambi i buffer saranno ponti il FRONT BUFFER verrà inviato a schermo e tornerà ad essere BACK BUFFER e ricomincierà a "caricare" l'immagine successiva e così via.

Ci sarà un alternanza continua tra front e back buffer per molte volte al secondo a seconda di quanti saranno i fotogrammi che il nostro sistema sarà in grado di produrre!

Cosa succede con il V-SYNC ON?

Ci serve sempre una gif per rendere più facile la comprensione dell'evento:


In caso di V-sync ON una nuova immagine non verrà inviata al monitor finché non ci sarà il segnale di VBI, i fotogrammi saranno "sincronizzati" con la frequenza di aggiornamento del monitor!

Questo eviterà il TEARING, andando però ad aggiungere un pò di input lag e la possibilità di avere in alcuni casi stuttering se la scheda video è un pochino lenta a "costruire" una delle due immagini di buffering.
Quando questo accade infatti il back buffer non sarà pronto e il monitor non potrà fare altro che riprodurre nuovamente lo stesso fotogramma!


Cosa succede con il V-SYNC OFF?

Anche qui una GIF animata:


Nel caso in cui abbiamo la sincronia verticale DISATTIVATA la scheda video invierà i frame non appena pronti
E' quindi possibile che si verifichi la situazione descritta nella animazione e che sul monitor l'immagine sia composta da 2 fotogrammi diversi andando a creare il tearing!

Buffering Triplo
Esiste una terza via, il buffering triplo.Spesso risolve sia il tearing che lo stuttering ma con uino svantaggio fatale, vediamo in cosa consiste:

Si aggiunge una TERZA porzione di memoria adibita al buffering in modo che ci sia una terza bitmap sempre pronta per essere inviata sul nostro monitor.
il problema principale di questa soluzione è un aumento considerevole dell'input lag!

Per riassumere il tutto abbiamo quanto segue:

Vsync OFF
  • Possibile presenza di Tearing
  • Minor input LAG possibile
Vsync ON
  • NO Teranig
  • Presenza di stuttering specie se il frame cala sotto la frequenza di aggiornamento del monitor
  • Aumento dell'input LAG
Vsync ON Con Buffering Triplo
  • NO Tearing​
  • No stuttering (o raro)​
  • Aumento considerevole dell'nput LAG​

Per chi fosse interessato ad approfondire sull'argomento avesse ancora dubbi o vuole semplicemente capire di più o meglio lascio questo bellissimo video molto esplicativo fatto dal nostro amico e caporedattore di testata Andrea Ferrario








Cap.8.4: Freesync/G-Sync



Cosa è il fresync/g-sync?

Sono due tecnologie molto simili, la prima sviluppata da AMD, la seconda da Nvidia, il loro scopo è quello di rendere la frequenza di aggiornamento del monitor variabile
Se avete letto il capitolo sul Vsync allora capirete che nessuna delle soluzioni riportate è perfetta, per questa ragione è nata la SINCRONIA ADATTATIVA.

Entrambe le tecnologie sono molto valide; chi volesse approfondire sull'argomento ci sono ottimi spunti QUI sulla storia e sulle piccole differenze tuttavia ci sono alcune precisazioni da fare, nate dagli ultimi sviluppi!

Da Gennaio 2019 Nvidia ha deciso di rendere compatibili i monitor freesync anche al g-sync, inizialmente il benficio è stato solo per alcuni modelli certificati poi in seguito hanno deciso di rendere possibile l'attivazione del g-sync su tutti i monitor freesync a patto che rispettassero le seguenti condizioni:

  1. Avere driver aggiornati
  2. Avere un monitor freesync con la funzione abilitata nel pannello OSD
  3. il monitor deve avere il Display Port (DP abbrev.) ed il collegamento con la scheda deve essere fatto attraverso di esso

Alcune precisazioni che riguardano il display port ed alla tecnologia HDR

Se le porte presenti sui monitor sono inferiori all'1.4 ed il monitor ha anche funzioni HDR si dovrà fare una scelta in quanto attraverso il DP 1.4 non sarà possibile attivare l'HDR che quindi sarà disponibile solo attraverso l'HDMI (se 2.0)

Di conseguenza
  • Se si ha una scheda Nvidia di ultima generazione sarà possibile attivare la compatibilità g-sync (attraverso il DP) ma non sarà possibile anche attivare la funzione HDR
  • Se invece la porta DP del monitor è 1.4 allora sarà possibile attivare entrambi (sia la compatibilità g-sync che l'HDR)

Bollinatura
Moltissimi monitor freesync sono stati testati da Nvidia ma non hanno ricevuto tuttavia la bollinatura g-sync!

Questo non significa che su questi prodotti la compatibilità G-sync non può essere attivata ma semplicemente che Nvidia non ha ritenuto opportuno rilasciarne la certificazione o la bollinatura.

La certificazione da parte di Nvidia non è un requisito fondamentale affinché il g-sync possa essere attivato.
Ogni monitor freesync / freesync 2 che rispetti i 3 punti dichiarati sopra potrà attivare da pannello di controllo.

Nell'immagine sottostante alcune caratteristiche tra g-sync compatibile ed ultimate (che sono monitor che hanno ancora il chip g-sync di ultima gen)

G-Sync-1280x645.png

Quali sono i benefici di queste tecnologie?

Se avete letto i capitoli precedenti lo avrete già capito da voi, ma in definitiva queste tecnologie servono ad evitare tearing ed eventualmente anche lo stuttering senza che si abbia un aumento eccessivo dell'input LAG.

Anche qui per chi volesse approfondire o capire meglio il concetto per fugare tutti i dubbi che avete vi lascio un video molto esplicativo.






Cap 8.5: Input Lag


A questo punto molti di voi se lo staranno chiedendo, cosa è l'input LAG?

Non bisogna confonderlo con i TEMPI DI RISPOSTA che non ha praticamente nulla a che fare con l'input LAG, questo si riferisce infatti al tempo che intercorre tra l'invio di un "input" cioè di un comando (da tastiera, controller ecc) e la sua effettiva realizzazione.

E' calcolato in ms e tutto il sistema come abbiamo visto può infuire sull'input LAG, ad esmepio se si attiva il v-sync si avrà un input lag un pochino maggiore! Ma tutto ciò che cosa ha a che fare con i monitor?

Anche il monitor o una TV ha un input lag e se questo è alto sommandosi all'input lag del resto del sitema potrebbe compromettere l'esperienza di gioco.

Pensiamo ad esempio ad un picchiaduro e a come sia importante dare il "comado di parata" al momento giusto, se ci sarà un input lag eccessivo potrebbe divenire impossibile dare il comando nei tempi corretti!

In ogni modo non è semplice calcolare da soli l'input lag dei monitor, ci vuole un apparecchiatura apposita, ma la maggior parte dei monitor di oggi ha input lag più che accettabili, mentre al contrario molte TV soffrono di questo difetto.
Affinchè esso sia comunque davvero un problema deve risultare "eccessivo" e quindi "fastidioso" se non lo notate significa che non lo è!

Cap 9 DLSS 1.0 & 2.0



E' da poco che nvidia ha milgiorato il suo DLSS, facendo grandi passi in avanti, abbiamo visto in precedenza che cosa introduce il ray tracing, in maniera abbastanza riassuntiva, ma per poter rendere possibile oggi il ray tracing è necessaria una serie di tecnologie che allegeriscono il calcolo della VGA così da permettere effetti in RTX in tempo reale. Il che è praticamente il santo graal della grafica 3D!

Come funziona e cosa fa?
Non è un idea nuova, in realtà ma è fatta in modo nuovo! Abbiamo detto che si tratta di uno scaling alla fine idea già sfuttata ampliamente nel mondo delle console, ma con risultati spesso discutibili ina quanto un semplice scaling ti permette di alleggerire il carico ma al contempo si perdono anche informazioni importanti e escono fuori difetti che poi vengono visualizzati sullo schermo!

Il Deep Learnig Super Samplig risolve questo problema offrendo alla fine immagini che sono INDISTINGUIBILI dalla risoluzione nativa!

Come ci riesce?
Attraverso i TENSOR CORE, ma non solo quelli presenti sulla nostra scheda RTX, bensì quelli presenti in un "super PC" in possesso a casa nvidia che contiene le immagini dei giochi compatibli e "impara" come dovrebbe essere un immagine in TAA a risoluzione nativa seppure reinderizzata a risoluzione inferiore.

Questo "apprendimento" viene trasmesso poi attraverso i driver che ne sfruttano l'algoritmo per ricreare le immagini!

il risultato è stupefacente basta vedere le immagini qui sotto:

DLSS-2.0.jpg
maxresdefault.jpg
dlss-20-07-s-23-03-2020.jpg




Nell'immagine centrale si può evidenziare anche come si siano fatti dei passi notevoli in avanti tra la prima versione del DLSS e quella odierna, la 2.0

C'è dell'altro, il DLSS può benissimo essere utilizzato da solo, senza la necessità di utilizzare per forza effetti in RTX.
Questo significa che un qualsiasi gioco presente, passato o futuro che avrà funzioni come il DLSS può RADDOPPIARE il framerate semplicemente implementandolo tra le sue funzioni!

Vi riporto un esempio attraverso 2 immagini che posto qui sotto, sono in dimesione originale e per questo vegnono postate attraverso un servizio di hosting.

Anche loro mostrano Control e se mi chiedete perchè ho preso Control come esempio è semplice perchè oggi è il gioco che vanta più effetti in RTX messi insieme in assoluto!

Con-dlss.png


Come si può vedere dall'immagine hanno la stessa qualità e dettaglio entrambe le immagini sono state scattate ad una risoluzione di 1440p al massimo dettaglio grafico, ma il numero dei frame è molto diverso, la prima immagine infatti NON ha il DLSS, la seconda invece sì.

Incredibile Vero?

Se volete approfondire anche su questo argomento potete vedere un servizio di Andrea Ferrario sul DLSS QUI
 

Allegati

  • Nvidia Fast Sync Better Than G-Sync and V-Sync.gif
    Nvidia Fast Sync Better Than G-Sync and V-Sync.gif
    160.5 KB · Visualizzazioni: 189
Ultima modifica:

Avets

INTEL INSIDE
Utente Èlite
5,126
3,976
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
Chissà perché, leggendo l'incipit della seconda parte, di fronte a quel "abbastanza interesse " non ho potuto non percepire lo scoppiettio delle braci ancora calde rimaste dopo le "discussioni interessanti" della scorsa settimana :pompiere: :hihi:

Scherzi a parte, personalmente mi sono chiarito molte idee e ho capito anche molti aspetti fondamentali della materia che prima non conoscevo a fondo (al punto che, essendo ancora in tempo per il reso, ho deciso di cambiare la mia rx580 8gb presa un mese fa ,con una 1650super 4gb visto che costavano uguali :D).

Grazie mille per l'impegno!
 
Ultima modifica:
  • Mi piace
Reazioni: Andreagamer1999

demadavide

Utente Èlite
4,866
1,700
CPU
i7 6700k
Dissipatore
Cooler Master Hyper T4
Scheda Madre
MSI z170a sli plus
HDD
HD western digital 1TB + ssd samsung 850evo 500 gb
RAM
Corsair 16gb (8x2) ddr4 2400 mhz
GPU
MSI gtx 1080 Armor OC boost 1962 mhz
Audio
realtek
Monitor
LG 24" Full HD 60 hz 1ms
PSU
Evga 650 w plus gold Gq
Case
Corsair Carbide 300r rosso nero :)
OS
windows 10 pro 64 bit
Bellissima guida, degna di un'enciclopedia informatica.
 

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili