UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Ancora questa storia. Ma se le prestazioni in 2k sono identiche ed in 1080p scalano addirittura meglio, che importanza ha che è una scelta più cheap ? Perché deve essere ridicolo ? Se funziona, funziona. Fine. E se funziona consumando meno energia, ancora meglio.

Io resto convinto che le gddr6x siano state una scelta controproducente sulle schede sotto la 3090.
Magari sbaglio. Vedremo se le useranno ancora la prossima generazione (non refresh), accetto scommesse :)

E con questo chiudo l'OT, tanto ho espresso la mia opinione più volte :)


Dovrà pur esserci un limite però. Quando le schede cominciano a consumare 350-400w hai dei pc che scaldano come una stufetta da bagno quasi.
La 3070ti poi non la definirei proprio al top, eppure ha le gddr6x che le fanno consumare 50w in più a parità di prestazioni con la 3070.

Non sono convinto che la scarsa efficienza energetica della 3070ti sia imputabile interamente alle GDDR6X: sicuramente sono una parte del problema, ma non credo la parte preponderante.
Test alla mano, le 3070ti tendono anche a lavorare a tensioni più alte rispetto alle 3070 e questo di sicuro contribuisce ad aumentare i consumi.
Ad esempio si può prendere a riferimento la recensione di TPU dove si vede bene:


Inoltre, le 3070ti richiedono un GA104 completamente attivo: probabilmente i chip a disposizione con queste specifiche non sono tanti, anche considerando le rese non eccezionali degli 8 nm, e siccome si cerca di vendere ogni cosa in questo periodo (causa problemi di approvvigionamento) è logico pensare che le 3070ti siano schede mediamente binnate piuttosto male.
Poi ci sono le GDDR6X che non aiutano: il risultato è una scheda con efficienza paragonabile se non peggiore rispetto a GPU della passata generazione (e infatti a me piace poco).

Comunque, in generale, quando si fanno questi ragionamenti\confronti sui consumi bisogna sempre ricordarsi della variabilità tra i chip che può essere importante e causare delle apparenti incongruenze ad esempio nelle rilevazioni di testate diverse.
Un po' è dovuto al metodo di test (carico e strumenti usati), ma di sicuro anche il sample che ricevono fa la differenza.

Le GDDR6X invece non sono sicuramente le responsabili per i picchi di consumo, che hanno le AMD quanto le Nvidia (le 6900 XT sembrano particolarmente terribili in questo, perchè consumano relativamente poco di media, ma i picchi transitori sono devastanti) e sono tutta farina del sacco delle moderne GPU, che sono grosse e hanno sistemi di boost ormai rapidissimi a reagire che però accentuano questo tipo di problema.
Non è una cosa da sottovalutare perchè il consumo medio è ciò che va smaltito sotto forma di calore e che si paga in bolletta, ma i picchi possono triggerare i circuiti di protezione dell'alimentatore (soprattutto la OCP) e avere un PC che si spegne non è mai piacevole. Per questo non sono fan delle configurazioni con alimentatore "tirato": con GPU mostruose come quelle che si usano oggi, un alimentatore bello grosso (entro i limiti della decenza) fa sempre comodo.

Detto questo, se dovessi scommettere due euro su quale sarà la strada in futuro (dall'alto della mia ignoranza in materia), punto sulla cache di AMD, anche per le GPU: non credo che aumentare ulteriormente bus e velocità delle memorie sia una strada sostenibile nei prossimi anni.
 
Le GDDR6X invece non sono sicuramente le responsabili per i picchi di consumo, che hanno le AMD quanto le Nvidia (le 6900 XT sembrano particolarmente terribili in questo, perchè consumano relativamente poco di media, ma i picchi transitori sono devastanti) e sono tutta farina del sacco delle moderne GPU, che sono grosse e hanno sistemi di boost ormai rapidissimi a reagire che però accentuano questo tipo di problema.
Non è una cosa da sottovalutare perchè il consumo medio è ciò che va smaltito sotto forma di calore e che si paga in bolletta, ma i picchi possono triggerare i circuiti di protezione dell'alimentatore (soprattutto la OCP) e avere un PC che si spegne non è mai piacevole. Per questo non sono fan delle configurazioni con alimentatore "tirato": con GPU mostruose come quelle che si usano oggi, un alimentatore bello grosso (entro i limiti della decenza) fa sempre comodo.

ma infatti è evidente che i picchi che vediamo sulle moderne GPU, Nvidia o AMD che siano, non sono certo attribuibili alle memorie, che hanno un voltaggio costante ed un consumo che varia pochissimo nei vari stati.
Le GPU sono costruite per avere un boost variabile il più alto possibile finché hanno headroom, e questo è il motivo per cui vediamo questi spike mostruosi.
E come sai da sempre sostengo che restare stretti con il taglio delle PSU, entro limiti ragionevoli, non sia saggio.
Certo senza cadere nel caso di chi voleva comprarsi un 1200W per una 3080 ... ?
Detto questo, se dovessi scommettere due euro su quale sarà la strada in futuro (dall'alto della mia ignoranza in materia), punto sulla cache di AMD, anche per le GPU: non credo che aumentare ulteriormente bus e velocità delle memorie sia una strada sostenibile nei prossimi anni.
che la cache possa farsi strada dentro i chip Nvidia non lo dubito, ma sul fatto che tornino indietro con memorie più lente di quelle usate in questa generazione ci credo molto poco.
 
sperem
hai cantato vittoria un po' presto sul dire "il covid è finito la gente esce", come purtroppo temevo.
In diversi paesi di europa la minaccia delle restrizioni sta tornando presente per via dell'impennata di nuovi casi (per fortuna senza aumento commisurato di ricoveri per ora). Vedremo se le schede resteranno disponibili ugualmente...
 
hai cantato vittoria un po' presto sul dire "il covid è finito la gente esce", come purtroppo temevo.
In diversi paesi di europa la minaccia delle restrizioni sta tornando presente per via dell'impennata di nuovi casi (per fortuna senza aumento commisurato di ricoveri per ora). Vedremo se le schede resteranno disponibili ugualmente...
torneranno disponibili dai, anche quì sul forum sempre più gente è riuscito a prenderla, pian piano la domanda sta scendendo
poi magari davvero perchè si può uscire di casa, boh, sono cose difficili da valutare
 
scusate una cosa ragazzi, chiedo da ignorante visto che ne parlavate: che differenza c'è tra le gddr6 e gddr6x in game?
Sono utili dal 4k in su perché scambiano dati più velocemente e alle risoluzioni alte ce ne è bisogno. Però consumano e scaldano di più.
Amd ha ottenuto risultati simili mettendo delle specie di serbatoi di memoria dentro al chip col vantaggio che può usare le memorie non x che consumano meno senza appunto perdere prestazioni in full hd e in 2k.

Dal punto di vista pratico scambiano dati 4 volte in una oscillazione di frequenza mentre quelle non x scambiano solo 2 volte.

Non sono sicuro al 100% ma dovrebbe essere così (scusate se ho sbagliato qualcosa).
 
Buonaser a tutti. ?

Inizio col fare i complimenti a @crimescene per l‘utilissima (e spiegata molto semplicemente) guida su come fare undervolt alle RTX 3000.

Prima volta che facevo undervolt a una GPU e seguendo la guida è stato facilissimo e cosa più importante non è esploso nulla. ?

Vi lascio alcuni numeri:
EVGA RTX 3070 Ti FTW3 Ultra

• GPU Clock 1950 MHz (in boost) -> 1935 MHz fissi
• Voltaggio 1090 mV -> 950 mV
• Temperatura GPU 72° -> 60°
• Temperatura GDDR6X 83° -> 72°
• Gpu Power 298W -> 177W
• Ventole -> Inudibili

Grazie per la guida Crime e grazie per il tempo dedicato a scriverla. ?
 
Buonaser a tutti. ?

Inizio col fare i complimenti a @crimescene per l‘utilissima (e spiegata molto semplicemente) guida su come fare undervolt alle RTX 3000.

Prima volta che facevo undervolt a una GPU e seguendo la guida è stato facilissimo e cosa più importante non è esploso nulla. ?

Vi lascio alcuni numeri:
EVGA RTX 3070 Ti FTW3 Ultra

• GPU Clock 1950 MHz (in boost) -> 1935 MHz fissi
• Voltaggio 1090 mV -> 950 mV
• Temperatura GPU 72° -> 60°
• Temperatura GDDR6X 83° -> 72°
• Gpu Power 298W -> 177W
• Ventole -> Inudibili

Grazie per la guida Crime e grazie per il tempo dedicato a scriverla. ?
L'ho fatto pure io ma in aggiunta ti consiglio di impostare la curva delle ventole un po' più aggressiva su afterburner
 
L'ho fatto pure io ma in aggiunta ti consiglio di impostare la curva delle ventole un po' più aggressiva su afterburner
Grazie del consiglio, le ventole sono a stock, però se si può migliorare è sempre una bella cosa.

P.S.
Hai trovato le caramelle gommose della Haribo, dentro al pacco di CaseKing? ?
--- i due messaggi sono stati uniti ---
Non ricordo chi l'avesse scritto, forse @Max(IT) , ma è vero che per avere un settaggio ottimale va attivato nel pannello nvidia sia gsync che vsync?
Si mi pare di ricordare che fosse Max.

Comunque io avevo letto GSync o Vsync e mai insieme. Proprio perché uno è il refresh dinamico (GSync) e uno è refresh fisso (VSync).

Io ho attivo solo il GSync, anzi a dire la verità me lo ha attivato in automatico quando ho installato i driver Nvidia e niente VSync.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top