UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Tieni conto però che è cambiato anche il software da allora ed i monitor
Oggi quasi tutto ha "accelerazione hardware" che va a dare un minimo uso sulla gpu, basta aprire un browser ad esempio
Ed oggi sono molto più diffusi monitor ad elevato refresh rate (anch'essi tendono a far alzare un poco il consumo a desktop)

Sì anche le alte risoluzioni se è per quello.
Comunque il trend rialzista dei consumi in idle non riguarda solo le schede video. Per fare un esempio, il mio PC con GTX1070 e i7 6700k consumava meno a riposo del 5600x+RTX3070. Mentre il 13600kf+RTX3070 attuale sta un po' a metà, più vicino al secondo.
Poi sono tutti dati approssimativi, perchè chiaramente basta che parta un qualche processo in background in windows per veder schizzare verso l'alto il consumo rilevato alla presa. Tuttavia, il non miglioramento, anzi leggero peggioramento, dei consumi a riposo è un trend che ormai do per assodato.
 
Ultima modifica:
Sì anche le alte risoluzioni se è per quello.
Comunque il trend rialzista dei consumi in idle non riguarda solo le schede video. per fare un esempio, il mio PC con GTX1070 e i7 6700k consumava meno a riposo del 5600x+RTX3070. Mentre il 13600kf+RTX3070 attuale sta un po' a metà, più vicino al secondo.
Poi sono tutti dati approssimativi, perchè chiaramente basta che parta un qualche processo in background in windows per veder schizzare verso l'alto il consumo rilevato alla presa. Tuttavia, il non miglioramento, anzi leggero peggioramento, dei consumi a riposo è un trend che ormai do per assodato.
E, se posso aggiungere, di questi tempi non è certo la migliore delle cose. A parte il prezzo dell'energia (non è questo il luogo dove parlarne), il maggior inquinamento dovuto ai consumi dove lo mettiamo? Per questo non mi piace il trend attuale, a me andrebbero bene anche componenti con le stesse prestazioni attuali ma con consumi dimezzati. La strada maestra deve essere quella dell'efficienza massima a mio parere.
 
Direi di tutta la scheda.
Certo, dipende da numero di monitor e risoluzione. Ma era giusto per avere qualche info, più per curiosità che altro. E così torniamo a parlare un po' di schede video in un thread di schede video 🤣
comunque ragazzi ad idle la mia consuma MOLTO meno delle vostre 🤨

1683626508001.webp

mi sa che avete qualche settaggio che non va 🤷‍♂️

anche con il browser aperto non cambia, quindi non è l'accelerazione del browser 🤨🤨🤨1683626705387.webp
 
E, se posso aggiungere, di questi tempi non è certo la migliore delle cose. A parte il prezzo dell'energia (non è questo il luogo dove parlarne), il maggior inquinamento dovuto ai consumi dove lo mettiamo? Per questo non mi piace il trend attuale, a me andrebbero bene anche componenti con le stesse prestazioni attuali ma con consumi dimezzati. La strada maestra deve essere quella dell'efficienza massima a mio parere.
dieci minuti di applausi !
Altroché 4090 con 15900K !

Io farei carte false perché il prossimo 15900K andasse il 15% più del precedente 14900K (invece di un 20/25%) ma consumando un 20% IN MENO (invece che il 20% in più) !

Idem per le schede video.

Sono disposto a sacrificare parte dell'incrmeento di prestazioni in cambio di risparmio di consumo.
L'unica cosa buona della serie 40 di Nvidia, è che consuma sensibilmente meno della serie 30 o di RDNA.
E quei fanboy continuano a consigliare una 6950XT al posto della 4070Ti .... 🤦‍♂️ scheda con picchi di oltre 500W. ahhh, però ha 16 GB di VRAM...
 
Ah, poi ci sono anche i led, ormai quasi tutti i modelli li hanno e se non vengono spenti qualcosa assorbono anche loro oltre a, come detto, le varie casistiche di risoluzione/refresh/multimonitor

Io sono per tenere sempre tutto spento, ma molte persone no ;)
 
comunque ragazzi ad idle la mia consuma MOLTO meno delle vostre 🤨

Visualizza allegato 459183

mi sa che avete qualche settaggio che non va 🤷‍♂️

anche con il browser aperto non cambia, quindi non è l'accelerazione del browser 🤨🤨🤨Visualizza allegato 459184

sono letture che lasciano il tempo che trovano, queste ad esempio sono le mie 4080 e 4070Ti a riposo, singolo monitor, no browser, nulla...


4070ti2.png

4080222.png

e la 4090 con doppio monitor collegato:
40902.webp
 
Ultima modifica:
Ah, poi ci sono anche i led, ormai quasi tutti i modelli li hanno e se non vengono spenti qualcosa assorbono anche loro oltre a, come detto, le varie casistiche di risoluzione/refresh/multimonitor

Io sono per tenere sempre tutto spento, ma molte persone no ;)
la mia ha i led..
 
dieci minuti di applausi !
Altroché 4090 con 15900K !

Io farei carte false perché il prossimo 15900K andasse il 15% più del precedente 14900K (invece di un 20/25%) ma consumando un 20% IN MENO (invece che il 20% in più) !

Idem per le schede video.

Sono disposto a sacrificare parte dell'incrmeento di prestazioni in cambio di risparmio di consumo.
L'unica cosa buona della serie 40 di Nvidia, è che consuma sensibilmente meno della serie 30 o di RDNA.
E quei fanboy continuano a consigliare una 6950XT al posto della 4070Ti .... 🤦‍♂️ scheda con picchi di oltre 500W. ahhh, però ha 16 GB di VRAM...
Altro che psu da 1000 o più watt... pensa che bello sarebbe far girare un 15900k e una 6080 con un alimentatore da 300 W! Ada per fortuna ci ha guadagnato qualcosa grazie al processo produttivo (quindi merito di tsmc, non certo del giacchetta), ma non è ancora abbastanza secondo me. Possiamo e dobbiamo fare di più, soprattutto per i nostri figli.
 
sono letture che lasciano il tempo che trovano, queste ad esempio sono le mie 4080 e 4070Ti a riposo, singolo monitor, no browser, nulla...


Visualizza allegato 459185

Visualizza allegato 459186
ah ecco, ora torna.
Con tutte le approssimazioni del caso (la misura reale si ottiene solo collegandosi alla scheda), signbifica che in idle ti ci vanno.
Se loro vedono 20W ad idle, significa che la scheda non è davvero ad idle.

Ricordo che le radeon appena rilasciate stavano a 100W facendo nulla solo per via dei drivers.

Su hwinfo c'è scritto consumo GPU
si, HWinfo fornisce informazioni sulla GPU, mentre GPU-Z ha anche informazioni sul power board.
Ma se tu hai oltre 20W di sola GPU, qualcosa non quadra
 
Concordo e ne sono ben consapevole, solo che sono subentrate altre priorità in questi giorni (che non sto qui a spiegare ovviamente) e per questo mi sono fatto venire i dubbi. Tutto qui
io prenderei la 4080 visti i prezzi. Ci metti su 200 e la differenza prestazionale non è poca.
 
io prenderei la 4080 visti i prezzi. Ci metti su 200 e la differenza prestazionale non è poca.
No no l'ho scritto l'altro giorno, aggiungere soldi è fuori discussione. Capisco che ne varrebbe la pena ma no, su questo non transigo.
E comunque lasciamolo arrivare sto rimborso😅
La 3080 gli è arrivata ieri sera, ci vorrà ancora qualche giorno immagino.
 
Pubblicità
Pubblicità
Indietro
Top