UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
A chi fosse interessato TUF di nuovo disponibili su amazon
Ma no, accipigna! Sono dinuovo andate in sold-out 😥

tonio-cartonio-melevisione.gif
 
Ma Techsaskia? Chissà se ha risolto


Inviato dal mio iPhone utilizzando Tapatalk Pro
Io scherzavo ma sono piuttosto convinto che abbia ordinato un PC nuovo, case compreso.

Guarda, sono peggio di una suocera, sto tenendo guardato di la per vedere se scrive😂 comunque sinceramente un po mi dispiace, era bello convinto poverino
Dispiace perché è un appassionato come noi, ma il termine “poverino” nel suo caso non si applica 😆
Stampa soldi evidentemente …

Comunque se invece di fare il permaloso fosse rimasto qui, avremmo provato ad isolare ed identificare il problema.

bisogna essere onesti questo non influenzerà le vendite in quanto il blocco mining riguardava ETH che orami è passato totalmente dal proof of work al proof of stake

Inoltre il costo energia e il crollo del BTC hanno reso il mining con le VGA davvero poco conveniente, di fatto l'LHR era stato bucato già da tempo e mantenere il blocco è una cosa assolutamente ininfluente e inutile


Questo è quello che oggi si guadagnerebbe con una 4090 ipotizzando un costo dell'energia di 0,2 cent a kw


Visualizza allegato 443756

Ci si rimette 1 euro al giorno

Con una 3080 sempre con il costo ipotizzato di 0,20 cent di euro ma oggi moltissime utenze pagano molto di più e di questo

Visualizza allegato 443757

il blocco mining non serve a nulla

Pensa che durante la pandemia con il BTC alle stelle si arrivava a fare 10 euro al giorno
Beato te che la paghi 0.2 cent… io qui a breve sarò al triplo di quel costo.
 
Beato te che la paghi 0.2 cent… io qui a breve sarò al triplo di quel costo.
Hai ragione ho messo un costo bassso indicativo per fare capire quanto oggi sia davvero poco profittevole pensare al mining attraverso le VGA, mediamente l'energia è aumentata quindi le eventuali perdite se uno fa mining sono ben maggiori.

Ma nopn è solo questo LHR era stato completamente aggirato già da prima di aprile/maggio 2022, non ha più senso mantenere l'LHR per un problema che di fatto non esiste più
 
Io scherzavo ma sono piuttosto convinto che abbia ordinato un PC nuovo, case compreso.
Seguo un thread straniero dove, con lui, anche altri hanno lo stesso problema.
Lui ha problemi con la Suprim su Z690 Extreme (la Zotac del fratello non entra nel suo case).
C'e' un altro che ha lo stesso problema con Aorus Master su Z690 Hero (che funziona sul PC della ragazza)
E un altro ancora con una Z690 Hero + Zotac
Da quello che so anche il fratello con la Zotac ha problemi sulla Z690 Hero (mentre sembrerebbe che la Suprim funzioni)

Lui ha provato a cambiare PSU il HX1200i -> 1500W (ma non so che marca, spero NON Corsair, perche' se ci fosse un problema di architettura potrebbe trovarsi anche sul 1500W) ... anche se il problema che si presenta (dopo l'intsllazione dei drivers, continuo reboot) non farebbe pensare a un problema di PSU.

Quindi sembra un problema delle mainboard ASUS di un certo "livello" (Hero & Extreme) ... e solo alcune di queste e con alcune 4090 (?)
Credo che tutti attendano il 20 (ormai) per cambiare/provare MainBoard
 
Seguo un thread straniero dove, con lui, anche altri hanno lo stesso problema.
Lui ha problemi con la Suprim su Z690 Extreme (la Zotac del fratello non entra nel suo case).
C'e' un altro che ha lo stesso problema con Aorus Master su Z690 Hero (che funziona sul PC della ragazza)
E un altro ancora con una Z690 Hero + Zotac
Da quello che so anche il fratello con la Zotac ha problemi sulla Z690 Hero (mentre sembrerebbe che la Suprim funzioni)

Lui ha provato a cambiare PSU il HX1200i -> 1500W (ma non so che marca, spero NON Corsair, perche' se ci fosse un problema di architettura potrebbe trovarsi anche sul 1500W) ... anche se il problema che si presenta (dopo l'intsllazione dei drivers, continuo reboot) non fa pensare a un problema di PSU.

Quindi sembra un problema delle mainboard ASUS di un certo "livello" (Hero & Extreme) ... e solo alcune di queste e con alcune 4090 (?)
Credo che tutti attendano il 20 (ormai) per cambiare/provare MainBoard

Problemi di driver con un attimo di tempo risolveranno se non si ha la furia di cambiare componenti, ma era prevedibile.

Chi prende una scheda la D1 dovrebbe aspettarsi driver ancora non maturi al 100% successe anche con la serie 3000 in maniera molto più generalizzata.
 
Problemi di driver con un attimo di tempo risolveranno se non si ha la furia di cambiare componenti, ma era prevedibile.

Chi prende una scheda la D1 dovrebbe aspettarsi driver ancora non maturi al 100% successe anche con la serie 3000 in maniera molto più generalizzata.
Anche perche' ci sono solo quelli attualemnte ... uno non puo' nemmeno fare un RollBack... 😁

Pero' vedevo in una recensione (video), che qualcuno ha gia' i 521.xx (che pero' non si trovano in rete, nemmeno nelle pagine developers) ... forse sono quelli dati a corredo delle schede per le recensioni (e magari con specifiche un po' piu' "generose")
 
Seguo un thread straniero dove, con lui, anche altri hanno lo stesso problema.
Lui ha problemi con la Suprim su Z690 Extreme (la Zotac del fratello non entra nel suo case).
C'e' un altro che ha lo stesso problema con Aorus Master su Z690 Hero (che funziona sul PC della ragazza)
E un altro ancora con una Z690 Hero + Zotac
Da quello che so anche il fratello con la Zotac ha problemi sulla Z690 Hero (mentre sembrerebbe che la Suprim funzioni)

quindi la Zotac era del fratello e non della moglie, ma l’ha scritto solo per “impressionare” noi poverihhhh con il fatto di averne prese 2…

Lui ha provato a cambiare PSU il HX1200i -> 1500W (ma non so che marca, spero NON Corsair, perche' se ci fosse un problema di architettura potrebbe trovarsi anche sul 1500W) ... anche se il problema che si presenta (dopo l'intsllazione dei drivers, continuo reboot) non farebbe pensare a un problema di PSU.

ma infatti cambiare una PSU di fascia alta da 1200W è totalmente insensato. Già i 1200W sono insensati, figuriamoci i 1500…

Quindi sembra un problema delle mainboard ASUS di un certo "livello" (Hero & Extreme) ... e solo alcune di queste e con alcune 4090 (?)
Credo che tutti attendano il 20 (ormai) per cambiare/provare MainBoard
Sarebbe davvero stranissimo, perché al di la dei frizzi & lazzi aggiunti per pompare il prezzo, la Hero non è che gestisca il PCIE in modo diverso da una TUF, ad esempio.
Comunque se così fosse magari basta un aggiornamento BIOS o dei drivers.

Anche perche' ci sono solo quelli attualemnte ... uno non puo' nemmeno fare un RollBack... 😁

Pero' vedevo in una recensione (video), che qualcuno ha gia' i 521.xx (che pero' non si trovano in rete, nemmeno nelle pagine developers) ... forse sono quelli dati a corredo delle schede per le recensioni (e magari con specifiche un po' piu' "generose")
Sono usciti da un paio di giorni i 522.25 WHQL che tra l’altro aiutano molto la serie 3000 (aumento di prestazioni DX12 dal 5 al 15%)
 
Io scherzavo ma sono piuttosto convinto che abbia ordinato un PC nuovo, case compreso.
Se interessa l'ho beccato sul forum Msi e sul forum Rog che diceva che ha preso un HX1500i ma non ha risolto niente. Ora sembra stia pensando a cambiare mobo
Dispiace perché è un appassionato come noi, ma il termine “poverino” nel suo caso non si applica 😆
Stampa soldi evidentemente …
Si vero il "poverino" é esagerato😁
Comunque se invece di fare il permaloso fosse rimasto qui, avremmo provato ad isolare ed identificare il problema.
Sottoscrivo in toto
 
Se interessa l'ho beccato sul forum Msi e sul forum Rog che diceva che ha preso un HX1500i ma non ha risolto niente. Ora sembra stia pensando a cambiare mobo
Prerchè nonpuò essere un problema di alimentazione se stava qui glie lo dicevamo noi/


Per me deve solo aspettare cacceranno driver che risolveranno tutto

Essere "prrecipitosi" negli acquisti ci si rimette, ma se uno non sente ragioni si può fare poco
 
Sono usciti da un paio di giorni i 522.25 WHQL che tra l’altro aiutano molto la serie 3000 (aumento di prestazioni DX12 dal 5 al 15%)
Ecco, questi me li ero persi... avevo controllato ieri sera, ma quelli per Linux ... e li' siamo (ancora) fermi alla versione precedente 5.20.

ERRATA-CORRIGE:
Hai ragione... per Windows ci sono solo i 5.22 (per la 4090)... son io che ho fatto confusione con quelli di Linux che sono solo 5.20 (per la versione rilasciata con la 4090)
 
Ultima modifica:
Non so se qualcuno l'ha già rimarcato nei giorni scorsi perchè ho seguito poco, ma comunque ci sono buone notizie dal punto di vista del consumo energetico della RTX4090.
A differenza delle schede grafiche di generazione precedente, che nei carichi impegnativi erano limitate più o meno sempre dalla potenza e di conseguenza assorbivano una potenza pari al TBP (escluse situazioni CPU limited), la RTX4090 solitamente si accontenta di meno.

Il comportamento si intuisce da diverse recensioni, ma a mio parere è evidenziato in modo particolare qui (le recensioni di Igor del resto dal punto di vista della rilevazione dei consumi sono sempre il top): https://www.igorslab.de/en/nvidia-g...ers-edition-24gb-review-drink-less-work-more/

In pratica i 450 watt si raggiungono solo nei carichi sintetici (furmark) e si possono avvicinare solamente in alcuni giochi utilizzando l'RT in 4k con DLSS disattivo, caso d'uso decisamente poco comune. Il DLSS, infatti, oltre ad aumentare le prestazioni, pare avere un effetto benefico sui consumi: non è una novità assoluta, ma nel caso della 4090 il calo è particolarmente pronunciato.

Inoltre, la promessa di Nvidia di limitare i picchi di corrente assorbita è stata mantenuta: essi sono effettivamente molto ben controllati. I residui picchi di potenza, comunque contenuti (in relazione al consumo complessivo), derivano più che altro dal ripple sulla tensione, inevitabile quando si carica un alimentatore con una GPU di fascia alta.

1665927787194.webp

Di conseguenza un buon alimentatore da 850 watt può essere impegato senza timore alcuno per una qualsiasi 4090.
Un 1000 watt rimane il taglio migliore per chi sta acquistando adesso e ha intenzione di overlcoccare alzando il power limiti della scheda o comunque non eslcude di volerlo fare: infatti la FE, così come alcune custom, può spingersi teoricamente fino a 600 watt, anche se, di nuovo, è un valore difficilmente raggiungibile pure in overlcock, se non usando furmark.

Addirittura, secondo me, si potrebbe pensare di riciclare un 750 watt, a patto che sia un modello recente e di alta qualità, che non si alzi ulteriormente il TBP della scheda e che l'utilizzo principale sia il gaming.
Infatti, come si vede dalla recensione, il consumo complessivo di un sistema Ryzen 7 7950x + RTX4090 in gaming è intorno ai 500 watt (e in ogni caso sempre sotto i 600), un valore che un buon 750 può gestire senza troppa difficoltà.
Rimane la domanda se il margine sia sufficiente per impedire spegnimenti triggerati dai picchi, ma il fatto che tali picchi con la 4090 siano limitati mi fa essere piuttosto ottimista in proposito.

Forse è una osservazione dalla scarsa utilità pratica, perchè chi ha 2500€ da spendere per una RTX4090, ha sicuramente 200€ da parte per un buon 1000 watt... Però se qualcuno volesse usare la scheda con il vecchio alimentatore 750 watt in attesa di comprarne uno nuovo, magari PCI-E 5.0, per me lo può fare.
 
Non so se qualcuno l'ha già rimarcato nei giorni scorsi perchè ho seguito poco, ma comunque ci sono buone notizie dal punto di vista del consumo energetico della RTX4090.
A differenza delle schede grafiche di generazione precedente, che nei carichi impegnativi erano limitate più o meno sempre dalla potenza e di conseguenza assorbivano una potenza pari al TBP (escluse situazioni CPU limited), la RTX4090 solitamente si accontenta di meno.

Il comportamento si intuisce da diverse recensioni, ma a mio parere è evidenziato in modo particolare qui (le recensioni di Igor del resto dal punto di vista della rilevazione dei consumi sono sempre il top): https://www.igorslab.de/en/nvidia-g...ers-edition-24gb-review-drink-less-work-more/

In pratica i 450 watt si raggiungono solo nei carichi sintetici (furmark) e si possono avvicinare solamente in alcuni giochi utilizzando l'RT in 4k con DLSS disattivo, caso d'uso decisamente poco comune. Il DLSS, infatti, oltre ad aumentare le prestazioni, pare avere un effetto benefico sui consumi: non è una novità assoluta, ma nel caso della 4090 il calo è particolarmente pronunciato.

Inoltre, la promessa di Nvidia di limitare i picchi di corrente assorbita è stata mantenuta: essi sono effettivamente molto ben controllati. I residui picchi di potenza, comunque contenuti (in relazione al consumo complessivo), derivano più che altro dal ripple sulla tensione, inevitabile quando si carica un alimentatore con una GPU di fascia alta.

Visualizza allegato 443791

Di conseguenza un buon alimentatore da 850 watt può essere impegato senza timore alcuno per una qualsiasi 4090.
Un 1000 watt rimane il taglio migliore per chi sta acquistando adesso e ha intenzione di overlcoccare alzando il power limiti della scheda o comunque non eslcude di volerlo fare: infatti la FE, così come alcune custom, può spingersi teoricamente fino a 600 watt, anche se, di nuovo, è un valore difficilmente raggiungibile pure in overlcock, se non usando furmark.

Addirittura, secondo me, si potrebbe pensare di riciclare un 750 watt, a patto che sia un modello recente e di alta qualità, che non si alzi ulteriormente il TBP della scheda e che l'utilizzo principale sia il gaming.
Infatti, come si vede dalla recensione, il consumo complessivo di un sistema Ryzen 7 7950x + RTX4090 in gaming è intorno ai 500 watt (e in ogni caso sempre sotto i 600), un valore che un buon 750 può gestire senza troppa difficoltà.
Rimane la domanda se il margine sia sufficiente per impedire spegnimenti triggerati dai picchi, ma il fatto che tali picchi con la 4090 siano limitati mi fa essere piuttosto ottimista in proposito.

Forse è una osservazione dalla scarsa utilità pratica, perchè chi ha 2500€ da spendere per una RTX4090, ha sicuramente 200€ da parte per un buon 1000 watt... Però se qualcuno volesse usare la scheda con il vecchio alimentatore 750 watt in attesa di comprarne uno nuovo, magari PCI-E 5.0, per me lo può fare.
È evidente che il processo produttivo migliore ed una maggiore attenzione nella gestione dei VRM ha portato a benefici.
Le 3090 e 3090 Ti avevano dei grossi problemi nella gestione dei picchi (al punto che ne sono morte diverse…) e probabilmente Nvidia ha modificato il progetto.
Notevole vedere come la scheda consumi 450W ed arrivi ”solo” a picchi di 550W mentre le precedenti con 400W arrivavano a 600W…
 
Il DLSS, infatti, oltre ad aumentare le prestazioni, pare avere un effetto benefico sui consumi
Penso che renderizza do a 1080p o 2k col dlss, la scheda non venga utilizzata al 100% ma probabilmente nea che 90-80%. Per quello consuma poco.

Certo non è male ma non mi pare una grande cosa che la scheda consumi poco quando resta parzialmente inattiva per via del carico.
 
Pubblicità
Pubblicità
Indietro
Top