UFFICIALE Nvidia RTX 4000 (Lovelace)

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,813
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
Complimenti per la spiegazione.
Sono d'accordo con te su quest'ultima frase, anche io lo sto dicendo da diveri giorni in questa discussione che tra ampere e ada lovace non cambia quasi nulla. Ce stata più "evoluzione" tra turing e ampere che con quest'ultima.
Infatti da turing ad ampere sono cambiati i cuda core, nel senso che su ampere una parte dei cuda può simultaneamente fare operazioni in fp32 e int32, cosa che turing non può fare che a portato ad un incremento di Tflops spaventoso.
Su Ada lovace ce stato solo un incremento di alcuni fattori come tensor core, rt core e memoria cache a discapito del bus di memoria.

Ada Lovace sarebbe stata una buona architettura se il prezzo fosse stato in linea con gli ultimi 20 anni a questa parte ( tranne caso turing ). Invece a quel prezzo diventa solo una pessima serie da evitare poiché quella percentuale di performance in più non giustifica quel prezzo folle, inoltre chi possiede una rrtx 2000/3000 non ha motivo di aggiornare alla serie rtx 4000. Gli unici due motivi che posso trovare e che giustificano solo l'acquisto della rtx 4090 è il voler giocare in 2160p 144hz senza compromessi, ma parliamoci chiaro, in quanti hanno un monitor 2160p 144hz ? 4 gatti. Non spendo parole per la rtx 4080 16Gb e la rtx 4070 12Gb poiché a quel prezzo sono imbarazzanti/orride.

A voler essere precisi, Turing aveva CUDA Core in grado di fare INT32 e FP32 contemporaneamente, mentre Ampere no: metà dei core possono fare INT32 o FP32 (non insieme), metà solo FP32.
Da qui l'enorme aumento del numero di core, ma un aumento di prestazione più modesto, dovuto al fatto che in carichi misti, parte dei core di Ampere devono occuparsi degli interi.
Se in un gioco ci sono 1/3 di calcoli INT32 (non una mia ipotesi, prendo spunto da ciò che ho letto) i 10752 CUDA core della RTX3090ti equivalgono a 7168 core Turing.

Per il resto siamo d'accordo.

I prezzi son alti, non si discute... ma lo ripeto ancora una volta: paghiamo lo scotto della svalutazione EURO/USD rispetto a 2 anni fa.
La 4090 costa "solo" 100$ in piu' rispetto alla 3090 di due anni fa... ed ha tutt'altri numeri.

Concordo e a mio avviso vale la pena pagare il 33% in piu' (rispetto alla 4080), per avere una aumento del 45% di performance (FireStrike Ultra)... dato che solitamente avviene il contrario: si paga molto di piu' per avere solo un esiguo guadagno in termini di performance.


Credo che inizialmente vedremo alcune custom vicino ai 2K euro dai distributori ufficiali... sempre che NVidia non abbia cambiato la politica che vuole, al lancio, che alcuni modelli siano vicini all'MSRP.

Di sicuro l'euro debole non aiuta e questo non dipende direttamente dai produttori di hardware.
Però, è già stato detto più volte: passi la RTX4090, l'aumento di prezzo del resto della gamma rasenta la follia... E di fatti, forse per la prima volta nella storia, ci troviamo di fronte a una situazione in cui la flag ship è la scheda migliore dal punto di vista del rapporto prezzo\prestazioni, almeno sulla carta.

io sono ancora motlo indeciso se prendere una 4080 16GB o aspettare che escano eventualmente le super/ti il mio istinto mi dice che stavolta conviene aspettare

Io te lo dico sinceramente: o compri una RTX4090, oppure aspetterei. 😂
 
  • Mi piace
Reazioni: Dradkol

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,827
31,980
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
Io te lo dico sinceramente: o compri una RTX4090, oppure aspetterei. 😂

La 4090 è fuori discussione`, troppo grossa consuma troppo, la 3080 onestamente mi basta la mia la si può chiamare semplicemente "scimmia"
 
  • Haha
Reazioni: Dradkol

Dradkol

Eretico
Utente Èlite
5,083
4,397
CPU
Intel core i7 11700KF 8 core/ 16 thread 4.6Ghz all core
Dissipatore
Arctic Liquid freezer II 240mm Argb
Scheda Madre
Asus TUF Gaming z590 Plus wifi
HDD
NVMe M.2 Gen4 Crucial P5 Plus 1TB + NVMe M.2 Gen3 Sabrent 256GB / +SSD Crucial bx500 256GB
RAM
Kingston Fury Beast 32Gb (2X16GB) 3200Mhz CL16
GPU
Asus TUF Rtx 3080 12GB Gaming OC 900mv/1865mhz
Audio
HyperX Cloud II + Logitech Z313
Monitor
Xiaomi Mi 34° WQHD 144hz + LG UltraGear 32GN650 32° QHD, 165hz
PSU
Corsair RM850x
Case
Cooler Master TD500 Mesh Argb
OS
Windows 11
Io non sono preoccupato per i prezzi perchè non è affatto detto che contiueranno ad alzarsi, è vero che sono alti ma devi anche vedere la potenza relativa ed il fatto che adesso sono alti non significa affatto che lo saranno in futuro


Siamo in un periodo di mercato che era prevedibile una strategia del genere, di fatto ci sono parechchi fattori "negativi: che influiscono negativamente sul prezzo finale.

E' vero che con 900 euro compravi una 980 ti ma cosa offriva una 980 ti?

Ogni generrazioen di schede viene percepita in maniera divera e con un hype diverso, le rtx 2000 furono caratterizzate da un htype molto basso con prezzi che tutti consideravano molto alti, tanto è vero che poi i prezzi vennero tagliati con le super dando anche un aumento di prestazioni considerevole

Io ho la nettissima sensazione che questa volta succederà la stessa identica cosa
Ti correggo poiché hai capito male, la gtx 980ti te la portavi a casa con 700 euro non 900 euro.
Nel 2015 giocavi in 1440p tutto su ultra a the witcher 3 con la gtx 980ti e stesso discorso per qualsiasi altro gioco pesante dell'epoca. Ormai a quasi 8 anni quella gpu e nonostante questo la si può ancora usare in 1080p per giocare a 120hz.

Sono d'accordo che oggi le gpu hanno una potenza tale da farti stare tranquillo per anni senza dover scendere a compromessi ma i prezzi sono leggermente esagerati.
 

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,827
31,980
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
Ti correggo poiché hai capito male, la gtx 980ti te la portavi a casa con 700 euro non 900 euro.
Nel 2015 giocavi in 1440p tutto su ultra a the witcher 3 con la gtx 980ti e stesso discorso per qualsiasi altro gioco pesante dell'epoca. Ormai a quasi 8 anni quella gpu e nonostante questo la si può ancora usare in 1080p per giocare a 120hz.

Sono d'accordo che oggi le gpu hanno una potenza tale da farti stare tranquillo per anni senza dover scendere a compromessi ma i prezzi sono leggermente esagerati.

i prezzi sono esagerati per via delle condizioni particolari di mercato non è assolutamente detto che continuano ad aumentare, ma comuqnue quello che offrono le schede lo devi considerare


A me onestamente non preoccupano i prezzi i prezzi calano e scendono a seconda delle situazioni, in questo momento ci si trova in una situazione molto particolare, unica oserei dire per tutto quello che è successo, acnhe la decisione di continuare a commercializzare le RTX 3000 è un unicum che tecnicamente ci pone davanti a 2 fasce di schede

Passerà anche questo

Le 4000 venderanno poco, per il prezzo elevato quando nvidia si ritroverà un mucchio di chip grafici senza sapere cosa se ne deve fare taglierà il prezzo con schede più appetibili, con un operazione simile a quella che ha fatto con le super
 
  • Mi piace
Reazioni: Dradkol

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,813
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
La 4090 è fuori discussione`, troppo grossa consuma troppo, la 3080 onestamente mi basta la mia la si può chiamare semplicemente "scimmia"

E allora lascia perdere. Stai con la RTX3080 fino alla prossima infornata, o quanto meno aspetta AMD.
Le 4080 convincono proprio poco: l'unica cosa che mi incuriosisce è il DLSS 3.0, ma tanto all'inizio ci sarà una fase di rodaggio (anche in termini di numero di giochi supportati).
 
  • Mi piace
Reazioni: Beex e Dradkol

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,827
31,980
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
E allora lascia perdere.
Stai con la RTX3080 fino alla prossima infornata. O quanto meno aspetta AMD. Le 4080 convincono proprio poco: l'unica cosa che mi incuriosisce è il DLSS 3.0, ma tanto all'inizio ci sarà una fase di rodaggio (anche in termini di numero di giochi supportati).
a no ma aspettare AMD è di obbligo questo è certo di certo non faccio il beta tester prendendo una scheda al D1

Se proprio la prendo sarà un mese o due dopo il lancio ma penso proprio che a sto giro aspetto quanto meno l'uscita delle successive super/ti

Sono abbastanza certo che queste nuove schede venderanno poco e Nvidia si troverà con un numero abbastanza grande di chip da smaltire e sarà costretta ad un taglio di prezzi mettendo chip più potenti come ha fatto per la serie 2000

Se poi AMD caccia qualcosa di veramente buono non è nemmeno detto che non ci faccio un pensiero

L'istino mi dice che stavolta conviene aspettare e raramente mi sbaglio
 
  • Mi piace
Reazioni: Dradkol

Ottoore

Utente Èlite
26,385
13,269
CPU
I7 2700K @4.7
Dissipatore
Noctua NH-D14
Scheda Madre
GA-Z77X-UD5H
HDD
Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
RAM
Crucial Ballistix Tactical 2133 @9-9-9-27
GPU
Gtx 1060
Audio
Asus Essence ST+ Beyerdynamic 990pro
PSU
Evga g2 750w
Case
Cooler Master Haf XM
Periferiche
Varmilo Va87m + Razer DA
Net
Vdsl 200 Mbps
OS
Windows 7 64 bit
Questa notizia, seppur indirettamente, credo possa interessare agli acquirenti di una RTX 4000.
Post unito automaticamente:

OC, presumibilmente ad aria (68 gradi max), della 4090.
Stranamente lineare l'aumento di clock (10%) e assorbimento (sempre 10%).
RTX4090-GPUZ2-768x1161.jpg
 
Ultima modifica:
  • Mi piace
Reazioni: pribolo

BrutPitt

Utente Attivo
1,166
1,262
io sono ancora motlo indeciso se prendere una 4080 16GB o aspettare che escano eventualmente le super/ti il mio istinto mi dice che stavolta conviene aspettare
Onestamente a sto giro... passo!

Forse mi guardero' in giro verso Aprile/Maggio... e non sono neanche tanto convinto che questa generazione duri 2 anni.

Sembra tanto che NVidia abbia "solo" maggiorato le cose (maggiore L2 cache, Tensor Cores, Cuda Cores...), grazie anche al miglior processo produttivo 10nm -> 5nm (che avrebbe gia' voluto cambiare a meta' serie 3000, passando con TSMC 8nm), senza in realta' introdurre novita' importanti (tranne lato streaming), come avvenuto nella serie serie 2000 e 3000... mentre ha dato il via (negli ultimi 2 anni sia su github, sia con librerie proprie) a molti progetti software che potrebbero (anche) trovare future accelerazioni hardware.

Ed ho come l'impressione che ci si possa attendere una serie 5000 gia' il prossimo anno... ma dipendera' molto anche come si collochera' AMD con le nuove RDNA3

brh ho pure la ps5😀
E senza dimenticare l'Oculus... 😀
Praticamente... Gamer Inside... Outside... and All Around 😄😉
 

Skonvolt2015

Utente Attivo
564
363
CPU
Amd Ryzen 9 5900X
Dissipatore
Custom loop
Scheda Madre
Asus ROG Crosshair VIII Dark Hero, AMD X570
HDD
Samsung SSD 850 pro 256Gb +3TB
RAM
Crucial Ballistix RGB 32GB Kit (2 x 16GB) DDR4-3600 BL2K16G36C16U4BL
GPU
AMD Radeon™ RX 6900 XT Graphics Reference
Audio
Sound Blaster Zx Casse EMPIRE KS3500D
Monitor
LG 32GK850F
PSU
Antec HCP-1000 Platinum
Case
Phanteks Enthoo Primo
Periferiche
Corsair Strafe RGB Mionix Castor Kingston HyperX Cloud
OS
Windows 10
Questa notizia, seppur indirettamente, credo possa interessare agli acquirenti di una RTX 4000.
Post unito automaticamente:

OC, presumibilmente ad aria (68 gradi max), della 4090.
Stranamente lineare l'aumento di clock (10%) e assorbimento (sempre 10%).
RTX4090-GPUZ2-768x1161.jpg
Manca una parte importante di questo screen :

There are a few things to note, however. First, we do not know what workload was used, it could just as well be some ancient gaming benchmark that has very low GPU use. Second, the real-time values are not shown here, so we can only see peak. Also keep in mind that 50.6 MHz memory clock and hot spot temperature of 40.3°C are minimum values, not the maximum.


116756_ba75a61484187b5458829a1366e89707269923679jpg@1554w.jpg.webp


The other test, which looks like Furmark, is a different story. The RTX 4090 draws a ridiculous 615W power (GPU: 498W + Board: ~117W) while running at 2.64GHz. This is crazy, especially considering that the 4090 has a TBP of 450W. This means that the power limits of the Ada Lovelace flagship aren’t hardwired and will be alterable using the BIOS. Enthusiasts have been leveraging this for years to push their cards to their limits.

 

Ottoore

Utente Èlite
26,385
13,269
CPU
I7 2700K @4.7
Dissipatore
Noctua NH-D14
Scheda Madre
GA-Z77X-UD5H
HDD
Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
RAM
Crucial Ballistix Tactical 2133 @9-9-9-27
GPU
Gtx 1060
Audio
Asus Essence ST+ Beyerdynamic 990pro
PSU
Evga g2 750w
Case
Cooler Master Haf XM
Periferiche
Varmilo Va87m + Razer DA
Net
Vdsl 200 Mbps
OS
Windows 7 64 bit
Hai fatto bene ad aggiungerla.
Manca una parte importante di questo screen :

There are a few things to note, however. First, we do not know what workload was used, it could just as well be some ancient gaming benchmark that has very low GPU use. Second, the real-time values are not shown here, so we can only see peak.
Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?
 

Skonvolt2015

Utente Attivo
564
363
CPU
Amd Ryzen 9 5900X
Dissipatore
Custom loop
Scheda Madre
Asus ROG Crosshair VIII Dark Hero, AMD X570
HDD
Samsung SSD 850 pro 256Gb +3TB
RAM
Crucial Ballistix RGB 32GB Kit (2 x 16GB) DDR4-3600 BL2K16G36C16U4BL
GPU
AMD Radeon™ RX 6900 XT Graphics Reference
Audio
Sound Blaster Zx Casse EMPIRE KS3500D
Monitor
LG 32GK850F
PSU
Antec HCP-1000 Platinum
Case
Phanteks Enthoo Primo
Periferiche
Corsair Strafe RGB Mionix Castor Kingston HyperX Cloud
OS
Windows 10
Hai fatto bene ad aggiungerla.

Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?
492 lo vedi perchè c'è il valore su max , come anche la frequenza, ma per esempio non mostra il valore massimo raggiunto dall'hotspot memorie ecc ecc, poi dipende anche da cosa è stato in esecuzione e per quanto tempo
 

Ottoore

Utente Èlite
26,385
13,269
CPU
I7 2700K @4.7
Dissipatore
Noctua NH-D14
Scheda Madre
GA-Z77X-UD5H
HDD
Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
RAM
Crucial Ballistix Tactical 2133 @9-9-9-27
GPU
Gtx 1060
Audio
Asus Essence ST+ Beyerdynamic 990pro
PSU
Evga g2 750w
Case
Cooler Master Haf XM
Periferiche
Varmilo Va87m + Razer DA
Net
Vdsl 200 Mbps
OS
Windows 7 64 bit
492 lo vedi perchè c'è il valore su max , come anche la frequenza, ma per esempio non mostra il valore massimo raggiunto dall'hotspot memorie ecc ecc, poi dipende anche da cosa è stato in esecuzione e per quanto tempo
Idem per i 3135Mhz che son di picco. Quello che voglio dire è che un carico "pesante" dev'esser stato eseguito per aver registrato 492w.
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,813
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
116756_ba75a61484187b5458829a1366e89707269923679jpg@1554w.jpg.webp


The other test, which looks like Furmark, is a different story. The RTX 4090 draws a ridiculous 615W power (GPU: 498W + Board: ~117W) while running at 2.64GHz. This is crazy, especially considering that the 4090 has a TBP of 450W. This means that the power limits of the Ada Lovelace flagship aren’t hardwired and will be alterable using the BIOS. Enthusiasts have been leveraging this for years to push their cards to their limits.


Però ricordiamo anche che Furmark è un test stupido per una GPU da gaming: qualsiasi GPU assorbe molto di più in Furmark se il power limit glielo consente, altrimenti taglia pesantemente frequenza e tensione.
La notizia praticamente è che il TBP di certe RTX4090 si potrà alzare fino a 600 watt, il chè francamente non mi sorprende: continuo a non capire il senso di spingere gli assorbimenti a livello così assurdi, ma ok, per chi è appassionato di overclock verrà utile.

Hai fatto bene ad aggiungerla.

Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?

Hai ragione, anche se pure quella voce è la massima riportata, quindi l'assorbimento medio potrebbe essere più basso.
Più che altro l'osservazione dovrebbe essere che, a seconda del carico, la frequenza massima a cui la GPU opera stabilmente è diversa: se è un test leggerino o datato (ma comunque che impegna la GPU al 100%), potrebbero essere riusciti a overcloccarla di più di quanto effettivamente sarebbe possibile fare mediamente nei giochi moderni.

Poi come già detto quella è la frequenza massima, ma conta di più quella media mantenuta durante il carico... Comunque partendo da 2700MHz e rotti già a stock, 3100MHz di frequenza è un risultato buono, ma niente di assurdo.
 

Ottoore

Utente Èlite
26,385
13,269
CPU
I7 2700K @4.7
Dissipatore
Noctua NH-D14
Scheda Madre
GA-Z77X-UD5H
HDD
Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
RAM
Crucial Ballistix Tactical 2133 @9-9-9-27
GPU
Gtx 1060
Audio
Asus Essence ST+ Beyerdynamic 990pro
PSU
Evga g2 750w
Case
Cooler Master Haf XM
Periferiche
Varmilo Va87m + Razer DA
Net
Vdsl 200 Mbps
OS
Windows 7 64 bit
Hai ragione, anche se pure quella voce è la massima riportata, quindi l'assorbimento medio potrebbe essere più basso.
Più che altro l'osservazione dovrebbe essere che, a seconda del carico, la frequenza massima a cui la GPU opera stabilmente è diversa: se è un test leggerino o datato (ma comunque che impegna la GPU al 100%), potrebbero essere riusciti a overcloccarla di più di quanto effettivamente sarebbe possibile fare mediamente nei giochi moderni.

Poi come già detto quella è la frequenza massima, ma conta di più quella media mantenuta durante il carico... Comunque partendo da 2700MHz e rotti già a stock, 3100MHz di frequenza è un risultato buono, ma niente di assurdo.

La frequenza stock dovrebbe essere 2850Mhz (parliamo sempre del famoso algoritmo di boost che utilizza Nvidia a partire da Pascal) quindi siamo nell'ordine del 10%.
Guardando il primo screen, quello dei 2700Mhz, mi è venuto il dubbio sia artefatto perché i 22 gradi della cpu sono davvero difficili da registrare anche a completo riposo, ma è solo una supposizione.

Tornando al secondo, è lecito pensare che la frequenza stabile raggiunta in OC da quel sample sia tra i 3050 e i 3100Mhz.
 
  • Mi piace
Reazioni: pribolo

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!