- 38,402
- 13,813
- CPU
- i5 13600KF @5.4/4.3 GHz
- Dissipatore
- Thermalright Frozen Notte 360
- Scheda Madre
- MSI Z690 Tomahawk Wifi DDR4
- HDD
- Samsung 990 Pro 2TB e Crucial MX500 2TB
- RAM
- Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
- GPU
- Asus TUF RTX 4070 Ti Super
- Monitor
- LG 27UL650 UHD
- PSU
- Seasonic Prime TX-750
- Case
- Sharkoon CA200M
- OS
- Windows 11 Pro
Complimenti per la spiegazione.
Sono d'accordo con te su quest'ultima frase, anche io lo sto dicendo da diveri giorni in questa discussione che tra ampere e ada lovace non cambia quasi nulla. Ce stata più "evoluzione" tra turing e ampere che con quest'ultima.
Infatti da turing ad ampere sono cambiati i cuda core, nel senso che su ampere una parte dei cuda può simultaneamente fare operazioni in fp32 e int32, cosa che turing non può fare che a portato ad un incremento di Tflops spaventoso.
Su Ada lovace ce stato solo un incremento di alcuni fattori come tensor core, rt core e memoria cache a discapito del bus di memoria.
Ada Lovace sarebbe stata una buona architettura se il prezzo fosse stato in linea con gli ultimi 20 anni a questa parte ( tranne caso turing ). Invece a quel prezzo diventa solo una pessima serie da evitare poiché quella percentuale di performance in più non giustifica quel prezzo folle, inoltre chi possiede una rrtx 2000/3000 non ha motivo di aggiornare alla serie rtx 4000. Gli unici due motivi che posso trovare e che giustificano solo l'acquisto della rtx 4090 è il voler giocare in 2160p 144hz senza compromessi, ma parliamoci chiaro, in quanti hanno un monitor 2160p 144hz ? 4 gatti. Non spendo parole per la rtx 4080 16Gb e la rtx 4070 12Gb poiché a quel prezzo sono imbarazzanti/orride.
A voler essere precisi, Turing aveva CUDA Core in grado di fare INT32 e FP32 contemporaneamente, mentre Ampere no: metà dei core possono fare INT32 o FP32 (non insieme), metà solo FP32.
Da qui l'enorme aumento del numero di core, ma un aumento di prestazione più modesto, dovuto al fatto che in carichi misti, parte dei core di Ampere devono occuparsi degli interi.
Se in un gioco ci sono 1/3 di calcoli INT32 (non una mia ipotesi, prendo spunto da ciò che ho letto) i 10752 CUDA core della RTX3090ti equivalgono a 7168 core Turing.
Per il resto siamo d'accordo.
I prezzi son alti, non si discute... ma lo ripeto ancora una volta: paghiamo lo scotto della svalutazione EURO/USD rispetto a 2 anni fa.
La 4090 costa "solo" 100$ in piu' rispetto alla 3090 di due anni fa... ed ha tutt'altri numeri.
Concordo e a mio avviso vale la pena pagare il 33% in piu' (rispetto alla 4080), per avere una aumento del 45% di performance (FireStrike Ultra)... dato che solitamente avviene il contrario: si paga molto di piu' per avere solo un esiguo guadagno in termini di performance.
Credo che inizialmente vedremo alcune custom vicino ai 2K euro dai distributori ufficiali... sempre che NVidia non abbia cambiato la politica che vuole, al lancio, che alcuni modelli siano vicini all'MSRP.
Di sicuro l'euro debole non aiuta e questo non dipende direttamente dai produttori di hardware.
Però, è già stato detto più volte: passi la RTX4090, l'aumento di prezzo del resto della gamma rasenta la follia... E di fatti, forse per la prima volta nella storia, ci troviamo di fronte a una situazione in cui la flag ship è la scheda migliore dal punto di vista del rapporto prezzo\prestazioni, almeno sulla carta.
io sono ancora motlo indeciso se prendere una 4080 16GB o aspettare che escano eventualmente le super/ti il mio istinto mi dice che stavolta conviene aspettare
Io te lo dico sinceramente: o compri una RTX4090, oppure aspetterei. 😂