Comprare ora una rtx 3000 o aspettare le nuove rtx 4000 ? La mia opinione

Destroy139

Utente Attivo
1,261
255
CPU
i9 12900k @56x3-54x6-53x8
Dissipatore
Artic Liquid Freezer II - 3x Noctua Industrial
Scheda Madre
z690 Strix A D4
HDD
Samsung 850 EVO + Samsung 970 m2 + Western Digital 4TB
RAM
G skill Trident Z Royal 4000mhz c15 Gear 1 custom timings
GPU
Asus 3080 Tuf Gaming 12GB
Audio
Topping DX3 Pro + / Sennheiser HD560s
Monitor
Acer Predator XB273UGX 270hz 1440p
PSU
EVGA 750 G2 gold
Case
Fractal-Design Meshify S2
Periferiche
Mouse: Pulsar Xlite v2 - MousePad: Artisan Zero/ Hien
Net
FTTH 1GB
OS
Windows 10
che è un buon prezzo ma occhio che non sia scam e alle garanzie
No andrei a prenderla di persona... Son sempre dubbioso perché magari tra due mesi escono le 4000 e vale 3-400 euro in meno
 

crimescene

Super Moderatore
Staff Forum
Utente Èlite
67,362
31,379
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
No andrei a prenderla di persona... Son sempre dubbioso perché magari tra due mesi escono le 4000 e vale 3-400 euro in meno
il mercato è impossibile prevederlo, può essere come no nessuno sa quello che accadrà
 

Dradkol

Utente Èlite
4,957
4,269
CPU
Intel core i7 11700KF 8 core/ 16 thread 4.6Ghz all core
Dissipatore
Arctic Liquid freezer II 240mm Argb
Scheda Madre
Asus TUF Gaming z590 Plus wifi
HDD
NVMe M.2 Gen4 Crucial P5 Plus 1TB + NVMe M.2 Gen3 Sabrent 256GB / +SSD Crucial bx500 256GB
RAM
Kingston Fury Beast 32Gb (2X16GB) 3200Mhz CL16
GPU
Asus TUF Rtx 3080 12GB Gaming OC 900mv/1865mhz
Audio
HyperX Cloud II + Logitech Z313
Monitor
Xiaomi Mi 34° WQHD 144hz + LG UltraGear 32GN650 32° QHD, 165hz
PSU
Corsair RM850x
Case
Cooler Master TD500 Mesh Argb
OS
Windows 11
No andrei a prenderla di persona... Son sempre dubbioso perché magari tra due mesi escono le 4000 e vale 3-400 euro in meno
Si nei tuoi sogni xD Non accadrà mai questa cosa. 900 euro per una gpu del genere è un occasione.
 

crimescene

Super Moderatore
Staff Forum
Utente Èlite
67,362
31,379
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
900 euro per uina 3080 12gb e un prezzone sempre se è nuova
 
  • Mi piace
Reazioni: Dradkol

Falken83

Utente Èlite
2,800
764
CPU
i7 10700f
Dissipatore
Be Quiet! BK022 Dark Rock Pro 4, 250Watt TDP
Scheda Madre
Asus Rog Strix B460-H gaming
HDD
Samsung SSD 860 EVO 500GB (500 GB, SATA-III) + SSD Samsung 760 + WD Blu da 1 TB, 7200 RPM
RAM
Crucial Ballistix 3000 MHz, DDR4 32 Gb(8GB x4), CL15
GPU
MSI geforce RTX 3070 Ti ventus 3x da 8giga
Audio
Edifier S530 Sistema 2.1 con potenza da 145 Watt
Monitor
LG 27GP850 UltraGear Gaming Monitor 27" QHD NanoIPS 1ms HDR 400, 2560x1440
PSU
NZXT C850 Certificato 80+ Gold da 850 Watt
Case
Cooler Master MasterCase H500
Periferiche
Mouse Steelseries Rival 600, Tastiera meccanica Asus ROG Claymore
Net
Tim
OS
Microsoft Windows 11 64 bit
No andrei a prenderla di persona... Son sempre dubbioso perché magari tra due mesi escono le 4000 e vale 3-400 euro in meno
SEEEE....AH AH AH....va bo, me ne vado a letto così dormendo faccio qualche sogno sulle rtx3000 al costo di 500 o 600€, me so un po' allargato eh?
 

Destroy139

Utente Attivo
1,261
255
CPU
i9 12900k @56x3-54x6-53x8
Dissipatore
Artic Liquid Freezer II - 3x Noctua Industrial
Scheda Madre
z690 Strix A D4
HDD
Samsung 850 EVO + Samsung 970 m2 + Western Digital 4TB
RAM
G skill Trident Z Royal 4000mhz c15 Gear 1 custom timings
GPU
Asus 3080 Tuf Gaming 12GB
Audio
Topping DX3 Pro + / Sennheiser HD560s
Monitor
Acer Predator XB273UGX 270hz 1440p
PSU
EVGA 750 G2 gold
Case
Fractal-Design Meshify S2
Periferiche
Mouse: Pulsar Xlite v2 - MousePad: Artisan Zero/ Hien
Net
FTTH 1GB
OS
Windows 10
SEEEE....AH AH AH....va bo, me ne vado a letto così dormendo faccio qualche sogno sulle rtx3000 al costo di 500 o 600€, me so un po' allargato eh?
Perché non potrebbe essere? Anche costasse 1000 euro la 4080, la 3080 varrebbe 700 nuova, non credo di più... Anzi forse meno... È solo teoria, ma non è fantascienza...
 

finmat92

Utente Attivo
195
192
CPU
RYZEN 5 5600X
Dissipatore
SCYTHE FUMA 2
Scheda Madre
MSI B550 TOMAHAWK
HDD
1 TB 7200RPM + 1 TB XPG SX8200PRO
RAM
CRUCIAL BALLSTRIX DDR4 3600 MHZ 2X8 GB
GPU
MSI NVIDIA GAMING Z TRIO RTX 3070
Audio
INTEGRATO
Monitor
SAMSUNG T23C350
PSU
CORSAIR TX750M
Case
FRACTAL MESHIFY S2
Periferiche
CORSAIR K68
Net
TIM FTTC 200 Mbps
OS
WINDOWS 10 PRO
Nvidia a differenza di intel non ha mai dormito su gli allori, [...]i suoi prodotti sono sempre stati superiori ad amd questo da più di 10 anni.

Unico punto fermo e realtà inconfutabile, certamente si è dimostrata una VERA azienda leader sul mercato da questo punto di vista (e non come altre che dicono di esserlo e poi fuori provincia non le conosce quasi nessuno).

Si certo amd è tornata dopo decenni ad essere competitiva nelle performance di rasterizzazione

Beh sì, si dia a Cesare quel che è di Cesare, AMD ha recuperato terreno ultimamente proponendo valide alternative su più fasce e iniziando a sviluppare una forma sua di DLSS, non si può certo pretendere che una simile azienda recuperi l'immenso gap che la separa dalla concorrente nel giro di qualche anno.

Per una 4090 un psu da 1000w sarà il requisito minimo mi sa ?

In effetti l'andamento storico dei consumi è abbastanza chiaro:

001.jpg

Con la crisi energetica attuale in Italia, almeno, sarà meglio considerare anche i consumi nella scelta della GPU perchè iniziano a non esser più così tanto trascurabili o marginali.
 

Dradkol

Utente Èlite
4,957
4,269
CPU
Intel core i7 11700KF 8 core/ 16 thread 4.6Ghz all core
Dissipatore
Arctic Liquid freezer II 240mm Argb
Scheda Madre
Asus TUF Gaming z590 Plus wifi
HDD
NVMe M.2 Gen4 Crucial P5 Plus 1TB + NVMe M.2 Gen3 Sabrent 256GB / +SSD Crucial bx500 256GB
RAM
Kingston Fury Beast 32Gb (2X16GB) 3200Mhz CL16
GPU
Asus TUF Rtx 3080 12GB Gaming OC 900mv/1865mhz
Audio
HyperX Cloud II + Logitech Z313
Monitor
Xiaomi Mi 34° WQHD 144hz + LG UltraGear 32GN650 32° QHD, 165hz
PSU
Corsair RM850x
Case
Cooler Master TD500 Mesh Argb
OS
Windows 11
Perché non potrebbe essere? Anche costasse 1000 euro la 4080, la 3080 varrebbe 700 nuova, non credo di più... Anzi forse meno... È solo teoria, ma non è fantascienza...
pensare che una rtx 4080 costerà meno di una rtx 3080 è follia. Nvidia lancerà il solito msrp ridicolo che questa volta sarà superiore a quello precedente e poi le gpu si troveranno al solito prezzo assurdo.
 
  • Mi piace
Reazioni: jesse83

crimescene

Super Moderatore
Staff Forum
Utente Èlite
67,362
31,379
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
In effetti l'andamento storico dei consumi è abbastanza chiaro:

E' sbagliato guardalo in termini assoluti, verissimo che i consumi aumentano ma relativamente alla potenza grafica i chip sono molto più efficienti di prima in base alle prestazioni.

quindi chip nel tempo consumano più in termini assoluti, ma non in termini relativi ed è stato anche provato

La serie precedente era molto meno efficiente dell'attuale e se andiamo a vedere le performance per watt
1653877011374.png

quindi che aumentano i consumi non è così vero, cioè è inevitabile che all'aumento della potenza grafica deve aumentare anche il consumo, non ci si deve chiedere questo in termini assoluti perché ci si sbaglia, bisogna vederlo in termini relativi.

1000W? Di certo quel tipo di consumi potrebbe essere necessario su un eventuale 4090 ti, ma si dovrà sempre vedere in termini RELATIVI quale performance da la scheda.

Poi le xx90 per quanto qualche folle le usi anche per gioco non sono fatte per quello, sono schede che hanno preso il posto delle vecchie titan, a scopo marketing in modo che qualche folle le prenda come schede da gioco

Io ti dico già da ora che i consumi invece si abbasseranno, ossia che nella prossima generazione di schede si avranno prestazioni uguali alla 3080 ma con consumi inferiori!
 
Ultima modifica:

Avets

INTEL INSIDE
Utente Èlite
5,126
3,976
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
Ma tu ti rendi conto che stai parlando di prodotti di cui non si sa nulla di ufficiale
l'unica cosa di vero e concreto è che nvidia attualmente è superiore ed è da preferire a parità di prezzo.
Quindi tu aspetti di colpire l iceberg prima di sterzare la nave? Ok... ?


Scusami se te lo dico ma sembri un fanboy amd
Onorato ?


Nvidia ha introdotto il raytracing nel gaming, il dlss con la I.A. che è nettamente superiore al fsr
Falso. Nettamente superiore sugli artefatti forse.
I confronti con l ultimo fsr li danno quasi alla pari confrontando immagini statiche con la lente, in gaming sono indistinguibili. L'unica cosa rimasta a vantaggio di nvidia su quel campo è il numero maggiore di titoli supportati (che si sono letteralmente comprati con incessanti sponsorizzazioni è amd economicamente non è certo al suo livello).



Nvidia ha introdotto il raytracing nel gaming, il dlss con la I.A. che è nettamente superiore al fsr ( che non ha nulla a che fare con la I.A.)
Ah giusto, perché siccome c'è scritto intelligienza artificiale allora èmmeglio.
Vabbè, il contributo che la ia per ora porrà sono costi e tempi di sviluppo più lunghi e più alti, che poi ovviamente pagano gli utenti finali, visto che ogni titolo con dlss necessita di giorni di elaborazione nei servers di nvidia.
Lato resa grafica, come detto, siamo lì con l ultimo fsr.
non sai nulla sulle rtx 4000 come non sai nulla sulle rx 7000
Qualcosa si sa e i segnali sono chiari.
Le aziende come nvidia sono colossi, non cambiano traiettoria così facilmente
 
  • Haha
Reazioni: Dradkol

Dradkol

Utente Èlite
4,957
4,269
CPU
Intel core i7 11700KF 8 core/ 16 thread 4.6Ghz all core
Dissipatore
Arctic Liquid freezer II 240mm Argb
Scheda Madre
Asus TUF Gaming z590 Plus wifi
HDD
NVMe M.2 Gen4 Crucial P5 Plus 1TB + NVMe M.2 Gen3 Sabrent 256GB / +SSD Crucial bx500 256GB
RAM
Kingston Fury Beast 32Gb (2X16GB) 3200Mhz CL16
GPU
Asus TUF Rtx 3080 12GB Gaming OC 900mv/1865mhz
Audio
HyperX Cloud II + Logitech Z313
Monitor
Xiaomi Mi 34° WQHD 144hz + LG UltraGear 32GN650 32° QHD, 165hz
PSU
Corsair RM850x
Case
Cooler Master TD500 Mesh Argb
OS
Windows 11
Quindi tu aspetti di colpire l iceberg prima di sterzare la nave? Ok... ?



Onorato ?



Falso. Nettamente superiore sugli artefatti forse.
I confronti con l ultimo fsr li danno quasi alla pari confrontando immagini statiche con la lente, in gaming sono indistinguibili. L'unica cosa rimasta a vantaggio di nvidia su quel campo è il numero maggiore di titoli supportati (che si sono letteralmente comprati con incessanti sponsorizzazioni è amd economicamente non è certo al suo livello).




Ah giusto, perché siccome c'è scritto intelligienza artificiale allora èmmeglio.
Vabbè, il contributo che la ia per ora porrà sono costi e tempi di sviluppo più lunghi e più alti, che poi ovviamente pagano gli utenti finali, visto che ogni titolo con dlss necessita di giorni di elaborazione nei servers di nvidia.
Lato resa grafica, come detto, siamo lì con l ultimo fsr.

Qualcosa si sa e i segnali sono chiari.
Le aziende come nvidia sono colossi, non cambiano traiettoria così facilmente
Vergognati a scrivere quella frase che ho evidenziato, onorato di cosa ?! di essere un fanboy ?‍♂️. Essere fanboy è dannoso sia per il mercato in generale e sia per te. Essere fanboy è una delle cose peggiori e autodistruttive.
Volere il male di una azienda rivale, tifare per una azienda che di sicuro non fa e non farà mai i tuoi interessi è follia pura.
Inoltre se nvidia per tuo amore dovesse crollare come azienda, amd non avrebbe concorrenza e di conseguenza smetterebbe di dare il meglio e il risultato sarebbe che tu cliente finale avresti prodotti mediocri che è quello che ti meriti a quanto pare.
Intel per 10 anni ha dormito sugli allori, e la conseguenza è stata che per 10 anni abbiamo avuto 4 core 8 thread che da generazione a generazione cambiava la frequenza e leggermente il processo produttivo ( quest'ultimo raramente ). Per fortuna amd gli ha tirato uno schiaffo morale con i ryzen altrimenti nel 2022 avremmo ancora dei 4 core 8 thread identici al i7 7700k.
Se non fosse per nvidia che ha sempre dominato il mercato gpu ( tranne nell'era radeon 9700pro ), amd non avrebbe avuto nessun stimolo per migliorarsi in tutti quest'anni, come vedi la concorrenza è una delle cose più belle nel mercato perché obbliga le due ( o più aziende ) a dare sempre il 110% per sfornare qualcosa di migliore, qualcosa che batte la concorrenza, altrimenti si avrebbe un monopolio noioso senza miglioramenti e in questo campo si avrebbe uno stallo tecnologico.

Io ho sempre preferito nvidia perché mi offriva prodotti superiori non perché io ami nvidia. Come detto mille volte nvidia è una azienda di mer... per quanto riguarda il rispetto nei confronti dei consumatori, basta pensare che spacciava gpu di fascia media per top di gamma, questo per anni ( gtx 680 GK104, gtx 980 GM204, gtx 1080 GP104, rtx 2080 TU104, il 4 è il codice del chip di fascia media come lo è stato da sempre. ) e per questo nvidia si dovrebbe vergognare o come quando truccava i benchmark per risultare superiore o ancora quando lancio il physix distruggendo le performance di Ati in modo scorretto.
Come puoi vedere nonostante io preferisca i prodotto nvidia non sono un fanboy come te e sta di fatto che tu hai solo scritto cavolate manco fossi un veggente senza prendere minimamente in considerazione i fatti concreti di oggi, cioè che nvidia è avanti anni luce in termini di tecnologie e figurati se si mette a dormire sugli allori, non lo ha mai fatto come azienda dato che non sa perdere. I consumi che giravano sul web delle rtx 4000 sono numeri presi a caso da speculazione ed è ovvio che più andiamo avanti e la potenza bruta ha un maggior richiesta di consumi ma non si sa nulla dei consumi effettivi mr. vegente,

Giusto per non dimenticare, prima della conferenza che presento le gpu turing cioè le rtx 2000, il ceo di nvidia disse che tutte le speculazioni sulle gtx 1180 erano false e infatti è stato cosi, nessuno aveva predetto il raytracing, nessuno avrebbe mai pensato che le gpu sarebbero diventate rtx, questo per farti capire che farsi le seghe mentali sul nulla è ridicolo.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,757
14,507
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Rido. L unica cosa che prenderà è fuoco, fidati ? butteranno fuori delle 4090 da 550w che perderanno comunque contro le 7950xt (con chissà quanti watt in meno di consumo).
le prestazioni della serie 40 non sono ancora note, e la "7950XT" per il momento esiste solo nei tuoi sogni, visto che non si sa neppure quando uscirà la 7900XT (probabile tra novembre e dicembre, ed a quel punto avrà 3/4 mesi di ritardo su Nvidia).
Tra l'altro mi parli di AMD come se fosse parca nei consumi , ma hai una visione come sempre troppo ottimistica dei prodotti AMD.
negli spike le RDNA picchiano duro...

1653898293180.png

Alder lake è venuto fuori un anno dopo, già il fatto che pareggi e non stravinca contro zen3 (un anno più vecchio ripeto) la dice lunga.

pareggi ?
In che pianeta, suvvia ?
CI sono alcuni campi in cui Zen 3 tiene botta, ma generalmente Alder Lake sta avanti, anche in modo sensibile

1653898406300.png

il fatto che AMD abbia impiegato due anni a sostituire Zen 3 è un problema di AMD, che si è seduta sugli allori.
Si è fatta recuperare un gap tecnologico immenso che aveva accumulato proprio con Zen 3 (il confronto con Rocket lake era imbarazzante...).

Poi vabbè hanno alzato i prezzi con i 5000 è vero, ma è stata davvero una politica suicida per te?
Non avevano cpu da vendere, tutto ciò che producevano andava venduto, tenere prezzi più competitivi non avrebbe allargato la loro fetta di mercato, solo rimpicciolito i profitti. Purtroppo per noi utenti finali è andata così in quel periodo.
avevano avuto una costante espansione di market share, con i 5000 hanno ricominciato a perdere (specie dopo il lancio di ALder Lake).

Con zen4 poi se ne vedranno delle belle.
Già si parla di boost in multicore superiore ai 5Ghz e di single core boost sopra ai 5,6Ghz ?
Raptor lake invece non sembra porterà grandissimi miglioramenti...
Di raptor Lake si sa pochissimo. Intel non ha fatto trapelare quasi nulla quindi non so come tu possa dire che non porterà grossi miglioramenti.
Allo stesso modo AMD di Zen 4 non ha mostrato moltissimi benchmark, cosa che di solito fa in modo generoso, quindi anche qui io prendo i dati che arrivano dai rumors con le pinze.

Neanche a me perché significa che restano meno margini di guadagno per l overclock.
Purtroppo quando i concorrenti se la giocano alla pari come ora intel ed amd, ogni minimo guadagno fa la differenza e quindi tutti spingono i consumi in alto pur di provare a vincere (o anche solo sembrare migliori).

l'overclock per come lo intendete voi è destinato a sparire, o quantomeno ad essere limitato ad un hobby per appassionati.
Ormai i produttori lasciano sul banco davvero poco headroom dal silicio, tendendo ad ottimizzare già tutto in fase di produzione, con algoritmi di boost più o meno intelligenti.
Quindi alla fine si tratta sempre di ottimizzare il proprio esemplare in base alle sue caratteristiche più che di spremere altro fuori dal silicio.
il fatto che AMD parli di TDP di 170W (e sappiamo come la loro definizione di TDP sia assurda) e di socket dimensionato per sparare ben otre i 200W (con mobo da 24 fasi / 105 A), la dice lunga su come AMD stia lasciando la strada dell'efficienza per le prestazioni.
Spero che i modelli "di mezzo" come 7700X e 7600X restino più equilibrati.

Per una 4090 un psu da 1000w sarà il requisito minimo mi sa ?
Almeno per sfruttarla a pieno, poi non è escluso che la facciano uscire con un doppio BIOS di cui uno limitato a "solo" 400w magari...
ad oggi se non consideri quella zozzeria della 3090 Ti, che potevano evitarsi, le schede con i requisiti più elevati in termini di spike sono le 6900XT e 6950XT. Quindi come dicevo, la tua fiducia in AMD è sempre "a prescindere".
A me non piace. Io sono tifoso solo del mio portafoglio.
Io invece prima voglio vedere le prove, poi non ho problemi a comprare dall'uno o dall'altro produttore (su Intel sto perdendo le speranze... rischia di far uscire una VGA vecchia di una generazione).
 
Ultima modifica:

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,757
14,507
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Vergognati a scrivere quella frase che ho evidenziato, onorato di cosa ?! di essere un fanboy ?‍♂️. Essere fanboy è dannoso sia per il mercato in generale e sia per te. Essere fanboy è una delle cose peggiori e autodistruttive.
Volere il male di una azienda rivale, tifare per una azienda che di sicuro non fa e non farà mai i tuoi interessi è follia pura.
Inoltre se nvidia per tuo amore dovesse crollare come azienda, amd non avrebbe concorrenza e di conseguenza smetterebbe di dare il meglio e il risultato sarebbe che tu cliente finale avresti prodotti mediocri che è quello che ti meriti a quanto pare.
Intel per 10 anni ha dormito sugli allori, e la conseguenza è stata che per 10 anni abbiamo avuto 4 core 8 thread che da generazione a generazione cambiava la frequenza e leggermente il processo produttivo ( quest'ultimo raramente ). Per fortuna amd gli ha tirato uno schiaffo morale con i ryzen altrimenti nel 2022 avremmo ancora dei 4 core 8 thread identici al i7 7700k.
Se non fosse per nvidia che ha sempre dominato il mercato gpu ( tranne nell'era radeon 9700pro ), amd non avrebbe avuto nessun stimolo per migliorarsi in tutti quest'anni, come vedi la concorrenza è una delle cose più belle nel mercato perché obbliga le due ( o più aziende ) a dare sempre il 110% per sfornare qualcosa di migliore, qualcosa che batte la concorrenza, altrimenti si avrebbe un monopolio noioso senza miglioramenti e in questo campo si avrebbe uno stallo tecnologico.

Io ho sempre preferito nvidia perché mi offriva prodotti superiori non perché io ami nvidia. Come detto mille volte nvidia è una azienda di mer... per quanto riguarda il rispetto nei confronti dei consumatori, basta pensare che spacciava gpu di fascia media per top di gamma, questo per anni ( gtx 680 GK104, gtx 980 GM204, gtx 1080 GP104, rtx 2080 TU104, il 4 è il codice del chip di fascia media come lo è stato da sempre. ) e per questo nvidia si dovrebbe vergognare o come quando truccava i benchmark per risultare superiore o ancora quando lancio il physix distruggendo le performance di Ati in modo scorretto.
Come puoi vedere nonostante io preferisca i prodotto nvidia non sono un fanboy come te e sta di fatto che tu hai solo scritto cavolate manco fossi un veggente senza prendere minimamente in considerazione i fatti concreti di oggi, cioè che nvidia è avanti anni luce in termini di tecnologie e figurati se si mette a dormire sugli allori, non lo ha mai fatto come azienda dato che non sa perdere. I consumi che giravano sul web delle rtx 4000 sono numeri presi a caso da speculazione ed è ovvio che più andiamo avanti e la potenza bruta ha un maggior richiesta di consumi ma non si sa nulla dei consumi effettivi mr. vegente,

Giusto per non dimenticare, prima della conferenza che presento le gpu turing cioè le rtx 2000, il ceo di nvidia disse che tutte le speculazioni sulle gtx 1180 erano false e infatti è stato cosi, nessuno aveva predetto il raytracing, nessuno avrebbe mai pensato che le gpu sarebbero diventate rtx, questo per farti capire che farsi le seghe mentali sul nulla è ridicolo.
vabbé non esacerbiamo i toni e lasciamo il termine fanboy fuori dal forum, che spesso porta a flame inutili.
Il "tifo" per un brand è sempre esistito in questo campo, e come sai io sono vecchietto e ci bazzico da quando alcuni di voi non erano neppure nati (sigh).
è umano e per quanto correttamente hai detto che è controproducente, è comprensibile.
Avets ha senza dubbio una smisurata passione verso AMD, e non ne ha mai fatto mistero, ma è un utente preparato con il quale puoi sempre discutere.
Tanto alla fine lui comprerà AMD lo stesso ?

Personalemnte ribadisco che dobbiamo tifare solo per il nostro interesse, perché AMD, Intel, Nvidia, Apple e compagnia bella pensano solo al LORO interesse, e la concorrenza è la via per avere prodotti migliori a prezzo calmierato.
Visto cosa ha fatto AMD nel momento in cui ha raggiunto un vantaggio momentaneo su Intel ? Prezzi alle stelle e prodotti "intelligenti" (come il 5700X e 5600 liscio) nascosti al pubblico.
Quindi se RDNA 3 sarà migliore della Serie 40, ben venga perché spingerà i prezzi di Nvidia verso il basso.
Sperando che nel frattempo AMD impari anche a fare i drivers (cosa che comunque con RDNA 2 è già migliorata molto).
 

Dradkol

Utente Èlite
4,957
4,269
CPU
Intel core i7 11700KF 8 core/ 16 thread 4.6Ghz all core
Dissipatore
Arctic Liquid freezer II 240mm Argb
Scheda Madre
Asus TUF Gaming z590 Plus wifi
HDD
NVMe M.2 Gen4 Crucial P5 Plus 1TB + NVMe M.2 Gen3 Sabrent 256GB / +SSD Crucial bx500 256GB
RAM
Kingston Fury Beast 32Gb (2X16GB) 3200Mhz CL16
GPU
Asus TUF Rtx 3080 12GB Gaming OC 900mv/1865mhz
Audio
HyperX Cloud II + Logitech Z313
Monitor
Xiaomi Mi 34° WQHD 144hz + LG UltraGear 32GN650 32° QHD, 165hz
PSU
Corsair RM850x
Case
Cooler Master TD500 Mesh Argb
OS
Windows 11
vabbé non esacerbiamo i toni e lasciamo il termine fanboy fuori dal forum, che spesso porta a flame inutili.
Il "tifo" per un brand è sempre esistito in questo campo, e come sai io sono vecchietto e ci bazzico da quando alcuni di voi non erano neppure nati (sigh).
è umano e per quanto correttamente hai detto che è controproducente, è comprensibile.
Avets ha senza dubbio una smisurata passione verso AMD, e non ne ha mai fatto mistero, ma è un utente preparato con il quale puoi sempre discutere.
Tanto alla fine lui comprerà AMD lo stesso ?

Personalemnte ribadisco che dobbiamo tifare solo per il nostro interesse, perché AMD, Intel, Nvidia, Apple e compagnia bella pensano solo al LORO interesse, e la concorrenza è la via per avere prodotti migliori a prezzo calmierato.
Visto cosa ha fatto AMD nel momento in cui ha raggiunto un vantaggio momentaneo su Intel ? Prezzi alle stelle e prodotti "intelligenti" (come il 5700X e 5600 liscio) nascosti al pubblico.
Quindi se RDNA 3 sarà migliore della Serie 40, ben venga perché spingerà i prezzi di Nvidia verso il basso.
Sperando che nel frattempo AMD impari anche a fare i drivers (cosa che comunque con RDNA 2 è già migliorata molto).
Hai ragione, scusate per i toni. Tutto ciò che hai scritto è vero e ha senso. Lo spero anche io che rdna 3 spacchi i culi anche in termini di tecnologie cosi nvidia per restare competitiva abbassa i prezzi. Tutto questo a noi ci fa comodo, che si scanassero a vicenda :D
 
  • Mi piace
Reazioni: Falken83 e jesse83

Avets

INTEL INSIDE
Utente Èlite
5,126
3,976
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
Vabbè almeno Dradkol bilancia il mio fanboysmo.

A me piace amd e compro amd.
A lui fa schifo nvidia, "azienda di m.." e poi compra nvidia.
??

Poi vabbè quell onorato era anche un po ironico, pensavo si capisse con la faccina che rideva subito dopo... Trasmettere il tono di una affermazione in un forum è sempre una impresa.

Ho spesso detto che intel è meglio di amd lato overclock e pure che il 5800x3d, attuale cpu di punta di amd, per me è una cavolata.

In ogni caso se nvidia scomparisse (cosa impossibile) sarebbe solo un bene per il mercato. C'è un motivo per cui la sua acquisizione di arm è stata malvista dall'intero settore, da Apple a Samsung passando per tutti gli altri ed è stata fortunatamente bloccata per sempre.

Per il resto, probabilmente non avete fonti affidabili da cui attingere.
Aspettate e vedrete che su Lovelace ed rdna4 avevo ragione ?? ed i fanboy (di nvidia) eravate voi!!! ? (<-- faccina che ride, indica che scherzo)
 
  • Mi piace
Reazioni: Dradkol e jesse83

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili