Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
The long awaited day has arrived and yes, there is a lot to report. Of course there are tests for 10 games in two resolutions and 17 tests for workstation applications and studio apps – that will be a…
With the GeForce RTX 3090, NVIDIA is rounding out its graphics card portfolio at the top end today, for now. Much more is not possible with the GA102-300 anyway and so one may see the current…
sono sullo stesso livello, il che significa che il problema non sono le GDDR6X, come voleva far credere Avest, ma le GPU.
A me di queste stucchevoli discussioni su AMD vs Nvidia non può fregarmene di meno (acquisto in base alle prestazioni, non al marchio sulla scatola), ma non mi si venga a far credere che l'acqua è asciutta.
Le 3080/3090 sono fatte ad 8 nm (che poi neppure sono realmente tali...) rispetto al più moderno processo TSMC, eppure non sono meno efficienti dal punto di vista energetico. Non c'è alcuna colpa delle GDDR6X sui consumi, ed il fatto che AMD abbia usato "vecchie GDDR6" non è un merito ma un peccato (si sperava nelle HBM ma alla fine è stata una speranza vana, probabilmente per via dei costi).
È stata una scelta "cheap" di AMD, esattamente come gli 8 Gb della 3070/3070Ti sono stati una scelta "cheap" di Nvidia (ancora più ridicoli nella 3070 Ti decisamente più costosa).
non sono d'accordo per gioco basterà almeno il tempo medio normale
Poi cambiaeranno piiattaforme quindi quando sarà ora davvero di cambiare un 5600x lo sarà per la piattaforma intera.
Secondo me l'hardware si deve prendere in abse alle proprie esigenze anticiapre SOLDI per hardeware che non utilizzi non`e mai un buon affare, hai antuicipato soldi linquduii per qualcosa che non ti serve suil serie e che svaluta velocemente...
Se in futuro rti servirà un 5800x lo potrai semrpe mettere, ma non al prezzo che sta oggi, ma quando sarà davvero il momento non ti converrà
sono sullo stesso livello, il che significa che il problema non sono le GDDR6X, come voleva far credere Avest, ma le GPU.
A me di queste stucchevoli discussioni su AMD vs Nvidia non può fregarmene di meno (acquisto in base alle prestazioni, non al marchio sulla scatola), ma non mi si venga a far credere che l'acqua è asciutta.
Le 3080/3090 sono fatte ad 8 nm (che poi neppure sono realmente tali...) rispetto al più moderno processo TSMC, eppure non sono meno efficienti dal punto di vista energetico. Non c'è alcuna colpa delle GDDR6X sui consumi, ed il fatto che AMD abbia usato "vecchie GDDR6" non è un merito ma un peccato (si sperava nelle HBM ma alla fine è stata una speranza vana, probabilmente per via dei costi).
È stata una scelta "cheap" di AMD, esattamente come gli 8 Gb della 3070/3070Ti sono stati una scelta "cheap" di Nvidia (ancora più ridicoli nella 3070 Ti decisamente più costosa).
Allora le GDDR6X erano esclusiva nvidia , scaldano e consumano un botto, chiedi a chi mette la vga a liquido perchè ora mettono anche i backplate attivi, i picchi le schede le hanno sempre avuti solo che ora che consumano di più fa più clamore
Allora le GDDR6X erano esclusiva nvidia , scaldano e consumano un botto, chiedi a chi mette la vga a liquido perchè ora mettono anche i backplate attivi, i picchi le schede le hanno sempre avuti solo che ora che consumano di più fa più clamore
vabbè inutile parlarne ... è evidente la motivazione di queste "argomentazioni". Direi che l'OT è durato fin troppo.
le memorie della mia 5700XT sono calde quanto le GDDR6X della 3080 ed i consumi li ho già evidenziati sopra non sono affatto influenzati dalle GDDR6X (che AMD non ha...) ma dai moderni chip grafici che hanno picchi spaventosi.
sono sullo stesso livello, il che significa che il problema non sono le GDDR6X, come voleva far credere Avest, ma le GPU.
A me di queste stucchevoli discussioni su AMD vs Nvidia non può fregarmene di meno (acquisto in base alle prestazioni, non al marchio sulla scatola), ma non mi si venga a far credere che l'acqua è asciutta.
Le 3080/3090 sono fatte ad 8 nm (che poi neppure sono realmente tali...) rispetto al più moderno processo TSMC, eppure non sono meno efficienti dal punto di vista energetico. Non c'è alcuna colpa delle GDDR6X sui consumi, ed il fatto che AMD abbia usato "vecchie GDDR6" non è un merito ma un peccato (si sperava nelle HBM ma alla fine è stata una speranza vana, probabilmente per via dei costi).
È stata una scelta "cheap" di AMD, esattamente come gli 8 Gb della 3070/3070Ti sono stati una scelta "cheap" di Nvidia (ancora più ridicoli nella 3070 Ti decisamente più costosa).
Tomshardware: "Besides performance specs, it's also important to look at power. It's a bit shocking to see that the 3070 Ti has a 70W higher TDP than the 3070, and we'd assume nearly all of that goes into the GDDR6X memory" "è un po' scioccante vedere che la 3070ti ha un tdp di 70w più alto, crediamo che quasi tutto finisca nelle gddr6x"
Non basta ? Una 3070 in overclock raggiunge facilmente la 3070ti ma continua a consumare almeno 50w in meno. La differenza ? Una ha le gddr6 mentre l'altra le gddr6x.
PCWorld: "Like other Nvidia Ampere GPUs, the RTX 3080 Ti draws a staggering amount of power, due in part to the high energy needs of that blazing-fast GDDR6X memory that provides so much bandwidth. AMD’s Radeon RX 6900 XT and its standard GDDR6 memory draws significantly less power—even less than the non-Ti 3080!" "la 3080ti assorbe una impresionante quantità di potenza, in parte dovuta agli elevati bisogni di energia delle velocissime gddr6x [...] la rx6900xt con le sue gddr6 standard assorbe significativamente meno potenza, addirittura meno di una 3080 liscia!"
La scelta di amd è stata la più intelligente perché permette di avere prestazioni equivalenti senza l'impiego delle gddr6x o delle hbm che consumano più energia e con l'introduzione del 3d stacking (che permetterà di aggiungere molta più cache) sarà la scelta vincente.
Sul fatto che in 4k questa strategia scali peggio e che ci vorrebbe più cache è vero, lo avevo detto anche io.
Meno male comunque che ci ha pensato nvidia a non essere "cheap" come amd, mettendo 8gb sulla 3070 (ti) e 10gb sulla 3080, quelli si che scaleranno bene in futuro nel 4k ?
Amd senza pagare micron per farsi fare le memorie ad hoc (non ha neanche metà dei fondi dei concorrenti) l'ha messa nel sacco ad Nvidia sviluppandosi in casa una soluzione altrettanto valida e con prospettive molto più promettenti per il futuro con il 3d stacking che come tecnologia è sicuramente meno "cheap" da ricercare delle gddr6x.
Poi ripeto, io (ma mi pare anche molte altre testate) la vedo così. Se ancora non sei convinto penso che con la prossima generazione di gpu si potrà facilmente vedere chi aveva ragione e quale soluzione era la migliore.
Ps. Non confondiamo i valori di picco con i valori medi.
Dai valori medi misurati da gamer nexus si vede come una 3090 consumi mediamente 60w in più di una 6900xt.
Questa discrepanza aumenta ulteriormente in favore della 6900xt quando le schede non sono utilizzate al 100%.
Non è certo bello avere picchi elevati ma sono i consumi medi a regime a determinare temperature elevate ed il calore prodotto (che d'estate non è affatto irrilevante).
Tomshardware: "Besides performance specs, it's also important to look at power. It's a bit shocking to see that the 3070 Ti has a 70W higher TDP than the 3070, and we'd assume nearly all of that goes into the GDDR6X memory" "è un po' scioccante vedere che la 3070ti ha un tdp di 70w più alto, crediamo che quasi tutto finisca nelle gddr6x"
Non basta ? Una 3070 in overclock raggiunge facilmente la 3070ti ma continua a consumare almeno 50w in meno. La differenza ? Una ha le gddr6 mentre l'altra le gddr6x.
e ti ribadisco: differenza che resta ininfluente visto che i picchi di consumo NON sono causati dalle GDDR, che hanno un consumo più o meno costante, bensì dalla GPU. Dove la tua amata AMD riesce ad annullare praticamente il vantaggio di nodo e memoria più vecchia.
La scelta di amd è stata la più intelligente perché permette di avere prestazioni equivalenti senza l'impiego delle gddr6x o delle hbm che consumano più energia e con l'introduzione del 3d stacking sarà la scelta vincente.
il 3D stacking, se verrà implementato anche sulle VRAM (per il momento riguarda la cache) riguarda il futuro ed è inutile parlarne oggi, visto che non sappiamo chi e quando lo adotterà in questo senso.
Sul fatto che in 4k questa strategia scali peggio e che ci vorrebbe più cache è vero, lo avevo detto anche io. Ar
Meno male comunque che ci ha pensato nvidia a non essere "cheap" come amd, mettendo 8gb sulla 3070 (ti) e 10gb sulla 3080, quelli si che scaleranno bene in futuro nel 4k ?
è esattamente quello che ho scritto sopra. Non sento affatto la necessità di difendere Nvidia e riconosco le porcherie fatte in questa generazione. Il frame buffer ridicolo è la più grande.
Amd senza pagare micron per farsi fare le memorie ad hoc (non ha neanche metà dei fondi dei concorrenti) l'ha messa nel sacco ad Nvidia sviluppandosi in casa una soluzione altrettanto valida e con prospettive molto più promettenti per il futuro con il 3d stacking che come tecnologia è sicuramente meno "cheap" da ricercare delle gddr6x.
la scelta "cheap" è un ridicolo bus a 256 bit su schede di fascia alta, non l'uso di una memoria piuttosto che l'altra. E per inciso troverai i miei commenti in proposito anche per il bus usato sulla 3070 al lancio (figuriamoci su una 6900XT).
Sul fatto che AMD l'abbia "messa nel sacco" considerando la ridicola diffusione delle Radeon rispetto alle Ampere, beh non è argomento da questo topic ma direi che in Nvidia sarebbero ben contenti di farsela "mettere nel sacco" così ad ogni generazione...
Poi ripeto, io (ma mi pare anche molte altre testate) la vedo così. Se ancora non sei convinto penso che con la prossima generazione di gpu si potrà facilmente vedere chi aveva ragione e quale soluzione era la migliore.
la prossima generazione sarà la prossima generazione, con i suoi limiti ed le soluzioni che troveranno.
Ed acquisterò la soluzione che mi convincerà di più. Come sempre.
Prima che tu e l'altro utente spostaste il discorso sulla stucchevole diatriba AMD vs rest of the world (perché lo stesso succede ogni volta che si parla di CPU) ti ricordo che siamo partiti parlando di RT, e sono sicuro che GDDR6, 6X, 7 o 1783649, nella prossima generazione AMD punterà sul prestazioni RT migliori di quelle molto sottotono avute in questa giro.
Ma poi, ci si preoccupa dei consumi? Esistono console e le schede di fascia medio bassa se quello fosse il problema. Parliamo di PC top di gamma, dove i consumi non sono un problema.
Ma poi, ci si preoccupa dei consumi? Esistono console e le schede di fascia medio bassa se quello fosse il problema. Parliamo di PC top di gamma, dove i consumi non sono un problema.
ma no, infatti... qui il discorso è deragliato partendo dal Ray Tracing ed è andato a finire in un punto morto.
Come sempre quando si tira di mezzo AMD in un thread che parla di Nvidia o Intel.
meglio limitarsi a parlare delle diverse Case nei relativi thread, per evitare di spaziare su mille campi. Ad ogni modo ognuna ha punti di forza e debolezza, e speriamo che Intel si sbrighi perché maggiore è la concorrenza, migliore è la disponibilità e prezzi
Ancora questa storia. Ma se le prestazioni in 2k sono identiche ed in 1080p scalano addirittura meglio, che importanza ha che è una scelta più cheap ? Perché deve essere ridicolo ? Se funziona, funziona. Fine. E se funziona consumando meno energia, ancora meglio.
Io resto convinto che le gddr6x siano state una scelta controproducente sulle schede sotto la 3090.
Magari sbaglio. Vedremo se le useranno ancora la prossima generazione (non refresh), accetto scommesse :)
E con questo chiudo l'OT, tanto ho espresso la mia opinione più volte :)
Ma poi, ci si preoccupa dei consumi? Esistono console e le schede di fascia medio bassa se quello fosse il problema. Parliamo di PC top di gamma, dove i consumi non sono un problema.
Dovrà pur esserci un limite però. Quando le schede cominciano a consumare 350-400w hai dei pc che scaldano come una stufetta da bagno quasi.
La 3070ti poi non la definirei proprio al top, eppure ha le gddr6x che le fanno consumare 50w in più a parità di prestazioni con la 3070.
Ancora questa storia. Ma se le prestazioni in 2k sono identiche ed in 1080p scalano addirittura meglio, che importanza ha che è una scelta più cheap ? Perché deve essere ridicolo ? Se funziona, funziona. Fine. E se funziona consumando meno energia, ancora meglio.
Io resto convinto che le gddr6x siano state una scelta controproducente sulle schede sotto la 3090.
Magari sbaglio. Vedremo se le useranno ancora la prossima generazione (non refresh), accetto scommesse :)
E con questo chiudo l'OT, tanto ho espresso la mia opinione più volte :)
Dovrà pur esserci un limite però. Quando le schede cominciano a consumare 350-400w hai dei pc che scaldano come una stufetta da bagno quasi.
La 3070ti poi non la definirei proprio al top, eppure ha le gddr6x che le fanno consumare 50w in più a parità di prestazioni con la 3070.
E' che secondo me, ormai, si è abituati troppo a vedere numeri, a ragionare su grafici, il punto in più o in meno per determinare se è meglio o peggio.
Io con la 3080 ti, se lasciata a stock, nei giochi più pesanti ho un consumo dell'intero sistema di 540w, se fosse stato 500w mi sarebbe cambiato qualcosa? No, perché sono consapevole di aver acquistato determinati prodotti. Poi, come ho detto anche nell'altro post, la fate troppo facile. Magari ci sarà già il modo di consumare molto meno con prestazioni simili o superiori, però poi ti fanno pagare la scheda 6000 euro perché è una tecnologia nuova non ancora a buon mercato, e allora diresti che sarebbe dei pazzi, ma fino a che qualcosa non ha determinati costi per il consumer è inutile immetterla sul mercato. A mio parere il consumo delle schede al momento è giusto per i chip che montano e le prestazioni che offrono, e non sono quei 50w che fanno la differenza,
Poi basta che fai un confronto tra queste schede e quelle del passato, e vedi che già sono stati fatti dei grandi passi; ti ricordo le vecchie Nvidia 480, altro che lamentarsi di queste.
Scusate se mi dilungo, ma leggere sempre le stesse cose dopo un po' stufa. Se avete soluzioni o progetti validi per tutte le vostre lamentele potete anche scrivere direttamente alle aziende, non sia mai che vi diano anche un bel po' di soldi.
Ripeto, nessuno obbliga a comprare nulla, se avente esigenze particolari aspettate il prodotto giusto, per me queste 3000 sono ottime schede che mi fanno apprezzare un sacco di giochi, ed al momento è l'unica che me lo permette per le mie esigenze.