UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
l’introduzione di RT andava fatta per step, e la serie 20 è stata il primo step. La serie 30 è solo il secondo, tutt’altro che perfetto e si proseguirà con il tempo. Magari la serie 40 avrà altro hw al posto dei TC (che ad Nvidia costa produrre) e sarà ancora più efficiente.
L’introduzione del RT andava fatta più avanti, escludendo anche la serie 3000.

di raster che a te piaccia o no ce ne sarà sempre meno e su pc il RT sarà sempre maggiore delle console e maggiormente implementato è un qualcosa che non si può più fermare
Qui (mi pare) nessuno dice che il RT faccia cag**e, qui si dice che l'implementazione nei giochi è stata prematura.

Come detto da @Max(IT), il RT andrà sempre meglio, nessuno mette in dubbio questo. Qui si mette in discussione l’implementazione prematura della tecnologia.

scua ma il DLSS è una tencolioga che effettivamente raddoppia le perestazioni anche in raster non si sa bene cosa cerchi
@Zeds voleva dire che le prestazioni raddoppiavano in raster.
 
L’introduzione del RT andava fatta più avanti, escludendo anche la serie 3000.
e chi lo dice ?
Più aspetti e più tardi arrivano le prestazioni... servono diverse generazioni per migliorare.

Qui (mi pare) nessuno dice che il RT faccia cag**e, qui si dice che l'implementazione nei giochi è stata prematura.

Come detto da @Max(IT), il RT andrà sempre meglio, nessuno mette in dubbio questo. Qui si mette in discussione l’implementazione prematura della tecnologia.
non è stata prematura, tant'è vero che giochi come Control su una Serie 20 funzionano con RT alla grande


@Zeds voleva dire che le prestazioni raddoppiavano in raster.
perdonami ma dimostrate di non avere grande conoscenza della materia, o quantomeno mancate di realismo nelle aspettative.
Il raddoppio di prestazioni in raster non era possibile, RT o non RT.
Il RT non ha "frenato" le prestazioni. Non capisco da dove vi arrivi questa percezione.
AMD con RDNA non ha considerato proprio il RT eppure le 5700XT erano più lente delle schede Nvidia ugualmente.
Ed anche considerando le Vega precedenti abbiamo avuto aumenti del 20% scarso...

1625648390352.webp

Ecco dimostrato che il RT non c'entra nulla. La vostra è una critica a prescindere senza motivo.

La curva si appiattisce perché arrivano altri limiti, termici e di corrente, che al momento non si possono superare. Dopo una certa soglia, l'aumento di prestazioni percentualmente diminuisce e si cercano altre vie. Il RT è una di quelle.
 
@Zeds voleva dire che le prestazioni raddoppiavano in raster.
E mbe in raster con il DLSS attivo le prestazioni raddioppiano basta che il DLSS venga implementato e ci sono già alcuni esmepi di giochi senza il RT che utilizzano il DLSS (death strading ad esempio )
Forse non avete capito che il DLSS è nato si per agevolare lé ffetto in RT ma orami è diventaqualcosa di completamente diverso e può essere bensissimo intodotto in qualsiais gioco RT o non RT



L’introduzione del RT andava fatta più avanti, escludendo anche la serie 3000.

E perchè mai? LA tecnologia viene immessa quanto è orqa anzi nvidia ha scelto proprio i tempi giusti visto che è un paio di anni avanti al resto che è colpevolmente indietro in questo senso

Qui (mi pare) nessuno dice che il RT faccia cag**e, qui si dice che l'implementazione nei giochi è stata prematura.

Come detto da @Max(IT), il RT andrà sempre meglio, nessuno mette in dubbio questo. Qui si mette in discussione l’implementazione prematura della tecnologia.

A me invece sembra che è subentratta esattamente quando dove va esserci, tant'è vero che console e concorrenti hanno seguito a ruota.... il raster ormai aveva ben poco da offrire in termini di aumenti qualitativi in virtù di aumenti al livello di calcolo esponenziali

Il RT invece è stato messo quando la tecnolioga hardware lo ha permesso attraverso una complessità harware chev si è sviluppata con gli anni


La curva si appiattisce perché arrivano altri limiti, termici e di corrente, che al momento non si possono superare. Dopo una certa soglia, l'aumento di prestazioni percentualmente diminuisce e si cercano altre vie. Il RT è una di quelle.
Non solol è anche aumentata la complessità degli effetti grafici in se come ho già detto in un altro post gli effetti diventano sempre più compessi e pesanti proprio epr aumntare ilr realismo tanto che il RT diventa la via più "semplice"
 
Ultima modifica:
Una domanda per i più esperti, la 2060 liscia come se la cava in RT? Ne ho una acquistata un paio di mesi fa quando non si riusciva a prendere niente, poco dopo sono riuscito a prendere una 3060 che ho lasciato per il PC nuovo, adesso la 2060 non so se rivenderla oppure metterla nel pc vecchio al posto fella gtx 780.

Inviato dal mio Mi 9T utilizzando Tapatalk
 
Una domanda per i più esperti, la 2060 liscia come se la cava in RT? Ne ho una acquistata un paio di mesi fa quando non si riusciva a prendere niente, poco dopo sono riuscito a prendere una 3060 che ho lasciato per il PC nuovo, adesso la 2060 non so se rivenderla oppure metterla nel pc vecchio al posto fella gtx 780.

Inviato dal mio Mi 9T utilizzando Tapatalk
E'un entry level come scheda ma in FHD con qualche compromesso in RTX e DLSS puo andare

Sarebbe stato melgio se avessi trovato una 2060S
 
L’introduzione del RT andava fatta più avanti, escludendo anche la serie 3000.


Qui (mi pare) nessuno dice che il RT faccia cag**e, qui si dice che l'implementazione nei giochi è stata prematura.

Come detto da @Max(IT), il RT andrà sempre meglio, nessuno mette in dubbio questo. Qui si mette in discussione l’implementazione prematura della tecnologia.


@Zeds voleva dire che le prestazioni raddoppiavano in raster.

Ma che discorsi sono scusa, allora non facciamo uscire i TV 8k perché non ci sono i contenuti, o non mettiamo il gioco in cloud perché la maggior parte delle linee fa schifo, etc...La tecnologia va avanti ed è giusto che vengano implementate man mano cose nuove, così da essere testate sul campo e migliorate con il tempo. Invece di essere contenti di quello che viene fatto, soprattutto per noi, si da contro solo perché magari un'azienda non piace, e mi sembra abbastanza riduttivo. Poi se vogliamo vedere di AMD potremmo dire anche peggio, dato che ha un RT ridicolo. Anche loro si stanno muovendo in quella direzione perché quello è il futuro, e non sono cose che gestisci dall'oggi al domani, la fai troppo facile. Tanto pensi che quando usciranno le 4000 Nvidia o le 7000 AMD avrai la tua scheda pronta con RT al massimo, 4k etc...? Non di certo, perché anche gli sviluppatori andranno avanti nello sviluppo sempre maggiore dei giochi, e magari sarà uscito anche qualcosa di nuovo oltre a RT, DLSS e via dicendo. Si prende quello che c'è al momento e ce lo si gode. Lato tecnologico, se aspetti la cosa perfetta, puoi morirci :D

Chiudo OT Poi ognuno pensi ciò che vuole, l'importante è comprare ciò che piace; nessuno ci punta una pistola contro, quindi inutile lamentarsi dopo, se non si è soddisfatti non si compra.
 
Una domanda per i più esperti, la 2060 liscia come se la cava in RT? Ne ho una acquistata un paio di mesi fa quando non si riusciva a prendere niente, poco dopo sono riuscito a prendere una 3060 che ho lasciato per il PC nuovo, adesso la 2060 non so se rivenderla oppure metterla nel pc vecchio al posto fella gtx 780.

Inviato dal mio Mi 9T utilizzando Tapatal

Beh dipende dalla risoluzione a cui giochi.
ma sulla 2060 liscia il RT anche con DLSS di sicuro avrà dei limiti di prestazioni.
Già dalla 2060 Super si migliora un po'.
 
meglio questo approccio per step che fare come AMD, che non introduce una fava per contenere i costi e poi spara a 1000€ schede che usano bus a 256 bit su “vecchia” GDDR6, tanto per dirne una. Almeno ne avesse garantito disponibilità… invece ancora meno di Nvidia.
Nvidia mi ha fatto infuriare per i tagli di memoria, sia chiaro, ma almeno usa bus più grandi e GDDR6X, anche qui sperimentando per prima.
Dimentichi che AMD ha introdotto "infinity Cache" che è un metodo molto più intelligente ed efficiente di rispondere alla necessità di avere bande più ampie sulle ram.

Le GDDR6X sono uno dei talloni d'achille per l' architettura ampere.
Un accesso alla memoria tramite "infinity Cache" in termini energetici costa diversi ordini di grandezza in meno rispetto all accesso alle GDDR6X.

Inoltre la cache è estremamente avvantaggiata anche in termini di latenza.

La vera innovazione futura secondo me sarà quella di amd, e con la cache "incollata" a strati come hanno recentemente mostrato di poter fare con il 5900 x(t) ne vedremmo davvero delle belle.
 
Una domanda per i più esperti, la 2060 liscia come se la cava in RT? Ne ho una acquistata un paio di mesi fa quando non si riusciva a prendere niente, poco dopo sono riuscito a prendere una 3060 che ho lasciato per il PC nuovo, adesso la 2060 non so se rivenderla oppure metterla nel pc vecchio al posto fella gtx 780.

Inviato dal mio Mi 9T utilizzando Tapatalk
va bene solo su un motore grafico fatto dalle divinità, ovvero doom eternal (ho visto ieri un video di digital foundry, con la 2060 liscia avevano una qualità superire alle console e 60fps fissi)
 
va bene solo su un motore grafico fatto dalle divinità, ovvero doom eternal (ho visto ieri un video di digital foundry, con la 2060 liscia avevano una qualità superire alle console e 60fps fissi)
no alla fine anche con la 2060 giochi bene ma chiaramente non puoi sparae un RT alto perchè è stata la scheda entry level della serie 2000

Il DLSS 2.0 però ha portai grossi vantaggi su tutta la gamma

Quando usirono la serie 2000 li si fu un pochino un azzardo per l'RTx non esistevano giochi, il DLSS alla versione acerba un avanzamento tecnologico importante ma che tutti sapevamo ci sarebbe voluto tempo per attecchire

PEr questo la serie 20 2070/2070/2080 all'inizio non hanno avuto un grosso impatti commerciale, in quanto del RT si sapeva nulla e le prestazioni in raster non davano tutto questo divario rispetto alla serie precedente....

Al lancio della serie 20 si poteva benissimo avere molti duubbi, ma non più oggi

LA 2060 inizio ad avere un buon successo quando il prezzo scese in quanto aveva prestazioni come una 1070ti ed otteneva in più effetti in RTX, che comunque per quantyo fosse pesante era una cosa innovativa ed avere qualcosina di cosi innovativo ad un rpezzo inferiore della ormai vecchia 1070ti era un buon affare

Tuttvai il vero sudccesso del RT srrivo con le Super, in quanto non è stato un semplice refresh ma un vero e proprio cambio di chip grafico verso la fascia superiroe

LA 2060 S ottenne lo stesso chip grafico della 2070 così la 2070S ebbe lo stesso chip della 2080

Prestazioni che quinidi stavolta aumentavano (e di un bel salto) anche in raster oltre che raggiungere un risultato stavolta molto più godibile in RT (e con i prezzi talgiati)

Oggi il RT ormai ha preso piede anche se i giochi non sono tantissimi, tuttio sviluppano qualcosa in RT e le milgiorie nel settore ci sono state in ogni senso (anche sul framerate

Ovviamente anche la 2006 ne ha benficiato in parte ottenendo delle prestazioni abbastazna buone in alcuni titoli con il DLSS 2.0, ma rimane sempre la scheda che ha aperto la pista alle RTX quindi ha dei limiti

Se fosse stata la 2060S avresti avuto una godiblità piena su tutti i titoli in RT in qaunto appunto la 2060S è in gerado di gestire anche discretamente il FHD 144hz, riuscendo ad ottente con DLSS e RT i 60 FPS in moltissimi titoli senza nemmeno troppo compromesso

Cosa cui la 2060 non fa purtroppo, ma al liovello genberale rimane un ottima scheda in RT potrai usufruire del DLSS e di effetti in RT attivabili al minimo a a dettalgio medio prchè attivarli al massimo rende il calcolo troppo pesante con quella scheda
 
La vera innovazione futura secondo me sarà quella di amd, e con la cache "incollata" a strati come hanno recentemente mostrato di poter fare con il 5900 x(t) ne vedremmo davvero delle belle.

non vedo l'ora che buttino fuori questi nuovi modelli, le premesse sono favolose, speriamo entro l'anno... :)
--- i due messaggi sono stati uniti ---
va bene solo su un motore grafico fatto dalle divinità, ovvero doom eternal (ho visto ieri un video di digital foundry, con la 2060 liscia avevano una qualità superire alle console e 60fps fissi)

tutti gli altri devono solo imparare... :D
 
Ultima modifica:
Dimentichi che AMD ha introdotto "infinity Cache" che è un metodo molto più intelligente ed efficiente di rispondere alla necessità di avere bande più ampie sulle ram.
dai non prendiamoci in giro: Infinity Cache è un modo intelligente ma economico di risolvere un problema di banda.
Ma se sulla 6800 un bus a 256 bit è accettabile, meno accettabile avere GDDR6 e 256 bit sulle 6800X e 6900X.

Le GDDR6X sono uno dei talloni d'achille per l' architettura ampere.
Un accesso alla memoria tramite "infinity Cache" in termini energetici costa diversi ordini di grandezza in meno rispetto all accesso alle GDDR6X.

tallone d'achille ? Le GDDR6X sono la punta di diamante di Ampere ed ora l'hanno introdotta anche sulla medio gamma 3070Ti.

Inoltre la cache è estremamente avvantaggiata anche in termini di latenza.

La vera innovazione futura secondo me sarà quella di amd, e con la cache "incollata" a strati come hanno recentemente mostrato di poter fare con il 5900 x(t) ne vedremmo davvero delle belle.
si, la V cache è una grande innovazione e potrà trovare applicazione anche nelle GPU, ma l'utilizzo su CPU è nettamente più utile.
 
non vedo l'ora che buttino fuori questi nuovi modelli, le premesse sono favolose, speriamo entro l'anno... :)

io mi aspetto che escano in contemporanea ad Alder Lake o poco dopo.

va bene solo su un motore grafico fatto dalle divinità, ovvero doom eternal (ho visto ieri un video di digital foundry, con la 2060 liscia avevano una qualità superire alle console e 60fps fissi)
l'engine di Doom Eternal è la dimostrazione di chi sa lavorare bene.
Ci sono trucchetti per renderlo così fluido, ma quelli sono dei veri geni.
 
dai non prendiamoci in giro: Infinity Cache è un modo intelligente ma economico di risolvere un problema di banda.
Non ho capito perché deve essere "intelligente MA economico" ?

Come se l economicità fosse uno svantaggio.

Che poi in realtà si va ad occupare spazio sul die, quindi forse è anche più costoso in termini di produzione rispetto a mettere le GDDR6X.

Non ho capito perché deve essere un problema l ampiezza del bus sulle 6800xt e 6900xt se poi le prestazioni ci sono comunque.

È vero, perdono un po di vantaggio in 4k perché servirebbe più infinity Cache, ma col 3D stacking arriverà in abbondanza secondo me ed allora non ci saranno storie.

A parità di prestazioni (contro l infinity cache) le GDDR6X costringono a consumare notevolmente più energia e ormai si è già superato il limite accettabile secondo me, a meno che non si voglia dire che schede da 400watt debbano diventare la normalità.
 
Pubblicità
Pubblicità
Indietro
Top