UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Non ho capito perché deve essere "intelligente MA economico" ?

Come se l economicità fosse uno svantaggio.

Che poi in realtà si va ad occupare spazio sul die, quindi forse è anche più costoso in termini di produzione rispetto a mettere le GDDR6X.

Non ho capito perché deve essere un problema l ampiezza del bus sulle 6800xt e 6900xt se poi le prestazioni ci sono comunque.

È vero, perdono un po di vantaggio in 4k perché servirebbe più infinity Cache, ma col 3D stacking arriverà in abbondanza secondo me ed allora non ci saranno storie.

A parità di prestazioni (contro l infinity cache) le GDDR6X costringono a consumare notevolmente più energia e ormai si è già superato il limite accettabile secondo me, a meno che non si voglia dire che schede da 400watt debbano diventare la normalità.
La scheda che consuma di più di tutte è la 6900X quindi il tuo castello sulle GDDR6X cade subito.
Le prestazioni in 4K sono la dimostrazione che il trucchetto AMD ha “le gambe corte”: schede velocissime in raster che in 4K perdono tanto Del vantaggio accumulato proprio per i limiti della Infinity Cache.
Non metto neppure in mezzo i risultati con applicazioni professionali che non siano gaming perché li la differenza è imbarazzante.

Mi fa specie che adesso critichi anche i consumi quando siamo in questa situazione:

1625722689093.png

Francamente mi fa un po' sorridere. In questa generazione io non vedo le GDDR6X come un indicazione di inefficienza. Anzi tutto sommato i consumi delle GeForce Serie 30, costruite su un nodo decisamente meno efficiente di quello 7nm TSMC, si dimostrano eccezionalmente parche in confronto alla controparte Radeon.
 
Ultima modifica:
io rimango un pochino basito dalle critiche sul DLSS

Il RT è senza dubbio un grandissimo passo in avanti verso il fotorealismo, ama un passo che prima o poi doveva essere compiuto, e che sia stata Nvidia a farlo non è nemmeno poi così strano o inaspettato, era del tutto prevedibile

Il DLSS è davvero un qualcosa che fa rimanere a bocca aperta e rimango scioccato da certi commenti

Per chi non lo avesse compreso il DLSS è la vera rivoluzione di questa ghenerazione e se qualcuno mi sa indicare una tecnica di scaling che non sia peggiorativa ma milgiroativa nella storia del rendering grafico glie ne sarei grato (non andate a cercare non esiste)

Non è per dire qualcosa,a ed è anche tirato allo stremo, ma ridevamo tutti quando in qualche telefilm arrivava il tipo con il video sgranato e arrivava il nerd con il PC e gli leggeva la targa


E'tirata un pochino allo stremo ma il DLSS fa prorpio questo e non fa affatto ridere

Qui le critiche stanno andando più in profondità del DLSS... qui è stato detto che Nvidia doveva evitare di introdurre il RT, il che mi lascia ancora più che perplesso ?
Nvidia, Intel, AMD... chiunque sia io spero che non si tirino MAI indietro nell'introdurre novità, anche se acerbe. Perché il progresso è dato da questo...
Poi se una tecnologia è valida, matura con il tempo, se non lo era verrà abbndonata per qualcosa di meglio.
 
Ho visto che le 3070ti si trovano Anche a meno di 900euro..
Ma per il 4k vanno bene? quando sono superiori in percentuale alle 3070?

Inviato dal mio CPH1917 utilizzando Tapatalk
npon è una scheda da 4k diciamo che la garanzia amazon è preferibile da avere ma il prezzo è ancora alto

Le ti hanno prestazioni superiori delle liscie di 8-10% al massimo
 
Ho visto che le 3070ti si trovano Anche a meno di 900euro..
Ma per il 4k vanno bene? quando sono superiori in percentuale alle 3070?

Inviato dal mio CPH1917 utilizzando Tapatalk
la differenza tra 3070 e 3070Ti è inferiore al 10% tipicamente.

Per il 4K una 3070/3070Ti per me non è ideale, anzi...
Ci sono titoli dove va bene, altri dove dovrai scendere a compromessi con il dettaglio.
Se il target è il 4K, le scelte sono 3080/6800XT/6900XT.

Detto questo io oggi come oggi il 4K continuo fermamente a sconsigliarlo sul gaming. Il più delle volte sei limitato a 60 Hz ( e speri che il frame rate ci arrivi) ...
Il 1440P per me è la risoluzione giusta.
 
Qui le critiche stanno andando più in profondità del DLSS... qui è stato detto che Nvidia doveva evitare di introdurre il RT, il che mi lascia ancora più che perplesso ?
Nvidia, Intel, AMD... chiunque sia io spero che non si tirino MAI indietro nell'introdurre novità, anche se acerbe. Perché il progresso è dato da questo...
Poi se una tecnologia è valida, matura con il tempo, se non lo era verrà abbndonata per qualcosa di meglio.
beh quella critica lascia il tempo che trova, perchè mai un azienda se ha mezzi e tecnologie per innovare non dovrebbe dfarlo? Non ha senso
Sarebbe coem chiedere a Steve Jobs di aspettare un paio di annetti per lanciare il primo i-phone
 
Da quello che ho letto in giro questa 3D V-Cache permette un guadagno pari a circa il 15%...Praticamente il guadagno medio tra una generazione e quella successiva in ambito di CPU. Però non so se sarà sufficiente per contrastare Alder Lake non tanto in termini di prestazioni ma per le novità che questa nuova architettura comporta tipo DDR5 e PCIe 5.0
io non ho aspettative così elevate su Alder Lake, quindi immagino che il 15% che la 3D cache promette (da verificare) sia più che sufficiente a contrastare Intel per questa "mezza generazione", considerando che si va ad inserire su uno scenario dove AMD ha già un ampio vantaggio.
DDR5 e PCIE 5.0 per adesso saranno sigle di marketing con zero significato tangibile ma incremento dei costi (già me li immagino i prezzi iniziali della DDR5). Immagino che le prime implementazioni significative si avranno a fine 2022/inizio 2023.

Per il resto andiamo troppo OT e potremmo parlarne nella sezione CPU ?

beh quella critica lascia il tempo che trova, perchè mai un azienda se ha mezzi e tecnologie per innovare non dovrebbe dfarlo? Non ha senso
Sarebbe coem chiedere a Steve Jobs di aspettare un paio di annetti per lanciare il primo i-phone
esempio perfetto.
Anche allora mancavano molte cose (mancava persino lo Store !!!) ma il lancio rivoluzionò il modo di concepire uno smartphone ed influenzò tutto il mercato, non solo Apple.
Le innovazioni devono essere inserite tra le evoluzioni, per fare dei piccoli salti in avanti.
Anche se le prime implementazioni non sono un granché.

Aggiornamento sulla mia 3070ti inno3d

Giocando a warzone, clima spento, case aperto a lato, tutto stock, è andata in protezione droppando a 70fps, penso per la temperatura.

Riavvio il pc, apro geforce exp, setto la ventola manualmente all'80% , bene, 144 fissi, 2k, no rt, dlss quality, temperatura 59 gradi MAX !!!!!!!

Ah e ha coilwhine (suono simil metallico leggero) quando passa da 90watt a 210 watt di uso.

Ok d'ora in poi lascio le ventole a canna con warzone!

Amen per il coilwhine, forse con l'undervolt risolvo
le Inno3D sono raffreddate bene, sicuro che fosse in thermal throttling ?
Controlla i grafici Afterburner...

Il coilwhine potresti anche limitarlo con l'undervolt, ma potrebbe non dipendere dalla scheda video (a volte è la combinazione scheda video-PSU).
Un paio di anni fa avevo il problema con una Gigabyte 2070 Super: il coil whine sembrava provenire dalla scheda video, ma appena cambiai alimentatore sparì del tutto.

La build è assemblata da Dicembre 2020.

• Ryzen 5 3400G - CPU tampone perché mi serviva urgentemente per lavoro.

• GPU - EVGA 3070 Ti FTW3 Ultra

• MoBo - Asus ROG Strix X570-E Gaming

• M2 - Samsung 980 Pro

• SSD - Samsung 870 Evo

• PSU - Seasonic GX850

• Ram - Ballistix 3600 C16

• Dissipatore - Noctua D15

• Case - Cooler Master H500P Mesh
cambia quella CPU perché non si può vedere con quella configurazione ???
 
la differenza tra 3070 e 3070Ti è inferiore al 10% tipicamente.

Per il 4K una 3070/3070Ti per me non è ideale, anzi...
Ci sono titoli dove va bene, altri dove dovrai scendere a compromessi con il dettaglio.
Se il target è il 4K, le scelte sono 3080/6800XT/6900XT.

Detto questo io oggi come oggi il 4K continuo fermamente a sconsigliarlo sul gaming. Il più delle volte sei limitato a 60 Hz ( e speri che il frame rate ci arrivi) ...
Il 1440P per me è la risoluzione giusta.
Si alla fine io non ho monitor,ho il PC collegato alla TV Oled e quindi non posso scendere in risoluzione

Inviato dal mio CPH1917 utilizzando Tapatalk
 
Buongiorno a tutti.

Ma MSi AB lo devo avviare tutte le volte, giusto?
non è un programma obbligatorio ma se lo vuoi usare devi mettere l'' avvio automatico e che le impostazioni vengano eseguite in avvio

L'undervolt su queste schede è di obbligo, c'è una mia guida e potrebbe anche risolverti il coil whine è già successo che in un caso è sparito del tutto
 
Pubblicità
Pubblicità
Indietro
Top