UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Poi boh, in un video di GamerNexus dice che le FTW3 Ultra 3070/80/90 hanno le ventole del dissipatore particolarmente rumorose.

È vero, @Max(IT)?

Comunque nel video che hai linkato, ho guardato, sullo stesso canale, anche quello relativo alla 3070 e risulta che la 3070 Suprim X tiene 61° con 33db mentre la FTW3 tiene 63° a 40db. ?
 
Ultima modifica:
Alla fine la differenza più grande è proprio il raffreddamento, secondo me.

Non solo quello, ma anche il funzionamento stesso. Per farti un esempio pratico, già partendo dal presupposto che la Suprim 3080 TI scalda meno della 3080 Strix, provandola in un gioco abbastanza pesante ho preso una temperatura di riferimento, e la Strix già tagliava parecchio, e stava intorno ai 1935 Mhz o qualcosa meno. Questa Suprim sta a 2010 Mhz alle stesse temperature, tutto stock, ed è davvero silenziosa. Ho provato anche l'undervolt e tiene frequenze decisamente più alte con lo stesso voltaggio. In questo caso va anche a fortuna da scheda a scheda. E comunque, se già la Strix sembrava grossa, questa è enorme e la vedo fatta meglio. Continuerò comunque a testarla, avendo dei valori di riferimento, ma per ora promossa a pieni voti. All'interno della scatola, oltre al tappettino de mouse, c'è già anche il supporto aggiuntivo, anche se io uso quello integrato nel case perché tutto rimane più pulito, non potrei vedere una roba del genere :D
 
Sulla 3080 e 3090 (che hanno le gddr6x) non mi stupisce che le ventole dei dissipatori debbano girare molto velocemente, quelle schede sono delle stufette elettriche da bagno ?

E non scherzo, una 3080 consuma circa 100 watt in idle che è una enormità. Cioè non puoi lasciare il pc acceso d'estate perché ti scalda la stanza in un paio d'ore...
In gaming poi possono avere picchi anche oltre i 500w se non ricordo male. Quelle schede consumano tantissimo, non si può pretendere chissà cosa dai dissipatori credo.
 
Ultima modifica:
Sulla 3080 e 3090 non mi stupisce, quelle schede sono delle stufette elettriche da bagno

E non scherzo, una 3080 consuma circa 100 watt in idle che è una enormità. Cioè non puoi lasciare il pc acceso d'estate perché ti scalda la stanza in un paio d'ore...

Non esageriamo dai, io in idle sto a 90w massimo, ma tutto il sistema non solo la scheda, ed io ho il valore instantaneo sempre a vista.
 
Su Amaz Germania e su amaz spagna si vedono 3070 evga ultra a 670 euro,ovviamente i bot spazzolano tuttto ma per quella cifra non ne avevo ancora viste.Adesso sempre amaz spagna una Msi suprim sempre 3070 sempre a 670 euro.Gli scalpers sono un'altra piaga, altroché.
Io ho provato a prenderla quando mi è arrivata la notifica avendo già caricato da tempo i soldi sulla carta di credito. Apro il link ed era già ritornata ad essere non disponibile o venduta ad un prezzo superiore ai mille euro
Mi sono rotto di aspettare mi sa che giovedì provo a prendere un' AMD reference.
 
Non esageriamo dai, io in idle sto a 90w massimo, ma tutto il sistema non solo la scheda, ed io ho il valore instantaneo sempre a vista.
Su internet cerano molti che si lamentavano che in idle la 3080 stava sugli 80-100w almeno all'inizio poi non so se fosse stato un problema che hanno risolto con un aggiornamento... Io avevo capito che erano le gddr6x a consumare una enormità di potenza.

Addirittura avevo letto che la 3070 (che non ha le gddr6x) con un overclock stando sotto ai 250w riusciva a raggiungere la 3070ti che è 10% più forte e che però siccome usa le gddr6x arriva a 300watt da stock...
--- i due messaggi sono stati uniti ---
Io ho provato a prenderla quando mi è arrivata la notifica avendo già caricato da tempo i soldi sulla carta di credito. Apro il link ed era già ritornata ad essere non disponibile o venduta ad un prezzo superiore ai mille euro
Mi sono rotto di aspettare mi sa che giovedì provo a prendere un' AMD reference.
Secondo me la 6800 è una ottima scheda che va meglio della 3070 e consuma molto meno della 3070ti. Avevo provato a prenderla ma poi ho preso una 6700xt che comunque è una scheda bella potente ma non ci puoi fare molto oc mentre sulla 6800 ci puoi fare oc molto bene e senza alzare la potenza assorbita ed a quel punto diventa anche migliore della 3070ti (da stock sarebbero uguali).
 
Su internet cerano molti che si lamentavano che in idle la 3080 stava sugli 80-100w almeno all'inizio poi non so se fosse stato un problema che hanno risolto con un aggiornamento... Io avevo capito che erano le gddr6x a consumare una enormità di potenza.

Addirittura avevo letto che la 3070 (che non ha le gddr6x) con un overclock stando sotto ai 250w riusciva a raggiungere la 3070ti che è 10% più forte e che però siccome usa le gddr6x arriva a 300watt da stock...
--- i due messaggi sono stati uniti ---

Secondo me la 6800 è una ottima scheda che va meglio della 3070 e consuma molto meno della 3070ti. Avevo provato a prenderla ma poi ho preso una 6700xt che comunque è una scheda bella potente ma non ci puoi fare molto oc mentre sulla 6800 ci puoi fare oc molto bene e senza alzare la potenza assorbita ed a quel punto diventa anche migliore della 3070ti (da stock sarebbero uguali).
Se parliamo di rasterizzazione sono d'accordo basta guardare le tabelle e i benchmark. La RX 6900xt surclassa in rasterizzazione anche la potentissima e ben più costosa RTX 3090 in molti giochi AAA. E allo stesso modo la RX 6800xt con la RTX 3080/TI e la RX 6800 con la RTX 3070/Ti
I problemi sono tre: ray tracing, mancanza di un'alternativa valida al DLSS di Nvidia che invece è già presente in tantissimi giochi e encoding di livello inferiore rispetto alla controparte Nvidia(NVENC).
 
Il ray tracing, tranne quando nvidia paga per metterlo, è sempre molto leggero come effetti. Io l'ho visto su warsone e cambia pochissimo se non nulla. L'unico gioco dove cambia davvero è minecraft. Sarà anche il futuro ma secondo me al momento se fatto bene pesa ancora troppo sulle prestazioni e allora a quel punto preferisco giocare fluido perché con una 3070 non so quanto si riesca a fare...

Per il dlss adesso c'è anche quello di amd che è all'inizio ma se pensi che verrà aggiunto alle console, allora vorrà dire che tutti i giochi lo avranno in pratica mentre il dlss è più molto complicato da inserire nei titoli e anche la è sempre nvidia a pagare gli sviluppatori per aggiungerlo perche poi hanno comunque un ritorno in pubblicità.

Per lo streaming non saprei ma penso che hai ragione tu e nvidia sia meglio anche perche lo dicono tutti.
Io non faccio streaming e al massimo uso la funzione della applicazione radeon che mi permette di salvare gli ultimi 20 secondi di gioco premendo una combinazione di tasti (volendo si può mettere anche più tempo) e con quella mi trovo bene le poche volte che la uso.

Un altra cosa bella delle nvidia è il software per l'audio... Potrebbero aggiungerlo anche su amd, non penso ci voglia chissà cosa...
 
Poi boh, in un video di GamerNexus dice che le FTW3 Ultra 3070/80/90 hanno le ventole del dissipatore particolarmente rumorose.

È vero, @Max(IT)?

Comunque nel video che hai linkato, ho guardato, sullo stesso canale, anche quello relativo alla 3070 e risulta che la 3070 Suprim X tiene 61° con 33db mentre la FTW3 tiene 63° a 40db. ?

per le 3070 non saprei, ma sulle 3080 i numeri che hai citato non tornano ?

1625381156890.webp

io la tengo in BIOS standard (non OC) e non supera i 35 dB ed i 72°, che la rende una delle più silenziose (ma a 380W di PL contro ad esempio i 340W della TUF

poi chiaramente non sono la persona più idonea a definire una scheda silenziosa o meno perché a me entro certi limiti di decenza non danno fastidio, ma posso dire con assoluta certezza che la Zotac sotto carico era leggermente più rumorosa.
 
Il ray tracing, tranne quando nvidia paga per metterlo, è sempre molto leggero come effetti. Io l'ho visto su warsone e cambia pochissimo se non nulla. L'unico gioco dove cambia davvero è minecraft. Sarà anche il futuro ma secondo me al momento se fatto bene pesa ancora troppo sulle prestazioni e allora a quel punto preferisco giocare fluido perché con una 3070 non so quanto si riesca a fare...

Per il dlss adesso c'è anche quello di amd che è all'inizio ma se pensi che verrà aggiunto alle console, allora vorrà dire che tutti i giochi lo avranno in pratica mentre il dlss è più molto complicato da inserire nei titoli e anche la è sempre nvidia a pagare gli sviluppatori per aggiungerlo perche poi hanno comunque un ritorno in pubblicità.

Per lo streaming non saprei ma penso che hai ragione tu e nvidia sia meglio anche perche lo dicono tutti.
Io non faccio streaming e al massimo uso la funzione della applicazione radeon che mi permette di salvare gli ultimi 20 secondi di gioco premendo una combinazione di tasti (volendo si può mettere anche più tempo) e con quella mi trovo bene le poche volte che la uso.

Un altra cosa bella delle nvidia è il software per l'audio... Potrebbero aggiungerlo anche su amd, non penso ci voglia chissà cosa...
Beh diciamo che Warzone non è il titolo più indicato per analizzare l’utilità del Ray Tracing. In quel titolo anche 10 FPS in più sono utili, e riflessi ed ombre più dettagliati considerando la dinamica di gioco non ti cambiano l’esperienza (e manco li noti).
ma se mi parli di Cyberpunk 2077 ad esempio, o Metro Exodus rivisto, beh in quel caso il RT assume un altro peso, e purtroppo in questa generazione AMD paga il colpevole ritardo con il quale è entrata nel settore (avrebbe dovuto farlo con le 5700). Vedrai che già dalla prossima generazione si riavvicinerà ad Nvidia nelle prestazioni RT.
quanto al confronto FSR e DLSS, beh tecnicamente non sono la stessa cosa e deve essere chiaro. Il DLSS è decisamente più complesso e si appoggia su hardware dedicato. Ma FSR è una novità benvenuta, che tra l’altro funziona con tutto l’hardware anche vecchio di un paio di generazioni, che potenzialmente allunga la vita alle schede video.
sono curioso di vedere in futuro una comparazione sullo stesso titolo tra FSR e DLSS per giudicarne la qualità, perché se la differenza dovesse essere sottile allora non avrebbe più senso investire nel DLSS per sviluppatori e produttori di hardware.
ma io temo che la differenza sarà visibile… vedremo.

Sulla 3080 e 3090 (che hanno le gddr6x) non mi stupisce che le ventole dei dissipatori debbano girare molto velocemente, quelle schede sono delle stufette elettriche da bagno ?

E non scherzo, una 3080 consuma circa 100 watt in idle che è una enormità. Cioè non puoi lasciare il pc acceso d'estate perché ti scalda la stanza in un paio d'ore...
In gaming poi possono avere picchi anche oltre i 500w se non ricordo male. Quelle schede consumano tantissimo, non si può pretendere chissà cosa dai dissipatori credo.
Io non so chi ti abbia detto questa assurdità ma non è vera:

1625382135722.png
questa è la Suprim X, 3080 Ti, che è una delle schede che consumano di più. 17W in idle.
le Radeon consumano quasi il doppio.

questa la mia scheda in idle:

1625382284400.webp
 
Ultima modifica:
Il ray tracing, tranne quando nvidia paga per metterlo, è sempre molto leggero come effetti. Io l'ho visto su warsone e cambia pochissimo se non nulla. L'unico gioco dove cambia davvero è minecraft. Sarà anche il futuro ma secondo me al momento se fatto bene pesa ancora troppo sulle prestazioni e allora a quel punto preferisco giocare fluido perché con una 3070 non so quanto si riesca a fare...

Per il dlss adesso c'è anche quello di amd che è all'inizio ma se pensi che verrà aggiunto alle console, allora vorrà dire che tutti i giochi lo avranno in pratica mentre il dlss è più molto complicato da inserire nei titoli e anche la è sempre nvidia a pagare gli sviluppatori per aggiungerlo perche poi hanno comunque un ritorno in pubblicità.

Per lo streaming non saprei ma penso che hai ragione tu e nvidia sia meglio anche perche lo dicono tutti.
Io non faccio streaming e al massimo uso la funzione della applicazione radeon che mi permette di salvare gli ultimi 20 secondi di gioco premendo una combinazione di tasti (volendo si può mettere anche più tempo) e con quella mi trovo bene le poche volte che la uso.

Un altra cosa bella delle nvidia è il software per l'audio... Potrebbero aggiungerlo anche su amd, non penso ci voglia chissà cosa...

Nvidia offre di più in servizi e funzionano meglio, e ribadisco, RT a parte che è comunque superiore, la cosa migliore è il DLSS, che è totalmente diverso da quello amd. È un po' come il discorso Freesync e Gsync (con modulo hardware, non quello schifo di compatibile), dove il principio di funzionamento è quello, ma lo fanno in maniera totalmente diversa e quello Nvidia lavora su molti più fronti. Io l'ho provato con mano, soprattutto con giochi mal ottimizzati, e la differenza c'è. Poi che a uno interessi o meno, o non voglia spendere certe cifre è un altro discorso, ma paghi per qualcosa che funziona in un certo modo. Poi, sempre per esperienza personale, preferisco il software Nvidia. I driver li aggiorno sempre con Experience, mai usato DDU, e mai mezzo problema. Con AMD non mi pronuncio :D

Ad oggi le 6000 le vedo come schede già vecchie, e per chi volesse AMD aspetterei le prossime dove dovrebbero fare il vero salto, un po' come fece Nvidia con le 2000 con l'RT.
 
il DLSS è ribvoluaionario

quello di AMD invece è un semplice scaling vbasato sui 2 tecniche differenti, di fatto un upscaling classico basdato su due tecniche diverse di scaling e alal fine uno sharpening aggressivo

Sepputre molti lo paragonino al DLSS sono motlo diversi infatti il DLSS è si un upsacling ma basato su un IA che può ricorstuiore letteralmente le info mancanti
PEr questo il DLSS è rivoluzionario

Ecco quale è la differenza

Mettiamo che un immagine X abbia uno scaling molto elevato nel caso di fidely FX xi avreanno degli atrefatti grafici dovuti alla mancanza delle informazioni ed all'ecessivo sharpening

Nel caso del DLSS questo non suvccede seppure ci potrebbero essere delle sbavature risolte adesso con l'ultima verrsione dl DLSS l'immagine sarà convincente inq uanto le info mancanti verranno letetralmente ricreate

Per quello che riguarda il RT amd è indietro e le schede sono inferiori di moto

Di certo non è warzone il metro di giudizio ma giochi9 come control ciberpunk Metro ecc

Il RT è in grado di cambiare completyamente la percezione grafica di alcuni elementi quli texture, ombre illuminazione
 
Visualizza allegato 411464
@Max(IT)
Questo riguarda le 3070 lisce. Chissà se cambia con le 3070 Ti.

8db di differenza e “solo” 7db col quiet bios.
Non saprei. In foto il dissipatore sembra uguale, ma fare comparazioni dirette tra 3070 e 3080 non è facile…

comunque non ha senso paragonare la Gaming X con la FTW3 quando hanno 30W di TGP di differenza
 
Mi sono rotto di aspettare mi sa che giovedì provo a prendere un' AMD reference.
Buona fortuna. ?

Io ho provato parecchi giovedì e non mai visto neanche il pulsante per aggiungere la scheda al carrello. ?
--- i due messaggi sono stati uniti ---
Non saprei. In foto il dissipatore sembra uguale, ma fare comparazioni dirette tra 3070 e 3080 non è facile…

comunque non ha senso paragonare la Gaming X con la FTW3 quando hanno 30W di TGP di differenza
Per esempio, le Strix, a parte la 60 (credo), hanno tutte lo stesso dissipatore. Magari EVGA usa dissipatori di diversa grandezza per ogni scheda.
--- i due messaggi sono stati uniti ---
Una curiosità, una volta installata la GPU, la scheda video integrata della CPU si scollega in automatico. È consigliabile disattivare l’integrata anche da Windows, come “sicurezza”?
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top