UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità

Come si dice a pensare male si fa peccato ma spesso ci si indovina

Il famoso portavoce di nvidia ha affermato che il DLSS 3.0 è tecnicamente implementabile sulle RTX 3000 ma le prestazioni allo stato attuale sarebbero "deludenti"


Io credo semplicemente che sia una strategia per far sembrare il GAP prestazionale rispetto alle 3000 più appetibile..... trovo molto probabile questa seconda ipotesi che la prima e non mi stupirebbe affatto se tra qualche mese nvidia se ne esce con un aggiornamento per renderlo fruibile a tutti


giusto giusto


ma ci soo centinaia di video in rete con più o meno la stessa opinione sul dlss 3.0 siia "Nvidia is Lying"
 
Ultima modifica:
Come si dice a pensare male si fa peccato ma spesso ci si indovina
😉
Il famoso portavoce di nvidia ha affermato che il DLSS 3.0 è tecnicamente implementabile sulle RTX 3000 ma le prestazioni allo stato attuale sarebbero "deludenti"

Infatti:
Personalmente pero' penso piu' a un modulo software (CUDA), che trae giovamento dal maggior numero di TensorCores (e magari anche dalla maggiore L2 cache)... e che quindi non risulti fluido (o non produca performance migliorative) sulla serie 3000


Io credo semplicemente che sia una strategia per far sembrare il GAP prestazionale rispetto alle 3000 più appetibile..... trovo molto probabile questa seconda ipotesi che la prima
Sono della stessa opinione!
Anche perche' magari non sara' fluido su una 3060... magari nemmeno su una 3070, ma vuoi che NON lo sia su una 3090/3090TI... nemmeno rinunciando un po' alla qualita' dell'algoritmo?

e non mi stupirebbe affatto se tra qualche mese nvidia se ne esce con un aggiornamento per renderlo fruibile a tutti

E infine, quando finalmente lo renderanno disponibile anche per la serie 3000, diranno che l'hanno fatto per i gamers!
 
Le probabilità sono molto molto basse però immaginatevi se poi il DLSS 3 va meglio su serie RTX 3000 e 2000. Ovviamente è stra difficile però riderei fino a scoppiare per uno strafalcione del genere 😆
 
Le probabilità sono molto molto basse però immaginatevi se poi il DLSS 3 va meglio su serie RTX 3000 e 2000. Ovviamente è stra difficile però riderei fino a scoppiare per uno strafalcione del genere 😆
E; impossible che va meglio perchè i chip sono inferiori, ma penso semplicemente che mentono e che sia appunto tutta una strategia di marketing, non lo penso solo io intendiamoci, lo pensa anche gran parte della comunità appassionata


Stavolta è davvero un calcio di rigore per AMD
 
Che non sfrutterà a mio parere, visto cosa hanno fatto con zen4
può anche essere ma sarebbe piuttosto da sciocchi, vedremo
In ogni modo Nvidia non perde occasione per dimostrarsi "odiosa", fatto sta che queste schede video partono con un "hype" dell'utenza di comprarle sotto 0

Per le RTX 3000 ricordo benissimo che l'hype era "fuori scala"

due situazioni diametralmente opposte
 
Ultima modifica:
per cui immagino ci sia semplicemente una ottimizzazione diversa, per i TensorCores 4.0, da parte del compiler... quindi quell'affermazione non giustificherebbe l'impossibilita' di utilizzare il DLSS3 su Ampere
l'inserzione del frame genera molta latenza tanto da rendere obbligatorio l'uso di nvidia reflex.

a voler credere in nvidia la risposta potrebbe essere che la maggiore lentezza dei tensor core 3 potrebbe aumentare troppo la latenza al punto da avere più svantaggi che benefici.

alla fine io sono partito con la mia 2080Ti con il DLSS1.0 e ho ricevuto sempre tutti gli upgrade gratuitamente senza problemi.

volendo "giustificare nvidia" non dimentichiamoci che anche il software fa parte del pacchetto che si acquista con una scheda grafica.

se nvidia avesse deciso di dare features premium ad un "pacchetto più costoso" sarebbe del tutto normale,
criticabile, discutibile ma del tutto normale.
nel mondo si fa così da sempre su ogni prodotto ed in ogni settore.

immaginate che il DLSS 3 con il frame insertion potesse girare bene anche su RTX3000, perchè nvidia dovrebbe regalarvi un simile upgrade? potrebbe farlo certo ma potrebbe considerarlo anti economico.
immaginate una 3080 pagata solo 700€ che riceve un simile upgrade? e che ci guadagna nvidia? fa beneficenza? :D

pensate alle quadro che da sempre offrono delle features limitate al mondo professionale ma che potrebbero funzionare senza nessun problema sulle geforce, spesso il blocco è solo a livello di driver.
perchè qui nessuno si lamenta e anzi ai professionisti la cosa sembra del tutto normale?

Anche il mio piccolo software in firma deve utilizzare le API di Windows per la cattura dello schermo perchè le API di Nvidia sono a pagamento.

Io non ci vedo niente di trascendentale se nvidia avesse deciso di posizionare i suoi prodotti in un'altra fascia di mercato.

teniamo conto che ormai con i prezzi non si parla più di "quanto vale sul mercato" ma di "dove si vuole posizionare il prodotto sul mercato".

è un comportamento che va a vantaggio dei consumatori? certo che no ma nvidia è un'azienda e non una ONLUS e ovviamente fa solo i suoi interessi e non i nostri, come tutte le aziende il cui unico scopo è quello di aumentare il profitto. :)
 
Ho visto l'approfondimento (sponsorizzato, ricordiamolo) di DigitalFoundry sul DLSS 3.0.
Rappresenta un cambio di paradigma rispetto alle attuali tecnologie di ricostruzione dell'immagine (DLSS 1/2,FRS 1/2 e XeSS): l'AI non modifica i frame ma li aggiunge. Quindi tra il frame A e quello C, alla risoluzione nativa, inserisce un terzo frame totalmente creato dal nulla.

L'idea alla base di ciò, e secondo me uno dei motivi per cui è stato limitato alla serie RTX 4000, è dare ulteriore fluidità accettando l'approssimazione (il frame generato dalla AI è imperfetto): le altre tecnologie mirano a rendere giocabile un framerate basso, il DLSS 3.0 mira a rendere più fluido una situazione già buona in partenza. Un'imperfezione a 200 fps è più difficile da percepire, questo è il senso.
Alla luce della transizione che sta avvenendo verso monitor con refresh rate più elevato.

Questo è quello che sono riuscito ad estrapolare dal video. Guardate in particolare gli ultimi segmenti che mostrano la qualità della ricostruzione, per il resto aspetteremo le recensioni.

Linka pure quando trovi un video interessante, facilita la presa visione da parte di chi è interessato (a parte che si trova facilmente in questo caso):


A parte la spiegazione su come funziona e i benchmark riguardanti le prestazioni, cose più o meno già viste in precedenza sotto altra forma, è molto interessante, seppur ancora limitata a livello di quantità di dati, la prova riguardante la latenza.

In pratica il DLSS 3.0 aumenta gli FPS ma aggiunge latenza, ed è una cosa nuova: finora framerate e latenza erano legate quasi sempre da una proporzionalità inversa, ovvero più framerate, meno latenza e viceversa. Con il DLSS 3.0 si ha molto più framerate, ma anche un po' più di latenza.

Questo rimane, per quanto si è visto finora, il limite principale della tecnologia, perchè la ricostruzione dell'immagine sembra veramente fatta bene: ci sono degli errori anche ben visibili se si osservano i frame ricostruiti singolarmente, ma nella sequenza dei fotogrammi sembrano assolutamente impercettibili. E in ogni caso fa molti meno errori il DLSS3.0 rispetto a qualsiasi algoritmo di interpolazione tradizionale, il chè è francamente sorprendente visto che i frame sono generati in modo molto rapido.

Quando finirà l'embargo, sono curioso di vedere degli approfondimenti sulla questione latenze e anche come si comporta la tecnologia di interpolazione a framerate più bassi.
Come l'upscaling funziona meglio ad alta risoluzione, immagino che l'interpolazione funzioni meglio partendo già da un buon framerate, perchè ha più informazioni per ricostruire i movimenti degli oggetti o, in altri termini, c'è meno differenza tra un frame e l'altro perchè i frame rappresentano istanti di gioco pù vicini tra loro.

Però questo DLSS 3.0 penso abbia le potenzialità per essere davvero una tecnologia interessante, magari non per gli esports o gli sparatutto più frenetici dove la latenza è tutto, ma in tutti gli altri giochi sì.

io invece ho notato che la tendenza di oggi è di partire dall'assunto che tutto fa schifo, tutto costa troppo, tutto non vale la pena, tutto era meglio prima.
mi sembra di parlare con i vecchi del 1900 che dicevano: "ai tempi miei". :D

ai tempi miei un 486 l'ho pagato 6 milioni di lire. La roba buona è costata sempre cara e non ci ha mai regalato niente nessuno.

spariamo merd@ su tutto conoscendo niente.
non mi risulta che qui ci siano dei luminari dell'hardware (me compreso ovviamente), però tutti sanno cosa non va e hanno la soluzione che avrebbe potuto creare un prodotto migliore.

Vedo video di youtuber con centinaia di migliaia di iscritti che "aggiustano" gli zen 4 mandandoli a 60°C.

si è arrivati a dire che raptor è un semplice overclock di alder lake quando in più di 30 anni che compro CPU di refresh così me ne ricordo poche.

diciamo che Intel che introduce una GPU per la prima volta capace di competere con i colossi del settore è un disastro.
Era meglio Windows XP.
Se non girano bene le DirectX 9 (uscite nel 2002) io non lo compro.
Lunga vita alle DDR4 per altri 15 anni. Quando usciranno le DDR7 forse sarà il momento di comprare le DDR5.
il DLSS3 si poteva certamente fare anche sulla serie 3000, bastardi. è tutto un gomblotto.

su questo thread tutti hanno la serie 3000 (IMHO una delle peggiori schede degli ultimi anni) ma tutti criticano le RTX4000 che sono sicuramente molto meglio delle 3000 all'uscita.

concezione comune che il 12900K/13900K o il 5950X/7950X non serve a niente.
non si sa perchè. un 12700K è utile, ci si fa qualcosa, con il 12900K invece non ci si fa niente.

boh, mi sento un pesce fuor d'acqua. magari sono fatto male io ma io non sono d'accordo su niente.

Concordo sul fatto che noi in generale non siamo nessuno rispetto agli ingegneri che progettano l'hardware e bisogna tenere presente della propria limitatezza nello "sparlare" del lavoro altrui. Però, pur nella mia limitatezza, gli occhi per vedere ce li ho.

I prezzi negli ultimi anni stanno esplodendo in modo vergognoso: soprattutto su schede video e schede madri si sta veramente perdendo il senso della misura.

In più, tutti i produttori, Nvidia, AMD, Intel, già da qualche anno (ma ora è peggio) stanno vendendo i propri chip sempre più tirati per il collo. Tu forse penserai che è una cosa positiva avere hardware già spremuto al 100% di default, ma per me non lo è, perchè si obbliga gli utenti a convivere con difficioltà di raffreddamento, di alimentazione e soprattutto l'efficienza è drasticamente inferiore a quella che invece si potrebbe ottenere.
Io sarei per un drastico cambio di paradigma: non più hardware ottimizzato e spremuto per le massime prestazioni, ma hardware impostato per lavorare innanzitutto in maniera efficiente e secondariamente con un occhio alle performance. Altrimenti l'assurda corsa dei watt non finirà mai.

Il fatto che i produttori spesso lascino la possibilità agli utenti di modificare i parametri di funzionamento e quindi, volendo, di avere più efficienza è solo parzialmente d'aiuto, perchè comunque per farlo si riducono le prestazioni, ovvero l'hardware non è più in grado di fornire le prestazioni che sono state pubblicizzate e che sono certificate, in un certo senso, dai benchmark nelle recensioni di terze parti. E sinceramente questo lo trovo scorretto.


può anche essere ma sarebbe piuttosto da sciocchi, vedremo
In ogni modo Nvidia non perde occasione per dimostrarsi "odiosa", fatto sta che queste schede video partono con un "hype" dell'utenza di comprarle sotto 0

Per le RTX 3000 ricordo benissimo che l'hype era "fuori scala"

due situazioni diametralmente opposte

Alla mancanza di hype contribuiscono per larga parte i prezzi folli... Altrimenti l'hype ci sarebbe eccome, anche se per ora queste schede non sembrano niente di straordinario a livello tecnico.
 
Ultima modifica:
Alla mancanza di hype contribuiscono per larga parte i prezzi folli... Altrimenti l'hype ci sarebbe eccome, anche se per ora queste schede non sembrano niente di straordinario a livello tecnico.


non è solo il prezzo, certo un prezzo così alto di certo un pochino pregiudica le cose, ma anche il comportamento di nvidia nelle sue "spiegazioni" che non appare "credibile"

La scelta di mettere in commercio una 4080 12GB con un chip diverso ad esempio è una mossa abbastanza "mhe" che viene visto da tutti come un tentativo per confondere l'utenza e basta.

Poi già solo il fatto di lasciare in commercio le vecchie schede ( cosa unica che non è necessariamente un male) la dice lunga sulle aspettative di vendita di Nvidia stessa
 
non è solo il prezzo, certo un prezzo così alto di certo un pochino pregiudica le cose, ma anche il comportamento di nvidia nelle sue "spiegazioni" che non appare "credibile"

La scelta di mettere in commercio una 4080 12GB con un chip diverso ad esempio è una mossa abbastanza "mhe" che viene visto da tutti come un tentativo per confondere l'utenza e basta.

Poi già solo il fatto di lasciare in commercio le vecchie schede ( cosa unica che non è necessariamente un male) la dice lunga sulle aspettative di vendita di Nvidia stessa

Secondo me il prezzo non è l'unico motivo, ma è il principale.
Se la RTX4080 "finta" 12GB uguale uguale, con anche lo stesso nome, fosse venduta, come la RTX3070 ai tempi, a 499 dollari invece che 899 (ma anche a 599), vedi che ci sarebbe stata la fila per comprarla. A parte che a quel punto Nvidia non avrebbe avuto alcun motivo per chiamarla 4080
 
Secondo me il prezzo non è l'unico motivo, ma è il principale.
Se la RTX4080 "finta" 12GB uguale uguale, con anche lo stesso nome, fosse venduta, come la RTX3070 ai tempi, a 499 dollari invece che 899 (ma anche a 599), vedi che ci sarebbe stata la fila per comprarla. A parte che a quel punto Nvidia non avrebbe avuto alcun motivo per chiamarla 4080
beh certo se fosse venduta a 599 ci sarebbe sicuramente un mucchio di gente disposta a comprarla, il prezzo è una discriminante fondamentale ovviamente ma oltre a questo appunto l'atteggiamento di nvidia fa perdere utenza

Tu sai benissimo che non risparmiò critiche nè a nvidia ne a amd quando se lo meritano, e atvolta Nvidia si merita qualche critica, anche se poi fessamente la scheda alla fine sono convinto che la compro nonostante tutto

Ma appunto chi oltre moi pochi appassionati e inguaribili fessi è disposto a spendere quelle cifre? Quasi nessuno
 
Stavolta è davvero un calcio di rigore per AMD
Che prontamente sbaglierà come al solito. AMD quando ha la possibilità di ....... diciamo mettersi dietro l'avversario e afferrarlo delicatamente ai fianchi, non lo fa, come nel caso dei processori ryzen 5. Ha avuto un grosso vantaggio sugli intel di 11gen e poteva rubarsi tutto il mercato con i suoi soliti prezzi, invece ha voluto fare la sborona e fare prezzi persino più alti di quelli intel.
Anche quando sono uscite le rx 6000, i prezzi msrp non erano per niente competitivi visto che la rtx 3080 a 699$ offuscava tutto persino le console.
Sono sicuro che seguirà nvidia con l'aumento dei prezzi msrp, spero di sbagliarmi.
 
Che prontamente sbaglierà come al solito. AMD quando ha la possibilità di ....... diciamo mettersi dietro l'avversario e afferrarlo delicatamente ai fianchi, non lo fa, come nel caso dei processori ryzen 5. Ha avuto un grosso vantaggio sugli intel di 11gen e poteva rubarsi tutto il mercato con i suoi soliti prezzi, invece ha voluto fare la sborona e fare prezzi persino più alti di quelli intel.
Anche quando sono uscite le rx 6000, i prezzi msrp non erano per niente competitivi visto che la rtx 3080 a 699$ offuscava tutto persino le console.
Sono sicuro che seguirà nvidia con l'aumento dei prezzi msrp, spero di sbagliarmi.

certo nemmeno io ci spero per nulla ma come si dice la speranza è l'ultima a morire.......

Prima di fondersi sull'acquisto di una nuova scheda è bene valutare tutte le opzioni in tavola
 
a voler credere in nvidia la risposta potrebbe essere che la maggiore lentezza dei tensor core 3 potrebbe aumentare troppo la latenza al punto da avere più svantaggi che benefici.


immaginate che il DLSS 3 con il frame insertion potesse girare bene anche su RTX3000, perchè nvidia dovrebbe regalarvi un simile upgrade? potrebbe farlo certo ma potrebbe considerarlo anti economico.
immaginate una 3080 pagata solo 700€ che riceve un simile upgrade? e che ci guadagna nvidia? fa beneficenza? :D
Per quanto riguarda la prima frase, potrebbe essere.
Per quanto riguarda la seconda frase bhe li è nvidia a doversi dare da fare per vendere un prodotto che a prescindere dal dlss 3 dia effettivamente dei benefici tangibili, altrimenti si può limitare a vendere software da oggi in poi.

Maxwell porto dei benefici tangibili come anche Pascal. Penso che Pascal sia stata un architettura straordinaria, la gtx 1070 andava più della titan maxwell e consumava molto meno, il tutto a 379$ questi sono progressi che giustificano l'acquisto.
La stessa Turing per quanto avesse un rapporto prestazioni/prezzo orribile, almeno introduceva il ray tracing e tecnologie come il dlss. Ampere ha migliorato tutto ciò portando anche molta più potenza in raster e in operazioni di calcolo avanzate, introducendo il dlss 2 utilizzabile anche per turing e non vi era motivo per limitarlo solo ad Ampere, perché quest'ultima non aveva bisogno del dlss 2 per giustificare l'acquisto.
La serie rtx 4000 porta il dlss 3 e utilizza questa features come giustificazione all'acquisto, io non ne trovo altre.
 
Pubblicità
Pubblicità
Indietro
Top