UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Il dlss è diventato buono solo ultimamente su alcuni titoli, appena uscito era una cosa inguardabile ma molti se lo sono dimenticati.
FSR è alla prima uscita ed è già molto più avanti del DLSS appena uscito e soprattutto non è così "semplice" dato che non si riesce a ricreare la qualità dell'upscaling "a mano".

Poi l'FSR non aggiunge dettagli ma non aggiunge neanche difetti. Il DLSS invece può aggiungere artefatti che nella immagine originale non c'erano quindi è un arma a doppio taglio. Un mio amico si lamenta proprio che in warzone il dlss aggiunge artefatti dove ci sono tante linee parallele o sulle ombre.

Io non ci vedo niente di "rivoluzionario"... quelle sono parole da marketing dette da nvidia per vendere le rtx 2000 che costavano un botto senza offrire niente o quasi visto che all'inizio il dlss 1.0 faceva schifo e in rtx perdono un sacco di performance, peggio delle radeon 6000 adesso.

Il dlss è complicatissimo da aggiungere nei titoli, ci vogliono centinaia di ore di traning nelle server farm. Se nvidia non avesse dovuto trovare una scusa per vendere le sue schede piene di RT CORES (che per il gaming non servono a nulla ma servono per l'IA e lavori professionali) non avrebbe mai creato il dlss ne spinto sul ray tracing così precocemente (infatti le rtx 2000 fanno pena in ray tracing).


Ps. Per l'assorbimento in idle allora era un problema solo iniziale perché mi ricordo di aver letto più di un post su reddit di gente che lamentava consumi altissimi in idle...
scusa ma tutto quello che hai detot è falso

Non è vero che FSR è milgiore del DLSS

Il dlss è complicatissimo da aggiungere nei titoli, ci vogliono centinaia di ore di traning nelle server farm. Se nvidia non avesse dovuto trovare una scusa per vendere le sue schede piene di RT CORES (che per il gaming non servono a nulla ma servono per l'IA e lavori professionali) non avrebbe mai creato il dlss ne spinto sul ray tracing così precocemente (infatti le rtx 2000 fanno pena in ray tracing).
Anche questa non so chi te l'ha detta ma è cosi`
Io non ci vedo niente di "rivoluzionario"... quelle sono parole da marketing dette da nvidia per vendere le rtx 2000 che costavano un botto senza offrire niente o quasi visto che all'inizio il dlss 1.0 faceva schifo e in rtx perdono un sacco di performance, peggio delle radeon 6000 adesso.

Mi chiedo se lo hai provato o ne hai solo sentito parlare perchè si l'1.0 aveva dei rpoblemi ma che sono stati ampliamente risolti dall'uscita del DLSS 2.0 e oltre
 
Nessuno lo mette in dubbio, però, dai video sulle 3080 che ho visto su YT, l’acqua che sembra metallo fuso e i muri di cemento armato che riflettono come specchi, non mi ispirano molto.

Poi, ovviamente, andranno sempre migliorando e quando l’acqua sarà acqua e i muri non saranno specchi, sarò il primo a sparare a palla il RT.
guarda che non è così
CP è un gioco pieno di BUG il DLLSS céntra poco qcon quello che descrivi probailmente si tratta di atrefatti dovuti alla comrpessione video cosa che sui you tube è pieno


La differenza tra uno scaling e il DLSS è che il DLSS è una tecniologia che letetralmetne pùo creare informazioni dove none sistono FSR non può ed è uno scaling a doppio algoritmo con uno sharpening finale

Non è per sminutire il lavoro di AMD ma sono tecniche di reshade che si utilizzano da tempo in questo capo verso gli utenti più "navigati


Il DLSS è basato su un complesso sistema hardware che sarà semrpe superiore al software consiidrera questo il cuda core è un core che riesce a fare un certo tipo di calcolo generico mentre i tensor core, utilizzati epr il DLSS riescono a fare un calcolo specificoo a matrice

Tecnicamente è messa così se immaginiamo una classe fatta di studenti bravi in matematica i tensor core sono i più veloci a fare le divisioni
 
Ultima modifica:
guarda che non è così
CP è un gioco pieno di BUG il DLLSS céntra poco qcon quello che descrivi probailmente si tratta di atrefatti dovuti alla comrpessione video cosa che sui you tube è pieno


La differenza tra uno scaling e il DLSS è che il DLSS è una tecniologia che letetralmetne pùo creare informazioni dove none sistono FSR non può ed è uno scaling a doppio algoritmo con uno sharpening finale

Non è per sminutire il lavoro di AMD ma sono tecniche di reshade che si utilizzano da tempo in questo capo verso gli utenti più "navigati


Il DLSS è basato su un complesso sistema hardware che sarà semrpe superiore al software consiidrera questo il cuda core è un core che riesce a fare un certo tipo di calcolo generico mentre i tensor core, utilizzati epr il DLSS riescono a fare un calcolo specificoo a matrice

Tecnicamente è messa così se immaginiamo una classe fatta di studenti bravi in matematica i tensor core sono i più veloci a fare le divisioni
Quando arriva la scheda lo provo. Sapevo che CP2077 era pieno di bug, ma così tanto, no.
 
Quando arriva la scheda lo provo. Sapevo che CP2077 era pieno di bug, ma così tanto, no.
innanzitutto non è vero che ci sono artefATTI DOVUTI AL dlss CP ha bug grafici lo sanno pure i muri ma non ha nulla a che fare conq ueste tecnolgie

A me jopnny silverand è apparso per 2 giorni senza testa

Poi nessuno può vedeere davvero l'imaptto del RT su you tube perchè c'`e la comrpessioen video che impasta ogni cosa
 
Nessuno lo mette in dubbio, però, dai video sulle 3080 che ho visto su YT, l’acqua che sembra metallo fuso e i muri di cemento armato che riflettono come specchi, non mi ispirano molto.

Poi, ovviamente, andranno sempre migliorando e quando l’acqua sarà acqua e i muri non saranno specchi, sarò il primo a sparare a palla il RT.
Io non so che video tu abbia visto ma l’acqua con il RT non c’entra nulla.
il RT oggi come oggi è usato per le shadows e l’illuminazione . Se l’acqua sembra metallo, lo shader è scritto male, e sembrerebbe metallo anche senza RT.

peraltro sto usando RT con CP2077 e l’acqua Metallica non l’ho mai vista ?
 
Io non so che video tu abbia visto ma l’acqua con il RT non c’entra nulla.
il RT oggi come oggi è usato per le shadows e l’illuminazione . Se l’acqua sembra metallo, lo shader è scritto male, e sembrerebbe metallo anche senza RT.

peraltro sto usando RT con CP2077 e l’acqua Metallica non l’ho mai vista ?
ma quello è motlo probabilmetn è dovurto a qualche youtuber che non sa bene usare le schede di acquisizione o usa schede di acquisizioen a bassissima qualità o ha uimpsotazioni completamente sballate

LA comrpessioen video di google poi fa il resto

Ma dovrebbero abolirlo you tube per il RT gli effetti perdono del 95% per via della compressione quindi nonv edi assolutamente nulla
 
Quando arriva la scheda lo provo. Sapevo che CP2077 era pieno di bug, ma così tanto, no.
Io ci sto giocando da alcuni giorni e tutti sti bug finora non li ho visti, con l’ultima patch.
all’inizio era disastroso. Io infatti ho aspettato a prenderlo proprio per questo.
 
Io ci sto giocando da alcuni giorni e tutti sti bug finora non li ho visti, con l’ultima patch.
all’inizio era disastroso. Io infatti ho aspettato a prenderlo proprio per questo.
probabilmente hanno messo a posto la maggior parte delle cose nel frattempo i bug erano soprattutto stranezze grafiche su pc come telefoni fluttuanti persone che scomparivano ecc nulla di davvero esasperante al livello di gioco ma fastidioso

Ovviamente adesso avranno sicuramente risolto un mucchio di cose.....
 
probabilmente hanno messo a posto la maggior parte delle cose nel frattempo i bug erano soprattutto stranezze grafiche su pc come telefoni fluttuanti persone che scomparivano ecc nulla di davvero esasperante al livello di gioco ma fastidioso

Ovviamente adesso avranno sicuramente risolto un mucchio di cose.....
Progetto troppo ambizioso… io ho atteso 7/8 mesi proprio perché questo. Ora è meno problematico.

detto questo sto leggendo molte inesattezze su RT e DLSS (che tra l’altro sono due cose slegate) dovute principalmente alle idee confuse che molti hanno su cosa esattamente sia il ray tracing e la sua implementazione nei giochi (peraltro diversa tra vari titoli).
 
perché l'RT serve proprio a ricreare ciò che non c'é
Proprio no ? quello lo dovrebbe fare il dlss semmai
Ci sono centinaia di giochi già supportati
Centinaia proprio no.
Ad arrivare a 100 probabilmente farà prima FSR di amd dato che lo avranno tutti i giochi presenti su console.
Un IA o un modulo hardware lavoreranno sempre meglio di un qualcosa fatto solo via driver
Ma chi te lo ha detto ? Tutta la pubblicità che paga nvidia immagino.
Chi dice che dover eseguire il gioco per centinaia di ore nelle costosissime server farm di nvidia per allenare una IA sia meglio di un prodotto che, a detta degli sviluppatori, si implementa nel motore dei giochi in due ore e poi si perfeziona in qualche giorno ?
Chi ti dice che nvidia continuerà a pagare (come ha fatto fino ad ora) per far usare il DLSS nei giochi, pagando tutte le spese di sviluppo (sviluppatori, server farm, ecc...) ?
--- i due messaggi sono stati uniti ---
Non è vero che FSR è milgiore del DLSS
Ho detto che è migliore (di gran lunga) del DLSS appena uscito, cioè del 1.0.
Ovvio che con 2 anni di vantaggio DLSS 2.2 (o il numero che è) è meglio ma guardando alla partenza, FSR è partito meglio. Questo dicevo, avete capito male.
--- i due messaggi sono stati uniti ---
Io non so che video tu abbia visto ma l’acqua con il RT non c’entra nulla.
il RT oggi come oggi è usato per le shadows e l’illuminazione . Se l’acqua sembra metallo, lo shader è scritto male, e sembrerebbe metallo anche senza RT.

peraltro sto usando RT con CP2077 e l’acqua Metallica non l’ho mai vista ?
Non uso fortnite, ma su battlefield 5, uno dei primi ad avere il RT avevano messo tutto lucido e riflettente per far vedere quanto bello fosse il ray tracing solo che sembrava che qualsiasi cosa fosse cromata e non era affatto bello, è risaputo.
 
un modulo hardware lavoreranno sempre meglio di un qualcosa fatto solo via driver.
Questo è un po' un autogol se cerchi di difendere nvidia (posto che non penso tu sia un fanboy eh) ?

Comunque allora immagino prenderai una scheda amd al più presto dato che Nvidia non si degna neanche di inserire lo "scheduler" a livello hardware ma lascia fare tutto alla cpu via drivers andando a pesare su di essa invece che svolgere quella funzione da se come le schede amd.

Tra l'altro se non ricordo male HWUnboxed aveva trovato che il carico trasferito corrispondeva a circa 10-30Watt. Quindi, volendo essere corretti, quando si considerano i valori di potenza delle schede nvidia, bisognerebbe aggiungerci 10-30w.

Non solo, in alcuni casi, si è visto come passare da una scheda vecchia ad una più recente Nvidia, aumentasse il bottleneck sulla cpu e riducesse le prestazioni. Erano sistemi vecchi comunque ma faceva "impressione" vedere diminuire gli fps togliendo una rx570 ed aggiungendo una 2060super in un sistema (ripeto, con cpu non recente) ?

Volendo pensare alla longevità futura, con una cpu a 6 core come hanno in molti, proprio per via di questo "spostamento di carico sulla cpu", magari le 3000 creeranno bottleneck prima delle 6000 (che hanno lo scheduler implementato nel loro chip a livello hw appunto) ed allora non ci sarà RT o DLSS o FSR che tenga.
Ovviamente si vedrà...
 
ma guardate che i limitti dell FSR sono stati già messi in evidenza da Digital Foundery
C'è un grosso guadagno di FPS ma a scapito di una qualità grafica che risente fortemetn4e delle scaling

Il video si trova in rete

MEntre per il DLSS sono stati risolt emolte altre cose coem il problema ghosting in alcune texture
 
detto questo sto leggendo molte inesattezze su RT e DLSS (che tra l’altro sono due cose slegate) dovute principalmente alle idee confuse che molti hanno su cosa esattamente sia il ray tracing e la sua implementazione nei giochi (peraltro diversa tra vari titoli).
Siccome sono da telefono, mi si scaricherebbe la batteria a scrivere poemi, cerco di essere il più sintetico possibile.

Io non sono confuso su cosa sia il RT e su cosa il DLSS. Il fatto è che se la scheda andasse bene in RT non avrei nulla da dire. Invece il RT richiede parecchie risorse ed è giusto il calo di fps. Per sopperire al calo di fps dati dal RT hanno creato il DLSS.

Il DLSS è una porcheria che ha sviluppato Nvidia (azienda che stimo parecchio) che per me non ha senso. Renderizza l’immagine a una qualità inferiore per poi spararla a risoluzione scelta durante ”l’ultimo step”.

Se io col mio 3400G, su Fortnite (con DirectX 11) imposto (cosa che ho già provato) la risoluzione a 1440p e rendering al 50%, la Vega 11 mi scarica 70/80 fps, però non vado in giro a dire che gioco in 1440p, perché gioco con una risoluzione fake porcheria.

Se avessi voluto giocare a 1080p, avrei preso un monitor 1080p 120hz e una 3060 Ti e avrei risparmiato soldi senza bisogno di attivare il DLSS per un fake 1440p.

Sono punti di vista (in questo caso, il mio), però, ripeto, io preferisco giocare a risoluzione nativa piuttosto che un fake.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top