UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
ma cosa stai dicendo ??? Le texture non scalano di qualità dinamicamente. Una texture "da VRAM piena" non esiste 🤦‍♂️
Semplicemente se la VRAM si riempie, il frame rate rallenta. Non scala di qualità dinamicamente.
in relata il frame rallenta solo se la quantità di vram eccede il framebuffer sennò non succede nemmeno quello
 
pensavo peggio la compilazione degli shader di TLOU con il 13900K, alla fine sta sui 70-72° e vrm a 52-53°, niente di che.... :)


ti riquoto visto che ho appena messo TLOU anche sul pc con il 13900K, e a differenza del mio pc con l'XE e X299 ti posso confermare che la cpu sta quasi al 100% durante la compilazione degli shader (l'XE stava circa al 50%), la temp rimane sotto controllo sui 70-72° (vrm mobo a 52-53°), procedura finita in 20min o poco più...

va tenuto conto però che la cpu è deliddata e uso una waterstation esterna (MO-RA3 360 con 9x120), ci sta quindi che alcuni hanno avuto problemi a portarla a termine...
immagina chi ha un pc con una mobo non troppo pompata sui vrm o un dissipatore cosi cosi che succede
 
Ultima modifica:
immagina chi ha un p[c con una mobo non troppo pompata sui vrm o un dissipatore cosi cosi che succede
eh si, ci stanno infatti i problemi che molti hanno riscontrato...
fai conto che con il delid e lapping del die ho limato 15° buoni, altrimenti adesso già sarei stato non lontano dai 90°...
 
No, la vram è un grosso problema. Soprattutto se se ne ha meno di 8gb. In parecchi degli ultimi giochi, recenti e da milioni di copie e non giochi di nicchia da nerd, la 3070 non riesce a caricare le texture portando a evidenti difetti grafici, stuttering e crash. E il problema se lo porta non solo a 1440p ed ultra ma pure a 1080p tanto da dover settare i dettagli su medio.
--- i due messaggi sono stati uniti ---


Iniziano ad essere un po' troppi i giochi a cui additare la colpa della mala gestione della memoria....
che la 3070 sia stata dimensionata male lo sappiamo dal principio.
Però se gli sviluppatori lavorano decentemente, resta utilizzabile senza problemi. Anche a 1440P.
Certo se fanno come su TLOU, allora i problemi ci sono e ci saranno sempre...

Fermo restano che scendere da Ultra ad High non è che faccia male alla salute, eh... E su una RTX 3070 con 2 anni e mezzo sul groppone, direi che è accettabile

Prima slide: Ultra Quality +Rt
Seconda slide: Ultra Quality senza Rt
Confronto senza senso, ragazzi non capisco perché vi ostinate a negare, nonostante l’evidenza, è grave è.
copia e incolla sbagliato: ora le slide sono corrette.
La 3070 guadagna tantissimo con la sola ottimizzazione software.
 
che la 3070 sia stata dimensionata male lo sappiamo dal principio.
Però se gli sviluppatori lavorano decentemente, resta utilizzabile senza problemi. Anche a 1440P.
Certo se fanno come su TLOU, allora i problemi ci sono e ci saranno sempre...

Fermo restano che scendere da Ultra ad High non è che faccia male alla salute, eh... E su una RTX 3070 con 2 anni e mezzo sul groppone, direi che è accettabile
E quello che dico anche io basta abbassare un pelo le texture che di solito nemmeno si nota giustificare però conversioni come TLOU è inaccetabile

TLOU non ha NULLA di graficamente nuovo per giustificare quel leak di memoria è un gioco vecchisismo dove il motore grafico del 2 gira benone su ps4

PS4!!!!!!
2023040520110523.webp
E non ha quelle texture li!
 
Lo avevo accennato in precedenza che 8gb iniziavano già ad essere pochi e sarebbero stati sempre più scarsi in futuro, citando sviluppatori software in interviste pubbliche ma avete tirato su un putiferio enorme che non centrava neanche tanto con la mia affermazione 😆

Vediamo se adesso con dati oggettivi e risultati palesi va meglio 😆.
Qualcuno inizia già a dire che nel video sono di parte ma vorrei sentirli dire apertamente che un canale come HUB si è messo a falsificare i suoi test. A quel punto saremo certi della vostra faziosità. 😁



Evidentissimo è il caso riportato da HUB nel video sopra in TLOU (ma non è solo quel titolo, sono tutti i titoli di quel test).

Ad un certo punto del test, dopo un crash, la 3070 ha iniziato ad avere un framerate 20% superiore perché non caricava correttamente le texture (e quindi non saturava la vram).

A sx alberi con texture caricate male (+20% fps) a dx le texture giuste (che saturano gli 8Gb, -20% fps)

1681133706988.png 1681133720104.png


Il problema poi non è con quale scheda si compara la 3070, il problema è il rapporto tra fps minimi e medi:
1681133900936.png

Una scheda con 16gb (ma già con 10gb sarebbe stato lo stesso penso) come una 6800 tiene botta molto meglio sui minimi.
Una scheda con 8gb come la 3070 ha minimi che sono quasi la metà dei medi, senza considerare gli stutter a 3fps che si vedono nel test (ma troppo rari per arrivare all'1% complessivo, motivo per cui quel dato arriva a 30fps).

E questo non su un unico titolo.
Anche su HL col dlss attivo (renderizzando a 720p) si vedono texture sulla 3070 che vengono costantemente ricaricate e quindi alternano qualità pixellatissime a qualità "corretta".
Palese è il passaggio dove, stando fermi, le texture sulla 3070 continuano lo stesso a variare tra risoluzione corretta e bassissima (perché non riesce a tenerle tutte dentro gli 8gb e deve caricarle a turno).

1681134268649.png1681136031538.png

Poi magari uno non ci fa troppo caso senza paragoni diretti, ma nel confronto è lampante la differenza.


Su RE4 la 3070 crasha immediatamente con texture al massimo e rt abilitato 😆


Su forspoken la 3070 va come la 6800 quasi... Perché rinuncia in partenza a caricare le textur a qualità alta 😅😅😅

1681134850764.png1681134859896.png


E così via con gli altri titoli del test...


Poi magari tutto si risolve con le texture medie o basse, ma è "giusto" così ?
E' quello che si aspettavano quelli che l'hanno comprata ?

E' assurdo dover scendere di qualità su una 3070 in 1080p (e 1440p) per via della vram.
Una 3070 non dovrebbe proprio essere una scheda da dettagli medi a quelle risoluzioni.
E invece lo è per colpa della vram (8gb) insufficiente.

I test parlano chiaro.
 
pensavo peggio la compilazione degli shader di TLOU con il 13900K, alla fine sta sui 70-72° e vrm a 52-53°, niente di che.... :)


ti riquoto visto che ho appena messo TLOU anche sul pc con il 13900K, e a differenza del mio pc con l'XE e X299 ti posso confermare che la cpu sta quasi al 100% durante la compilazione degli shader (l'XE stava circa al 50%), la temp rimane sotto controllo sui 70-72° (vrm mobo a 52-53°), procedura finita in 20min o poco più...

va tenuto conto però che la cpu è deliddata e uso una waterstation esterna (MO-RA3 360 con 9x120), ci sta quindi che alcuni hanno avuto problemi a portarla a termine...
Infatti a me è stato al 95-100% tutto il tempo della compilazione. 82° massimo e tempo quasi non più di 15 minuti (ero sceso da basso un momento, non so di preciso perché quando sono tornato al pc era finito😅).
Comunque anche in game utilizzo minimo 50%, non scendeva sotto i 65°
 
Qualcuno inizia già a dire che nel video sono di parte ma vorrei sentirli dire apertamente che un canale come HUB si è messo a falsificare i suoi test. A quel punto saremo certi della vostra faziosità. 😁
hwunboxed è di parte AMd è evidente come il sole

Se loro non incensano AMD io mi chiamo Raffaella Carrà

Comune il discorso VRAM lascia il tempo che trova, la 3070 ha quasi 3 anni, ch devi calare le texture da ultra a max su una sceda di fascia media come già detto migliaia di volte ci sta

Questo non significa che devi mettere i dettagli a medio
 
Lo avevo accennato in precedenza che 8gb iniziavano già ad essere pochi e sarebbero stati sempre più scarsi in futuro, citando sviluppatori software in interviste pubbliche ma avete tirato su un putiferio enorme che non centrava neanche tanto con la mia affermazione 😆

Vediamo se adesso con dati oggettivi e risultati palesi va meglio 😆.
Qualcuno inizia già a dire che nel video sono di parte ma vorrei sentirli dire apertamente che un canale come HUB si è messo a falsificare i suoi test. A quel punto saremo certi della vostra faziosità. 😁



Evidentissimo è il caso riportato da HUB nel video sopra in TLOU (ma non è solo quel titolo, sono tutti i titoli di quel test).

Ad un certo punto del test, dopo un crash, la 3070 ha iniziato ad avere un framerate 20% superiore perché non caricava correttamente le texture (e quindi non saturava la vram).

A sx alberi con texture caricate male (+20% fps) a dx le texture giuste (che saturano gli 8Gb, -20% fps)

Visualizza allegato 457322 Visualizza allegato 457323


Il problema poi non è con quale scheda si compara la 3070, il problema è il rapporto tra fps minimi e medi:
Visualizza allegato 457324

Una scheda con 16gb (ma già con 10gb sarebbe stato lo stesso penso) come una 6800 tiene botta molto meglio sui minimi.
Una scheda con 8gb come la 3070 ha minimi che sono quasi la metà dei medi, senza considerare gli stutter a 3fps che si vedono nel test (ma troppo rari per arrivare all'1% complessivo, motivo per cui quel dato arriva a 30fps).

E questo non su un unico titolo.
Anche col dlss attivo (renderizzando a 720p) si vedono texture sulla 3070 che vengono costantemente ricaricate e quindi alternano qualità pixellatissime a qualità "corretta".
Palese è il passaggio su HL dove, stando fermi, le texture sulla 3070 continuano lo stesso a variare tra risoluzione corretta e bassissima (perché non riesce a tenerle tutte dentro gli 8gb e deve caricarle a turno).

Visualizza allegato 457328Visualizza allegato 457340

Poi magari uno non ci fa troppo caso senza paragoni diretti, ma nel confronto è lampante la differenza.


Su RE4 la 3070 crasha immediatamente con texture al massimo e rt abilitato 😆


Su forspoken la 3070 va come la 6800 quasi... Perché rinuncia in partenza a caricare le textur a qualità alta 😅😅😅

Visualizza allegato 457334Visualizza allegato 457335


E così via con gli altri titoli del test...


Poi magari tutto si risolve con le texture medie o basse, ma è "giusto" così ?
E' quello che si aspettavano quelli che l'hanno comprata ?

E' assurdo dover scendere di qualità su una 3070 in 1080p (e 1440p) per via della vram.
Una 3070 non dovrebbe proprio essere una scheda da dettagli medi a quelle risoluzioni.
E invece lo è per colpa della vram (8gb) insufficiente.

I test parlano chiaro.
Chissà @Max(IT) e @crimescene che deltoidi e tricipiti hanno messo su, a furia di arrampicarsi sugli specchi.
Spero che adesso il discorso vRam, sia concluso definitivamente ed abbia portato in accordo tutti.
Grazie per l’attenzione e ricordate, il mio lavoro è istruire.
 
Infatti a me è stato al 95-100% tutto il tempo della compilazione. 82° massimo e tempo quasi non più di 15 minuti (ero sceso da basso un momento, non so di preciso perché quando sono tornato al pc era finito😅).
Comunque anche in game utilizzo minimo 50%, non scendeva sotto i 65°

si esatto lo sfrutta quasi al 100% durante questa compilazione, e inevitabilemente salgono le temp...
ci ha messo poco più di 20min alla fine anche qui, cpu def non ottimizzata..

in game, ci ho fatto un 20min scarsi con la 4070 poco fa, sta sul 35-40%, praticamente dorme, con temp di 45-50°...
pensavo peggio a leggere in rete :D
 
Chissà @Max(IT) e @crimescene che deltoidi e tricipiti hanno messo su, a furia di arrampicarsi sugli specchi.
Spero che adesso il discorso vRam, sia concluso definitivamente ed abbia portato in accordo tutti.
Grazie per l’attenzione e ricordate, il mio lavoro è istruire.


Chi si arrimpaca sulgi specchi?

Tu hai detot che 10 gb sono pochi mica 8

dire che 10 gb sono pochi in full hd è follia pura altro che specchi ci vuole il manicomio
 
Lo avevo accennato in precedenza che 8gb iniziavano già ad essere pochi e sarebbero stati sempre più scarsi in futuro, citando sviluppatori software in interviste pubbliche ma avete tirato su un putiferio enorme che non centrava neanche tanto con la mia affermazione 😆

Vediamo se adesso con dati oggettivi e risultati palesi va meglio 😆.
Qualcuno inizia già a dire che nel video sono di parte ma vorrei sentirli dire apertamente che un canale come HUB si è messo a falsificare i suoi test. A quel punto saremo certi della vostra faziosità. 😁



Evidentissimo è il caso riportato da HUB nel video sopra in TLOU (ma non è solo quel titolo, sono tutti i titoli di quel test).

Ad un certo punto del test, dopo un crash, la 3070 ha iniziato ad avere un framerate 20% superiore perché non caricava correttamente le texture (e quindi non saturava la vram).

A sx alberi con texture caricate male (+20% fps) a dx le texture giuste (che saturano gli 8Gb, -20% fps)

Visualizza allegato 457322 Visualizza allegato 457323


Il problema poi non è con quale scheda si compara la 3070, il problema è il rapporto tra fps minimi e medi:
Visualizza allegato 457324

Una scheda con 16gb (ma già con 10gb sarebbe stato lo stesso penso) come una 6800 tiene botta molto meglio sui minimi.
Una scheda con 8gb come la 3070 ha minimi che sono quasi la metà dei medi, senza considerare gli stutter a 3fps che si vedono nel test (ma troppo rari per arrivare all'1% complessivo, motivo per cui quel dato arriva a 30fps).

E questo non su un unico titolo.
Anche su HL col dlss attivo (renderizzando a 720p) si vedono texture sulla 3070 che vengono costantemente ricaricate e quindi alternano qualità pixellatissime a qualità "corretta".
Palese è il passaggio dove, stando fermi, le texture sulla 3070 continuano lo stesso a variare tra risoluzione corretta e bassissima (perché non riesce a tenerle tutte dentro gli 8gb e deve caricarle a turno).

Visualizza allegato 457328Visualizza allegato 457340

Poi magari uno non ci fa troppo caso senza paragoni diretti, ma nel confronto è lampante la differenza.


Su RE4 la 3070 crasha immediatamente con texture al massimo e rt abilitato 😆


Su forspoken la 3070 va come la 6800 quasi... Perché rinuncia in partenza a caricare le textur a qualità alta 😅😅😅

Visualizza allegato 457334Visualizza allegato 457335


E così via con gli altri titoli del test...


Poi magari tutto si risolve con le texture medie o basse, ma è "giusto" così ?
E' quello che si aspettavano quelli che l'hanno comprata ?

E' assurdo dover scendere di qualità su una 3070 in 1080p (e 1440p) per via della vram.
Una 3070 non dovrebbe proprio essere una scheda da dettagli medi a quelle risoluzioni.
E invece lo è per colpa della vram (8gb) insufficiente.

I test parlano chiaro.
Guarda, i miei post sulla RTX 3070 sono ancora qui (e su Techpowerup, dove fui aggredito dai fanboy Nvidia): 8 GB erano pochi per una scheda del genere. Quindi si sta scoprendo l’acqua calda.
Ma spostare le texture su high, sapendo che gli 8 GB sono un limite, non è un dramma. E non a caso Hogwarts Legacy risolve il problema con un caricamento più dinamico delle stesse che preserva il frametime in movimento.
Insomma di metodi ce ne sono tanti, e patch successive miglioreranno anche le cose ulteriormente.

Ma prendere TLOU proprio non va bene e dimostra come HWU sia un covo di fanatici AMD: il gioco al momento è davvero fatto malissimo, e non ha nulla che giustifichi quelle risorse (o i 20 minuti di compilazione con un 13900K !!!! ROba da matti…).
 
Pubblicità
Pubblicità
Indietro
Top