UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
eh certo, ma tanto non entra in testa che in questa fascia 8GB bastano e avanzano, se poi spunta qualche titolo rotto in cui si sfora l'ultimo dei problemi è la poca vram, viene molto prima il pessimo lavoro che c'è dietro al gioco stesso...
ma io trovo scandaloso che non ci si riesca ad arrivare

Chi sviluppa non ha limiti, può fare diversi tipi di texture per ogni fascia di scheda in commercio, anche per una 4090

Quello che non deve succedere e che la configurazione di un gioco non sfori per il tipo di scheda installata, in quanto non parliamo di uno sviluppo da prima elementare, ma di giochi AAA con investimenti a volte anche di moltissimi soldi

Se il gioco X trova la scheda Y ANCHJE con 4gb di VRAM e chi ha sviluppato il gioco ha inserito quella opzione nelle "papabili" per far giocare il gioco NON ESITE che quella quantità di VRAM non basti! (anche a questo servono le barre di vram occupata anche se in qualche gioco sono persino fatte male pure quelle!)

Altrimenti il gioco è programmato male

Non riesco a capire come una cosa cosi semplice e BANALE risulti difficile da capire
 
Guarda che non funziona proprio così… I giochi che stanno uscendo oggi li hanno sviluppati da 2 a 4 anni fa, quindi le zozzeria che stanno uscendo oggi non li influenzano più di tanto. 🤷🏻‍♂
Mi pare di aver sentito in una intervista ad uno sviluppatore che proprio per questo quando partono a sviluppare lo fanno con in mente l'hw "del futuro" o con la fascia alta del presente e anche per questo talvolta si sono trovati a dover tornare indietro e cercare compromessi perché l'hw non era avanzato come si pensava 🤔

Poi comunque non dico che non ci siano giochi fatti male, dico che se anche uscisse il nuovo e magnifico RDR3, sarebbe comunque pesantemente limitato dagli 8Gb.
Oppure costringerebbe ad essere giocato a dettagli medi sulle schede da 8Gb (che equivarrebbero ai dettagli alti di adesso ovviamente).
 
Mi pare di aver sentito in una intervista ad uno sviluppatore che proprio per questo quando partono a sviluppare lo fanno con in mente l'hw "del futuro" o con la fascia alta del presente e anche per questo talvolta si sono trovati a dover tornare indietro e cercare compromessi perché l'hw non era avanzato come si pensava 🤔

Poi comunque non dico che non ci siano giochi fatti male, dico che se anche uscisse il nuovo e magnifico RDR3, sarebbe comunque pesantemente limitato dagli 8Gb.
Oppure costringerebbe ad essere giocato a dettagli medi sulle schede da 8Gb (che equivarrebbero ai dettagli alti di adesso ovviamente).
Devi capire una cosa, chi sviluppa ha una tela bianca e chi fa un gioco può svilupparlo epr tutte le schede in commercio

Allora non è da ora che esistono schede con più di 8GB di vram pure la 1080 aveva 11GB quindi il fatto adesso di dire che "8gb sono un limite" è semplicemente una baggianata, specie se si parla di full hd

Chi sviluppa, addirittura in passato a cacciato "texture pach" per schede che altrimenti non avrebbero MAI sfruttato la RAM disponibile nemmeno in 4k


FAR CRY 6 ne è un esempio, ma ce ne sono molti altri, in molti giochi sono stati messi pacchetti aggiuntivi di texture proprio per quelle schede di fascia altissima che altrimenti non avrebbero mai e poi mai visto la ram disponibile utilizzata

quello che vediamo oggi è molto diverso vediamo giochi che escono con un consumo di vram scandaloso e con texture pietose cui poi il consumo di vram e solo uno dei tantissimi problemi, consumo di vram che guarda caso dopo svariate patch rientra sempre poi sotto i livelli di guardia, ma intanto non mancano you tuber fenomeni che prendono quegli stessi giochi "ad esmepio" di come siano "pochi" 8GB quando invece è palese che il gioco è stato ottiizzato con i piedi ( hub?)


Poi comunque non dico che non ci siano giochi fatti male, dico che se anche uscisse il nuovo e magnifico RDR3, sarebbe comunque pesantemente limitato dagli 8Gb.
Oppure costringerebbe ad essere giocato a dettagli medi sulle schede da 8Gb (che equivarrebbero ai dettagli alti di adesso ovviamente).
A che risoluzione perchè se parliamo di 8gb in full hd sono sempre ancora più che sufficienti

Ti ricordo la maggior pare della vram impegnata serve ad una cosda sola, l'elaborazione delle TExture

Usare texture 4k mentre giochi in full hd non ha alcun senso in quanto non ne otterresti nessun tipo di vantaggio visivo

IL PESO delle delle texture in full hd è molto DIVERSO da quello in QHD e da quello in UQHD

Quindi un gioco in full HD utilizzerà texture full hd e cosi via!

Per farti un idea del concetto un immagine completa reindirizzata in full hd pesa X
La stessa scena in QHD pesa molto di più e quindi serve più memoria VIDEO pesa n volte X

Lo stesso succede per il UQHD dove il peso della stessa scena è enormemente maggiore
 
Ultima modifica:
Devi capire una cosa, chi sviluppa ha una tela bianca e chi fa un gioco può svilupparlo epr tutte le schede in commercio

Allora non è da ora che esistono schede con più di 8GB di vram pure la 1080 aveva 11GB quindi il fatto adesso di dire che "8gb sono un limite" è semplicemente una baggianata, specie se si parla di full hd

Chi sviluppa, addirittura in passato a cacciato "texture pach" per schede che altrimenti non avrebbero MAI sfruttato la RAM disponibile nemmeno in 4k
Magari hai anche ragione, ma ho sentito più volte questa cosa della ram limitante.

Se mi ricordo bene il discorso era che ci sono effetti che richiedono abbastanza memoria e implementarli per il 10% di persone con abbastanza ram per goderseli non vale la pena.
Le texture si fa presto a scalarle in automatico, con gli effetti ci vuole più tempo perché vanno implementati, quindi prima di perderci tempo è giusto chiedersi se ne vale la pena.

Non so se l'esempio è corretto ma penso di si.
Su un fuoco si possono mettere un sacco di particelle, effetti volumetrici, ecc... ognuno con la sua geometria, la sua fisica, le sue texture ecc... Però se ti metti a perfezionare troppo ogni parte di una scena finisci per consumare un sacco di Vram.
Non vale quindi la pena investire risorse per implementare una moltitudine di effetti e creare scene super belle che riempiono magari 14Gb di memoria se poi il 90% degli utenti vedrà la scena castrata con metà degli effetti perché hanno metà della ram.
 
Aspetta, stronco un mito anche io. Ecco cosa usa la maggior parte della gente per giocare veramente:

Visualizza allegato 460119

Nella top 15 la GPU di fascia più alta è la RTX3080 al penultimo posto con l'1.88% percento.

Con quello screen stai solo dimostrano che le Ada Lovelace costano troppo, la gente non le compra. Ovviamente, tra chi ha i soldi e può permettersi una RTX4000, relativamente in tanti optano per la RTX4090, non perchè sia realmente necessaria così tanta potenza grafica, ma semplicemente perchè è l'unica tra le GPU di nuova generazione a offrire uno stacco netto rispetto alla scheda che sostituisce. E su questo siamo d'accordo.
Il problema è che quanti sono quelli che hanno 2000€ da spendere per una GPU? Lo 0.42% degli utenti Steam evidentemente, meno di quelli che giocano con l'UHD620 di Intel...La grandissima parte delle persone, semplicemente, si sta tenendo l'hardware di cui è già in possesso, in attesa di tempi migliori, che dovranno arrivare prima o poi, se non voglio vendere il 10% delle GPU che vendevano prima.
Presente io ancora gioco con una 1060 😅
 
Magari hai anche ragione, ma ho sentito più volte questa cosa della ram limitante.

Se mi ricordo bene il discorso era che ci sono effetti che richiedono abbastanza memoria e implementarli per il 10% di persone con abbastanza ram per goderseli non vale la pena.
Le texture si fa presto a scalarle in automatico, con gli effetti ci vuole più tempo perché vanno implementati, quindi prima di perderci tempo è giusto chiedersi se ne vale la pena.

Non so se l'esempio è corretto ma penso di si.
Su un fuoco si possono mettere un sacco di particelle, effetti volumetrici, ecc... ognuno con la sua geometria, la sua fisica, le sue texture ecc... Però se ti metti a perfezionare troppo ogni parte di una scena finisci per consumare un sacco di Vram.
Non vale quindi la pena investire risorse per implementare una moltitudine di effetti e creare scene super belle che riempiono magari 14Gb di memoria se poi il 90% degli utenti vedrà la scena castrata con metà degli effetti perché hanno metà della ram.
Niente non lo riesci a capire

Tu pensi che la maggior parte degli effetti grafici ha un peso enorme sull'occupazione della vram, e non si chi o cosa te lo abbia messo in testa!

Allora mettiamo in chiaro le cose, 80% o anche oltre della memoria video occupata da un gioco è dato SOLO dalle TEXTURE!
tutto il resto occuperà di e no un 10% e parlano di cose come Shadow Maps effetti sull' illuminazione ecc e la parte riservata poi al buffering .

Per questo più la risoluzione è elevata più serve vram perché le texture PESANO letteralmente molto di più se sono in FHD QHD o UQHD.

È solo chi sviluppa che ha dei target, che li decide e decide anche attraverso i sul di configurazione la quantità massima che un goccio dovrebbe utilizzare su una determinata scheda!

Quindi quello che dici non esiste proprio

Prendiamo un esempio banale dove ho il primo gioco con il contatore TLOU



Ecco in 5 voci hai la maggior p[arte di quello che influenza la VRAM e riguarda solo ed escluisivamente la qualità delle texture

Tutte le altre voci disponibili hanno un impatto nullo o risibile



Inviato dal mio Pixel 7 utilizzando Tapatalk
 
Ultima modifica:
Ma io non parlo dei giochi fatti male.

Parlo dei giochi fatti bene che anche se fatti bene con l'hw che c'è adesso più di tanto non possono fare.
E, a detta degli sviluppatori, uno dei principali limiti sono gli 8Gb per loro...
Quali sono questi sviluppatori ? Perché in tutto questo clickbait UN SOLO tipo, spacciandosi per sviluppatore senza rilevare la software house, ha detto questo…

dai su ancora un pò di pazienza, solo qualche settimana e finalmente sarà acquistabile la 4060Ti 16GB... :D

p.s. cavolo mi sono accorto che ho nominato la 4060Ti 16GB a pagina 666, ora che succederà?
L’ Armageddon
 
Mi pare di aver sentito in una intervista ad uno sviluppatore che proprio per questo quando partono a sviluppare lo fanno con in mente l'hw "del futuro" o con la fascia alta del presente e anche per questo talvolta si sono trovati a dover tornare indietro e cercare compromessi perché l'hw non era avanzato come si pensava 🤔

Poi comunque non dico che non ci siano giochi fatti male, dico che se anche uscisse il nuovo e magnifico RDR3, sarebbe comunque pesantemente limitato dagli 8Gb.
Oppure costringerebbe ad essere giocato a dettagli medi sulle schede da 8Gb (che equivarrebbero ai dettagli alti di adesso ovviamente).
Ma perché credi che sia un limite ?
Chi oggi inizia a sviluppare un gioco, sa che il mercato offre soluzioni da 4 GB (ci sono più notebook di quanti credi) fino a 24 GB, quindi sviluppano engine con qualità scalabile.
Non capisco perché tu debba pensare che gli 8 GB siano un limite…
 
Sulla discussione degli 8GB vedo posizioni troppo cristallizzate. Dire semplicemente 8GB bastano ed è colpa degli sviluppatori se non ci stanno dentro, perché la maggioranza delle schede ha 8GB non lo trovo logico. Dall'altra parte acquistare schede chiaramente sbilanciate(4060ti 16GB) con un bel sovraprezzo per la ram in più mi sembra altrettanto poco lucido. La verità è che stiamo litigando per colpa di Nvidia che ha mal progettato la line up tagliando troppo i bus, in questo modo non è possibile avere i tagli "giusti" di memoria. Se me la devo prendere con qualcuno per il problema, diciamo che preferisco prendermela con Jensen...
 
Sono d'accordo, il punto sta sull'equilibrio, che è proprio quello che nvidia non vuole concedere per forzare poi all'upgrade (infatti la 3060 ha 12Gb e la 3060ti ha 8Gb, il contrario sarebbe stato troppo equilibrato e sconveniente in termini di programmazione dell'obsolescenza).

Non dico che bisognerebbe avere 16Gb per il 1080p, ma 10Gb si.
Non sulle schede da 200euro per carità, ma su quelle da 300 a salire... figuriamoci quelle da 480euro come la 4060ti.

Comunque vedremo in futuro chi aveva ragione sugli 8Gb in fhd. Io riporto solo cose che ho sentito dire, quindi non posso argomentare oltre.

+200 sul core e +1700 mem
Quella scheda avrebbe bisogno di +4 Gb sulle memorie altro che i Mhz 😁
 
Beh un certo numero pure ad insultare Superman 😅


Guarda che non funziona proprio così… I giochi che stanno uscendo oggi li hanno sviluppati da 2 a 4 anni fa, quindi le zozzeria che stanno uscendo oggi non li influenzano più di tanto. 🤷🏻‍♂️
Secondo me i pessimi giochi che stiamo vedendo nel 2023 sono dovuti la maggior parte alla pandemia. I giochi sono stati sviluppati dal 2020 ad oggi, e immagino i vari problemi che hanno avuto con magari che ne so il game director a casa in quarantena, lavoro bloccato tornava lui e magari usciva positivo un altro sviluppatore con conseguente quarantena di tutti. Sono d’accordo che 8GB nel 2023 non si possono più vedere ma i problemi attuali sono altri è da riportare allo sviluppo problematico in pandemia.
 
per i +4GB ci sono le 4070, schede sulle quali per lo meno hanno un'utilità

I 12Gb della 4070 sono utili per cosa ? Per il 1440p immagino 🤔
Alla fine la 4060ti è una 3070 come prestazioni (senza frame generator) quindi con 12Gb sarebbe stata anche lei una scheda utilizzabile in 1440p (sempre troppo costosa per 480euro, ma già meglio).

Poi anche -200euro sarebbero andati bene, considerandola quindi per il fullhd.

Il problema è che non ha ne il prezzo più basso ne i giga in più 😒
 
Pubblicità
Pubblicità
Indietro
Top