UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Secondo me i pessimi giochi che stiamo vedendo nel 2023 sono dovuti la maggior parte alla pandemia. I giochi sono stati sviluppati dal 2020 ad oggi, e immagino i vari problemi che hanno avuto con magari che ne so il game director a casa in quarantena, lavoro bloccato tornava lui e magari usciva positivo un altro sviluppatore con conseguente quarantena di tutti. Sono d’accordo che 8GB nel 2023 non si possono più vedere ma i problemi attuali sono altri è da riportare allo sviluppo problematico in pandemia.
lì il problema non sta ne nella quarantena, ne nella positività... ma i sintomi. se lievi o asintomatici? ti fermi un giorno o due, poi ricominci a lavorare da casa, ma se "pinco pallino" che stava lavorando sulla ia degli npc finisce in ospedale per 2 o 3 mesi? chi lavora a grafica e modellazione non viene interrotto... ma chi sta scrivendo la storia o gli intrecci di trama?
 
lì il problema non sta ne nella quarantena, ne nella positività... ma i sintomi. se lievi o asintomatici? ti fermi un giorno o due, poi ricominci a lavorare da casa, ma se "pinco pallino" che stava lavorando sulla ia degli npc finisce in ospedale per 2 o 3 mesi? chi lavora a grafica e modellazione non viene interrotto... ma chi sta scrivendo la storia o gli intrecci di trama?
Esatto e tutti i giochi uscito ora nel 2023 vengono da quello sviluppo travagliato. Speriamo in bene dai i prossimi titoli dovrebbero già avere un’arco di sviluppo diverso e quindi non essere influenzati dalla pandemia ad non nella parte iniziale dello sviluppo.
 
I 12Gb della 4070 sono utili per cosa ? Per il 1440p immagino.
Alla fine la 4060ti è una 3070 come prestazioni (senza frame generator) quindi con 12Gb sarebbe stata anche lei una scheda da 1440p (sempre troppo costosa per 480euro, ma già meglio).

la 4060Ti non è una scheda per il 1440p, e non lo sarebbe stata nemmeno con 12GB, come non lo sarà l'imminente versione da 16GB, seppur farà felici molti utonti che guardando il numerino si crederanno più furbi di chi ha pagato di più per una 4070/70Ti con 4GB in meno...

ma purtroppo non basta la vram per salire di livello quando hai sotto una GPU che non regge il passo, se fosse stato sufficiente quello stai sicuro che per NVIDIA sarebbe stata lei la x70 e ci avrebbe guadagnato pure di più... :D
 
Alla fine va il 4-5% in meno di una 3070 in 1440p.
Quindi neanche la 3070 é da 1440p? 🤔
ma la 3070 prima di tutto ha un bus molto maggiore e poi è uscita da 4 anni

La 3070 è potuta benisismo essere considerata una scheda QHD per il suo periodo in cui è stata commercializzata ( cioè 3 anni fa fino ad oggi)

E la 3070 lo dicevamo 3 anni fa che 8GB di VRAM potrebbero essere stati un "problema "a fine del suo ciclo, ma in realtà non è nemmeno successo!

LA 4060 ti oggi non può essere assolutamente considerata una scheda da QHD se va quanto una scheda considerata da QHD con 4 anni sul groppone e pure con bus e bandwith delle memorie dimezzato.

metterci 16 gb fa ridere non è che il chip diventa immediatamente milgiore!

Pure la 1080 ti era considerata una scheda da UQHD ai tempi ma oggi è cosi?
 
Ultima modifica:
Sono d'accordo, il punto sta sull'equilibrio, che è proprio quello che nvidia non vuole concedere per forzare poi all'upgrade (infatti la 3060 ha 12Gb e la 3060ti ha 8Gb, il contrario sarebbe stato troppo equilibrato e sconveniente in termini di programmazione dell'obsolescenza).

Questo discorso mi sta bene se lo fa lo youtuber tipico, che di informatica capisce una fava. NOn da un assiduo frequentatore del forum.
Il motivo dei 12 GB sulla 3060 è stato discusso più e più volte ed è SOLO legato al bus: con quel bus dovevano scegliere 6, 12 o 24 GB di VRAM. L’ultimo si esclude da solo, ma Nvidia non se l’è sentita di commercializzare una scheda da 6 GB. Troppo persino per il giacchetta.
Il contrario non sarebbe stato possibile: con un bus da 256 bit non puoi montare 12 GB di VRAM.

Non dico che bisognerebbe avere 16Gb per il 1080p, ma 10Gb si.
Non sulle schede da 200euro per carità, ma su quelle da 300 a salire... figuriamoci quelle da 480euro come la 4060ti.

Comunque vedremo in futuro chi aveva ragione sugli 8Gb in fhd. Io riporto solo cose che ho sentito dire, quindi non posso argomentare oltre.


Quella scheda avrebbe bisogno di +4 Gb sulle memorie altro che i Mhz 😁
Ma gli 8 GB li puoi saturare anche a 720P, se vuoi.
Non capisco perché vi fossilizziate su questo. O meglio, lo capisco perché YouTube è pieno di video spazzatura con titoli tipo “is 8 GB enough VRAM ?”.
La domanda da porsi è un altra, da parte dello sviluppatore. Il parco macchine nel timeframe in cui il mio gioco sarà presumibilmente “attuale” come è composto ? Ci sono ampie statistiche a disposizione (Steam ad esempio li aiuta molto). Se il mainstream è 8 GB allora io ottimizzo per questi, lasciando comunque aperta la possibilità di settaggi più elevati per chi ha a disposizione hardware diverso.
Che poi, a volerla dire tutta, è quello che accade oggi: tutti quei video spazzatura usano schede da 8 GB con settaggi su Ultra invece che su Alto o Medio che risolverebbero il problema nella maggior parte dei giochi (alcuni sono buggati, ma il problema poi si risolve con patch come accaduto in TLOU).
Insomma senza dubbio gli 8 GB sono pochini oggi, ma la questione è stata montata più del dovuto da una parte per via di alcuni siti pro-AMD (vedasi HUB) che provavano a sponsorizzare la vendita di vecchie top di gamma RDNA2, dall’altra da canali di scarsa competenza che seguivano l’onda del clickbait. Ed ormai l’argomento è così popolare che ne parlano tutti.

Alla fine va il 4-5% in meno di una 3070 in 1440p.
Quindi neanche la 3070 é da 1440p? 🤔
Ma che discorsi sono ? La 1070 era una scheda da 1440P quando è uscita…
Non è che il target di riferimento resta costante negli anni.
La 3070 è uscita nel 2020, ed era perfetta per il 1440P allora

1685078878665.webp

Le critiche per i soli 8 GB piovvero anche allora, le mie in primis, ma per il panorama software di allora (qui sopra ne hai un esempio) era una soluzione perfetta al giusto prezzo (teorico).

Suvvia ragazzi, non iniziate a comportarvi tutti come colui che vola e vede attraverso i muri, distorcendo la realtà per sostenere un punto di vista assurdo.
Un hardware si colloca nella posizione che ha al lancio, poi è chiaro che negli anni finisce per “scalare” o richiedere compromessi.
Che poi te lo dico chiaramente, mio figlio con una 3060 Ti gioca a 1440P ad ogni gioco senza problemi, ed i titoli in cui ha dovuto scendere di qualche tacchetta nei setting si contano sulle dita di una mano.
 
Sulla discussione degli 8GB vedo posizioni troppo cristallizzate. Dire semplicemente 8GB bastano ed è colpa degli sviluppatori se non ci stanno dentro, perché la maggioranza delle schede ha 8GB non lo trovo logico. Dall'altra parte acquistare schede chiaramente sbilanciate(4060ti 16GB) con un bel sovraprezzo per la ram in più mi sembra altrettanto poco lucido. La verità è che stiamo litigando per colpa di Nvidia che ha mal progettato la line up tagliando troppo i bus, in questo modo non è possibile avere i tagli "giusti" di memoria. Se me la devo prendere con qualcuno per il problema, diciamo che preferisco prendermela con Jensen...
Ecco questo discorso è più corretto. Nvidia ha disegnato male (per noi… bene per lei) il bus di queste soluzioni, alla ricerca del massimo profitto.
Discorso molto semplice: dopo il boom del 2020 (mining + covid) i profitti sono saliti alle stelle, e con una situazione che doveva per forza normalizzarsi (ricordo le 3060 vendute oltre 1000 euro) Nvidia non voleva rinunciare al suo margine, o almeno a gran parte di esso. Quindi che soluzioni ha adottato ? Da una parte tenere i prezzi più alti del dovuto, ma anche li più di tanto non poteva esagerare. Dall’altra tagliare sui costi di produzione, ed ecco i bus tagliati, piccolo risparmio ma che su grande scala diventano $$$

Questo taglio dei bus rende obbligate le scelte sulla VRAM (e fa scopa con il risparmio su grande scala).
 
Intanto escono le recensioni di "gollum" altro gioco che di "next gen" non ha assolutamente nulla cui gafica animazioni geometrie sembrano di due generazioni fa gameplay piatto e deludente, storia corta ed abbozzata

insomma uno 0 a cui hanno appiccicato il ray tracing e dlss 3 e poi gira male pure su una 4070

Meno male che arrivavano i giochi che ci facevano stare a bocca aperta, fino ad ora la bocca è aperta si ma per quanto fanno schifo
 
Intanto escono le recensioni di "gollum" altro gioco che di "next gen" non ha assolutamente nulla cui gafica animazioni geometrie sembrano di due generazioni fa gameplay piatto e deludente, storia corta ed abbozzata

insomma uno 0 a cui hanno appiccicato il ray tracing e dlss 3 e poi gira male pure su una 4070

Meno male che arrivavano i giochi che ci facevano stare a bocca aperta, fino ad ora la bocca è aperta si ma per quanto fanno schifo
forse il gioco peggiore di tutti quelli usciti in sto periodo! mamma mia come siamo messi, poveri noi.
 
forse il gioco peggiore di tutti quelli usciti in sto periodo! mamma mia come siamo messi, poveri noi.
Non posso darti torto al 100%, però non è tutto "marcio".
Per esempio quest'anno è uscito:
- the legend of zelda tears of the kingdom (GOTY al 99% )
- Hogwarts Legacy, che nonostante i problemi iniziali legati alla vram, ha sorpreso tutti, dimostrandosi un buon titolo e non il solito gioco mediocre tratto da film/telefilm/libri/cartoni.
- Octopath Traveler II, degno successore del primo capitolo, ottimo rpg a turni.
- Bayonetta Origins
- Resident Evil 4 Remake
- Endless Dungeon
- Diablo 4, ho testato tutte le prove e beta, è sembra essere già in una fase ottima a differenza del precedente capitolo che usci al day 1 in uno stato pietoso.

Inoltre quest'anno usciranno altri giochi che con alte probabilità saranno degli ottimi giochi. Basta saper selezionare e non fiondarsi su giochi mediocri e mal ottimizzati.
 
Pubblicità
Pubblicità
Indietro
Top