UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Basta con le giustificazioni dai, per favore, sono stanco, bisogna accettarle determinate cose, soprattutto quando dimostrate con dati!!!
la fonte è la review di Multy, ma chiunque, afferma ciò.

N.B.
Io direi che oggi, possiamo/POTETE consigliare a chi vuole aggiornare per il 1440p, una GPU con almeno 12Gb di Vram, in ragione dei numerosi riscontri che stiamo avendo dagli ultimi giochi usciti, risulta quindi non consono e non attendibile, consigliare una gpu con meno di 12Gb di Vram per il 1440p nei giochi moderni.
Multy ha fatto una recensione a dir poco scandalosa. Hanno il dissipatore originale, probabilmente senza contact frame e l'i5 13500 gli è andato a 100 gradi durante la compilazione degli shader. Ma come cazzzzzo si fa a portare una cpu del genere a 100 gradi?!!! Sono degli ignoranti di prima categoria, ogni volta che parlano di hardware mi vengono i conati di vomito. Io ho un forno come cpu, e durante gli shader mi ha sfiorato max i 68 gradi.
Porca la miseria come fai a dare retta ad un sito del genere ??? Mi deludi.
Se un gioco arriva a saturare 12GB in 1440p, puoi credermi sulla parola se ti dico che quella software house non ha ottimizzato il gioco. Se dai un incarico del genere, come il porting di un capolavoro ad un team di sviluppo, il quale, la metà dei membri hanno frequentato la stessa scuola dei Teletubbies, ci credo che il gioco va a saturare tutta quella vram e crasha.
 
Multy ha fatto una recensione a dir poco scandalosa. Hanno il dissipatore originale, probabilmente senza contact frame e l'i5 13500 gli è andato a 100 gradi durante la compilazione degli shader. Ma come cazzzzzo si fa a portare una cpu del genere a 100 gradi?!!! Sono degli ignoranti di prima categoria, ogni volta che parlano di hardware mi vengono i conati di vomito. Io ho un forno come cpu, e durante gli shader mi ha sfiorato max i 68 gradi.
Porca la miseria come fai a dare retta ad un sito del genere ??? Mi deludi.
Se un gioco arriva a saturare 12GB in 1440p, puoi credermi sulla parola se ti dico che quella software house non ha ottimizzato il gioco. Se dai un incarico del genere, come il porting di un capolavoro ad un team di sviluppo, il quale, la metà dei membri hanno frequentato la stessa scuola dei Teletubbies, ci credo che il gioco va a saturare tutta quella vram e crasha.
FsWhJ0iaAAEQpwS



12-56fps @1440p RTX 3070 8GbVram...DROP MASSICCI
7-46fps @2160p RTX 3070 8Gb Vram... DROP MASSICCI
Guarda come è ''costante'' il frame rate della 6800, più chiaro di così, non so come spiegarlo, Vram Limited, fine del discorso.
--- i due messaggi sono stati uniti ---
presumo la fonte sia questa: https://multiplayer.it/recensioni/the-last-of-us-parte-1-recensione-versione-pc.html
il che non fa che confermare quanto scrissi parecchi mesi fa: gli sviluppatori NON ottimizzano nulla, delegano all'hw sottostante la loro incapacità o mancanza di voglia/tempo e/o dictat di chi li paga, e i giochi escono a schifo, altro che poca VRAM

manco per niente che vanno accettate: se si accetta come pecoroni si fa passare il messaggio che per qualunque schifo di gioco ci vuole minimo una scheda video da 1000 euro, non siamo ridicoli
Comprendo Bat, ma non si può negare il fenomeno, questo è il trend degli ultimi giochi usciti, quindi non è più consono consigliare una GPU al di sotto dei 12Gb di Vram per il 1440p, soprattutto con RT attivo, o comunque in giochi di ultima gen.
 
FsWhJ0iaAAEQpwS



12-56fps @1440p RTX 3070 8GbVram...DROP MASSICCI
7-46fps @2160p RTX 3070 8Gb Vram... DROP MASSICCI
Più chiaro di così, non so come spiegarlo, Vram Limited, fine del discorso.
E quindi compriamo tutti gpu da 1000 e passa euro solo perché nel mercato è arrivato l'ennesimo gioco NON ottimizzato ? Non ti rendi conto che tu basi tutta la tua teoria su casi rari ed estremi.
--- i due messaggi sono stati uniti ---
Tra qualche patch basteranno magicamente anche 6GB di vram, vedrai.
 
Bene ragazzi, da oggi il minimo sindacale per il 1440p è la 4070Ti allora. Perché giustamente il minimo sindacale è dettagli a ultra e RT al max...
(Mode ironico off)
Ma ci rendiamo conto di cosa si dice almeno? Chi vuole mantenere questa linea di pensiero vada sul forum di Hardware Aggiornamento per cortesia dai...
 
Bene ragazzi, da oggi il minimo sindacale per il 1440p è la 4070Ti allora. Perché giustamente il minimo sindacale è dettagli a ultra e RT al max...
(Mode ironico off)
Ma ci rendiamo conto di cosa si dice almeno? Chi vuole mantenere questa linea di pensiero vada sul forum di Hardware Aggiornamento per cortesia dai...
Vedi che il minimo sindacale è il 1440p sparato a x 1.7 con la 4090, tutto il resto è pappa per cani 🤣
 
Io sinceramente l'anno scorso ammetto di aver esagerato e per questo ti chiesi scusa e continuo a chiederti scusa, poiché nonostante non fossi d'accordo con le tue idee, ti attaccai sul personale. Ho avuto torto marcio e ribadisco che mi dispiace, però se continui con questo tuo modo di fare, ti tirerai addosso la furia di altri utenti che cominceranno a sfotterti. Il problema non è che tu la pensi in modo diverso, ci mancherebbe altro, tutti dovremmo rispettare le opinioni altrui, il problema sorge nel momento in cui imponi le tue idee su le altre, dicendo che tutti si sbagliano. Posso capire che una persona non se ne rende conto perché magari a contro due/tre persone che gli dicono che sta sbagliando, ma qui il 99% del forum ti sta dicendo che stai sbagliando. Io qualche domanda me la farei.

TLOU satura più di 8GB di vram in 1440p tutto al max ?? SI, la risposta a quanto pare è si.
Da oggi servono più di 8GB per giocare in 1440p tutto al max ?? NO!! Perché TLOU è soltanto l'ultimo dei giochi mal ottimizzati che quindi entra a far parte di quei casi rari e speciali, i quali non andrebbero presi come esempi.
 
Io sinceramente l'anno scorso ammetto di aver esagerato e per questo ti chiesi scusa e continuo a chiederti scusa, poiché nonostante non fossi d'accordo con le tue idee, ti attaccai sul personale. Ho avuto torto marcio e ribadisco che mi dispiace, però se continui con questo tuo modo di fare, ti tirerai addosso la furia di altri utenti che cominceranno a sfotterti. Il problema non è che tu la pensi in modo diverso, ci mancherebbe altro, tutti dovremmo rispettare le opinioni altrui, il problema sorge nel momento in cui imponi le tue idee su le altre, dicendo che tutti si sbagliano. Posso capire che una persona non se ne rende conto perché magari a contro due/tre persone che gli dicono che sta sbagliando, ma qui il 99% del forum ti sta dicendo che stai sbagliando. Io qualche domanda me la farei.

TLOU satura più di 8GB di vram in 1440p tutto al max ?? SI, la risposta a quanto pare è si.
Da oggi servono più di 8GB per giocare in 1440p tutto al max ?? NO!! Perché TLOU è soltanto l'ultimo dei giochi mal ottimizzati che quindi entra a far parte di quei casi rari e speciali, i quali non andrebbero presi come esempi.
Come posso sbagliare se mi baso su fatti documentati degli ultimi giochi? ci sono le slide è, test e benchmark, non è basato sul ''credo comune''.
Sono un uomo di scienza, e mi sono sempre basato su DATI, ed oggi, i dati suggeriscono che, per il 1440p nei giochi moderni, gpu al di sotto dei 12Gb di Vram, sembrano non esser più sufficienti, e questo non è assolutamente discutibile.
I giochi moderni richiedono più risorse, come è giusto che sia, HL,RE4,TLOU, tutti richiedono un alto utilizzo di Vram, vogliamo negarlo? fate pure, a me non interessa, io ho i dati e la scienza dalla mia parte, più forte di cosi non si può, chiacchiere e pregiudizi non fanno parte del mio credo;)
<3
 
ma poi io mi chiedo... da dove cacchio l'han tirato fuori 2.6gb di vram per il sistema? con tutto chiuso arrivo a 300 MB! con chrome aperto con minimo 20 schede arrivo a circa 1 GB... (vedasi immagine sotto spoiler)

mem gpu.webp
 
Come posso sbagliare se mi baso su fatti documentati degli ultimi giochi? ci sono le slide è, test e benchmark, non è basato sul ''credo comune''.
Sono un uomo di scienza, e mi sono sempre basato su DATI, ed oggi, i dati suggeriscono che, per il 1440p nei giochi moderni, gpu al di sotto dei 12Gb di Vram, sembrano non esser più sufficienti, e questo non è assolutamente discutibile.
I giochi moderni richiedono più risorse, come è giusto che sia, HL,RE4,TLOU, tutti richiedono un alto utilizzo di Vram, vogliamo negarlo? fate pure, a me non interessa, io ho i dati e la scienza dalla mia parte, più forte di cosi non si può, chiacchiere e pregiudizi non fanno parte del mio credo;)
<3
Mi puoi documentare con dati ciò che affermi ? Tipo Resident evil 4 remake, il ray tracing è inutile, quindi mi puoi documentare come un titolo del genere saturi più di 8GB di vram ?
Lo potresti fare anche con HL, possibilmente senza ray tracing visto che anche li non solo è inultile ma anche rotto.
Grazie in anticipo, sono pronto a cambiare idea, sono serio. Aspetto i dati.
--- i due messaggi sono stati uniti ---
ma poi io mi chiedo... da dove cacchio l'han tirato fuori 2.6gb di vram per il sistema? con tutto chiuso arrivo a 300 MB! con chrome aperto con minimo 20 schede arrivo a circa 1 GB... (vedasi immagine sotto spoiler)

Lo so, ma infatti è un valore fisso, è identico a tutti xD
Sta messo li cosi a cazz, manco se la gente è cosi stupida da avviare il gioco con 20 software aperti.
 
Come posso sbagliare se mi baso su fatti documentati degli ultimi giochi? ci sono le slide è, test e benchmark, non è basato sul ''credo comune''.
Sono un uomo di scienza, e mi sono sempre basato su DATI, ed oggi, i dati suggeriscono che, per il 1440p nei giochi moderni, gpu al di sotto dei 12Gb di Vram, sembrano non esser più sufficienti, e questo non è assolutamente discutibile.
I giochi moderni richiedono più risorse, come è giusto che sia, HL,RE4,TLOU, tutti richiedono un alto utilizzo di Vram, vogliamo negarlo? fate pure, a me non interessa, io ho i dati e la scienza dalla mia parte, più forte di cosi non si può, chiacchiere e pregiudizi non fanno parte del mio credo;)
<3
Sei rimasto vittima di queste SH che programmano di m. i giochi, i quali non hanno nemmeno tutto sto graficone da giustificarne la pesantezza, dove per poterci giocare ad alte risoluzioni devi avere hardware sovradimensionato e spendere più di 1000 euro per la vga ( vabbe tu sei andato oltre, hai espanso il tuo cosmo fino a raggiungere il settimo senso con la 4090🤣). Detto questo, prendere quei giochi di m fatti alla czz di cane e farne uno standard è sbagliatissimo, perché se questo sarà lo standard siamo veramente fottuti. Tu stai accettando tutto questo, noi cerchiamo di lottare e ribellarci e fortuna che esiste rockstar che almeno i giochi li sa fare 😎
 
Si, è da zen2 che la chiamano così (se non prima) ma alla fine è solo cache in abbondanza rispetto alla norma.

Detto questo, non è che di per sé la cache abbia dei limiti di efficacia.

Semplicemente l'architettura rdna3 non scala bene come volevano/pensavano con la memoria sopra certi limiti.
Per questo hanno ottenuto risultati sotto le aspettative. Infatti era prevista la possibilità di includere ancora più cache ma visti i risultati si sono fermati prima.
Se invece della cache avessero messo bus equivalentemente più ampi avrebbero molto probabilmente ottenuto gli stessi (miediocri) incrementi di prestazioni.
Se la "infinity cache" l'avessero incollata a fianco delle gpu nvidia avrebbe funzionato magari meglio (visto che sembra scalare meglio con la memoria).

Teoricamente quantità di cache e ampiezza di banda, dal punto di vista della gpu sono pressoché equivalenti. Alla fine lei vede solo gli accessi alla memoria, se sono rapidi o meno per merito di una cosa più che un altra non cambia nulla.
aspetta, forse non mi sono espresso bene, non è che la cache abbia limiti di efficacia, ma semplicemente non può sopperire interamente alla larghezza del bus, per un semplice motivo: la cache funziona bene solo per operazioni "lineari". I cache miss sono all'ordine del giorno, e quelli alla fine espongono i limiti di bus.
Insomma la cache è un "cuscinetto", ma non ci cadi sempre dentro. Va come sempre trovato un compromesso (a meno di non usare una cache pari al frame buffer, il che è un filino utopistico 😅 ).
 
presumo la fonte sia questa: https://multiplayer.it/recensioni/the-last-of-us-parte-1-recensione-versione-pc.html
il che non fa che confermare quanto scrissi parecchi mesi fa: gli sviluppatori NON ottimizzano nulla, delegano all'hw sottostante la loro incapacità o mancanza di voglia/tempo e/o dictat di chi li paga, e i giochi escono a schifo, altro che poca VRAM

manco per niente che vanno accettate: se si accetta come pecoroni si fa passare il messaggio che per qualunque schifo di gioco ci vuole minimo una scheda video da 1000 euro, non siamo ridicoli
vediamo chi ha scritto l'articolo...
BIO

Sono nato nel 1978 e mi sono avvicinato ai videogame con i coin-op di Mario Bros., Popeye e Punch-Out!! Il mio primo sistema è stato il Commodore 64, per poi passare a NES, Mega Drive, PlayStation, Dreamcast, GameCube, Xbox e tutto ciò che è venuto dopo, con un approccio rigorosamente multipiattaforma. Ho letto le prime riviste di videogiochi ai tempi di Zzap! e poi con Consolemania, che mi ha fatto venire una gran voglia di diventare un giornalista di settore. Entrare in una redazione milanese mi era però impossibile, abitando al sud, e così nel 1994 ho creato una fanzine coordinando il lavoro di un gruppo di appassionati, trasformandola in un sito web non appena ho messo le mani sul primo modem a 14.4 Kbps. Grazie a quel progetto sono entrato a far parte del team di Alternative Reality verso il 1999 e poi naturalmente nello staff di Multiplayer.it, con cui collaboro fin dall'inizio. Nel mentre ho tentato la carriera musicale, partecipando per tre volte alle selezioni di Sanremo Giovani (frequentando anche la relativa accademia) e facendomi puntualmente trombare. Ho guadagnato qualche soldo come autore, visto che uno dei miei brani è finito in un disco che ha venduto 200.000 copie, ma la cosa è finita lì per motivi che ancora oggi mi risultano oscuri. Per Multiplayer.it ho scritto oltre 1800 recensioni e da ormai diversi anni mi occupo anche di news. Fra gli altri miei interessi ci sono l'allenamento coi pesi, la musica, il cinema, i viaggi e le serie televisive.


ooops... competenze informatiche assenti nel curriculum, ma gioca molto 🤦‍♂️
Quindi lui ha dedotto che servono 12 GB vedendo il menu impostazioni del gioco, senza chiedersi se il menu riporti quei numeri in modo sensato o meno e senza chiedersi come mai lo stesso gioco su consolle richiede la metà delle risorse...
E ci chiediamo perché Kal El si compra una 4090 ? Il mercato è drogato dalla disinformazione prezzolata.
Tanto c'è sempre il pollo che spende per l'upgrade, chi glielo fa fare di spendere centinaia di ore/uomo ad ottimizzare.
 
vediamo chi ha scritto l'articolo...
BIO

Sono nato nel 1978 e mi sono avvicinato ai videogame con i coin-op di Mario Bros., Popeye e Punch-Out!! Il mio primo sistema è stato il Commodore 64, per poi passare a NES, Mega Drive, PlayStation, Dreamcast, GameCube, Xbox e tutto ciò che è venuto dopo, con un approccio rigorosamente multipiattaforma. Ho letto le prime riviste di videogiochi ai tempi di Zzap! e poi con Consolemania, che mi ha fatto venire una gran voglia di diventare un giornalista di settore. Entrare in una redazione milanese mi era però impossibile, abitando al sud, e così nel 1994 ho creato una fanzine coordinando il lavoro di un gruppo di appassionati, trasformandola in un sito web non appena ho messo le mani sul primo modem a 14.4 Kbps. Grazie a quel progetto sono entrato a far parte del team di Alternative Reality verso il 1999 e poi naturalmente nello staff di Multiplayer.it, con cui collaboro fin dall'inizio. Nel mentre ho tentato la carriera musicale, partecipando per tre volte alle selezioni di Sanremo Giovani (frequentando anche la relativa accademia) e facendomi puntualmente trombare. Ho guadagnato qualche soldo come autore, visto che uno dei miei brani è finito in un disco che ha venduto 200.000 copie, ma la cosa è finita lì per motivi che ancora oggi mi risultano oscuri. Per Multiplayer.it ho scritto oltre 1800 recensioni e da ormai diversi anni mi occupo anche di news. Fra gli altri miei interessi ci sono l'allenamento coi pesi, la musica, il cinema, i viaggi e le serie televisive.


ooops... competenze informatiche assenti nel curriculum, ma gioca molto 🤦‍♂️
Quindi lui ha dedotto che servono 12 GB vedendo il menu impostazioni del gioco, senza chiedersi se il menu riporti quei numeri in modo sensato o meno e senza chiedersi come mai lo stesso gioco su consolle richiede la metà delle risorse...
E ci chiediamo perché Kal El si compra una 4090 ? Il mercato è drogato dalla disinformazione prezzolata.
Tanto c'è sempre il pollo che spende per l'upgrade, chi glielo fa fare di spendere centinaia di ore/uomo ad ottimizzare.
Purtroppo lo staff di multy sono tutti cosi, alcuni sono esperti di videogiochi, nessuno lo mette in dubbio, ma di Hardware ce ne fosse uno che ne capisce qualcosa. Gli manderei un e-mail dove gli chiedo come ha fatto a far arrivare un i5 13500 a 100 gradi con la compilazione degli shader di un gioco. Se avvia un stress test gli va a fuoco casa ?
Ecco i conati di vomito che si ripresentano.
 
FsWhJ0iaAAEQpwS



12-56fps @1440p RTX 3070 8GbVram...DROP MASSICCI
7-46fps @2160p RTX 3070 8Gb Vram... DROP MASSICCI
Guarda come è ''costante'' il frame rate della 6800, più chiaro di così, non so come spiegarlo, Vram Limited, fine del discorso.

questa recensione dove l'hai presa ?
Perché poi voglio vedere il gioco come viene corretto se questi sono i risultati.
Anche di HL si è parlato malissimo ma dopo alcune patch la situazione è cambiata

Ultra_1440p-color.png


una 3070 ed una 3060 Ti giocabilissimi in Ultra Quality (ed io ribadisco che Ultra è spesso il setting più sbagliato)
6800 e 3070 Ti pressoché identiche nonostante il doppio della VRAM
 
Come posso sbagliare se mi baso su fatti documentati degli ultimi giochi? ci sono le slide è, test e benchmark, non è basato sul ''credo comune''.
Sono un uomo di scienza, e mi sono sempre basato su DATI, ed oggi, i dati suggeriscono che, per il 1440p nei giochi moderni, gpu al di sotto dei 12Gb di Vram, sembrano non esser più sufficienti, e questo non è assolutamente discutibile.
I giochi moderni richiedono più risorse, come è giusto che sia, HL,RE4,TLOU, tutti richiedono un alto utilizzo di Vram, vogliamo negarlo? fate pure, a me non interessa, io ho i dati e la scienza dalla mia parte, più forte di cosi non si può, chiacchiere e pregiudizi non fanno parte del mio credo;)
<3
HL ti ho appena dimostrato il contrario, appena hanno patchato il gioco che aveva evidenti memory leak.
Mi passi il link di quella review di TLOU, che sul canale HardwareUnboxed non lo trovo ?
 
Pubblicità
Pubblicità
Indietro
Top