UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Se in futuro 8gb per il full hd saranno pochi il pc gamign te lo metto qui per iscritto sarà finito
A parte che una 4060, come dice Max, costerà probabilmente una follia per essere una scheda da 1080p solo, nei test del video di hub, col RT attivo, 8gb iniziano ad essere pochi anche in 1080p con dettagli alti 😬

Probabilmente mettono 8gb 4060 e 12 alla 4060 ti
Speriamo, ma su Techpowerup, per dire, mettono 8gb su entrambe come previsione 😬 Vedremo.
 
A parte che una 4060, come dice Max, costerà probabilmente una follia per essere una scheda da 1080p solo, nei test del video di hub, col RT attivo, 8gb iniziano ad essere pochi anche in 1080p con dettagli alti 😬

a 1080p 8gb non possono esser pochi quello che consuma VRAM sono le texture texture 1080p che saturino 8gb di vram non esiste
 
Speriamo, ma su Techpowerup, per dire, mettono 8gb su entrambe come previsione 😬 Vedremo.

AD106 e AD107, che dovrebbero essere alla base rispettivamente di RTX 4060Ti e RTX 4060, dovrebbero utilizzare entrambi un bus di memoria di 128bit, quindi in considerazione della fascia avranno sicuramernte 8GB di VRAM...

per avere 12GB dovrebbero utilizzare un bus di 192bit, come AD104, e non è ipotizzabile...

al limite, forse, potrebbero fare una AD106 da 160bit e 10GB, ma dubito...
 
Alleluja ! 😁

Caso chiuso. 🎉

Ps. Purtroppo comunque, quando si attiva anche il RT, pare che non sempre basti passare da ultra ad alto per evitare i problemi di vram. Solo una precisazione.
Scusami eh, @Avets , ma io direi che non ho nulla da cui nascondermi.
A novembre 2020 nel thread delle Ampere scrivevo:

1681138311236.webp

Lamentandomi degli 8 GB della 3070, ben prima che intervenissero maestri & affini… 😅
8 GB andavano bene per la 3060 Ti.

AD106 e AD107, che dovrebbero essere alla base rispettivamente di RTX 4060Ti e RTX 4060, dovrebbero utilizzare entrambi un bus di memoria di 128bit, quindi in considerazione della fascia avranno sicuramernte 8GB di VRAM...

per avere 12GB dovrebbero utilizzare un bus di 192bit, come AD104, e non è ipotizzabile...

al limite, forse, potrebbero fare una AD106 da 160bit e 10GB, ma dubito...
Una 4060Ti da 8 GB sarebbe la Regina dello Scaffale…
 
AD106 e AD107, che dovrebbero essere alla base rispettivamente di RTX 4060Ti e RTX 4060, dovrebbero utilizzare entrambi un bus di memoria di 128bit, quindi in considerazione della fascia avranno sicuramernte 8GB di VRAM...

per avere 12GB dovrebbero utilizzare un bus di 192bit, come AD104, e non è ipotizzabile...

al limite, forse, potrebbero fare una AD106 da 160bit e 10GB, ma dubito...
E' vero se il bus rimane quello devono mettere 8Gb oppure 16
 
Una 4060Ti da 8 GB sarebbe la Regina dello Scaffale…

io spererei in un AD106 con bus 160bit e 10GB di VRAM per la 4060Ti
e AD107 128bit e 8GB per la 4060 liscia...

ci credo poco, ma bisogna sempre essere ottimisti.. :D

certo che con queste schede stanno tagliando di brutto, con la 4050 si scenderà a 96bit (e 6GB) probabilmente...
 
io spererei in un AD106 con bus 160bit e 10GB di VRAM per la 4060Ti
e AD107 128bit e 8GB per la 4060 liscia...

ci credo poco, ma bisogna sempre essere ottimisti.. :D

certo che con queste schede stanno tagliando di brutto, con la 4050 si scenderà a 96bit (e 6GB) probabilmente...

Sempre peggio le ps5 continueranno a vendere di brutto
 
Sempre peggio le ps5 continueranno a vendere di brutto

bene o male diciamo che viste le performance finali NVIDIA ha approfittato per alzare tutte le varie proposte di almeno una fascia, la 4090 con quell'AD102 così tagliato sarebbe dovuta essere una x80/x80ti, la 4080 una x70, la 4070Ti una x60Ti e la 4070 liscia una x60 bene o male...

le prossime 4060Ti, 4060 e 4050 seguiranno questa logica, e a conti fatti sarebbero delle GPU di fascia medio-bassa...
 
Ho appena finito di testare un pò TW3 patch next gen con DLSS3 e Reflex attivi, è uscito da poco l'hotfix per il DLSS3 e hanno riaggiunto degli effetti grafici che avevano downgradato in precedenza, sotto loro stessa ammissione, se tutto maxato con DLSS a qualità ma senza DLSS3 il framerate medio è di circa 63/73 fps a seconda dell'area e di giorno, che pesa più della notte (gioco diventato pesantissimo con problemi su DX12, che mi sembra di capire siano delle DX12 fake, è sempre DX11 ma con elementi DX12 incorporati che generano evidenti problemi, insomma CDPR ha un pò pasticciato o semplicemente rushato l'uscita della patch next gen per farla uscire in concomitanza con la serie di Netflix, quindi non curando a dovere il processo di conversione e preferendo limitarsi a degli espedienti vari che hanno però causato problemi nella versione DX12). con DLSS3 attivo praticamente raddoppio il framerate, passo a una media di 109/130 fps con perdite grafiche ininfluenti, ho provato a disattivare e riattivare il DLSS3 molte volte e non ho mai avuto l'emozione di disattivarlo perchè magari vedevo drasticamente peggio. Anche la latenza, non ne ho vista alcuna con Reflex attivo (si attiva in automatico come si attiva il DLSS3), ho provato proprio ad andarla a cercare, nessun artefatto o problema vario. Bel risultato devo dire.
 
Ultima modifica:
Ho appena finito di testare un pò TW3 patch next gen con DLSS3 e Reflex attivi, è uscito da poco l'hotfix per il DLSS3 e hanno riaggiunto degli effetti grafici che avevano downgradato in precedenza, sotto loro stessa ammissione, se tutto maxato con DLSS a qualità ma senza DLSS3 il framerate medio è di circa 63/73 fps a seconda dell'area e di giorno, che pesa più della notte (gioco diventato pesantissimo con problemi su DX12, che mi sembra di capire siano delle DX12 fake, è sempre DX11 ma con elementi DX12 incorporati che generano evidenti problemi, insomma CDPR ha un pò pasticciato o semplicemente rushato l'uscita della patch next gen per farla uscire in concomitanza con la serie di Netflix, quindi non curando a dovere il processo di conversione e preferendo limitarsi a degli espedienti vari che hanno però causato problemi nella versione DX12). con DLSS3 attivo praticamente raddoppio il framerate, passo a una media di 109/130 fps con perdite grafiche ininfluenti, ho provato a disattivare e riattivare il DLSS3 molte volte e non ho mai avuto l'emozione di disattivarlo perchè magari vedevo drasticamente peggio. Anche la latenza, non ne ho vista alcuna con Reflex attivo (si attiva in automatico come si attiva il DLSS3), ho provato proprio ad andarla a cercare, nessun artefatto o problema vario. Bel risultato devo dire.
È una tech stupenda e complessa, da non vedere come un “cheat”, ma come parte integrante dell’ecosistema nVidia.
 
Ho appena finito di testare un pò TW3 patch next gen con DLSS3 e Reflex attivi, è uscito da poco l'hotfix per il DLSS3 e hanno riaggiunto degli effetti grafici che avevano downgradato in precedenza, sotto loro stessa ammissione, se tutto maxato con DLSS a qualità ma senza DLSS3 il framerate medio è di circa 63/73 fps a seconda dell'area e di giorno, che pesa più della notte (gioco diventato pesantissimo con problemi su DX12, che mi sembra di capire siano delle DX12 fake, è sempre DX11 ma con elementi DX12 incorporati che generano evidenti problemi, insomma CDPR ha un pò pasticciato o semplicemente rushato l'uscita della patch next gen per farla uscire in concomitanza con la serie di Netflix, quindi non curando a dovere il processo di conversione e preferendo limitarsi a degli espedienti vari che hanno però causato problemi nella versione DX12). con DLSS3 attivo praticamente raddoppio il framerate, passo a una media di 109/130 fps con perdite grafiche ininfluenti, ho provato a disattivare e riattivare il DLSS3 molte volte e non ho mai avuto l'emozione di disattivarlo perchè magari vedevo drasticamente peggio. Anche la latenza, non ne ho vista alcuna con Reflex attivo (si attiva in automatico come si attiva il DLSS3), ho provato proprio ad andarla a cercare, nessun artefatto o problema vario. Bel risultato devo dire.
eh si, ormai conviene aspettare 6/8 mesi prima di giocare ad un titolo. Molte feature vengono aggiunte in seguito. TW3 me lo sono giocato e goduto, con la patch next gen, ma è stato una pena all'inizio.
Ora è un titolo godibile.
 
eh si, ormai conviene aspettare 6/8 mesi prima di giocare ad un titolo. Molte feature vengono aggiunte in seguito. TW3 me lo sono giocato e goduto, con la patch next gen, ma è stato una pena all'inizio.
Ora è un titolo godibile.

a metà dicembre, quando fu rilasciato ufficialmente, era a dire poco scandaloso...
stuttering a go-go e tutto legnoso, ora ho visto che si comincia a ragionare con l'ultimo update ma ancora non l'ho ripreso, ormai sto quasi per finire A Plague Tale Requiem e TLOU, entrambi bellissimi devo dire, ma TW3 lo voglio ricominciare non appena possibile...
 
È una tech stupenda e complessa, da non vedere come un “cheat”, ma come parte integrante dell’ecosistema nVidia.
Devo ammettere che è una gran bella feature. Attualmente non si muore non avendocelo, non è che si blocca il gaming nel mondo, però averla male proprio non fa. Soprattutto ora la maggior parte dei giochi esosi di requisiti ce l'ha devo dire di trovarmi contento di averla. Non è stato il motivo principale per cui sono passato alla 4070ti però, avendolo ora, devo ammettere che è una feature che mi fa contento poterne usufruire, so che è brutto da dire ma fa la differenza quando hai giochi mal ottimizzati per le mani, se è implementato. E' una feature da tenere d'occhio, non è così secondaria o ininfluente come si diceva all'inizio, per via che era implementato in 2 giochi di numero e si vedevano gravi problemi di artefatti da latenza che oggi di fatto sono stati minimizzati al punto che, se li trovi, sono così ininfluenti da non risultare un problema (tipo una porta su 1000 in HL che è un pò strana, unico caso in quel gioco dove ho trovato qualcosa fuori posto causato dal DLSS3, cosa che rende ininfluente il problema).

Concordo che non è da vedere come un cheat, ormai la IA si è integrata nell'ecosistema legato al gaming, può essere adesso percepito come cheat per via che è nuovo ed Nvidia ha un pò subdolamente attivato il suo supporto solo sulle serie 4000 con segmentazioni fuori canoni di prezzo, cosa che capisco possa infastidire e far cadere questa tecnologia sugli zebedei, però oggi la IA nel gaming è una realtà, non è cheating, è una realtà che prende piede e che pian piano porterà a cambiare certe concezioni radicate costruite quando la IA non era implementata, me ne sto sempre più accorgendo venendo ovviamente anch'io da concezioni pre-IA, il DLSS3 (o magari la sua evoluzione) ci sarà pure sulle future serie che verranno.
 
Ultima modifica:
Devo ammettere che è una gran bella feature. Attualmente non si muore non avendocelo, non è che si blocca il gaming nel mondo, però averla male proprio non fa. Soprattutto ora la maggior parte dei giochi esosi di requisiti ce l'ha devo dire di trovarmi contento di averla. Non è stato il motivo principale per cui sono passato alla 4070ti però, avendolo ora, devo ammettere che è una feature che mi fa contento poterne usufruire, so che è brutto da dire ma fa la differenza quando hai giochi mal ottimizzati per le mani, se è implementato. E' una feature da tenere d'occhio, non è così secondaria o ininfluente come si diceva all'inizio, per via che era implementato in 2 giochi di numero e si vedevano gravi problemi di artefatti da latenza che oggi di fatto sono stati minimizzati al punto che, se li trovi, sono così ininfluenti da non risultare un problema (tipo una porta su 1000 in HL che è un pò strana, unico caso in quel gioco dove ho trovato qualcosa fuori posto causato dal DLSS3, cosa che rende ininfluente il problema).

Concordo che non è da vedere come un cheat, ormai la IA si è integrata nell'ecosistema legato al gaming, può essere adesso percepito come cheat per via che è nuovo ed Nvidia ha un pò subdolamente attivato il suo supporto solo sulle serie 4000 con segmentazioni fuori canoni di prezzo, cosa che capisco possa infastidire e far cadere questa tecnologia sugli zebedei, però oggi la IA nel gaming è una realtà, non è cheating, è una realtà che prende piede e che pian piano porterà a cambiare certe concezioni radicate costruite quando la IA non era implementata, me ne sto sempre più accorgendo venendo ovviamente anch'io da concezioni pre-IA, il DLSS3 (o magari la sua evoluzione) ci sarà pure sulle future serie che verranno.
Esatto, nVidia ha detto esplicitamente che punterà sempre più sull’A.I., ed a me questa cosa fa impazzire, perché mi piace.
Vediamo come evolverà in futuro, con le prossime serie di Gpu anche.
 
Esatto, nVidia ha detto esplicitamente che punterà sempre più sull’A.I., ed a me questa cosa fa impazzire, perché mi piace.
Vediamo come evolverà in futuro, con le prossime serie di Gpu anche.
Se questo porterà a un evoluzione qualitatevole del gaming "a next gen" insomma con richieste in risorse al passo, ben venga. A me interessa questo da gamer, che ci sia il balzo generazionale in avanti e che questo non sia un siluro nel deretano a livello di richieste hardware. Se la IA permetterà questo, ben venga sicuramente. Certo, avrei preferito fosse un'evoluzione alla mercè di tutti o perlomeno in linea con i prezzi delle segmentazioni e generazioni precedenti, con i prezzi attuali capisco che venga difficile gioire per una tale bella feature. Più avanti però sarà una costante in tutte le future generazioni a venire, oggi no, per apportare cambiamenti tali da portare al passo generazionale serve che ne possa usufruire la gran parte dell'utenza, non solo delle piccole elite di spendaccioni che ci aprono il portafogli. Però la strada è quella, quando sarà una feature costante per tutti porterà a conclamata next gen nel gaming.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top