UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Giusto per spezzare un'arancia ("una lancia" sarebbe troppo 😁 ) a favore di NVidia, c'e' da dire che i monitor con DP 2.0, attualmente in commercio, si contano sulla punta delle dita (anche se ne sono stati annunciati diversi), e che quindi il 4K @144Hz lo si raggiunge tramite l'HDMI 2.1 ... oppure tramite il DP 1.4 attraverso un "chroma subsampling" (e.g. 4:2:2, che pero'/quindi "appiattisce"/riduce la qualita' cromatica) oppure usando il DSC (Display Stream Compression)

sono tutte cose che sapevo ma è un poco una puttanata, permettimi il termine

Fai uan scheda da 2k e non la doti nemmeno di una usciota che abbia una larghezza di banda adeguata, per l'HDMI sarebbe una soluzione se Nvidia non limitasse l'uso del g-sync al DP
 
Sempre meglio 🤦🏻‍♂️
Quindi una scheda con consumo assurdo per fare millemila FPS in 4K e poi non li può visualizzare ?

Ma è confermata sta cosa ? Perché le review vanno ben oltre i 120 FPS 🤔


E ovvio che con le review vai oltre peerchè comqunue gli FPS li genri, ma il monitor non può visualizzarli


E'come quando hai un monitor a 60hz e fai 200 frame, i frame li produci ma non serve a nulla
 
Sempre meglio 🤦🏻‍♂️
Quindi una scheda con consumo assurdo per fare millemila FPS in 4K e poi non li può visualizzare ?

Ma è confermata sta cosa ? Perché le review vanno ben oltre i 120 FPS 🤔
Sisì, è confermata
Il connettore DP limita sul visualizzabile, ma non su quanto renderizza la scheda
Gli fps da review sono quelli che fa la scheda, non quelli che poi il monitor visualizza (infatti alcuni bench a risoluzioni inferiori ne fanno anche più di 300-400
 
E ovvio che con le review vai oltre peerchè comqunue gli FPS li genri, ma il monitor non può visualizzarli


E'come quando hai un monitor a 60hz e fai 200 frame, i frame li produci ma non serve a nulla
Si si ma una qualunque recensione seria va a vedere anche gli Hz (se non altro per verificare che Gsync funzioni): un qualunque monitor decente ti permette di verificarli a schermo. Possibile che nessuno abbia evidenziato la cosa ? Bel lavoro…

Sisì, è confermata
Il connettore DP limita sul visualizzabile, ma non su quanto renderizza la scheda
Gli fps da review sono quelli che fa la scheda, non quelli che poi il monitor visualizza (infatti alcuni bench a risoluzioni inferiori ne fanno anche più di 300-400
Eh ma i recensori diventano sempre più superficiali …
Nvidia vende una scheda a prezzo assurdo spacciandola per la soluzione definitiva a 4K alto frame rate ma poi usa un connettore con banda limitata. Come minimo la cosa andava stigmatizzata.
E come detto ci vuole niente a verificarlo con l’OSD di un buon monitor.

A parte che da 117 a 130 l'incremento è dell'11% e non 1% il resto del discorso non fa una piega
Stirate fino oltre il limite di efficienza, se fossero stati davvero tranquilli della supremazia prestazionale l'avrebbero limitata sui 300-330W dove esprime il meglio di se (ma anche la mossa di tenere i chip full da parte è legata ad avere una carta da giocare se la concorrenza avesse prestazioni migliori)

EDIT: però hai sbagliato anche sul consumo, 527W sono il 60% in più di 329W
Se invece prendiamo come base 130@527, scendere a 117@329 perde -10% di prestazioni e -38% di consumi
La mia impressione è che Nvidia avesse pensato le 4090 anche per consumi più alti, come circolava dai rumors prima del lancio. Poi si sono resi conto che passare regolarmente i 600/650W era ridicolo anche per loro ed hanno limato sia la 4090 che la 4080 prima di presentarle.
 
Eh ma i recensori diventano sempre più superficiali …
Nvidia vende una scheda a prezzo assurdo spacciandola per la soluzione definitiva a 4K alto frame rate ma poi usa un connettore con banda limitata. Come minimo la cosa andava stigmatizzata.
E come detto ci vuole niente a verificarlo con l’OSD di un buon monitor.

ma ti rendi conto che presa per il culo di uno che compra una scheda da 2500 euro......

questa serie l'ho detto ho avuto l'impressione fin da subito fosse pessima e più va avanti più me ne convinco

come diceva @BrutPitt la cosa pu]ò essere aggirata in qualche modo se compri un montior con DSC (
ma costa un altro rene) o se usi HDMI 2.1 rinuncia però al g-sync o se giochi con le cromanzie


Scelta da parte di nvidia comunque anche qui a dir poco discutibile
 
ma ti rendi conto che presa per il culo di uno che compra una scheda da 2500 euro......

questa serie l'ho detto ho avuto l'impressione fin da subito fosse pessima e più va avanti più me ne convinco
… e per chi ne ha comprate DUE ? 🤪


Tornando seri, davvero una serie di scelte pessime su questo lancio.
 
Ultima modifica:
sono tutte cose che sapevo ma è un poco una puttanata, permettimi il termine

Fai uan scheda da 2k e non la doti nemmeno di una usciota che abbia una larghezza di banda adeguata, per l'HDMI sarebbe una soluzione se Nvidia non limitasse l'uso del g-sync al DP
Sono d'accordo che una scheda da 2000 euro dovesse provvedere a un DP 2.0 ed immaginavo anche che sapessi tutto cio'... ma per come l'avei scritta sembrava che una 4090 non potesse in alcun modo fare i 144Hz su un monitor 4K.

Sempre meglio 🤦🏻‍♂️
Quindi una scheda con consumo assurdo per fare millemila FPS in 4K e poi non li può visualizzare ?

Ma è confermata sta cosa ? Perché le review vanno ben oltre i 120 FPS 🤔
Tant'e' che Max aveva pensato questo.

In realta' con HDMI 2.1 e DSC (che e' disponibile anche su HDMI 2.1) si puo' arrivare fino a 8K 100/120Hz (4:2:2/4:2:0)
 
La mia impressione è che Nvidia avesse pensato le 4090 anche per consumi più alti, come circolava dai rumors prima del lancio. Poi si sono resi conto che passare regolarmente i 600/650W era ridicolo anche per loro ed hanno limato sia la 4090 che la 4080 prima di presentarle.
Sì, ma secondo me lo hanno fatto per la "Ti" che potrebbe arrivare con il AD102 completamente sbloccato (La 4090 ha un intero gpc disabilitato oltre a qualche SM)
I cuda core in più dovranno essere alimentati
 
Si comunque io sto provando Scorn e sto a 120 fps in 4k. No per dire....
Ovvio, quel gioco è stato progettato per girare su Xbox series S e series X, figurati se non gira in 4K sulla tua rtx 3080ti/3090 o qualsiasi cosa tu abbia, giocherai in 4K per tutta la generazione attuale di console senza dover aggiornare la tua gpu.

Però te lo devi dire, stai facendo la figura del pezzente. In questi giorni ci sono persone che stanno facendo 480fps in 4K su Scorn con la rtx 4090, io fossi in te non mi vanterei dei 120fps in 4K.
--- i due messaggi sono stati uniti ---
Sì, ma secondo me lo hanno fatto per la "Ti" che potrebbe arrivare con il AD102 completamente sbloccato (La 4090 ha un intero gpc disabilitato oltre a qualche SM)
I cuda core in più dovranno essere alimentati
Inoltre sono sicuro che sempre su AD102 sarà basata la rtx 4080ti poiché tra i 9700 cuda della AD103 e i 16.000 cuda della attuale AD102 ( non sbloccata ) ce molto margine per inserire la rtx 4080ti con circa 12.000/14.000 cuda core.
 
Inoltre sono sicuro che sempre su AD102 sarà basata la rtx 4080ti poiché tra i 9700 cuda della AD103 e i 16.000 cuda della attuale AD102 ( non sbloccata ) ce molto margine per inserire la rtx 4080ti con circa 12.000/14.000 cuda core.
Sì, anche se c'è da dire che anche l'AD103 della 4080 16GB non dovrebbe essere full (dovrebbe avere 8 SM bloccati), quindi hanno margine anche per schede tipo "super" (o altro nome)
 
Sono d'accordo che una scheda da 2000 euro dovesse provvedere a un DP 2.0 ed immaginavo anche che sapessi tutto cio'... ma per come l'avei scritta sembrava che una 4090 non potesse in alcun modo fare i 144Hz su un monitor 4K.


Tant'e' che Max aveva pensato questo.

In realta' con HDMI 2.1 e DSC (che e' disponibile anche su HDMI 2.1) si puo' arrivare fino a 8K 100/120Hz (4:2:2/4:2:0)
Cosa cambia tra DP 1.4a con DSC e DP 2.0 allora?
 
Sono d'accordo che una scheda da 2000 euro dovesse provvedere a un DP 2.0 ed immaginavo anche che sapessi tutto cio'... ma per come l'avei scritta sembrava che una 4090 non potesse in alcun modo fare i 144Hz su un monitor 4K.

Probabile che mi sono espresso male il mio commento è più di principio che di altro, cioè una scheda da 2500 euro considerata la scheda più potente al mondo.....io sono convinto che per uno che gioca solamente non sarebbe una scheda da prendere, ma un utente che è disposto a spendere quelle cifre per giocare lo fa per una sola ragione, vuole 0 compromessi anche in 4k

quindi mettere un DP che in qualche modo ti limita è un vero controsenso, poi che in qualche modo si aggira l'ostacolo ok, ma è una forzatura bella e buona

Già immagino i 3d "4090 bloccata a 120hz in 4k"

Potevano metterci un cavolo di DP 2.0 eh


Cosa cambia tra DP 1.4a con DSC e DP 2.0 allora?
Cambia che hai la banda limitata in 4k puoi raggiungere solo i 120hz a meno che non hai un monitor con DSC, oppure non giochi con il sottocampionamento della cromanzia....
 
Ultima modifica:
Probabile che mi sono espresso amle il mio commento è più di principio che di altro, cioè una scheda da 2500 euro considerata la scheda più potente al mondo.....io sono convinto che per uno che gioca solamente non sarebbe una scheda da prendere, ma un utente che è disposto a spendere quelle cifre per giocare lo fa pe runa sola ragione, vuole 0 compromessi anche in 4k

quindi mettere un DP che in qualche modo ti limita è un vero controsenso, poi che in quaclhe modo si aggira l'ostacolo ok, ma è una forzatura bella e buona

Già immagino i 3d "4090 bloccata a 120hz in 4k"

Potevano metterci un cavolo di DP 2.0 eh



Cambia che hai la banda limitata in 4k puoi raggiungere solo i 120hz a meno che non hai un monitor con DSC, oppure non giochi con il sottocampionamento della cromanzia....
Concordo con tutto
 
Pubblicità
Pubblicità
Indietro
Top