UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Ovvio, quel gioco è stato progettato per girare su Xbox series S e series X, figurati se non gira in 4K sulla tua rtx 3080ti/3090 o qualsiasi cosa tu abbia, giocherai in 4K per tutta la generazione attuale di console senza dover aggiornare la tua gpu.

Però te lo devi dire, stai facendo la figura del pezzente. In questi giorni ci sono persone che stanno facendo 480fps in 4K su Scorn con la rtx 4090, io fossi in te non mi vanterei dei 120fps in 4K.
--- i due messaggi sono stati uniti ---

Inoltre sono sicuro che sempre su AD102 sarà basata la rtx 4080ti poiché tra i 9700 cuda della AD103 e i 16.000 cuda della attuale AD102 ( non sbloccata ) ce molto margine per inserire la rtx 4080ti con circa 12.000/14.000 cuda core.
Era soprattutto per dire l'inutilità, purtroppo, di una 4090, per i prossimi anni di questa gen di viogames. Poi la mosca bianca ci può sempre essere, ma non per una che si può andare a spendere 2000 euro... poi ognuno fa le sue scelte.
 
Cosa cambia tra DP 1.4a con DSC e DP 2.0 allora?
Anzi tutto c'e' da dire che il DSC c'e' (come specifiche) sia in DP 1.4 (e successivi) e sia in HDMI 2.1... e sostanzialmente si tratta di un metodo per aumentare la banda passante, comprimendo il segnale con "perdita di informazione", ma al contrario del "chroma subsampling", senza che venga percepito dall'occhio umano (in quanto viene tagliato sulle basse frequenze), ed e' simile (per i concetti usati) all'algoritmo di compressione che si usa per l'MP4 et similia.

Il DSC si usa (solitamente, ma non solo) quando un "canale" satura la banda passante.
Forse l'esempio migliore e' quello di visualizzare una tabella (quella dell'HDMI 2.1):

Screenshot at 2022-10-15 12-21-46.png

Nella prima colonna viene indicato il segnale "puro" (4:4:4) o con taglio cromatico (e.g. 4.2.2 o 4.2.0), in base a questo, ai bit di colore e alla frequenza si ha la banda passante per quella risoluzione.
Si vede la differenza di banda nella colonna Uncompressed/Compressed (DCS) ... e dato che alcuni formati saturano la banda dei 48Gbps (HDMI 2.1), sono disponibili "solo" in DCS (e.g. 8K @100/120Hz)

Stesso discorso si fa per il DP (di cui pero' non avevo sottomano una tabella cosi' completa)

In definitiva se si vuole usare il DP 1.4 (32Gbps max) per fare 4K @144Hz deve essere usato con il DSC.
O se si preferisce: tutti i monitor che prevedono l'utilizzo del 4K @144Hz su DP 1.4, hanno (devono avere) il DSC.
Sul DP 2.0 (80Gbps max) lo si puo' anche non usare: avere un segnale non compresso e' ovviamente meglio ... per questo @crimescene pone giustamente l'accento su come una scheda da 2000K non abbia previsto questo (sebbene ancora i monitor con DP 2.0 sono davvero pochi, ma se ne attendono di nuovi nei prossimi mesi... e questa scheda "dovrebbe" durare un paio d'anni, almeno 😕)
 
Ultima modifica:
Sisi ma infatti il discorso di @crimescene non fa una piega. Se mi fai pagare cosi tanto, pretendo il meglio e nessun compromesso e anche una piccola dimenticanza ( tanto piccola non è ) come il DP 2.0 è inaccettabile ma a quanto pare non per tutti.
 
Cosa cambia tra DP 1.4a con DSC e DP 2.0 allora?

DisplayPort 2.0 (2019)

  • Video resolutions:
    • 8K/60 Hz uncompressed
    • 10K@60Hz with 24-bit color and 4:4:4
    • 16K@60 Hz with DSC
  • HDR
  • 77.37 Gbps transfer speed (UHBR 10)
  • Data encoding: 128b/132b
  • Display Signal Compression (DSC)
  • Forward Error Compression (previously optional)
  • Panel Replay (previously optional)
  • Adaptive-Sync (optional)
 
Anzi tutto c'e' da dire che il DSC c'e' (come specifiche) sia in DP 1.4 (e successivi) e sia in HDMI 2.1... e sostanzialmente si tratta di un metodo per aumentare la banda passante, comprimendo il segnale con "perdita di informazione", ma al contrario del "chroma subsampling", senza che venga percepito dall'occhio umano (in quanto viene tagliato sulle basse frequenze), ed e' simile (per i concetti usati) all'algoritmo di compressione che si usa per l'MP4 et similia.
Cioè ma uno spende 2.000€ e passa per poi essere costretto a fare 'ste cavolate? É come crearsi un impianto Hi-Fi di qualità elevatissima da svariate migliaia di euro e poi usare gli MP3 come sorgente audio 🤣

🤦‍♂️
 
A parte che da 117 a 130 l'incremento è dell'11% e non 1% il resto del discorso non fa una piega
Stirate fino oltre il limite di efficienza, se fossero stati davvero tranquilli della supremazia prestazionale l'avrebbero limitata sui 300-330W dove esprime il meglio di se (ma anche la mossa di tenere i chip full da parte è legata ad avere una carta da giocare se la concorrenza avesse prestazioni migliori)

EDIT: però hai sbagliato anche sul consumo, 527W sono il 60% in più di 329W
Se invece prendiamo come base 130@527, scendere a 117@329 perde -10% di prestazioni e -38% di consumi
Si, mi sono perso uno 0. Doveva essere 10.
Si l'ha postato @Ottoore ... guarda che è la stessa cosa che ha fatto AMD con Zen 4 eh : rinunciare all'efficienza pur di avere la barra più lunga nei grafici. Si fossero fermati qualche Watt prima non avremmo CPU assurdamente a 95⁰
faccio il tifo per AMD su RDNA 3 ma tu dimentichi che la nuova AMD è molto più simile ad Nvidia ed Intel di quanto non lo sia mai stata.
Non ho seguito per nulla zen4. Pero se lo hanno fatto non ho problemi a dire che han fatto una ca*zata.

E non ho neanche problemi a dire che quei dies amd li fa troppo piccoli, e quindi poi scaldano per nulla come sul 5800x. Ovviamente lo fanno per guadagnare il piu possibile, tanto poi i processori che schizzano a 90°C in cinebench da stock ce li becchiamo noi. Vedo che ora sono arrivati a 95, molto bene.

Almeno facendoli piccoli, Dr. lisa se li infila meglio dove gli pare con comodità.
 
Sì, ma secondo me lo hanno fatto per la "Ti" che potrebbe arrivare con il AD102 completamente sbloccato (La 4090 ha un intero gpc disabilitato oltre a qualche SM)
I cuda core in più dovranno essere alimentati
A soli 2800 euro ? 😂
Ne comprerò quattro: una per me, una per i due figli ed … una per il vicino che me l’ha chiesta (no, alla moglie della 4090 non gliene può fregar di meno 😝).
 
Anzi tutto c'e' da dire che il DSC c'e' (come specifiche) sia in DP 1.4 (e successivi) e sia in HDMI 2.1... e sostanzialmente si tratta di un metodo per aumentare la banda passante, comprimendo il segnale con "perdita di informazione", ma al contrario del "chroma subsampling", senza che venga percepito dall'occhio umano (in quanto viene tagliato sulle basse frequenze), ed e' simile (per i concetti usati) all'algoritmo di compressione che si usa per l'MP4 et similia.

Il DSC si usa (solitamente, ma non solo) quando un "canale" satura la banda passante.
Forse l'esempio migliore e' quello di visualizzare una tabella (quella dell'HDMI 2.1):

Visualizza allegato 443720

Nella prima colonna viene indicato il segnale "puro" (4:4:4) o con taglio cromatico (e.g. 4.2.2 o 4.2.0), in base a questo, ai bit di colore e alla frequenza si ha la banda passante per quella risoluzione.
Si vede la differenza di banda nella colonna Uncompressed/Compressed (DCS) ... e dato che alcuni formati saturano la banda dei 48Gbps (HDMI 2.1), sono disponibili "solo" in DCS (e.g. 8K @100/120Hz)

Stesso discorso si fa per il DP (di cui pero' non avevo sottomano una tabella cosi' completa)

In definitiva se si vuole usare il DP 1.4 (32Gbps max) per fare 4K @144Hz deve essere usato con il DSC.
O se si preferisce: tutti i monitor che prevedono l'utilizzo del 4K @144Hz su DP 1.4, hanno (devono avere) il DSC.
Sul DP 2.0 (80Gbps max) lo si puo' anche non usare: avere un segnale non compresso e' ovviamente meglio ... per questo @crimescene pone giustamente l'accento su come una scheda da 2000K non abbia previsto questo (sebbene ancora i monitor con DP 2.0 sono davvero pochi, ma se ne attendono di nuovi nei prossimi mesi... e questa scheda "dovrebbe" durare un paio d'anni, almeno 😕)

Quoto tutto e aggiungo un paper (me l'ha segnalato un ragazzo straniero in un articolo di Videocardz) a proposito delle proprietà "visually lossless" della compressione DSC. Test in doppio cieco su immagini statiche e in movimento.
 
Se ci sono persone che pensano che 2000 euro sia un prezzo onesto e giusto o che la rtx """""4080"""" 12GB sia più veloce di una rtx 3090ti, lo dobbiamo a sta gente che fa disinformazione. 13 Minuti di video, 13 minuti di disinformazione.
 
Se ci sono persone che pensano che 2000 euro sia un prezzo onesto e giusto o che la rtx """""4080"""" 12GB sia più veloce di una rtx 3090ti, lo dobbiamo a sta gente che fa disinformazione. 13 Minuti di video, 13 minuti di disinformazione.
Veramente pare che andasse come una 3090 e neanche si era sicuri poi, da confermare
 
Pubblicità
Pubblicità
Indietro
Top