UFFICIALE Il Bar di Lido : The Spam is Back

Pubblicità
Connettori pcie nuovi, consumi gpu da scaldabagno...ho come l'impressione che tutto l'aggiornamento e l' "evoluzione" delle rtx fino alla serie 40 sia tutta basata su: aumentare la potenza, migliorare il raffreddamento.
Non c'è nessuna vera evoluzione in termini tecnologici, altrimenti i consumi non sarebbero così in impennata.

Tra un altro paio di generazioni porteremo il pc in bagno e lo accenderemo 10 min prima di una doccia.

Inviato dal mio SM-G975F utilizzando Tapatalk
 
effettivamente
dal passaggio dai 40 ai 28nm sembrava dicessimo addio ai fornelli grafici, ma poi gradualmente la situazione è peggiorata fino appunto al ultima generazione

anche le cpu Intel comunque hanno visto un consistente aumento dei consumi negli ultimi anni, chiaro le prestazioni sono aumentate e il numero di core è esploso, da i7 a 6 core a i7 a 12
 
Non c'è nessuna vera evoluzione in termini tecnologici, altrimenti i consumi non sarebbero così in impennata.
Adesso non ricordo dove, ma avevo visto un grafico che faceva vedere le differenze prestazioni delle RTX2000 e delle rispettive RTX3000; praticamente l'aumento delle prestazioni era direttamente proporzionale all'aumento dei consumi (tipo prestazioni +30% = consumi + 30%)
 
Adesso non ricordo dove, ma avevo visto un grafico che faceva vedere le differenze prestazioni delle RTX2000 e delle rispettive RTX3000; praticamente l'aumento delle prestazioni era direttamente proporzionale all'aumento dei consumi (tipo prestazioni +30% = consumi + 30%)
Appunto, e mi sa che con la serie 40 sarà la stessa canzoncella. Non è una reale evoluzione, è solo un "aggiornamento sommario".

Inviato dal mio SM-G975F utilizzando Tapatalk
 
Appunto, e mi sa che con la serie 40 sarà la stessa canzoncella. Non è una reale evoluzione, è solo un "aggiornamento sommario".

Inviato dal mio SM-G975F utilizzando Tapatalk
Mmh no ragazzi, dire che non è evoluzione è sbagliato. Dire che sono con un piede nella fossa potrebbe essere corretto. Prima dell'avvento delle architetture multicore la situazione era la medesima, consumi assurdi. La stessa cosa accade adesso, le schede vanno, così come all'epoca il pentium 5. Ma credo fortemente che ci sia una mancanza di possibilità. Diciamo che l'innovazione basata sulla potenza dettata dal consumismo odierno, non può neanche lontanamente essere paragonabile al tempo con cui viene studiato un nuovo processo (mi viene da dire di stampa) o magari affinamento di materiali (grafene). La soluzione è ancora lontana. Hanno rafforzato nelle 2000 il nvbridge per capire se fosse possibile una miglior implementazione dello sli, mettendoci dentro l'rtx a livelli pessimi. Con le 3000 si son resi conto della spesa che tale soluzione richiedeva ed hanno pompato le vecchie 2000 andando a migliorare la parte ai, il motivo?
Con l'ai possono applicare dei filtri alla pre elaborazione dei dati (vedi le varie tecniche di dlss super resolution etc) ed avendo una rete di tensori pronta a farlo riescono a mandare alla gpu meno dati da processare =+performance
Purtroppo con questo tipo di semiconduttori il rendimento energetico di questa meraviglia non è così tanto basso.
Sono in studio varie tipologie basate sulla persistenza fisico-chimica dei materiali in uno stato(rram) che ridurrebbero molte operazioni ad un calcolo matriciale, fino ad allora il consumismo farà sì che il finanziamento di questi studi sarà dato dal grado con cui noi acquistiamo fornetti
 
Mmh no ragazzi, dire che non è evoluzione è sbagliato. Dire che sono con un piede nella fossa potrebbe essere corretto. Prima dell'avvento delle architetture multicore la situazione era la medesima, consumi assurdi. La stessa cosa accade adesso, le schede vanno, così come all'epoca il pentium 5. Ma credo fortemente che ci sia una mancanza di possibilità. Diciamo che l'innovazione basata sulla potenza dettata dal consumismo odierno, non può neanche lontanamente essere paragonabile al tempo con cui viene studiato un nuovo processo (mi viene da dire di stampa) o magari affinamento di materiali (grafene). La soluzione è ancora lontana. Hanno rafforzato nelle 2000 il nvbridge per capire se fosse possibile una miglior implementazione dello sli, mettendoci dentro l'rtx a livelli pessimi. Con le 3000 si son resi conto della spesa che tale soluzione richiedeva ed hanno pompato le vecchie 2000 andando a migliorare la parte ai, il motivo?
Con l'ai possono applicare dei filtri alla pre elaborazione dei dati (vedi le varie tecniche di dlss super resolution etc) ed avendo una rete di tensori pronta a farlo riescono a mandare alla gpu meno dati da processare =+performance
Purtroppo con questo tipo di semiconduttori il rendimento energetico di questa meraviglia non è così tanto basso.
Sono in studio varie tipologie basate sulla persistenza fisico-chimica dei materiali in uno stato(rram) che ridurrebbero molte operazioni ad un calcolo matriciale, fino ad allora il consumismo farà sì che il finanziamento di questi studi sarà dato dal grado con cui noi acquistiamo fornetti
Per ringraziarti della spiegazione esaustiva vorrei offrirti un arrosto cotto sul dissipatore della mia GPU. ?

Scherzi a parte, capisco che ottimizzare una tecnologia non si fa in qualche anno, però da semplice consumer non ho avuto finora l'impressione (o magari non la stanno ancora dando) che sia la loro priorità, soprattutto in seguito all'uscita di questo nuovo connettore.
Le nuove schede serie 40 verosimilmente costringeranno quasi tutti i futuri acquirenti ad un upgrade dell'alimentatore e non penso che nella generazione successiva, la 50, se ne usciranno dicendo: "Finalmente abbiamo sviluppato una nuova tecnologia che dimezzerà i consumi!".
Cioè voglio dire: se fai uscire un nuovo connettore come standard a causa degli alti consumi prevedi che non sarà una situazione passeggera e che, se attivamente e parallelamente stai lavorando su un reale abbattimento dei consumi, non sei ancora a buon punto, per niente.

Mi sa che ne passerà di acqua sotto i ponti...il che è fantastico visti i costi dell'energia odierni.
 
Per ringraziarti della spiegazione esaustiva vorrei offrirti un arrosto cotto sul dissipatore della mia GPU. ?

Scherzi a parte, capisco che ottimizzare una tecnologia non si fa in qualche anno, però da semplice consumer non ho avuto finora l'impressione (o magari non la stanno ancora dando) che sia la loro priorità, soprattutto in seguito all'uscita di questo nuovo connettore.
Le nuove schede serie 40 verosimilmente costringeranno quasi tutti i futuri acquirenti ad un upgrade dell'alimentatore e non penso che nella generazione successiva, la 50, se ne usciranno dicendo: "Finalmente abbiamo sviluppato una nuova tecnologia che dimezzerà i consumi!".
Cioè voglio dire: se fai uscire un nuovo connettore come standard a causa degli alti consumi prevedi che non sarà una situazione passeggera e che, se attivamente e parallelamente stai lavorando su un reale abbattimento dei consumi, non sei ancora a buon punto, per niente.

Mi sa che ne passerà di acqua sotto i ponti...il che è fantastico visti i costi dell'energia odierni.
Il punto è proprio questo, non è che non stanno dando importanza ai consumi, e che non possono farlo. Possono solo tirare al massimo ciò che è disponibile. Da qui a 5/6 sarà difficile con le attuali ottimizzazioni ottenere qualcosa. Le tecnologie ci sono, sono ancora immature per metterle in produzione. Con i materiali attuali non è possibile abbattere i consumi più di quanto si sia già fatto, l'implementazione delle nuove feature danno un reale vantaggio prestazionale, ma non energetico. A meno miracoli bisognerà attendere. Inoltre considera che il mercato dei giochi è molto statico. La necessità di upgrade (4k a parte) è così necessaria? Non credo...
 
Per ringraziarti della spiegazione esaustiva vorrei offrirti un arrosto cotto sul dissipatore della mia GPU. ?
Le nuove schede serie 40 verosimilmente costringeranno quasi tutti i futuri acquirenti ad un upgrade dell'alimentatore e non penso che nella generazione successiva, la 50, se ne usciranno dicendo: "Finalmente abbiamo sviluppato una nuova tecnologia che dimezzerà i consumi!".
Ho già preventivato nel rinnovo della prossima build di buttarci dentro un alimentatore da 850W anche se poi lo userò solo in hd hai visto mai...tanto la differenza tra un 650W e un 850W per chi deve rinnovare tutto per obsolescenza è trascurabile.
 
Con i materiali attuali non è possibile abbattere i consumi più di quanto si sia già fatto
ridurre i consumi è possibile ma vuol dire spingere molto meno i chip nelle frequenze, il che vuol dire che a parità di prestazioni serve un chip più grosso e dunque costoso da produrre.

sarebbe possibile creare hw con un rapporto prestazioni/consumi decisamente migliore ma vorrebbe dire renderlo parecchio più costoso a parità di prestazioni.

si può downcloccare e downvoltare una rtx3070 per farla andare come una rtx3050 facendola consumare un po'meno della rtx3050 ma chi spenderebbe i soldi di una 3070 per avere le prestazioni di una rtx3050 per qualche decina di watt in meno? nessuno ovviamente
 
ridurre i consumi è possibile ma vuol dire spingere molto meno i chip nelle frequenze, il che vuol dire che a parità di prestazioni serve un chip più grosso e dunque costoso da produrre.

sarebbe possibile creare hw con un rapporto prestazioni/consumi decisamente migliore ma vorrebbe dire renderlo parecchio più costoso a parità di prestazioni.

si può downcloccare e downvoltare una rtx3070 per farla andare come una rtx3050 facendola consumare un po'meno della rtx3050 ma chi spenderebbe i soldi di una 3070 per avere le prestazioni di una rtx3050 per qualche decina di watt in meno? nessuno ovviamente
Non vorrei aver travisato la tua risposta, potresti provare a rispiegarmelo?
 
Pubblicità
Pubblicità
Indietro
Top