UFFICIALE Zen 4 : Ryzen serie 7000

Pubblicità
AMD ha già detto che sarà grafica "da ufficio", meno potente delle precedenti APU


per la dissipazione con l'aumentare delle tensioni biognerà usare dissipatori termoelettrici
bisognava risolvere per bene il problema della condensa che potenzialmente si forma e, naturalmente, quello del costo di tali dispositivi, che permettono ad una CPU di essere raffreddata al di sotto della temperatura ambiente
in commercio ce ne sono già di EK Water Blocks, ma costano uno sproposito

No, ti prego: le celle di Peltier nel 2022 anche no. Non ce la posso fare.
 
Ultima modifica:
non parlavo né di ZEN-4 né di Rocket Lake, dicevo in generale
a meno che non si cambino i materiali dell CPU con metamateriali di nuova concezione, magari misti a fibre ottiche
 
Per l'appunto:

Finché non sostituiremo il silicio, questa è la deriva che prenderanno i microprocessori (cpu, gpu, ram, ssd etc).
nulla di inaspettato...
Certo questa è la tendenza perché NESSUNO tra AMD ed Intel ha intenzione di fare un passo indietro sull'ottimizzazione.
Loro devono mostrarti a slide con "+57%" e chissenefrega se per ottenere il numerello devi spararti 230W su un minuscolo die impossibile da dissipare.
Con il nuovo processo produttivo avrei preferito un "+5%" di prestazioni, ma un bel segno negativo sul consumo massimo...

a questo punto le performance varieranno notevolmente in base alla temperatura.
Non ci sarà più un processore che fa X performance, perché quel processore farà X performance solo sotto azoto liquido con tutto il resto nel mezzo.

Cmq per il momento Raptor diventa sempre meno interessante ai miei occhi a favore di AMD.
Che Intel voglia puntare a fare i numeri con l'azoto liquido è chiaro visto che hanno pubblicizzato quella follia dei 350W.

Magari AMD con un aio d'inverno si tiene.
veramente questi dati sono riferiti ad un Ryzen 9 a stock , quindi senza PBO, che arriva a 94°... alla faccia del "si tiene".

Alla fine la temperatura è solo un numero: avere una CPU a 90-95 gradi non provoca fastidi diretti.
La domanda se mai è: quanto possono resistere chip così tirati per il collo con densità di corrente sempre maggiori operando sempre a temperature elevate? Davvero i nuovi processi produttivi sono così robusti?
Penso che nessuno abbia una risposta, se non dopo alcuni anni di utilizzi dei prodotti che permettono di fare una statistica empirica affidabile. Ma a quel punto è troppo tardi per chi gli ha acquistati.
verissimo, ma la temperatura è causata dal consumo, diventato enorme, ed il tutto si riferisce a chip sempre più piccoli, in cui la densità di corrente diventa mostruosa.
Delle "rassicurazioni" dei produttori me ne faccio poco: per loro il prodotto va garantito 2 anni (in alcuni Paesi 1 anno solo), quindi se la CPU degrada o muore in pochi anni non è considerato un problema.
Le maschere ed i processi possono variare e migliorare, ma il materiale è sempre quello, e non mi risulta che le leggi della chimica e fisica seguano il marketing.
Per me abbiamo intrapreso una strada sbagliata, in cui Intel ed AMD si sfidano non sulle feature ma sul benchmark, perché il fine ultimo è scrivere "+57% sul 12900K", che fa figo ed attira il cliente.
Fa nulla se per arrivarci siamo di fronte ai primi Ryzen che superano i 200W, consumo folle che speravo fosse limitato ad una frustrata Intel.

Tanto gia consumano poco le cpu... mettiamoceli altri 100w per le celle ?
altra cosa che nessuno considera...
siamo nell'epoca della crisi energetica e del caro bollette (e non vi illudiate che si tornerà a livelli precedenti anche dopo la fine della guerra), ed avere un PC da gaming in casa comincia ad avere un REALE impatto sulla bolletta energetica, con CPU e GPU che consumano come una stufetta elettrica. Io con 3 PC ho un carico reale e quantificabile in decine di euro.
Ma ad Intel, Nvidia ed AMD non importa nulla.
Per loro conta dire solo "siamo più veloci".
 
@Max(IT) Però non facciamo le verginelle:
- in particolare per noi uomini, non è una questione sessista ma una pura statistica sugli utilizzatori, il numero più grosso attira sempre di più anche se spesso serve a poco (qui penso alla suite di test che ho postato pochi giorni fa, la differenza tra 8 e 16 core è praticamente inapprezzabile);
-nessun produttore può competere a metà o un terzo del power budget, ci vorrebbero 3 nodi di vantaggio per bilanciare le prestazioni. QUindi o decidi di soccombere o ti adegui.

Per me il discrimine rimane uno solo: a differenza del 2010, oggi non compro una piattaforma per 2 generazioni. Per il resto faccio di necessità virtù.
 
@Max(IT) Però non facciamo le verginelle:
- in particolare per noi uomini, non è una questione sessista ma una pura statistica sugli utilizzatori, il numero più grosso attira sempre di più anche se spesso serve a poco (qui penso alla suite di test che ho postato pochi giorni fa, la differenza tra 8 e 16 core è praticamente inapprezzabile);
-nessun produttore può competere a metà o un terzo del power budget, ci vorrebbero 3 nodi di vantaggio per bilanciare le prestazioni. QUindi o decidi di soccombere o ti adegui.

Per me il discrimine rimane uno solo: a differenza del 2010, oggi non compro una piattaforma per 2 generazioni. Per il resto faccio di necessità virtù.
ma infatti è TUTTO il mercato che dovrebbe adeguarsi.
Senza regressione, ma con un esempio semplice fatto anche sopra: +5% di prestazioni e -10% di consumo. È un progresso.
La corsa al clock ed ai Watt è già avvenuta, anni fa, poi Intel si è accorta che non portava da nessuna parte ed è tornata ad inseguire l'efficienza. Il trend si è invertito qualche anno fa, con Intel in difficoltà con i nodi, ed AMD gli sta andando dietro
 
Ultima modifica:
Per me il problema delle CPU a 100°C che degradano è un non problema.
Abbiamo già dei notebook che lavorano a 100°C da tantissimi anni e non sono mai morti. Il problema è che queste CPU diventano CPU da test, fai il test, fai il punteggio figo, dopo 5 minuti va alla metà della potenza perché altrimenti la CPU raggiunge il punto di fusione :D

Altro problema ovviamente è quello dei consumi e dell'impatto ambientale che ne consegue anche se l'ambiente ha ben altri problemi.
 
ma infatti è TUTTO il mercato che dovrebbe adeguarsi.
Senza regressione, ma con un esempio semplice fatto anche sopra: +5% di prestazioni e -10% di consumo. È un progresso.
La corsa al clock ed ai Watt è già avvenuta, anni fa, poi Intel si è accorta che non portava da nessuna parte ed è tornata ad inseguire l'efficienza. Il trend si è invertito qualche anno fa, con Intel in difficoltà con i nodi, ed AMD gli sta andando dietro
Problema che ha un andamento quasi esponenziale. Non penso ci sarà un inversione di tendenza seria salvo in un futuro dove magari inizieranno a implementare nuove tecnologie nei core o un qualche tipo di acceleratore.
Questo vale per le CPU e soprattutto per le GPU che hanno consumi che crescono a ritmi imbarazzanti a dir poco. Poi di conseguenza va dissipato tutto, con il risultato che hai dissipatori sempre più energivori e un case imbottito di ventole se no a momenti fonde. Insomma l'alimentatore medio avrà un wattaggio sempre maggiore a lungo andare
 
Io non vorrei prendere come esempio Apple perché in vita mia non ho mai comprato niente di Apple e dico niente e mai lo farò però almeno in questo Apple sta prendendo la strada giusta.
 
Problema che ha un andamento quasi esponenziale. Non penso ci sarà un inversione di tendenza seria salvo in un futuro dove magari inizieranno a implementare nuove tecnologie nei core o un qualche tipo di acceleratore.
Questo vale per le CPU e soprattutto per le GPU che hanno consumi che crescono a ritmi imbarazzanti a dir poco. Poi di conseguenza va dissipato tutto, con il risultato che hai dissipatori sempre più energivori e un case imbottito di ventole se no a momenti fonde. Insomma l'alimentatore medio avrà un wattaggio sempre maggiore a lungo andare
Ma infatti non mi aspetto un cambio di direzione…
Però il mercato ha preso una piega imbarazzante, con sistemi domestici che necessitano di PSU enormi.
 
Per me il problema delle CPU a 100°C che degradano è un non problema.
Abbiamo già dei notebook che lavorano a 100°C da tantissimi anni e non sono mai morti. Il problema è che queste CPU diventano CPU da test, fai il test, fai il punteggio figo, dopo 5 minuti va alla metà della potenza perché altrimenti la CPU raggiunge il punto di fusione :D

Altro problema ovviamente è quello dei consumi e dell'impatto ambientale che ne consegue anche se l'ambiente ha ben altri problemi.

Sì però su notebook parliamo di ben altri assorbimenti, quindi ben altre tensione e ben altre correnti (più basse).
A pari temperatura comunque i chip dovrebbero soffrire meno.
 
Per me il problema delle CPU a 100°C che degradano è un non problema.
Magari nel breve tempo non ti accorgi della differenza rispetto ad avercela a una temperatura più bassa, però 100℃ son comunque tanti. Il silicio pian piano si degrada e richiede tensioni maggiori per la stessa potenza richiesta, generando così ulteriore calore finché la CPU non smette di funzionare (qui una rappresentazione). L'esempio con i portatili non c'entra, qualsiasi CPU non è pensata per lavorare a temperature così alte.
 
Sì però su notebook parliamo di ben altri assorbimenti, quindi ben altre tensione e ben altre correnti (più basse).
A pari temperatura comunque i chip dovrebbero soffrire meno.
Esatto. Le CPU da notebook stanno solitamente abbondantemente sotto i 100W (tipicamente 60/70W)… Senza contare che il workload su desktop tende a essere più prolungato.

Magari nel breve tempo non ti accorgi della differenza rispetto ad avercela a una temperatura più bassa, però 100℃ son comunque tanti. Il silicio pian piano si degrada e richiede tensioni maggiori per la stessa potenza richiesta, generando così ulteriore calore finché la CPU non smette di funzionare (qui una rappresentazione). L'esempio con i portatili non c'entra, qualsiasi CPU non è pensata per lavorare a temperature così alte.
Se non erro con lui ne abbiamo già parlato a lungo ma non si convince. La temperatura influisce in modo esponenziale sull’ elettromigrazione, quindi anche se la CPU non ti si “rompe” in senso lato dall’oggi al domani, il silicio si usura eccome. Ed il fatto che alcuni notebook operino a 100° non è una “garanzia” ma l’indicativo che le Case se ne fregano si sviluppare sistemi di dissipazione adeguati (tanto loro passati i due anni se il PC fuori garanzia si rovina sono solo contenti…).
 
Ultima modifica:
Esatto. Le CPU da notebook stanno solitamente abbondantemente sotto i 100W (tipicamente 60/70W)… Senza contare che il workload su desktop tende a essere più prolungato.


Se non erro con lui ne abbiamo già parlato a lungo ma non si convince. La temperatura influisce in modo esponenziale sull’ elettromigrazione, quindi anche se la CPU non ti si “rompe” in senso lato dall’oggi al domani, il silicio si usura eccome. Ed il fatto che alcuni notebook operino a 100° non è una “garanzia” ma l’indicativo che le Case se ne fregano si sviluppare sistemi di dissipazione adeguati (tanto loro passati i due anni se il PC fuori garanzia si rovina sono solo contenti…).
Le precedenti CPU duravano decenni, supponendo che la longevità si dimezzi a causa della temp e dell'alta corrente a chi interessa?
Veramente c'è gente che ci fa 10 anni con una CPU? xD

Se la vostra paura è di avere delle CPU che durano solo 2 anni è una paura infondata.
Alcuni server lavorano già intorno al punto di throttle con carichi pesanti h24 per anni e non fanno una piega.
Vivete sereni su questo che tanto la CPU la cambiate prima.
 
Pubblicità
Pubblicità
Indietro
Top