UFFICIALE Zen 4 : Ryzen serie 7000

Pubblicità
Vero che se la sono tirata senza motivo e che potevano fare subito gli X3D.

Ma il fatto della 3D cache non è una innovazione tecnologica da poco.

Per quello che "altro non è che uno strato aggiuntivo sopra il chiplet" ci sono voluti anni di ricerca. E a quanto pare la strada era quella giusta.
E infatti nvidia e intel per ora stanno a guardare perché di mettere un semplice strato aggiuntivo sopra ad un chip non sono ancora capaci 😬
 
Vero che se la sono tirata senza motivo e che potevano fare subito gli X3D.

Ma il fatto della 3D cache non è una innovazione tecnologica da poco.

Per quello che "altro non è che uno strato aggiuntivo sopra il chiplet" ci sono voluti anni di ricerca. E a quanto pare la strada era quella giusta.
E infatti nvidia e intel per ora stanno a guardare perché di mettere un semplice strato aggiuntivo sopra ad un chip non sono ancora capaci 😬
Siamo d'accordo che c'è stato uno studio dietro, non da poco, ma d'altra parte ricordiamoci che AMD è stata la prima nella storia a creare una CPU realmente a 64-bit. Non so però quanto la cache aggiuntiva possa servire a NVIDIA. La cache3D migliora i giochi solo perchè nel codice fa moltissime cose (calcoli fisici, AI, orchestrare la GPU, ecc ecc), mentre NVIDIA fa un solo task (renderizzare 3D).

Visto che gli *X3D sono buoni solo per il gaming e che richiede più step per ultimarlo, diciamo che ci hanno provato. Hanno visto che con gli X lisci gli è andata male ed ecco gli *X3D.

Questo comunque è quello che ha fatto AMD: rigirare la stessa roba con qualcosina in più; perchè si parla di un +10% non hanno mica rivoluzionato...
 
Gran Maestro la campagna d'odio verso Nvidia sta procedendo bene, sto aprendo gli occhi a tutti e inoltre la percentuale degli utenti che continua a scambiare il 2K con il QHD sta scendendo drasticamente.
Gran Maestro le comunico che stiamo inoltre avviando la campagna contro i pre-assemblati.
Presto questo forum sarà come l'ha sempre desiderato Maestro @Max(IT) , un forum senza Nvidia e pre-assemblati!!

Ps: @crimescene ci sta mettendo i bastoni tra le ruote, sta facendo pubblicità a quelle "cose" chiamate console a discapito del pc Gaming, ma non si preoccupi Maestro ho inviato @BWD87 ad occuparsene, sarà rapido e indolore. Che la forza sia con voi Maestro!
--- i due messaggi sono stati uniti ---
Dimentichi i led, bisogna estirparli!
 
Non so però quanto la cache aggiuntiva possa servire a NVIDIA
I trasferimenti di memoria sono le operazioni più energivore e uno dei principali bottleneck delle schede video... La cache va a risolvere proprio questo.
Tranne che nelle radeon 7000 dove son riusciti ad incastrarsi con una architettura che non beneficia di più cache oltre un certo limite più basso di quello che pensavano (infatti erano pronti modelli che ne usavano di più, annullati per quel motivo).
Chi ha pane non ha denti e chi ha denti non ha pane 😅

nvidia avrebbe fatto volentieri a cambio se avesse potuto incollare più cache sopra i suoi chip invece che farsi fare le gddr6x per dire...
 
nvidia e intel per ora stanno a guardare perché di mettere un semplice strato aggiuntivo sopra ad un chip non sono ancora capaci
mi sa che non è come dici tu, mai sentito parlare di Foveros? Intel non solo ti impacchetta i chip in 3D l'uno sopra l'altro, ma ti piazza sullo stesso package anche chip con scopi differenti; AMD ha messo uno strato di cache sopra ai chip e così facendo ha aumentato così tanto le temperature che deve far funzioanre le CPU a qualche centinaio di MHz in meno; e questa cache alla fine impatta positivamente solo sui giochi, le altre applicazioni girano più lentamente: dove sta il vantaggio? 🤔
nvidia avrebbe fatto volentieri a cambio se avesse potuto incollare più cache sopra i suoi chip invece che farsi fare le gddr6x per dire.
la prossima generazione di schede sarà MCM (Multi-Chip-Module), non sempre chi arriva primo a realizzare qualcosa è quello che poi la farà meglio, la storia insegna
 
mi sa che non è come dici tu, mai sentito parlare di Foveros? Intel non solo ti impacchetta i chip in 3D l'uno sopra l'altro, ma ti piazza sullo stesso package anche chip con scopi differenti
No, mai sentito lo ammetto.
Ma esiste questa cosa nel mondo reale o è una delle tante cose che intel ha in programma nelle sue infallibili roadmap ? 🤔
--- i due messaggi sono stati uniti ---
la prossima generazione di schede sarà MCM (Multi-Chip-Module), non sempre chi arriva primo a realizzare qualcosa è quello che poi la farà meglio, la storia insegna
Boh vedremo, io non ci scommetterei.
Comunque il messaggio era che anche alle gpu fa comodo avere molta cache.
 
Boh vedremo, io non ci scommetterei.
Comunque il messaggio era che anche alle gpu fa comodo avere molta cache.
No va bè dai per Meteor Lake é un anno che dicono che sarà una nuova architettura mcm, è confermato ormai.
Sul discorso gpu concordo con te, potrebbero applicarlo anche sui chip delle schede video a sto punto
 
No va bè dai per Meteor Lake é un anno che dicono che sarà una nuova architettura mcm, è confermato ormai.
Mcm però affiancando i chip.
Da quello che ho letto non ci sarà il 3d stack su meteor lake ma solo più chip collegati con un ponte (non attraverso il substrato come su amd, se ho capito bene) 🤔
Secondo me il 3d stack di chip è un altra cosa molto bella che faranno in ritardo di mille anni 😮‍💨
 
Mcm però affiancando i chip.
Da quello che ho letto non ci sarà il 3d stack su meteor lake ma solo più chip collegati con un ponte (non attraverso il substrato come su amd, se ho capito bene) 🤔
Secondo me il 3d stack di chip è un altra cosa molto bella che faranno in ritardo di mille anni 😮‍💨
Si vero, però dai se a farlo in 3d mi devi tagliare così di brutto le frequenze per paura delle temperature non è che mi garba molto. Sicuramente è un'ottima trovata ma che va affinata, perché se serve solo in gaming non credo che abbia chissà che futuro. (E ti dico questo mentre sto acquistando un 5800X3D per mio figlio😂, visto che ci gioca e basta).
Poi ovviamente c'è sempre la vittima di youtubbbe che crede che con i 3D fa i miracoli anche in produttività... Purtroppo non è così per ora.
 
Ragazzi, lo chiedevo nell'altro topic dedicato a NVIDIA 4000: nessuno di voi si è domandato come mai le CPU 7000X3D siano state immesse sul mercato così presto? 🤔

Ecco come è andata la faccenda...

AMD ha immesso nel mercato un numero limitato di 7000X per vedere come reagiva il consumatore e ha notato che l'entusiasmo per i processori era minimo. Allora con i processori 7000X che aveva già prodotto, senza completare l'ultima fase di packaging per chiudere definitviamente il chip, ha preso quella m3rd@, gli ha applicato sopra la cache 3D, che altro non è che uno strato aggiuntivo sopra il chiplet, ha impacchettato il chip chiudendolo definitivamente, ci ha messo il suffisso 3D alla fine e il risultato è stato OUT OF STOCK: i processori 7000X3D sono un successone!

Ha solo dovuto un po' mescolare le carte con le sigle e i core ma alla fine vi stanno rifilando la stessa monnezza che in versione X liscia non si filava nessuno. AMD e NVIDIA sono 2 grandissime 👏
Eh la fai un pò troppo semplice.
Non è che ci monti sopra la cache dopo, come fossero i mattoncini del Lego 😁

Vero che se la sono tirata senza motivo e che potevano fare subito gli X3D.

Ma il fatto della 3D cache non è una innovazione tecnologica da poco.

Per quello che "altro non è che uno strato aggiuntivo sopra il chiplet" ci sono voluti anni di ricerca. E a quanto pare la strada era quella giusta.
E infatti nvidia e intel per ora stanno a guardare perché di mettere un semplice strato aggiuntivo sopra ad un chip non sono ancora capaci 😬
Ma infatti io contesto la serie X.
Avrebbero dovuto produrre solo la serie liscia, senza 3D cache, e la serie X3D. In questo modo differenziavano la linea maggiormente.
Sul fatto che la 3D cache sia la strada giusta nel futuro ancora ho i miei dubbi. Verissimo che è un innovazione e che in alcune applicazioni fornisce un boost immediato (soprattutto giochi, perché in campo applicativo spesso è zero), ma altrettanto vero che è un componente delicato che alza i costi di produzione ed Nvidia ed Intel più che non essere capaci non lo valutano conveniente da implementare. Intel ad esempio ha puntato sull’ingrandimento della cache L2 invece. Ricordiamo che la 3D cache è una L3, non una L2 maggiorata, e tra le due c’è differenza dal punto di vista logico.
Ora non sono ancora sicuro al 100% che tutto il mercato si dirigerà verso la soluzione AMD, nel futuro. Staremo a vedere.
 
I trasferimenti di memoria sono le operazioni più energivore e uno dei principali bottleneck delle schede video... La cache va a risolvere proprio questo.
Tranne che nelle radeon 7000 dove son riusciti ad incastrarsi con una architettura che non beneficia di più cache oltre un certo limite più basso di quello che pensavano (infatti erano pronti modelli che ne usavano di più, annullati per quel motivo).
Chi ha pane non ha denti e chi ha denti non ha pane 😅

nvidia avrebbe fatto volentieri a cambio se avesse potuto incollare più cache sopra i suoi chip invece che farsi fare le gddr6x per dire...

Anche li occhio a pensare che la cache sia la cura di tutti i mali. AMD ha puntato sulla infinity cache perché nel suo progetto ha “risparmiato” sul bus, scegliendo un bus di “soli” 256bit quando Nvidia saliva ben oltre. E per ovviare a questo limite ha puntato sul ResBAR (che esisteva già ma nessuno usava) ed aggiunto una bella cache. Ma come ogni cache, ci sono dei limiti nella predizione di cosa metterci dentro… ed in 4K i limiti si vedevano rispetto al bus maggiorato.
Insomma Nvidia ha scelto la forza bruta ed AMD una soluzione più di furbizia, ma ognuna ha pro e contro.
 
Eh la fai un pò troppo semplice.
Non è che ci monti sopra la cache dopo, come fossero i mattoncini del Lego 😁
Sembra che con questa cache 3D di 2° generazione abbiano migliorato il processo produttivo e i costi di produzione e pare che le interconnessioni siano più semplici rispetto la 1° generazione. Ho cercato di capire, con la limitatezza delle mie competenze, che sia diventato più semplice per loro oggi impilare cache ... ma stiamo sempre parlando comunque di tecnologie avanzatissime, al limite dell'ideale umano della tecnologia aliena...
 
Si vero, però dai se a farlo in 3d mi devi tagliare così di brutto le frequenze per paura delle temperature non è che mi garba molto. Sicuramente è un'ottima trovata ma che va affinata, perché se serve solo in gaming non credo che abbia chissà che futuro. (E ti dico questo mentre sto acquistando un 5800X3D per mio figlio😂, visto che ci gioca e basta).
Poi ovviamente c'è sempre la vittima di youtubbbe che crede che con i 3D fa i miracoli anche in produttività... Purtroppo non è così per ora.
In realtà il taglio delle frequenze è la cosa che mi disturba di meno, perché come risultato ha portato ad un minore PPT e temperature più gestibili (ed è inutile che AMD continui a dire che gli Zen 4 arrivano a 95° e siamo tutti felici).
Quello che mi spaventa è il limite ai voltaggi, che mi dice una cosa: AMD non è così sicura della resistenza della 3D cache.
 
Pubblicità
Pubblicità
Indietro
Top