UFFICIALE Intel Alder Lake (Gen 12)

Pubblicità
concordo sulla prima parte, mentre non sono del tutto convinto sulla seconda.
I P-Core degli Alder Lake sono comunque discreti "mostri" in single thread, quindi immagino che in gaming saranno sempre molto validi. Per i motivi che ho espresso alcuni post fa, il gaming a mio modo di vedere sarà sempre abbastanza difficile da far scalare su molti core, e prima di vedere davvero in difficoltà un 12600K per numero di core, per me passeranno diversi anni (e per allora queste piattaforme saranno tutte obsolete comunque).
il video che ho postato del canale che tu definisci eccezionale dice l'esatto opposto di quello che stai dicendo.
non era eccezionale quel canale? fare un titolo di un video dicendo che gli ecore fanno cagare nel gaming è semplicemente una stupidagine. gli ecore non servono per "il gaming".

cmq questo è uno dei pochissimi post dove mi trovo d'accordo con te xD
--- i due messaggi sono stati uniti ---
Si, infatti avevo scritto "se un giorno si useranno a pieno 8 cores" che è una cosa anche secondo me piuttosto lontana.

Il senso comunque era che gli E cores non potranno mai sostituire i P cores in gaming tanto bene come fanno nei programmi di rendering per esempio. Ed è tutto dovuto alle latenze.
ma non sono stati messi mica la per quello eppure Alder Lake nel gaming è il migliore (oggi).
 
io non sono d'accordo.
il "gaming" come tutti lo chiamano, o meglio i motori grafici realtime, non necessitano di basse latenze e alte frequenze su 8 cores ma su 1, massimo 2 core. tutti gli altri core vengono utilizzati per processi che possono lavorare bene anche sugli ecore.
Eppure nei test di HW unboxed, 2p cores non bastavano anche se affiancati a 2 e cores per anche solo avvicinarsi alle prestazioni di 4 p cores ?‍♂️


gli ecore non servono per "il gaming".
Appunto, non servono perché se li usi fanno cagare ?

ma non sono stati messi mica la per quello eppure Alder Lake nel gaming è il migliore (oggi).
Verissimo, ma "solo" per merito dei golden cove cores.
Gli E cores come hai detto anche tu servono ad altro e per il gaming potrebbero anche essere totalmente disattivati.

Cioè lato gaming, se buttavano fuori la stessa architettura ma senza E cores, non cambiava niente.... Anzi magari era pure un po' meglio dato che mi pare che alcune cose (tipo la frequenza del ring bus) siano state un po' penalizzate dalla presenza degli E cores mi pare.
Ed è quello che diceva Steve di hwunboxed, nel gaming gli E cores contano zero (e se li fai contare di proposito tagliando i cores attivi peggiora tutto).
 
io non sono d'accordo.
il "gaming" come tutti lo chiamano, o meglio i motori grafici realtime, non necessitano di basse latenze e alte frequenze su 8 cores ma su 1, massimo 2 core. tutti gli altri core vengono utilizzati per processi che possono lavorare bene anche sugli ecore.
i motori grafici realtime hanno smesso di usare solo 1 o 2 core da anni ormai.
 
Eppure nei test di HW unboxed, 2p cores non bastavano anche se affiancati a 2 e cores per anche solo avvicinarsi alle prestazioni di 4 p cores ?‍♂️



Appunto, non servono perché se li usi fanno cagare ?


Verissimo, ma "solo" per merito dei golden cove cores.
Gli E cores come hai detto anche tu servono ad altro e per il gaming potrebbero anche essere totalmente disattivati.

Cioè lato gaming, se buttavano fuori la stessa architettura ma senza E cores, non cambiava niente.... Anzi magari era pure un po' meglio dato che mi pare che alcune cose (tipo la frequenza del ring bus) siano state un po' penalizzate dalla presenza degli E cores mi pare.
Ed è quello che diceva Steve di hwunboxed, nel gaming gli E cores contano zero (e se li fai contare di proposito tagliando i cores attivi peggiora tutto).
prova a rifare il test con 2 pcore e 6 ecore.
--- i due messaggi sono stati uniti ---
i motori grafici realtime hanno smesso di usare solo 1 o 2 core da anni ormai.
ma anche no, l'unico thread nei motori grafici che richiede alte frequenze e basse latenze è quello di rendering, tutti gli altri thread sono normalissimi processi leggeri assimilabili a quelli di normalissime applicazioni.
 
prova a rifare il test con 2 pcore e 6 ecore.
--- i due messaggi sono stati uniti ---
andrebbe male ugualmente.
Ma tu l'hai capito il test che hanno fatto ? Hanno normalizzato tutto a 4 core per analizzare l'impatto. Avrebbero potuto farlo con 6, il concetto resta lo stesso.

ma anche no, l'unico thread nei motori grafici che richiede alte frequenze e basse latenze è quello di rendering, tutti gli altri thread sono normalissimi processi leggeri assimilabili a quelli di normalissime applicazioni.
ma anche no. Non si fa rendering con un solo core dalle Guerre Puniche ormai...
Peraltro il rendering vero e proprio lo fa la GPU, non la CPU. Hai le idee confuse su come si programma un gioco.
Il rendering real time su CPU non si fa.
 
Ultima modifica:
andrebbe male ugualmente.
Ma tu l'hai capito il test che hanno fatto ? Hanno normalizzato tutto a 4 core per analizzare l'impatto. Avrebbero potuto farlo con 6, il concetto resta lo stesso.


ma anche no. Non si fa rendering con un solo core dalle Guerre Puniche ormai...
Peraltro il rendering vero e proprio lo fa la GPU, non la CPU. Hai le idee confuse su come si programma un gioco.
Il rendering real time su CPU non si fa.

io l'ho capito, non sono sicuro del contrario :)
la GPU non renderizza niente senza che la CPU non gli dia materiale da renderizzare.
il collo di bottiglia della cpu c'è quando la CPU non riesce a fornire sufficienti frame da renderizzare alla GPU, questa è l'unica cosa che ancora non si riesce a parallelizzare bene se non per niente.
tutti gli altri core fanno compiti normalissimi che possono essere fatti anche da core a più bassa frequenza.

ovviamente il collo di bottiglia ci può essere per vari altri motivi come per esempio su una CPU a 4 Pcore velocissimi dove il numero di core non è comunque sufficiente ad elaborare tutti i thread staccati dall'engine di gioco.

quindi mi ripeto, di core ad alte frequenze e basse latenze ne servono 1 o 2.
gli altri servono ovviamente ma vanno bene pure se non hanno latenze o frequenze così elevate.

non lo dico io, lo dicono gli esperti della CG, Tim Sweeney tempo fa aveva fatto un talk a riguardo.
magari prima di dire a me che non ho idea di come si programma un gioco (ed è vero perchè io faccio programmazione enterprise), capite che preparazione avete voi per parlare.
Io una laurea in IT ce l'ho e con la programmazione ci ho mangiato fino ad adesso lavorando per le Big Tech del settore, adesso dico ai programmatori come programmare, magari datevela una letta a qualcosa che non sia spaziogames.

e basta a fare gli esperti di roba di cui non avete idea, mo torniamo al fatto che mi paragonate l'hardware all'informatica.

cmq ritorno a dormire silente, ci vediamo sul mercatino tra qualche giorno.
 
Ultima modifica:
io l'ho capito, non sono sicuro del contrario :)
la GPU non renderizza niente senza che la CPU non gli dia materiale da renderizzare.
il collo di bottiglia della cpu c'è quando la CPU non riesce a fornire sufficienti frame da renderizzare alla GPU, questa è l'unica cosa che ancora non si riesce a parallelizzare bene se non per niente.
tutti gli altri core fanno compiti normalissimi che possono essere fatti anche da core a più bassa frequenza.

ovviamente il collo di bottiglia ci può essere per vari altri motivi come per esempio su una CPU a 4 core dove il numero di core non è sufficiente ad elaborare tutti i thread staccati dall'engine di gioco.

quindi mi ripeto, di core ad alte frequenze e basse latenze ne servono 1 o 2.
gli altri servono ovviamente ma vanno bene pure se non hanno latenze o frequenze così elevate.

non lo dico io, lo dicono gli esperti della CG, Tim Sweeney tempo fa aveva fatto un talk a riguardo.
magari prima di dire a me che non so come si programma, che almeno una laurea in IT ce l'ho e con la programmazione ci ho mangiato fino ad adesso lavorando per le Big Tech del settore, datevela una letta a qualcosa che non sia spaziogames.
sorry ma temo tu non abbia la più pallida idea dell'argomento di cui stai parlando.
Ed il fatto che tu abbia parlato di "thread di rendering", quando il rendering lo fa la GPU (che fa del parallelismo nel rendering il suo punto di forza), lo dimostra completamente.
Al di la che quella laurea l'ho presa quando tu andavi all'asilo, non c'entra nulla con questo discorso. A me non interessa cosa fai per vivere, ma sono sicuro che non hai mai messo mano ad un videogioco.

Il gaming richiede core con basse latenze ed elevata cache, e non per il rendering, che non c'entra una fava, ma per la dinamica non lineare dei processi. E che servano "1 o 2 core" nel 2021 è un concetto assolutamente obsoleto.
è da diversi anni che per quanto il parallelismo sia "in ritardo" in questo specifico campo, il minimo assoluto si è spostato sui 4 core, con diversi giochi che ormai arrivano a scalare su 6 ed anche 8 core abbastanza correttamente.
La CPU in un gioco non si occupa del rendering, ma di fisica (in parte), IA e mille altre cose.
 
sorry ma temo tu non abbia la più pallida idea dell'argomento di cui stai parlando.
Ed il fatto che tu abbia parlato di "thread di rendering", quando il rendering lo fa la GPU (che fa del parallelismo nel rendering il suo punto di forza), lo dimostra completamente.
Al di la che quella laurea l'ho presa quando tu andavi all'asilo, non c'entra nulla con questo discorso. A me non interessa cosa fai per vivere, ma sono sicuro che non hai mai messo mano ad un videogioco.

Il gaming richiede core con basse latenze ed elevata cache, e non per il rendering, che non c'entra una fava, ma per la dinamica non lineare dei processi. E che servano "1 o 2 core" nel 2021 è un concetto assolutamente obsoleto.
è da diversi anni che per quanto il parallelismo sia "in ritardo" in questo specifico campo, il minimo assoluto si è spostato sui 4 core, con diversi giochi che ormai arrivano a scalare su 6 ed anche 8 core abbastanza correttamente.
La CPU in un gioco non si occupa del rendering, ma di fisica (in parte), IA e mille altre cose.
io sono dell'83, quando io andavo all'asilo non esisteva il corso di laura in informatica ma l'informatica era fatta da degli specializzandi di matematica che guardavano all'informatica come a degli algoritmi in grado di automatizzare dei calcoli.
diciamo che a parte qualche genio e ovviamente agli scienziati che hanno contribuito alla creazione e all'evoluzione dell'informatica, che è una scienza nient'altro, i laureati in matematica con specializzazione in IT, ti sanno parlare del programmino fatto in basic, di come si calcola la complessità di un algoritmo, di un problema np-completo, ma di come si applica l'informatica alla vita reale non ne hanno idea.

poi sono arrivati gli ingegneri informatici che hanno provato a capire un pò di informatica e un pò di elettronica e alla fine non c'hanno capito niente di nessuna dei 2.

se la laurea in informatica l'hai presa e mi paragoni l'IT all'hardware mi domando dove tu l'abbia presa e sinceramente ho parecchi dubbi che tu ce l'abbia visto quello che dici :)

Non hai concetto di come funziona una scheda grafica ed una CPU questo è evidente e provo a spiegarti perchè.
Il concetto di thread è un concetto che si riferisce al sistema operativo e non all'hardware, il sistema operativo crea un thread, che altro non è che un processo leggero.
Vedi il thread come un pezzetto di un programma che contiene un compito, solo la CPU è in grado di lavorare un thread del sistema operativo.
All'interno di quel thread poi la CPU può chiamare delle API del sistema operativo (arricchite dai driver) che accedono alla GPU per accelerare dei calcoli.
La GPU poi può avere una sua logica interna e può scindere il problema in sottoproblemi utilizzando dei thread che vivono all'interno della GPU ma che niente hanno a che fare con il thread di rendering iniziale generato dal sistema operativo per via del software di gioco (in questo caso). Quei thread, altro non sono che calcolatrici veloci per una richiesta della CPU.

La GPU senza la CPU non fa niente, la GPU elabora informazioni impacchettate dalla CPU, punto.

L'IA, la fisica, il codice di rete per le CPU moderne sono tutte cose che non richiedono alta latenza e alta frequenza perchè subiscono il collo di bottiglia del thread che mette insieme la totalità di quelle informazioni e le spara verso la GPU.

Buona parte dei calcoli fisici per esempio può essere accelerato da una GPU ma la CPU li deve "premasticare", li deve rendere lavorabili dalla GPU che fondamentalmente è un componente hardware "molto poco intelligente" che sa fare molto velocemente poche cose in croce e comunque tutte limitate al suo mondo.

Ovvio che se hai una cpu di m***a il collo di bottiglia può essere ovunque ma qui si parla di CPU i cui thread lavorano sotto al 30% del carico.

Perchè secondo te una CPU può creare colli di bottiglia pure avendo un carico complessivo bassissimo?

La CPU con la memoria implementa il concetto di macchina di turing, la GPU è solo un acceleratore che da sola anche con la memoria non costituisce una macchina di turing.

Ti basti pensare che una GPU fino a prima di Windows 11 non era nemmeno in grado di accedere ad una texture presente su disco e in realtà non lo è ancora perchè è sempre la cpu che deve dire alla GPU dove è allocata fisicamente su disco quella texture perchè l'accesso al file system principale rimane ad uso esclusivo della CPU che insieme al sistema operativo ha il compito di garantirne la sicurezza dell'accesso ai dati.

mo mi so stufato.

se trovate le DDR5 avvisatemi, altrimenti un abbraccio a tutti, se vi incontro vi offro una birra ma magari parliamo di altro va.
 
Ultima modifica:
io sono dell'83, quando io andavo all'asilo non esisteva il corso di laura in informatica ma l'informatica era fatta da degli specializzandi di matematica che guardavano all'informatica come a degli algoritmi in grado di automatizzare dei calcoli.
diciamo che a parte qualche genio e ovviamente agli scienziati che hanno contribuito alla creazione e all'evoluzione dell'informatica, che è una scienza nient'altro, i laureati in matematica con specializzazione in IT, ti sanno parlare del programmino fatto in basic, di come si calcola la complessità di un algoritmo, di un problema np-completo, ma di come si applica l'informatica alla vita reale non ne hanno idea.

quindi invece che all'asilo andavi in terza elementare: fatti tu i conti.
Esistevano corsi di laurea in scienze dell'informazione ed ingegneria informatica ben prima che arrivasse uno dell'83. Il vecchio ordinamento esisteva prima che tu nascessi. Informati.
Oppure andiamo a dire alla Statale di Milano ed al Politecnico che si sbagliavano... ?

[MOD MODE ON]Detto questo, lo stucchevole OT è andato avanti fin troppo.
Come detto della tua (o mia) laurea non importa a nessuno e non è inerente al thread. ?‍? [/MOD MODE OFF]

?

se la laura in IT l'hai presa e mi paragoni l'IT all'hardware mi domando dove tu l'abbia presa e sinceramente ho parecchi dubbi che tu ce l'abbia visto quello che dici :)

Non hai concetto di come funziona una scheda grafica ed una CPU questo è evidente e provo a spiegarti perchè.

La GPU senza la CPU non fa niente, la GPU elabora informazioni impacchettate dalla CPU, punto.

L'IA, la fisica, il codice di rete per le CPU moderne sono tutte cose che non richiedono alta latenza e alta frequenza perchè subiscono il collo di bottiglia del thread che mette insieme la totalità di quelle informazioni e le spara verso la GPU.

Ovvio che se hai una cpu di sheetah il collo di bottiglia può essere ovunque ma qui si parla di CPU i cui thread lavorano sotto al 30% del carico.

Perchè secondo te una CPU può creare colli di bottiglia pure avendo un carico complessivo bassissimo?

La CPU con la memoria implementa il concetto di macchina di touring, la GPU è solo un acceleratore che da sola non costituisce una macchina di touring.

sorry ma non sei in grado di spiegarmi alcunché. ?‍♂️
Sopra hai scritto un enorme inesattezza, parlando di "thread di rendering" (per di più al singolare ?‍♂️) ed a me questo basta per capire che non è qualcosa che conosci.
Tutto questo giro di parole non c'entra nulla con quanto in discussione e con il video che tu stesso hai postato che parla di tutt'altro.
 
Ultima modifica:
sorry ma temo tu non abbia la più pallida idea dell'argomento di cui stai parlando.
Ed il fatto che tu abbia parlato di "thread di rendering", quando il rendering lo fa la GPU (che fa del parallelismo nel rendering il suo punto di forza), lo dimostra completamente.
Al di la che quella laurea l'ho presa quando tu andavi all'asilo, non c'entra nulla con questo discorso. A me non interessa cosa fai per vivere, ma sono sicuro che non hai mai messo mano ad un videogioco.

Il gaming richiede core con basse latenze ed elevata cache, e non per il rendering, che non c'entra una fava, ma per la dinamica non lineare dei processi. E che servano "1 o 2 core" nel 2021 è un concetto assolutamente obsoleto.
è da diversi anni che per quanto il parallelismo sia "in ritardo" in questo specifico campo, il minimo assoluto si è spostato sui 4 core, con diversi giochi che ormai arrivano a scalare su 6 ed anche 8 core abbastanza correttamente.
La CPU in un gioco non si occupa del rendering, ma di fisica (in parte), IA e mille altre cose.
Scusa ancora se ti disturbo, a quanti messaggi devo arrivare per i PM? 100?
 
quindi invece che all'asilo andavi in terza elementare: fatti tu i conti.
Esistevano corsi di laurea in scienze dell'informazione ed ingegneria informatica ben prima che arrivasse uno dell'83. Il vecchio ordinamento esisteva prima che tu nascessi. Informati.
Oppure andiamo a dire alla Statale di Milano ed al Politecnico che si sbagliavano... ?

[MOD MODE ON]Detto questo, lo stucchevole OT è andato avanti fin troppo.
Come detto della tua (o mia) laurea non importa a nessuno e non è inerente al thread. ?‍? [/MOD MODE OFF]

?



sorry ma non sei in grado di spiegarmi alcunché. ?‍♂️
Sopra hai scritto un enorme inesattezza, parlando di "thread di rendering" (per di più al singolare ?‍♂️) ed a me questo basta per capire che non è qualcosa che conosci.
Tutto questo giro di parole non c'entra nulla con quanto in discussione e con il video che tu stesso hai postato che parla di tutt'altro.

non ho detto che il corso di laurea in informatica è partito quando mi sono iscritto io.
tutto il giro di parole serviva a spiegare a uno che dice di avere la laurea in informatica perchè "il thread di rendering" lo gestisce la CPU e perchè ne è uno solo (raramente qualcosa di quel thread si riesce a parallelizzare a 2 thread), ma forse ho perso solo tempo.

il video invece c'entra tantissimo con il mio discorso e nè tu, nè quello che ha fatto il video l'avete capito.

meh meh, come dicevo, saluti a tutti :D
 
Ultima modifica:
Scusa ancora se ti disturbo, a quanti messaggi devo arrivare per i PM? 100?
Fai prima a chiedere pubblicamente in un thread come questo di essere contattato da chi desideri.

Una volta che lui ti manda il messaggio puoi rispondere quante volte vuoi, è solo dare vita per primo alla conversazione che ti è precluso. Penso lo abbiano imposto per evitare spam da account generati apposta per quello... ?
 
La CPU con la memoria implementa il concetto di macchina di touring
? beh insomma, mica è così eh!
CPU+(memoria centrale)+(I/O)+bus = macchina di Von Neumann (MdVN)
la macchina di Turing (non "touring" che significa "turismo" ?), dal nome del grande matematico Alan Turing, è un modelllo astratto di calcolo. I computer attuali sono strutturati come Macchina di Von Neumann, con ovviamente tutte le mirabolanti innovazioni tecniche (ma come struttura portante rimangono MdVN), la macchina di Turing si usa per definire in astratto il concetto di algoritmo.

Però sì, è la CPU che deve dar da mangiare alla GPU, una CPU ciofeca non invia abbastanza dati alla GPU (o lo fa troppo lentamente);
la GPU di suo è un acceleratore mostruoso di operazioni elementari (tuttavia anche questa visione rimane semplicistica se pensi che ha dentro comunque un processore specializzato, linee di comunicazione, una VRAM interna, insomma ci manca poco e niente per essere vista come una MdVN a sua volta, sebbene limitata a determinati tipi di calcolo)
 
? beh insomma, mica è così eh!
CPU+(memoria centrale)+(I/O)+bus = macchina di Von Neumann (MdVN)
la macchina di Turing (non "touring" che significa "turismo" ?), dal nome del grande matematico Alan Turing, è un modelllo astratto di calcolo. I computer attuali sono strutturati come Macchina di Von Neumann, con ovviamente tutte le mirabolanti innovazioni tecniche (ma come struttura portante rimangono MdVN), la macchina di Turing si usa per definire in astratto il concetto di algoritmo.

Però sì, è la CPU che deve dar da mangiare alla GPU, una CPU ciofeca non invia abbastanza dati alla GPU (o lo fa troppo lentamente);
la GPU di suo è un acceleratore mostruoso di operazioni elementari (tuttavia anche questa visione rimane semplicistica se pensi che ha dentro comunque un processore specializzato, linee di comunicazione, una VRAM interna, insomma ci manca poco e niente per essere vista come una MdVN a sua volta, sebbene limitata a determinati tipi di calcolo)
Io parlavo di IT, non di architetture hardware.
La macchina di Von Neumann può essere ricondotta a quella di turing, perché una descrive un'architettura hardware, l'altra come si elabora un algoritmo e quindi da vita all'informarica per come la conosciamo.
 
Scusa ancora se ti disturbo, a quanti messaggi devo arrivare per i PM? 100?

Qui troverai la risposta ai tuoi dubbi: https://forum.tomshw.it/threads/guida-alluso-del-forum.757310/#post-7126621
Comunque per diventare utente attivo servono 150 messaggi e 60 giorni di iscrizione.

Fai prima a chiedere pubblicamente in un thread come questo di essere contattato da chi desideri.

Una volta che lui ti manda il messaggio puoi rispondere quante volte vuoi, è solo dare vita per primo alla conversazione che ti è precluso. Penso lo abbiano imposto per evitare spam da account generati apposta per quello... ?

Sì perchè purtroppo c'erano tanti neoiscritti che partivano direttamente tempestando di PM gli utenti più anziani.
 
Pubblicità
Pubblicità
Indietro
Top