UFFICIALE AMD RADEON RX 480/580 - L'Attacco di Polaris alla fascia mainstream

Pubblicità
Locusta potresti, in poche righe dai (non voglio farti perdere tempo), la questione di async maxwell/pascal?
code dei calcoli e cicli persi... non la trovo più; stavolta me la salvo per bene

cerco di essere sintetico e preciso.
partiamo dall'analisi delle API, questa volta:
DX1: derivate dal vecchio paradigma informatico che comincio un lavoro e lo porto a termine tutto di seguito, nelle DX11 sono riusciti a parallelizzare gran parte del lavoro, ma con tecniche un po' ambigue.
parallelizzano considerando i soggetti, utilizzando dei semiquadri.
dividi lo schermo con una croce, ogni croce e' un filone di thread; il soggetto principale che c'e' sopra e' un thread.
risultato: 4 thread principali.
non sono bilanciati, ossia uno puo' essere un lavoro facile, uno un lavoro tosto (una farfalla che e' 1/100 dell'aria di rending o che la riprende tutta, se parte un thread con quel soggetto, il thread principale e' quello), ed essendo 4 semischermi, usi al massimo 4 CPU.
a singolo frame, quando incominci l'elaborazione del thread principale, il primo core libero e' relativizzato a quel lavoro e prenotato, almeno fino alle operazioni precedenti al rendering; poi sara' rimesso a disposizione della computazione generale (a chi se po piglia per primo).
questi in effetti sono i limiti DX11.
DX12: in effetti ha un aspetto similare, ma i semiquadri sono molti di piu' e quindi decisamente slegati dal numero di core del processore.
quindi si e' dovuti per forza di cose ricorrere ad una parallelizzazione piu' spinta, ossia nel non fare therad principali, ma concorrenziali... hanno tutti lo stesso peso.
quindi i core CPU fanno la loro piccola parte e poi sono liberi per il computo totale.

tecnicamente significa che ogni singolo thread deve essere univocamente identificato; con solo 4 thread principali puoi letteralmente sezionare i cuda core della GPU per farlo, quindi non sei propriamente legato ad usare un ID univoco, che significa dovre porre un registro di memoria concomitante all'elaborazione, quindi fisicamente accanto ad ogni stadio elaborativo).

ora le GPU:
maxwell:
visto che il mondo e' 3D, con 3 variabili, e che nella maggior parte dei casi devi andarti a trovare le coordinate dove applicare un determinato colore, e che questo lavoro lo fai consequenzialmente... e' una matrice che occupa 64 passaggi di calcolo.
maxwell e' sequenziale in questo modo: ha un catena di stadi di calcolo tutta diretta, senza interruzioni, per fare questi calcoli.
essendo tuta in fila ci sono pro e contro:
pro: se la pipeline e' piu' corta, quando ottieni il dato (parziale) lo devi riportare nei registri e da li poi successivamente riprendere e rispedire in una pipeline libera.
questa fase non e' produttiva rispetto al calcolo.
e' come se ti mangi 2 gelati di seguito;
se sono "da banco" alla fine li puoi unire e mangiare insieme, ma se sono confezionati, prima devi togliere l'involucro.
togliere l'involucro e' un'azione necessaria ma non proficua all'azione del "mangiare il gelato"... la devi fare ma non ti sfama, e perdi tempo.
(infelice similitudine, ma e' la prima che mi viene in mente per spiegare il concetto).
quindi si puo' dire che maxwell non perde mai tempo nella maggior parte delle sue elaborazioni, se queste sono fatte nel modo piu' logico con le limitazioni DX11 (e contando un quad core).

se lo metti a lavorare con le DX12 pero'... le matrici si possono interrompere, e lui ha il registro solo alla fine della sua pipeline.
quindi se il calcolo della matrice richiede meno di 64 passaggi, lui poi deve fare comunque tutti e 64 i passaggi, solo che quelli che fara' in piu' non avranno effetto sul risultato; e questo solo per arrivare al registro di fine pipeline.
lavoro perso nel fare stadi senza calcolo.
di per se, pero', ha molti meno registri, enormemente meno... quindi meno spazio fisico occupato sul die (anche 16 volte di meno, rispetto ad alcune architetture AMD).
quindi quello che avvantaggia Maxwell in DX11 (meno lavoro accessorio e meno spazio accessorio sul die), diventa deleterio in DX12 se si usa ACE o AC.

Pascal:
uguale a Maxwell, solo che le sue pipeline sono meta' di quelle di maxwell, quindi in DX11 un po' di lavoro accessorio inutile lo deve fare, ma e' relativamente poco, e che occupa piu' spazio sul die per un registro in piu' a pipeline.
questo pero' gli da' enorme vantaggio su DX12 con l'uso di AC e ACE, perche' gli permette di saltare meno stadi.
la sfortuna e' se il calcolo e' da 33 stadi; e' costretto a fare 2 tornate sulle pipeline; ci deve mettere lavoro accessorio e poi, alla seconda tornata, usare un solo stadio e saltarne 31.
lo uccidi, cosi'...
fortunatamente pero' e' inutile dividere una matrice in modo cosi' asincrono... le matrici sono permutazioni di variabili, quindi ti esce generalmente un multiplo di 4 e pari, in un mondo a 3 variabili.
in calcoli di altra natura (scientifici) non si puo' stabilire a priori, e li' il codice dev'essere realmente adattato all'architettura che hai in mano.

questo e' piu' o meno il succo della tecnologia usata.
DX11 maxwell: una spada con un quad core ad alta frequenza, perche' se le ROPs aumentano, le devi riuscire a sfruttare, e li il limite e' sulla velocita' nell'eseguire il lavoro sulla CPU.
DX12 maxwell: se non sono le 11_0 per lui e' un bel problema.
DX11 Pascal: perde poco in confronto a maxwell (2 azioni in piu' su 64 + 2 azioni di maxwell, ossia 32+2+32+2, cioe' 68/66... il 3% in meno di IPC)
DX12 Pascal: guadagna enormemente da maxwell, ma solo su una parallelizzazione poco spinte e con un multicore sopra a 4 ed a elevata velocita'.

ecco, su questo ti faccio un appunto:
pascal ha enormemente alzato la frequenza di clock, quindi esegue il lavoro di maxwell in 2/3 del tempo di questo.
in DX11 significa che il lavoro in GPU viene eseguito molto in fretta, e per sfruttarlo anche quello in CPU dev'essere altrettanto veloce, quindi ci vogliono quad core con frequenza (ed IPC) decisamente alti.
la GTX 1080 ha meno rops di 980Ti (a memoria), e gia' strema un 6700K in overclock.
per una 1080 Ti con piu' ROPs di 1080, per non penalizzarla, che dovresti usare?
e' logico che alcune risorse di una GPU pascal piu' potente di 1080 non verrano sfruttate a dovere (ma, forse e' ancora meglio: abbassi la frequenza della GPU e la fai lavorare nel giusto modo con la CPU consumando molto ma molto meno).
in DX12 invece pascal si puo' trovare con piu' di 4 core sul processore, ma se il codice e' altamente parallelizzato (adatto cioe' a FUJI), fa' un sacco di lavoro inutile, e gli mancano ROPs libere, impegnate a skippare stadi di pipeline.
in quel frangente vince solo il codice.
in DX12 se non e' altamente parallelizzato, magari e' sufficiente per impegnare un octacore e per utilizzare bene la lunghezza della pipeline di pascal, ma se prendi hitman come esempio...decisamente indigesto per l'architettura di pascal.
quindi, come vedi, e' una questione di design del software (come sempre).

il software si puo' adattare, ma una GPU e' stampata cosi' e non la puoi cambiare;
e come vedi, anche se l'architettura e' la medesima, dipende anche dal contorno, ossia di quante risorse hai, di come son fatte, dalla contropare CPU....
insomma, non e' semplice ottimizzare il tutto.

ok... non sono poche righe... scusa.
 
Ragazzi scusate per il piccolo OT (neanche tanto alla fine) ma come lo vedete questo schermo per una rx480?

Monitor PC Curvo da 27" con cornice ultra sottile C27F591 | SAMSUNG Italia

Ha tutte le caratteristiche che cerco (27, 1080p, freesync) l'unica cosa è che ha un pannello VA e sono abituato con IPS, considerando che con il pc principalmente gioco vale la pena prenderlo?
Beh se giochi specialmente, un VA è più indicato perché hai un buona fedeltà cromatica, una buona profondità di neri, un ottimo angolo di visione ma al contempo hai un tempo di risposta basso.

Inviato dal mio Redmi Note 3 utilizzando Tapatalk
 
Cavolo mi spiace, io sono molto fortunato a studiare e lavorare (si spera) in un settore che mi appassiona tantissimo!

Io prendo una gaming perchè io una partita a battlefield o far cry ogni tanto me la devo fare e poi una professionale per le poche cose che faccio non mi serve ed ho comunque buone prestazioni a livello generale anche con la gaming, se servisse in futuro sicuramente ne comprerò una certificata.
Appena posso ricomincio con dei studi di fluidodinamica che sto facendo per me; sto usando il CFD di autodesk ed ho letto che questo software non è accelerato in nessun modo dalla scheda video; mentre openfoam (che è molto più potente, flessibile, e free) ha un implementazione per l'accelerazione con i cuda core per particolari calcoli. Ma da quanto ho capito è poca roba e lo si sfrutta solo per il calcolo di sistemi algebrici che non richiedono metodi iterativi per la risoluzione.
Anche se ho in mente di comprare una gtx 570/580/670/680 per moddarla e farle diventare una quadro a basso costo; so di non avere memorie ECC ed altre feature delle quadro però l'idea di moddare una scheda video mi piace parecchio.
Io adoro tutta la meccanica a livello progettuale, anche se prediligo i veicoli di terra tranne i treni; mi piace molto usare i pc nell'ingegneria e mi piacerebbe molto anche diventare un femmista o fare studi fluidodinamici. Vediamo una volta laureato che offrirà il mercato hahah

fu' mio padre a farmi desistere per ing meccanica.
ha fatto diversi anni in R&D in aziende di veicoli industriali, per poi darsi alla parte commerciale.
mi diceva che potevo essere anche bravo sui motori, ma che in ferrari c'erano 3 ingegneri, gli altri progettavano bulloni, perche' gli dicevano di progettare bulloni e, se volevano lavorare, volenti o nolenti dovevano fare bulloni...
in realta' pero' ti dico che e' sempre cosi', in tutti i lavori.
se lavori sotto direttive, fai quello che ti dicono e non quello che vorresti fare, anche se e' la cosa che ti piace fare, la farai come t'indicheranno di farla... e' difficile imporre le proprie idee, anche se valide.... ci sono molte alttre variabili in gioco, soprattutto nel mondo industriale.
e' raro avere "mano libera" ed essere anche appoggiati nel farlo da chi ti paga; un caso su 1.000.

sai sicuramente che quelle sono matrici ellittiche, ossia che si usano integrali ellittici dal primo al 3° ordine reiterati.
sai che gli integrali ellittici sono piu' una rogna che altro.

se ti dicessi che ho strudiato un metodo per renderli precisi e facilmente calcolabili con l'applicazione di 3 teoremi di pitagora su scale logaritmiche?

ecco, da una stima ti diventa un calcolo, un calcolo relativamente semplice...
ci metto meno a farli con la calcolatrice che a darli in pasto al PC.

ultimamente stavo studiando le dimostrazioni matematiche incentrate su questa questione (la lunghezza esatta delle ellissi e la determinazione dell'angolo radiale partendo dalla lunghezza di un arco o corda di questa).
insomma: e' possibile ora calcolare il pendolo semplice per ogni grado senza l'approssimazione dei 7° massimi e senza passare per il momento d'inerzia (lo fai implicitamente).
non so' se riesciro' a produrre la dimostrazione matematica idonea... il mio prof di analisi non ci crede, ma ci spera.
per la stessa teoria ti spiego anche le fourier, la lagrangiana e le serie di taylor.
fanno parte di una teoria dei campi (centrabili) che deriva da quese osservazioni.
una ellisse e' assimilabile ad una spirale logaritmica archimedea, una gaussiana alla tangente.
insomma: ogni funzione curva e' assimilabile ad una retta in una diversa strutturazione di spazio, e tu studi lo spazio su cui e', indifferentemente da com'e'.
al limite, con primitive adatte, una 360 diventerebbe piu' potente di un GP100 nel calcolo fisico.
non so', forse crepo prima, ma prima o poi dovro' lasciare qualche appunto a qualcuno.
e' anche per questo che "da grande" ho voluto riprendere l'uni.
per me e' piu' che altro uno sfogo mentale.
probabilmente non mi servira' a nulla la magistrale in informatica, ma almeno mi diverto...

(ed infatti dovrei studiare un po'.. anche se non mi serve, di solito le cose, se le faccio, le devo fare con criterio).
 
Ultima modifica:
si, e come si nota sono identicamente identiche piu' l'incognita DX12, ma la lascerei da parte, al momento.

- - - Updated - - -



non ha senso nemmeno una strix a 360 euro.
meglio una reference RX 480 a liquido, anche con la limitazione a 6PIN.

Boh, io trovo più logico una custom raffreddata ad aria ma meglio costruita di una reference (con i suoi problemini) raffreddata a liquido.
Forse sono io che non ho la capacità di addentrarmi in certi ragionamenti raffinati.... :-)
 
Boh, io trovo più logico una custom raffreddata ad aria ma meglio costruita di una reference (con i suoi problemini) raffreddata a liquido.
Forse sono io che non ho la capacità di addentrarmi in certi ragionamenti raffinati.... :-)

Giallu, era una provocazione sul prezzo!

io non trovo accettabile che una scheda media venga a costare 360-380 euro, piuttosto mi prendo una schedaccia da 260 euro e ce lo metto io un VERO sistema di dissipazione capace di darmi moti piu' vantaggi pratici.
ma che, davvero, per 2 lucette uno spende 360 euro?
questa categoria era gia' sproporzionata con le 970, figuriamoci ora!
 
Giallu, era una provocazione sul prezzo!

io non trovo accettabile che una scheda media venga a costare 360-380 euro, piuttosto mi prendo una schedaccia da 260 euro e ce lo metto io un VERO sistema di dissipazione capace di darmi moti piu' vantaggi pratici.
ma che, davvero, per 2 lucette uno spende 360 euro?
questa categoria era gia' sproporzionata con le 970, figuriamoci ora!

Sì infatti. Prezzi improponibili per adesso.
Non gli compro nulla ora come ora.
 
@lucusta te lo auguro, se ci riuscissi rivoluzioneresti il mondo del calcolo numero e dell'impiego dell'hardware! Eh capisco il discorso dello studio, alcune imprecisioni ed il disordine (che io capisco perfettamente, ma le cose disordinate (giustamente) i prof non le capiscono) mi è costato sempre punti agli esami oltre che a render difficoltosa l'interazione con i colleghi perchè ci capiscono poco. Quindi buono studio! Siamo entrambi sulla stessa barca di libri mi sembra :lol:
 
fu' mio padre a farmi desistere per ing meccanica.
ha fatto diversi anni in R&D in aziende di veicoli industriali, per poi darsi alla parte commerciale.
mi diceva che potevo essere anche bravo sui motori, ma che in ferrari c'erano 3 ingegneri, gli altri progettavano bulloni, perche' gli dicevano di progettare bulloni e, se volevano lavorare, volenti o nolenti dovevano fare bulloni...
in realta' pero' ti dico che e' sempre cosi', in tutti i lavori.
se lavori sotto direttive, fai quello che ti dicono e non quello che vorresti fare, anche se e' la cosa che ti piace fare, la farai come t'indicheranno di farla... e' difficile imporre le proprie idee, anche se valide.... ci sono molte alttre variabili in gioco, soprattutto nel mondo industriale.
e' raro avere "mano libera" ed essere anche appoggiati nel farlo da chi ti paga; un caso su 1.000.

sai sicuramente che quelle sono matrici ellittiche, ossia che si usano integrali ellittici dal primo al 3° ordine reiterati.
sai che gli integrali ellittici sono piu' una rogna che altro.

se ti dicessi che ho strudiato un metodo per renderli precisi e facilmente calcolabili con l'applicazione di 3 teoremi di pitagora su scale logaritmiche?

ecco, da una stima ti diventa un calcolo, un calcolo relativamente semplice...
ci metto meno a farli con la calcolatrice che a darli in pasto al PC.

ultimamente stavo studiando le dimostrazioni matematiche incentrate su questa questione (la lunghezza esatta delle ellissi e la determinazione dell'angolo radiale partendo dalla lunghezza di un arco o corda di questa).
insomma: e' possibile ora calcolare il pendolo semplice per ogni grado senza l'approssimazione dei 7° massimi e senza passare per il momento d'inerzia (lo fai implicitamente).
non so' se riesciro' a produrre la dimostrazione matematica idonea... il mio prof di analisi non ci crede, ma ci spera.
per la stessa teoria ti spiego anche le fourier, la lagrangiana e le serie di taylor.
fanno parte di una teoria dei campi (centrabili) che deriva da quese osservazioni.
una ellisse e' assimilabile ad una spirale logaritmica archimedea, una gaussiana alla tangente.
insomma: ogni funzione curva e' assimilabile ad una retta in una diversa strutturazione di spazio, e tu studi lo spazio su cui e', indifferentemente da com'e'.
al limite, con primitive adatte, una 360 diventerebbe piu' potente di un GP100 nel calcolo fisico.
non so', forse crepo prima, ma prima o poi dovro' lasciare qualche appunto a qualcuno.
e' anche per questo che "da grande" ho voluto riprendere l'uni.
per me e' piu' che altro uno sfogo mentale.
probabilmente non mi servira' a nulla la magistrale in informatica, ma almeno mi diverto...

(ed infatti dovrei studiare un po'.. anche se non mi serve, di solito le cose, se le faccio, le devo fare con criterio).

OT: caro lucusta, quando apri un forum di sussidio per i poveri studenti di ingegneria elettronica ed informatica, dimmelo che vengo a viverci :lol:
una studentessa del primo anno con più bestemmie in c e java che su fisica 1 e 2 e analisi unite :ciaociao:
 
OT: caro lucusta, quando apri un forum di sussidio per i poveri studenti di ingegneria elettronica ed informatica, dimmelo che vengo a viverci :lol:
una studentessa del primo anno con più bestemmie in c e java che su fisica 1 e 2 e analisi unite :ciaociao:

Pensa che io ho il problema opposto ad ingegneria informatica... :asd:
 
cerco di essere sintetico e preciso.
partiamo dall'analisi delle API, questa volta:
DX1: derivate dal vecchio paradigma informatico che comincio un lavoro e lo porto a termine tutto di seguito, nelle DX11 sono riusciti a parallelizzare gran parte del lavoro, ma con tecniche un po' ambigue.
parallelizzano considerando i soggetti, utilizzando dei semiquadri.
dividi lo schermo con una croce, ogni croce e' un filone di thread; il soggetto principale che c'e' sopra e' un thread.
risultato: 4 thread principali.
non sono bilanciati, ossia uno puo' essere un lavoro facile, uno un lavoro tosto (una farfalla che e' 1/100 dell'aria di rending o che la riprende tutta, se parte un thread con quel soggetto, il thread principale e' quello), ed essendo 4 semischermi, usi al massimo 4 CPU.
a singolo frame, quando incominci l'elaborazione del thread principale, il primo core libero e' relativizzato a quel lavoro e prenotato, almeno fino alle operazioni precedenti al rendering; poi sara' rimesso a disposizione della computazione generale (a chi se po piglia per primo).
questi in effetti sono i limiti DX11.
DX12: in effetti ha un aspetto similare, ma i semiquadri sono molti di piu' e quindi decisamente slegati dal numero di core del processore.
quindi si e' dovuti per forza di cose ricorrere ad una parallelizzazione piu' spinta, ossia nel non fare therad principali, ma concorrenziali... hanno tutti lo stesso peso.
quindi i core CPU fanno la loro piccola parte e poi sono liberi per il computo totale.

tecnicamente significa che ogni singolo thread deve essere univocamente identificato; con solo 4 thread principali puoi letteralmente sezionare i cuda core della GPU per farlo, quindi non sei propriamente legato ad usare un ID univoco, che significa dovre porre un registro di memoria concomitante all'elaborazione, quindi fisicamente accanto ad ogni stadio elaborativo).

ora le GPU:
maxwell:
visto che il mondo e' 3D, con 3 variabili, e che nella maggior parte dei casi devi andarti a trovare le coordinate dove applicare un determinato colore, e che questo lavoro lo fai consequenzialmente... e' una matrice che occupa 64 passaggi di calcolo.
maxwell e' sequenziale in questo modo: ha un catena di stadi di calcolo tutta diretta, senza interruzioni, per fare questi calcoli.
essendo tuta in fila ci sono pro e contro:
pro: se la pipeline e' piu' corta, quando ottieni il dato (parziale) lo devi riportare nei registri e da li poi successivamente riprendere e rispedire in una pipeline libera.
questa fase non e' produttiva rispetto al calcolo.
e' come se ti mangi 2 gelati di seguito;
se sono "da banco" alla fine li puoi unire e mangiare insieme, ma se sono confezionati, prima devi togliere l'involucro.
togliere l'involucro e' un'azione necessaria ma non proficua all'azione del "mangiare il gelato"... la devi fare ma non ti sfama, e perdi tempo.
(infelice similitudine, ma e' la prima che mi viene in mente per spiegare il concetto).
quindi si puo' dire che maxwell non perde mai tempo nella maggior parte delle sue elaborazioni, se queste sono fatte nel modo piu' logico con le limitazioni DX11 (e contando un quad core).

se lo metti a lavorare con le DX12 pero'... le matrici si possono interrompere, e lui ha il registro solo alla fine della sua pipeline.
quindi se il calcolo della matrice richiede meno di 64 passaggi, lui poi deve fare comunque tutti e 64 i passaggi, solo che quelli che fara' in piu' non avranno effetto sul risultato; e questo solo per arrivare al registro di fine pipeline.
lavoro perso nel fare stadi senza calcolo.
di per se, pero', ha molti meno registri, enormemente meno... quindi meno spazio fisico occupato sul die (anche 16 volte di meno, rispetto ad alcune architetture AMD).
quindi quello che avvantaggia Maxwell in DX11 (meno lavoro accessorio e meno spazio accessorio sul die), diventa deleterio in DX12 se si usa ACE o AC.

Pascal:
uguale a Maxwell, solo che le sue pipeline sono meta' di quelle di maxwell, quindi in DX11 un po' di lavoro accessorio inutile lo deve fare, ma e' relativamente poco, e che occupa piu' spazio sul die per un registro in piu' a pipeline.
questo pero' gli da' enorme vantaggio su DX12 con l'uso di AC e ACE, perche' gli permette di saltare meno stadi.
la sfortuna e' se il calcolo e' da 33 stadi; e' costretto a fare 2 tornate sulle pipeline; ci deve mettere lavoro accessorio e poi, alla seconda tornata, usare un solo stadio e saltarne 31.
lo uccidi, cosi'...
fortunatamente pero' e' inutile dividere una matrice in modo cosi' asincrono... le matrici sono permutazioni di variabili, quindi ti esce generalmente un multiplo di 4 e pari, in un mondo a 3 variabili.
in calcoli di altra natura (scientifici) non si puo' stabilire a priori, e li' il codice dev'essere realmente adattato all'architettura che hai in mano.

questo e' piu' o meno il succo della tecnologia usata.
DX11 maxwell: una spada con un quad core ad alta frequenza, perche' se le ROPs aumentano, le devi riuscire a sfruttare, e li il limite e' sulla velocita' nell'eseguire il lavoro sulla CPU.
DX12 maxwell: se non sono le 11_0 per lui e' un bel problema.
DX11 Pascal: perde poco in confronto a maxwell (2 azioni in piu' su 64 + 2 azioni di maxwell, ossia 32+2+32+2, cioe' 68/66... il 3% in meno di IPC)
DX12 Pascal: guadagna enormemente da maxwell, ma solo su una parallelizzazione poco spinte e con un multicore sopra a 4 ed a elevata velocita'.

ecco, su questo ti faccio un appunto:
pascal ha enormemente alzato la frequenza di clock, quindi esegue il lavoro di maxwell in 2/3 del tempo di questo.
in DX11 significa che il lavoro in GPU viene eseguito molto in fretta, e per sfruttarlo anche quello in CPU dev'essere altrettanto veloce, quindi ci vogliono quad core con frequenza (ed IPC) decisamente alti.
la GTX 1080 ha meno rops di 980Ti (a memoria), e gia' strema un 6700K in overclock.
per una 1080 Ti con piu' ROPs di 1080, per non penalizzarla, che dovresti usare?
e' logico che alcune risorse di una GPU pascal piu' potente di 1080 non verrano sfruttate a dovere (ma, forse e' ancora meglio: abbassi la frequenza della GPU e la fai lavorare nel giusto modo con la CPU consumando molto ma molto meno).
in DX12 invece pascal si puo' trovare con piu' di 4 core sul processore, ma se il codice e' altamente parallelizzato (adatto cioe' a FUJI), fa' un sacco di lavoro inutile, e gli mancano ROPs libere, impegnate a skippare stadi di pipeline.
in quel frangente vince solo il codice.
in DX12 se non e' altamente parallelizzato, magari e' sufficiente per impegnare un octacore e per utilizzare bene la lunghezza della pipeline di pascal, ma se prendi hitman come esempio...decisamente indigesto per l'architettura di pascal.
quindi, come vedi, e' una questione di design del software (come sempre).

il software si puo' adattare, ma una GPU e' stampata cosi' e non la puoi cambiare;
e come vedi, anche se l'architettura e' la medesima, dipende anche dal contorno, ossia di quante risorse hai, di come son fatte, dalla contropare CPU....
insomma, non e' semplice ottimizzare il tutto.

ok... non sono poche righe... scusa.

intanto grazie mille, confesso che non posso capire veramente tutto ciò che hai scritto. Alcuni passi sono più fumosi di altri e altri sono facili :)

Ciò che veramente mi chiedo allora è questo: perché praticamente ogni titolo DX12 è parallelizzato su matrice AMD e non nvidia? Questo è quello che traspare nei giochi, eppure non è logico. Logico sarebbe usare la matrice più venduta (nvidia) affinché una maggior parte delle persone possa godersela.

Quindi la domanda è la seguente: perché viene (ironicamente) penalizzato l'hardware verde?
Ci sono motivi invalicabili su questo?
 
OT: caro lucusta, quando apri un forum di sussidio per i poveri studenti di ingegneria elettronica ed informatica, dimmelo che vengo a viverci :lol:
una studentessa del primo anno con più bestemmie in c e java che su fisica 1 e 2 e analisi unite :ciaociao:
Eh beh e i poveri ingegneri meccanici come me dove li lasci? :lol: Ti garantisco che le bestemmie non mancano neanche da noi :asd:
 
Pubblicità
Pubblicità
Indietro
Top