Hear me roar! AMD Radeon 390 and 390X - Fiji Assault -

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
amd non è nelle condizioni di fare prototipi e caz***** su nuove invenzioni, e di certo ha fatto questa scheda per primeggiare non per mettere una pezza, per mettere un apezza ci ha pensato con le 3**, mi sembra un pò sbagliato dire che cambiare memorie architettura utilizzare aio e pcb ristretti equivalga a mettere una pezza.. nono amd voleva dimostrare la sua superiorità e le sue slide già da novembre e tutti i leak di wccftech hanno convinto tutta la gente che fiji fosse rivoluzionaria in quanto a performance..

dire che è mettere una pezza è grave perchè la scheda è totalmente diversa rispetto alle altre soluzioni presenti oggi sul mercato, questo 3d ha sempre sostenuto la superiorità di fiji,appena si nominava 980ti o titan x manco si consideravano e venivano snobbate, è da ipocriti secondo me.

amd ha azzardato e voluto provare ma di certo non voleva perdere ma primeggiare con queste schede, il messaggio era chiaro visti gli stravolgimenti dal punto di vista costruttivo.. e visto che ha interamente investito su fiji e non di certo sulle 3** (rebrand) e penso che il primo infarto sia stato causato dalla 980ti a 649 dollari, prima ancora che uscissero...

e invece è proprio il momento in cui ti trovi in difficoltà,cercare di sparigliare le carte(hbm ect ect)

Per ora gli è andata male,ma prima di dare per morte le Fiji aspetterei un poco

Le R9 300 sono state messe in commercio per cercare di guadagnare il più possibile,visto che riciclano un chip vecchio,affidandosi ai boccaloni(fidati ce ne sono tanti)che basta che leggono 8gb,vanno in estasi.

Io la penso così,in parte come @LordNight,ovvero queste Fiji le vedo come esperimento,si vede da tante piccole cose,hbm castrate,ovvero max 4gb(bisogna aspettare il dual link interposer per aumentare i Gb),Aio buttato li,per non investire in un buon dissipatore ad aria,ed architettura parzialmente vecchia,visto che si tratta sempre di una Gcn 1.2(Tonga) con piccoli miglioramenti

Quello che mi fa rimanere basito,è che la potenza bruta ce n'è in abbondanza,eppure non rende al max....

Ripeto,mi sbaglierò,ma la vera scheda ci sarà con i 16nM,con le Hbm2,nuova archietettura e pp,e si spera che nel frattempo,Amd abbia capitalizzato il vantaggio tecnico con le Hbm

Poi può essere che è come dici tu,io dico la mia.

Ad ora a meno di stravolgimenti,il top rimane la 980ti

P.s.

Nessuno,o almeno io,ha mai snobbato le TitanX/980Ti,o meglio la Titan X si,perchè si sapeva fosse una presa per i fondelli,ma la 980ti assolutamente
 
Ultima modifica:
e invece è proprio il momento in cui ti trovi in difficoltà,cercare di sparigliare le carte(hbm ect ect)

Per ora gli è andata male,ma prima di dare per morte le Fiji aspetterei un poco

Le R9 300 sono state messe in commercio per cercare di guadagnare il più possibile,visto che riciclano un chip vecchio,affidandosi ai boccaloni(fidati ce ne sono tanti)che basta che leggono 8gb,vanno in estasi.

Io la penso così,in parte come @LordNight,ovvero queste Fiji le vedo come esperimento,si vede da tante piccole cose,hbm castrate,ovvero max 4gb(bisogna aspettare il dual link interposer,per aumentare i Gb),Aio buttato li,per non investire in un buon dissipatore ad aria,ed architettura parzialmente vecchia,visto che si tratta sempre di una Gcn con piccoli miglioramenti

Ripeto,mi sbaglierò,ma la vera scheda ci sarà con i 16nM,con le Hbm2,nuova archietettura e pp,e si spera che nel frattempo,Amd abbia capitalizzato il vantaggio tecnico con le Hbm

Poi può essere che è come dici tu,io dico la mia.
completamente in disaccordo, ma rispetto la tua opinione.. tra il q1/q2 del 2016 ci sarà pascal, come vedi è una corsa e fury con i 16nm sarà un fermacarte proprio come 980ti
 
In parte mi accodo in parte no.
Lato consumi, si vede a mio avviso come le HBM siano la ragione dei cali e del miglior rating tra le AMD in performance per watt e non il chip in se stesso, d'altronde è chiramanete un Tonga tirato alla massima estensione possibile, rimane in se un GCN 1.2 e niente altro, cosa che invece aveva all'ettato non poco pensando ad un GCN 1.3.
Se prendiamo i grafici di techpowerup si rimane sbalorditi su come Maxwell con le GDDR5 tirate a bomba sia ancora così avanti, questo è un enorme vantaggio economico per Nvidia, il porting sul mondo laptop è troppo facile e le permette di rimanere ancora per molto tempo incontrastata nell'ambito gaming in quel settore senza avere una concorrenza adeguata, AMD sta lasciando troppo spazio e soldi lì.

Lato driver, sappiamo bene che Nvidia cannibalizza se stessa, lo ha fatto con Fermi a scapito di Kepler e lo ha rifatto a Kepler a scapito di Maxwell, all'arrivo di Pascal succederà nuovamente, quindi lo scalare delle AMD nel tempo, è si merito suo per quei "x"% derivati dal suo sviluppo driver, ma viene soprattutto amplificato dal mancato supporto di Nvidia alle vecchie serie, il caso The Witcher 3 ha mostrato e aperto gli occhi a tutti(si spera).

Questo cosa vuol dire, semplicemente che oggi chi ha 700 euro ha due scelte, ho comprare Nvidia ed avere il top del momento ma poi perdere al cambio di generazione e dover reinvestire se si vuole rimanere al top oppure prendere AMD e procedere stabile e lentamente nel tempo verso l'alto, per essere chiari ecco cosa è successo e riaccadrà:
http://i.imgur.com/dopYFk2.jpg
Sono d'accordo che le HBM abbiano contribuito al calo dei consumi totali ma non credo che ne siano l'artefice principale a meno che non imputiamo alle vRAM almeno il 30% dei consumi di una VGA cosa che, francamente, mi sembra eccessiva. Questo lo dimostra nVidia stessa: li ha ridotti del 30% passando da Kepler a Maxwell eppure le vRAM sono sempre le stesse GDDR5.
Anzi, la review di Tom's - che lato consumi per me è la più affidabile proprio per il modo in cui li rilevano - ha dato conto del fatto che, a differenza di Hawaii e Tonga, gli algoritmi del Power Tune di AMD adesso reagiscono in 10ms ed è questo che diminuisce spaventosamente i consumi rispetto alle precedenti. La vRAM HBM1 contribuisce senza dubbio, ma non diamogli più merito di quello che ha anche perché sono RAM che, al momento, rimangono sempre stabili a 500MHz quindi assorbono la stessa energia sia in idle che in full load.

Che AMD stia lasciando campo e soldi nel campo notebook è indubbio... ma il suo problema è innovare a 360° e non un pezzo alla volta, IMHO.

Quanto al migliorare di AMD nel tempo, io posso dire solo la mia opinione sulla base della mia esperienza: ad ogni nuovo driver io guadagno qualcosina, a volte poco a volte molto, sia con la 7950 sia con la 290 (che non ho nessuna intenzione di cambiare... però fra meno di un mese è il mio compleanno e non si sa mai :asd: ). Se nVidia fa il contrario lo so per averlo letto ma mi pare sciocco prendere per il (_!_) i suoi clienti e non credo che Santa Clara sia così supponenti... ma magari mi sbaglio.
 
Come ho detto, avrei espresso un giudizio solo dopo le recensioni più autorevoli che mi sono letto, compreso i dettagli sull'architettura.
Dalle mie parti sarebbe già disponibile ed è nella fascia di prezzo di GTX980ti, nella stratosfera per me che ritengo che il prezzo massimo ipotizzabile per una scheda video sia <400 euro.
A differenza di GTX 980ti offre un sistema di dissipazione migliore, temperature nettamente più basse, la medesima rumorosità.
A livello di velocità a 1920x1080, nulla di sorprendente, ma me l'aspettavo, è da mesi che noto che le performance DX AMD alle basse risoluzioni, quando si tende a diventare CPU limited, sono assai peggiori rispetto a Nvidia, che non avendo puntato su Mantle ha proseguito lo sviluppo DX11 su un canale prioritario, queste differenze tenderanno a essere meno evidenti, se non nulle, con DX12.
Ottimi, invece, i riscontri a 4k, dove non sfigura con GTX 980ti che ha 6 Gb di ram che potrebbero, in futuro, fare molto comodo a quelle altezze, mentre temo che i 4 Gb di Fury potrebbero diventare un limite.
A livello di consumi, grazie alle ottimizzazioni, ci siamo tenuti a livello di R9 390X, non sono in assoluto ottimi e pagano dazio a GTX 980ti, e non voglio nemmeno dire chi se ne frega, in un analisi sui pregi e difetti è giusto sottolineare ogni aspetto, e di certo qui non eccelle. Certo sono consapevole che se paghi 700 euro forse l'incidenza degli stessi è ininfluente.
Peccato per l'HDMI 1.4, più che altro in funzione della nano, una scelta incomprensibile.
Tirando le somme, considerando che lo sviluppo drivers è agli inizi, vedesi ringbus di qualche tempo fa, lo spazio per un 10% di miglioramento c'è sicuramente, e il prodotto resta un'ottima alternativa, secondo me, e potrebbe innescare una sana guerra dei prezzi.
 
Ultima modifica da un moderatore:
completamente in disaccordo, ma rispetto la tua opinione.. tra il q1/q2 del 2016 ci sarà pascal, come vedi è una corsa e fury con i 16nm sarà un fermacarte proprio come 980ti

Sinceramente mi sembra troppo presto,secondo me usciranno alla fine del 2016,ma sono sono speculazioni,non c'è nulla di ufficiale
 
Peccato per l'HDMI 1.4, più che altro in funzione della nano, una scelta incomprensibile.
Invece è del tutto comprensibile... molto probabilmente hanno fatto il tapeout ben prima che l'HDMI 2.0 diventasse uno standard definito tanto che moltissime TV attualmente nei negozi utilizzano HDMI 2.0 DRAFT che è limitato a 10 Gbps esattamente come l'HDMI 1.4

In secondo luogo, l'HDMI 2.0, o meglio, i suoi 18 Gbps sono necessari solo per il 4K @ 60Hz con croma a 10 bit.... peccato che solo le TV UHD di gamma alta o altissima hanno pannelli a 10bit mentre le altre utilizzano pannelli a 8bit. Per queste ultime l'HDMI 1.4 con i suoi 10Gbps sarebbe sufficiente per gestire contenuti 4K @ 60Hz.

Ultimo ma più importante l'HDMI 1.4 ed il 2.0 sono elettricamente identici tanto che i cavi per HDMI 1.4 HighSpeed o HighSpeed con Ethernet vanno benissimo anche per l'HDMI 2.0. Proprio per questo basta un qualsiasi adattatore o cavo DP-HDMI per avere la banda sufficiente per fruire di contenuti 4K 10bit @60Hz.
 
Sono d'accordo che le HBM abbiano contribuito al calo dei consumi totali ma non credo che ne siano l'artefice principale a meno che non imputiamo alle vRAM almeno il 30% dei consumi di una VGA cosa che, francamente, mi sembra eccessiva. Questo lo dimostra nVidia stessa: li ha ridotti del 30% passando da Kepler a Maxwell eppure le vRAM sono sempre le stesse GDDR5.
Anzi, la review di Tom's - che lato consumi per me è la più affidabile proprio per il modo in cui li rilevano - ha dato conto del fatto che, a differenza di Hawaii e Tonga, gli algoritmi del Power Tune di AMD adesso reagiscono in 10ms ed è questo che diminuisce spaventosamente i consumi rispetto alle precedenti. La vRAM HBM1 contribuisce senza dubbio, ma non diamogli più merito di quello che ha anche perché sono RAM che, al momento, rimangono sempre stabili a 500MHz quindi assorbono la stessa energia sia in idle che in full load.

Che AMD stia lasciando campo e soldi nel campo notebook è indubbio... ma il suo problema è innovare a 360° e non un pezzo alla volta, IMHO.

Quanto al migliorare di AMD nel tempo, io posso dire solo la mia opinione sulla base della mia esperienza: ad ogni nuovo driver io guadagno qualcosina, a volte poco a volte molto, sia con la 7950 sia con la 290 (che non ho nessuna intenzione di cambiare... però fra meno di un mese è il mio compleanno e non si sa mai :asd: ). Se nVidia fa il contrario lo so per averlo letto ma mi pare sciocco prendere per il (_!_) i suoi clienti e non credo che Santa Clara sia così supponenti... ma magari mi sbaglio.
Eh lo fanno, lo fanno...
 
Sono d'accordo che le HBM abbiano contribuito al calo dei consumi totali ma non credo che ne siano l'artefice principale a meno che non imputiamo alle vRAM almeno il 30% dei consumi di una VGA cosa che, francamente, mi sembra eccessiva. Questo lo dimostra nVidia stessa: li ha ridotti del 30% passando da Kepler a Maxwell eppure le vRAM sono sempre le stesse GDDR5.
Anzi, la review di Tom's - che lato consumi per me è la più affidabile proprio per il modo in cui li rilevano - ha dato conto del fatto che, a differenza di Hawaii e Tonga, gli algoritmi del Power Tune di AMD adesso reagiscono in 10ms ed è questo che diminuisce spaventosamente i consumi rispetto alle precedenti. La vRAM HBM1 contribuisce senza dubbio, ma non diamogli più merito di quello che ha anche perché sono RAM che, al momento, rimangono sempre stabili a 500MHz quindi assorbono la stessa energia sia in idle che in full load.

Che AMD stia lasciando campo e soldi nel campo notebook è indubbio... ma il suo problema è innovare a 360° e non un pezzo alla volta, IMHO.

Quanto al migliorare di AMD nel tempo, io posso dire solo la mia opinione sulla base della mia esperienza: ad ogni nuovo driver io guadagno qualcosina, a volte poco a volte molto, sia con la 7950 sia con la 290 (che non ho nessuna intenzione di cambiare... però fra meno di un mese è il mio compleanno e non si sa mai :asd: ). Se nVidia fa il contrario lo so per averlo letto ma mi pare sciocco prendere per il (_!_) i suoi clienti e non credo che Santa Clara sia così supponenti... ma magari mi sbaglio.

Ti riporto quanto ho scritto sulla recensione di Toms:

"Il calo dei consumi è da attribuire senza indugio alle HBM e non al chip o architettura, certo il lavoro fatto da powertune è migliorato ma rimane sempre da ricordare che una GTX 980 Ti monta moduli GDDR5 con una frequenza altissima.
Un modulo HBM ha un tensione di 1.3 Volts, mentre un modulo GDDR5 ha 1.5 Volts.
Qui è spiegato da AMD stessa:
Memoria HBM vs GDDR5: AMD spiega le differenze - Tom's Hardware
Parliamo di un calo del 50% di consumo tra 1 modulo HBM vs 1 modulo GDDR5, la GTX 980 Ti ha ben 12 moduli GDDR5 mentre la Fury X ne ha 4 HBM.

Il chip non è altro che un Tonga GCN 1.2 tirato alla massima grandezza possibile."

12 moduli @ 1,5 V contro 4 moduli @ 1,3 V, 1 modulo HBM vs 1 modulo GDDR5 = 50% in meno di consumi, credo sia lapalissiano (alla D'Urso :D )....
 
In parte mi accodo in parte no.
Lato consumi, si vede a mio avviso come le HBM siano la ragione dei cali e del miglior rating tra le AMD in performance per watt e non il chip in se stesso, d'altronde è chiramanete un Tonga tirato alla massima estensione possibile, rimane in se un GCN 1.2 e niente altro, cosa che invece aveva all'ettato non poco pensando ad un GCN 1.3.
Se prendiamo i grafici di techpowerup si rimane sbalorditi su come Maxwell con le GDDR5 tirate a bomba sia ancora così avanti, questo è un enorme vantaggio economico per Nvidia, il porting sul mondo laptop è troppo facile e le permette di rimanere ancora per molto tempo incontrastata nell'ambito gaming in quel settore senza avere una concorrenza adeguata, AMD sta lasciando troppo spazio e soldi lì.

Lato driver, sappiamo bene che Nvidia cannibalizza se stessa, lo ha fatto con Fermi a scapito di Kepler e lo ha rifatto a Kepler a scapito di Maxwell, all'arrivo di Pascal succederà nuovamente, quindi lo scalare delle AMD nel tempo, è si merito suo per quei "x"% derivati dal suo sviluppo driver, ma viene soprattutto amplificato dal mancato supporto di Nvidia alle vecchie serie, il caso The Witcher 3 ha mostrato e aperto gli occhi a tutti(si spera).

Questo cosa vuol dire, semplicemente che oggi chi ha 700 euro ha due scelte, ho comprare Nvidia ed avere il top del momento ma poi perdere al cambio di generazione e dover reinvestire se si vuole rimanere al top oppure prendere AMD e procedere stabile e lentamente nel tempo verso l'alto, per essere chiari ecco cosa è successo e riaccadrà (se lo sviluppo lato nvidia per Kepler fosse rimasto uguale al 2013 il divario con Hawaii sarebbe rimasto identico o di poco più o meno di un paio di punti percentuali ed invece, segno che kepler come prima Fermi sono state lasciate alla deriva):
http://i.imgur.com/dopYFk2.jpg
Quindi quella 280x cosa indica? È calata pure lei su tw3
 
Parziale rivalutazione di fury dopo la lettura di Roma, secondo me mooolto più affidabile degli altri sopratutto lato consumi temperature. Lato consumi c'è un miglioramento notevole, grazie a powertune e le hbm. Consuma poco più della mia 280! E in ide è eccelsa. Lato performance se scende di prezzo è un gran buon acquisto per 2 e 4k, lato temperature e rumorosità speriamo facciano meglio gli oem vari. Dopo guru3d ero rimasto veramente deluso sopratutto lato consumi, la toms (sicuramente preciso) ha sollevato la situazione.
 
Ti riporto quanto ho scritto sulla recensione di Toms:

"Il calo dei consumi è da attribuire senza indugio alle HBM e non al chip o architettura, certo il lavoro fatto da powertune è migliorato ma rimane sempre da ricordare che una GTX 980 Ti monta moduli GDDR5 con una frequenza altissima.
Un modulo HBM ha un tensione di 1.3 Volts, mentre un modulo GDDR5 ha 1.5 Volts.
Qui è spiegato da AMD stessa:
Memoria HBM vs GDDR5: AMD spiega le differenze - Tom's Hardware
Parliamo di un calo del 50% di consumo tra 1 modulo HBM vs 1 modulo GDDR5, la GTX 980 Ti ha ben 12 moduli GDDR5 mentre la Fury X ne ha 4 HBM.

Il chip non è altro che un Tonga GCN 1.2 tirato alla massima grandezza possibile."

12 moduli @ 1,5 V contro 4 moduli @ 1,3 V, 1 modulo HBM vs 1 modulo GDDR5 = 50% in meno di consumi, credo sia lapalissiano (alla D'Urso :D )....
Diciamo pure che sia il 50% in meno... il punto è il 50% in meno di cosa, o meglio, di quanto. Diciamo che le GDDR5 siano più o meno tutte uguali quanto a consumi, il che non mi sembra un'approssimazione esagerata.

Adesso vediamo quanto incide il consumo della vRAM usando alcune recensioni di uno stesso sito che tutti conosciamo (Techpowerup) relative schede video con GPU identica (e frequenza molto simile) ma quantitativi diversi di RAM:

HIS HD7970 X Turbo: GPU @ 1180MHz - 3GB di vRAM GDDR5 @ 1500MHz usando 12 chip SK Hynix H5GQ2H24AFR-R0C
Asus HD 7970 Matrix Platinum: GPU @ 1100MHz - 3GB di vRAM @ 1650MHz usando 12 chip SK Hynix H5GQ2H24AFR-R0C
Sapphire HD 7970 Toxic 6GB: GPU @ 1100MHz - 6GB di vRAM @ 1500MHz usando 24 chip SK Hynix H5GQ2H24MFR-R0C e in boost a 1200/1600MHz

Viste le VGA e le caratteristiche, ci sarebbe da aspettarsi che la Sapphire con il BIOS1 (1100/1500) consumi sensibilmente più della Asus che ha pari frequenza sulla GPU e RAM il 10% più spinte e, con il BIOS2 (1200/1600), consumi più della HIS. Grafici alla mano:

VGA: Idle | Multimonitor | Blu-Ray | Average | Peak | Maximum
HIS X Turbo: 17W | 49W | 55W | 211W | 239W| 348W
Asus Matrix: 23W | 61W | 67W | 198W | 223W | 305W
Toxic BIOS1: 12W | 49W | 55W | 203W | 230W | 339W
Toxic BIOS2: 12W | 51W | 57W | 222W | 256W | 363W

Ora, anche ammettendo che in idle, multimonitor e blu-ray il consumo della RAM sia trascurabile, dobbiamo ammettere che:
- la Toxic con il BIOS1 consuma meno della HIS in tutti gli scenari pur avendo il doppio della vRAM sia come quantità totale sia come numero di chip;
- la Toxic con il BIOS 2 consuma come la HIS con carichi bassi, 11W in più in average, 17W in più di picco e 15W in più nello scenario peggiore;
- a parità di clock della GPU la Toxic consuma meno della Asus Matrix in tutti i carichi leggeri, pareggia in average e consuma di più solo leggermente di più (24W) con carichi pesanti, divario che aumenta nel momento in cui si switcha al BIOS 2.

Se vogliamo estendere il confronto a "n" altri modelli di 7970, i risultati sono tutti più o meno simili a parità di clock della GPU, quindi le possibilità sono:

1) Sapphire ha mentito spudoratamente perché la Toxic, in realtà, ha solo 3GB di vRAM in quanto 12 dei 24 chip sono fasulli;
2) Sapphire ha montato sulla Toxic delle GDDR5 supersegrete che consumano la metà delle altre;
3) Techpowerup è un sito di cialtroni e hanno riportato le misurazioni sbagliate;
4) varie ed eventuali ma sullo stesso tenore.

Se ammettiamo che le ipotesi sopra citate sono errate, allora dobbiamo ammettere che il consumo delle GDDR5 su VGA di fascia alta c'è ma è trascurabile rispetto al resto della VGA stessa. Probabilmente si tratta di 5/10W per GB ma è del tutto trascurabile a confronto di quanto consuma la GPU il che ci riporta al fatto che il semplice cambiamento da GDRR5 a HBM1 non può da solo giustificare una riduzione di consumi così drastica.
 
l'unica opzione è che questa fury sia ottimizzata per dx 12 e qundi con le 11 scala male..... tutta quella potenza bruta porterà sicuramente dei vantaggi con le dx 12
 
completamente in disaccordo, ma rispetto la tua opinione.. tra il q1/q2 del 2016 ci sarà pascal, come vedi è una corsa e fury con i 16nm sarà un fermacarte proprio come 980ti

nn proprio se pascal deve avere le hbm2, le quali non saranno pronte non prima del q2 2016, pascal molto probabilmente uscirà nel q3 2016
 
Invece è del tutto comprensibile... molto probabilmente hanno fatto il tapeout ben prima che l'HDMI 2.0 diventasse uno standard definito tanto che moltissime TV attualmente nei negozi utilizzano HDMI 2.0 DRAFT che è limitato a 10 Gbps esattamente come l'HDMI 1.4

In secondo luogo, l'HDMI 2.0, o meglio, i suoi 18 Gbps sono necessari solo per il 4K @ 60Hz con croma a 10 bit.... peccato che solo le TV UHD di gamma alta o altissima hanno pannelli a 10bit mentre le altre utilizzano pannelli a 8bit. Per queste ultime l'HDMI 1.4 con i suoi 10Gbps sarebbe sufficiente per gestire contenuti 4K @ 60Hz.

Ultimo ma più importante l'HDMI 1.4 ed il 2.0 sono elettricamente identici tanto che i cavi per HDMI 1.4 HighSpeed o HighSpeed con Ethernet vanno benissimo anche per l'HDMI 2.0. Proprio per questo basta un qualsiasi adattatore o cavo DP-HDMI per avere la banda sufficiente per fruire di contenuti 4K 10bit @60Hz.

Stai dando delle informazioni sbagliate, HDMI 1.4a è limitato a 30hz in 4k su pannelli a 8 bit colore. HDMI 2.0 supporta 8-10-12 bit a 60 hz in 4k peraltro con 32 canali audio. La versione HDMI 2.0 DRAFT supporta comunque i 60hz a 8 bit che la 1.4 non supporta
Quindi, certo basta un cavo che porta la DP in HDMI (che personalmente detesto ma chi sono io?), ma mi sembra comunque un controsenso, su una GPU così evoluta, avere queste limitazioni. Certo è un'inefficienza da poco facilmente aggirabile, non è un bug strutturale, ma resta un difetto, secondo me. Peraltro uno dei pochi.
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top