UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
sei sempre il migliore a trovare informazioni specifiche ;)

su questi si puo' ragionare con un po' piu' di serenità.

in FHD la 64 perde parecchio vantaggio sulla 56, come visto su parecchi altri giochi.

guardando la 580 VS 1060 è probabile che i driver adattati al gioco possano far rientrare un 5% di prestazioni, ma questi porterebbero a egualiare le performance di 580 e 56 alle rispettive controparti 1060 e 1070, perdendo un buon 5% di TF teorici... sembra un gioco alla ghost recon wildlands.

impressionante pero' come influiscono certi parametri di modellazione:
http://media.gamersnexus.net/images/media/2017/games/destiny2/destiny2-gpu-bench-settings-rx-580.png
il 3 Dimensional Active Objects è una brutta gatta da pelare in questo momento su questo gioco, probabilmente perche' richiede una gestione della caches impostata in modo specifico (e sarebbe stato carino se avesse fatto vedere anche sulle vega come cambiavano i risultati, almeno scoprivamo un po' piu' dell'architettura!).

insomma, driver immaturi ( o meglio, non ottimizzati) e gioco molto pesante sull'uso di certi effetti (è una beta, forse dovranno ancora bilanciarlo bene...), ma non credo che sarà uno di quei titoli pro AMD, anzi...
 
Ultima modifica:
graphics quality: custom
SMAA
anisotopo 16X
1440p
motion blur OFF
wind Impulse (gameworks) ON
HDR OFF
Chromatic abberration (gameworks) ON
Film grain OFF
7700K

un po' de parte, non credi?

non mi piacciono i confronti di questo youtuber... sono, spesso e volentieri, di parte.
invece di cercare il motivo di confronto ne accentua (sempre) le differenze... e sempre a favore d'nvidia.
piu' che altro lo giudico marketing, ma è una mia impressione personale (sia ben chiaro).

e a vedere il pubblico che lo segue, direi che non dispiace che usi questa politica...
un dibattito senza critiche è praticamente un assolo.
Secondo me non è male, purtroppo le prestazioni sono quelle per un motivo o per un altro.
Se guardi di giochi favorevoli ad AMD ne ha testati, da bf1 dx12, doom a RE7.
Semplicemente testa i giochi più comprati e quelli più richiesti dall'utenza..

Tra 480/580 vs 1060 i risultati combaciavano ed erano a favore leggermente Delle rosse..


I commenti lasciali perdere, su YouTube poi non hanno senso:
Se vince la rossa, i fanboy AMD si vantano ma quelli verdi incominciano a dire che consuma molto di più e non conviene (nel caso di Polaris vs gp106); se vince la verde, i fanboy Nvidia si vantano mentre quelli rossi iniziano a campare scuse per aria..
Solita roba da bimbiminchia :asd:
Non dico che sono tutti ridicoli, ma la maggior parte sì..

Ritornando a Destiny, il gioco è in beta e AMD non ha rilasciato i driver ottimizzati, al 99% li vedremo con la release ad ottobre :sisi:
 
Ritornando a Destiny, il gioco è in beta e AMD non ha rilasciato i driver ottimizzati, al 99% li vedremo con la release ad ottobre :sisi:

non è che mi aspetto molto sulle polaris...
E CHE SONO CURIOSO SE ABILITANO LE FEATURES SU VAGA, e quanto valgono stè features... che se la stanno tirando proprio troppo!
 
non è che mi aspetto molto sulle polaris...
E CHE SONO CURIOSO SE ABILITANO LE FEATURES SU VAGA, e quanto valgono stè features... che se la stanno tirando proprio troppo!
È quello che aspettiamo tutti XD
Secondo me per fine anno esce qualche mega driver come l'anno scorso a Natale con Polaris/Fury /x
 
non è che mi aspetto molto sulle polaris...
E CHE SONO CURIOSO SE ABILITANO LE FEATURES SU VAGA, e quanto valgono stè features... che se la stanno tirando proprio troppo!
Quoto assolutamente per sto fatto che tirano troppo la calzetta, io sto pensando seriamente di lasciar perdere vega ed iniziare a cercare una buona 1080ti
 
Molti trascurano il discorso legato alla piena compatibilità con api grafiche a basso livello, in quest'ottica Pascal non garantisce alcuna longevità , a differenza di Vega, ce ne accorgeremo quando inizieranno ad uscire giochi sviluppati veramente in dx12, per esempio (finora dx12 non è mai stata implementata propriamente).
Pascal la puoi chiamare Maxwell su differente p.p., non dimentichiamo che fine hanno fatto 970 e 980 (spariscono dai radar quando si parla di dx12).
Vega è tecnologicamente una scheda nuova e avanzata rispetto a Paxwell, sebbene abbia il suo tallone di Achille nei consumi maggiori, questo è già emerso ufficialmente e bisogna conviverci (ricorrere all'undervolt è uno specchietto per le allodole).

Ma chiedetevi perché consuma di più , come tutte le Radeon, e chiedetevi perché Paxwell consuma meno, chi ne capisce di schede lo sa bene di che tipo di architetture stiamo parlando, come sono equipaggiate e che funzionalità offrono.
L'epoca dx11 volge al termine nonostante Nvidia cerchi in tutti i modi di stringere sodalizi con le case software (leggasi giochi e motori) per mascherare i limiti delle sue schede in uno scenario di utilizzo (vero) di api grafiche a basso livello.
Quando si entrerà con due piedi in epoca dx12 Nvidia non potrà garantirvi simili performance con architetture di questo tipo, sono architetture da epoca dx9\dx10\dx11. Non mi aspetto che tutti siano d'accordo (non tutti capiscono qualcosina di schede), ma sono dati di fatto.

Cosa voglio dire: io ora come ora non comprerei Pascal, seppure siano fantastiche ma dove? Nei giochi VECCHI, o recenti. In applicativi dx12 dove se ne sfruttino tutte le features ne uscirebbero ridimensionate. In questo senso, appunto, non spenderei 650 euri per una scheda che tra 18,24 mesi soffrirà quando usciranno (speriamo prima!) giochi seriamente sviluppati sotto dx12 o meglio ancora vulkan (ma in vulkan, purtroppo, ci conto poco).
Certo poi che l'utente Nvidia non pensa a nulla, tipicamente la sua GeForce non dura più di 12 mesi (il tempo che esca la successiva serie, insomma). Quei pochi , come me, che hanno avuto (purtroppo) una GeForce per almeno 24 mesi conoscono bene quanto siano "longeve" le GeForce.

Meglio spendere 500,550,600,650 per una GeForce dx11 compatibile ma che non è equipaggiata per l'avvenire, o meglio spenderne tanti (anche di meno magari) per schede equipaggiate per distaccarle nei prossimi mesi?

Chi ne capisce di schede ha una visione a 360 gradi e quindi sa bene che è un discorso attualissimo, quello legato alle api grafiche (ma è un discorso di natura architetturale legato schede stesse).

Infine, dico solo che saranno 5 anni che non si vedevano schede NUOVE, tecnologicamente. Vega è una scheda equipaggiata in maniera tale come mai si era visto prima.
Nvidia dalla sua ha tagliato i consumi dopo Kepler, un successo indiscusso, ma a quale prezzo? Deve pagare dazio e vedremo con Volta come farà a tirarsi fuori da questa situazione, come diceva qualcuno altro pagine addietro, sono curioso di vedere come farà a contenere i consumi e contemporaneamente creare schede veramente funzionali a sfruttare api grafiche a basso livello.
Si usano ancora motori del secolo scorso, giochi ancora in dx11.0 al massimo in dx11.1, in tutto questo scenario "Paxwell" può fare la voce grossa, ma l'epoca dx11 e l'epoca dei motori e dei giochi che sfruttano al massimo un quad core volge al termine. Intel già ne sa qualcosa.
È sempre il software a decretare il successo dell'hardware... La dura legge dell'informatica.
In questo momento in un universo parallelo la gente gioca alla beta di Destiny 2 , anziché brandizzato Nvidia è brandizzato AMD e anziché gameworks c'è della roba AMD e magari gira sotto Mantle :asd:
Chi comanda il mercato si fa il software su misura, e molti di voi questo non lo hanno capito , non hanno ancora capito che Nvidia fa i giochi , i tripla A (Ubisoft su tutti, è una succursale Nvidia, i giochi Ubisoft devono prima essere esaminati da Nvidia, che li infarcisce di gameworks prima che siano rilasciati sul mercato).
Gli anni da leader del mercato hanno consentito a Nvidia di poter estendere il periodo vitale di dx11, e la sua influenza (leggasi soldi e marketing) le ha consentito di fare molta propaganda con i vari gameworks hairworks etc, introducendo queste cose in un gioco (io le chiamo già da quando ero verde, stupidaggini, ma è un pensiero personale) consente di minare le performance delle Radeon e al contempo fa propaganda: il ragazzino i il tifoso legge il brand Nvidia nel menu opzioni grafiche e logicamente (in base alla sua logica infantile, o da tifoso, appunto) cosa fa? Ovvio che andrà a comprare una GeForce per poter godere appieno di gameworks...


Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Ultima modifica:
Io ho ancora due mesetti da poter aspettare prima di aggiornare che tanto tra settembre e ottobre non avrei nemmeno tempo di giocare e una Fiji overclockata non la voglio piuttosto aspetto ancora (la futura fascia media?), ma spero che tra 2 mesi vada al massimo o quasi del potenziale, comunque punto a Vega 56.

ps.
nel 2018 è lecito aspettarsi un nuovo chip di fascia media?
stordita.gif

potrei anche aspettare questo invece di Vega56
 
Io ho ancora due mesetti da poter aspettare prima di aggiornare che tanto tra settembre e ottobre non avrei nemmeno tempo di giocare e una Fiji overclockata non la voglio piuttosto aspetto ancora (la futura fascia media?), ma spero che tra 2 mesi vada al massimo o quasi del potenziale, comunque punto a Vega 56.

ps.
nel 2018 è lecito aspettarsi un nuovo chip di fascia media?
stordita.gif

potrei anche aspettare questo invece di Vega56
Nel 2018 Vega 56 sarà anche scesa di prezzo , almeno si spera. Purtroppo sto mercato è impazzito e non si può prevedere nulla. Non si riesce a ipotizzare nemmeno quando potrebbe uscire Navi o Volta.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
" data-source="post: 6405423" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
Molti trascurano il discorso legato alla piena compatibilità con api grafiche a basso livello, in quest'ottica Pascal non garantisce alcuna longevità , a differenza di Vega, ce ne accorgeremo quando inizieranno ad uscire giochi sviluppati veramente in dx12, per esempio (finora dx12 non è mai stata implementata propriamente).
Pascal la puoi chiamare Maxwell su differente p.p., non dimentichiamo che fine hanno fatto 970 e 980 (spariscono dai radar quando si parla di dx12).
Vega è tecnologicamente una scheda nuova e avanzata rispetto a Paxwell, sebbene abbia il suo tallone di Achille nei consumi maggiori, questo è già emerso ufficialmente e bisogna conviverci (ricorrere all'undervolt è uno specchietto per le allodole).

Ma chiedetevi perché consuma di più , come tutte le Radeon, e chiedetevi perché Paxwell consuma meno, chi ne capisce di schede lo sa bene di che tipo di architetture stiamo parlando, come sono equipaggiate e che funzionalità offrono.
L'epoca dx11 volge al termine nonostante Nvidia cerchi in tutti i modi di stringere sodalizi con le case software (leggasi giochi e motori) per mascherare i limiti delle sue schede in uno scenario di utilizzo (vero) di api grafiche a basso livello.
Quando si entrerà con due piedi in epoca dx12 Nvidia non potrà garantirvi simili performance con architetture di questo tipo, sono architetture da epoca dx9\dx10\dx11. Non mi aspetto che tutti siano d'accordo (non tutti capiscono qualcosina di schede), ma sono dati di fatto.

Cosa voglio dire: io ora come ora non comprerei Pascal, seppure siano fantastiche ma dove? Nei giochi VECCHI, o recenti. In applicativi dx12 dove se ne sfruttino tutte le features ne uscirebbero ridimensionate. In questo senso, appunto, non spenderei 650 euri per una scheda che tra 18,24 mesi soffrirà quando usciranno (speriamo prima!) giochi seriamente sviluppati sotto dx12 o meglio ancora vulkan (ma in vulkan, purtroppo, ci conto poco).
Certo poi che l'utente Nvidia non pensa a nulla, tipicamente la sua GeForce non dura più di 12 mesi (il tempo che esca la successiva serie, insomma). Quei pochi , come me, che hanno avuto (purtroppo) una GeForce per almeno 24 mesi conoscono bene quanto siano "longeve" le GeForce.

Meglio spendere 500,550,600,650 per una GeForce dx11 compatibile ma che non è equipaggiata per l'avvenire, o meglio spenderne tanti (anche di meno magari) per schede equipaggiate per distaccarle nei prossimi mesi?

Chi ne capisce di schede ha una visione a 360 gradi e quindi sa bene che è un discorso attualissimo.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
In materia non ci capisco un H ma esiste un principio base che regola il mondo del mercato. Se io sono una multinazionale, l'unica che può competere con la rivale che sta al vertice e lentamente sto affondando, non cerco di restare a galla contando solo sulla pubblicità, hype autoindotto dai silenzi e dalle slide o mantenermi col mining che è un fenomeno momentaneo ed imprevedibile. Cercherò di fare un prodotto che sia all'altezza e competitivo ed ovviamente so bene che se creo hype e non mantengo le promesse esco dal settore... quindi il punto sta li. Possono essere mai così folli da proporre un prodotto che consuma quasi il doppio senza superarlo nettamente? Non credo proprio quindi sono convinto che nei mesi a seguire ne vedremo delle belle o almeno lo spero anche perché la politica Nvidia non mi piace affatto ( vedasi ultima release per le titan che addirittura ne triplica le potenzialità). I miei soldi cerco di non darli a chi mi prova a pijarmi per il ( ( | anche perché se sotto la carrozzeria non ci sono i cavalli, i drivers non fanno tutta quella miglioria quindi perché castrarmi una scheda che poi non è manco regalata. L'unica verità è che tocca attendere e mi aspetto anche che col cambio di partnership, correranno nuove voci dove alcune daranno per migliori le memorie prodotte dal vecchio partner ed altre faranno il contrario con conseguente caccia alle streghe. Intanto il thread raggiunge dimensioni colossali

Inviato dal mio SM-G935F utilizzando Tapatalk
 
No, aspetta, frena, sei fuori strada. Le Radeon consumano di piú, oppure leggiamola cosí: le GeForce consumano di meno, per due motivi: facce della stessa medaglia
1. GCN é equipaggiata in un certo modo per dare il massimo sotto API grafiche a basso livello, e quindi consuma di piú.
2. Le GeForce post Kepler sono equipaggiate in un certo modo per contenere i consumi, quindi consumano di meno, ma non sono equipaggiate in hardware come lo sono le Radeon di pari fascia.

Sembra troppo sintetico, ovviamente il quadro é molto piú complesso ma fa capire che ognuna delle due aziende ha un suo tallone di Achille.
Se iniziano ad uscire giochi dx12 nel vero senso della parola non come quelle buffonate di BF1 o di Hitman o di ROTTR, ''Paxwell'' ne uscirebbe letteralmente con le ossa rotte.
Se continuano ancora a sviluppare con gli attuali (obsoleti ormai) motori, rimanendo sotto dx11, AMD sará sempre lí a inseguire perché, la dico facile: é come se consumasse di piú per NULLA, ok? Come applicare una forza maggiore ma il lavoro ottenuto é sempre quello.
Questo é quello che succede sotto dx11 per ciascuna Radeon, potenza inutilizzata perché il software non si avvale e non giova al tempo stesso alle architetture.

Poi i meriti di Nvidia, logicamente, finiscono dove iniziano i demeriti di AMD, questo é chiaro. Nvidia é una generazione avanti in termini di consumi, ma non é tutto oro ció che luccica.
 
" data-source="post: 6405423" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
Molti trascurano il discorso legato alla piena compatibilità con api grafiche a basso livello, in quest'ottica Pascal non garantisce alcuna longevità , a differenza di Vega, ce ne accorgeremo quando inizieranno ad uscire giochi sviluppati veramente in dx12, per esempio (finora dx12 non è mai stata implementata propriamente).
Pascal la puoi chiamare Maxwell su differente p.p., non dimentichiamo che fine hanno fatto 970 e 980 (spariscono dai radar quando si parla di dx12).
Vega è tecnologicamente una scheda nuova e avanzata rispetto a Paxwell, sebbene abbia il suo tallone di Achille nei consumi maggiori, questo è già emerso ufficialmente e bisogna conviverci (ricorrere all'undervolt è uno specchietto per le allodole).

Ma chiedetevi perché consuma di più , come tutte le Radeon, e chiedetevi perché Paxwell consuma meno, chi ne capisce di schede lo sa bene di che tipo di architetture stiamo parlando, come sono equipaggiate e che funzionalità offrono.
L'epoca dx11 volge al termine nonostante Nvidia cerchi in tutti i modi di stringere sodalizi con le case software (leggasi giochi e motori) per mascherare i limiti delle sue schede in uno scenario di utilizzo (vero) di api grafiche a basso livello.
Quando si entrerà con due piedi in epoca dx12 Nvidia non potrà garantirvi simili performance con architetture di questo tipo, sono architetture da epoca dx9\dx10\dx11. Non mi aspetto che tutti siano d'accordo (non tutti capiscono qualcosina di schede), ma sono dati di fatto.

Cosa voglio dire: io ora come ora non comprerei Pascal, seppure siano fantastiche ma dove? Nei giochi VECCHI, o recenti. In applicativi dx12 dove se ne sfruttino tutte le features ne uscirebbero ridimensionate. In questo senso, appunto, non spenderei 650 euri per una scheda che tra 18,24 mesi soffrirà quando usciranno (speriamo prima!) giochi seriamente sviluppati sotto dx12 o meglio ancora vulkan (ma in vulkan, purtroppo, ci conto poco).
Certo poi che l'utente Nvidia non pensa a nulla, tipicamente la sua GeForce non dura più di 12 mesi (il tempo che esca la successiva serie, insomma). Quei pochi , come me, che hanno avuto (purtroppo) una GeForce per almeno 24 mesi conoscono bene quanto siano "longeve" le GeForce.

Meglio spendere 500,550,600,650 per una GeForce dx11 compatibile ma che non è equipaggiata per l'avvenire, o meglio spenderne tanti (anche di meno magari) per schede equipaggiate per distaccarle nei prossimi mesi?

Chi ne capisce di schede ha una visione a 360 gradi e quindi sa bene che è un discorso attualissimo, quello legato alle api grafiche (ma è un discorso di natura architetturale legato schede stesse).

Infine, dico solo che saranno 5 anni che non si vedevano schede NUOVE, tecnologicamente.
Nvidia dalla sua ha tagliato i consumi, ma a quale prezzo? Deve pagare dazio e vedremo con Volta come farà a tirarsi fuori da questa situazione, come diceva qualcuno altro pagine addietro, sono curioso di vedere come farà a contenere i consumi e contemporaneamente creare schede veramente funzionali a sfruttare api grafiche a basso livello.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
Non sono completamente d'accordo. Sulla longevità di pascal: può darsi, non ti nascondo che sono un po' apprensivo riguardo la longevità della mia.

Ma per le Vega possono pure avere il supporto DX13 (non ho scritto male :asd:), ma per ora in DX12 non hanno dimostrato un bel niente (prendi sniper elite 4 dove la 1080 fa pure di più).

Le Pascal al contrario hanno una buona resa in dx12 (si parla ovviamente in quei pochi titoli che valga la pena giocare in dx12 e non dx11), temo più che altro che necessitino di un supporto ad hoc più complesso (così spiegava mikael) e che quando uscirà volta verrà droppato.

Comunque io vedo una certa riluttanza generale nello scrivere in DX12 eh. anche da parte dei partner amd. Per citarti un paio di titoli: deus ex ha un path dx12 pessimo, prey e dirt 4 sono solamente dx11. Nonostante questo gli ultimi due girano alla grande su ryzen e polaris.

Però, per tornare al discorso Vega queste non hanno dimostrato nulla ancora. Insomma: se uno ha paura di spendere 500€ su una Pascal per motivi di obsolescenza, non vedo perché non dovrebbe anche aver paura di spenderne altrettanti su Vega, che per il momento sono semplicemente delle schede video mediocri, anche in dx12... Insomma, hanno diverse feature promettenti ma non hanno dimostrato ancora nulla (se poi uno si basa sugli storici lanci "turbolenti" AMD è un altro conto)

Per me, il banco di prova definitivo sarà Wolfenstein. Lì dovrà andare quanto la Ti senza riserve (RPM incluso) :)



Inviato dal mio Redmi Note 2 utilizzando Tapatalk
 
Non sono completamente d'accordo. Sulla longevità di pascal: può darsi, non ti nascondo che sono un po' apprensivo riguardo la longevità della mia.

Ma per le Vega possono pure avere il supporto DX13 (non ho scritto male :asd:), ma per ora in DX12 non hanno dimostrato un bel niente (prendi sniper elite 4 dove la 1080 fa pure di più).

Le Pascal al contrario hanno una buona resa in dx12 (si parla ovviamente in quei pochi titoli che valga la pena giocare in dx12 e non dx11), temo più che altro che necessitino di un supporto ad hoc più complesso (così spiegava mikael) e che quando uscirà volta verrà droppato.

Comunque io vedo una certa riluttanza generale nello scrivere in DX12 eh. anche da parte dei partner amd. Per citarti un paio di titoli: deus ex ha un path dx12 pessimo, prey e dirt 4 sono solamente dx11. Nonostante questo gli ultimi due girano alla grande su ryzen e polaris.

Però, per tornare al discorso Vega queste non hanno dimostrato nulla ancora. Insomma: se uno ha paura di spendere 500€ su una Pascal per motivi di obsolescenza, non vedo perché non dovrebbe anche aver paura di spenderne altrettanti su Vega, che per il momento sono semplicemente delle schede video mediocri, anche in dx12... Insomma, hanno diverse feature promettenti ma non hanno dimostrato ancora nulla (se poi uno si basa sugli storici lanci "turbolenti" AMD è un altro conto)

Per me, il banco di prova definitivo sarà Wolfenstein. Lì dovrà andare quanto la Ti senza riserve (RPM incluso) :)



Inviato dal mio Redmi Note 2 utilizzando Tapatalk
Ti riferisci alla liquid o alla air nell'ultimo punto? Perché da utente medio, dati alla mano, le potenzialità della prima sembrano superiori alla versione air al punto che con le frequenze si avvicina molto alle caratteristiche della Ti. Poi non so se dipende da componenti OC o chissà magia?!

Inviato dal mio SM-G935F utilizzando Tapatalk
 
Non sono completamente d'accordo. Sulla longevità di pascal: può darsi, non ti nascondo che sono un po' apprensivo riguardo la longevità della mia.

Ma per le Vega possono pure avere il supporto DX13 (non ho scritto male :asd:), ma per ora in DX12 non hanno dimostrato un bel niente (prendi sniper elite 4 dove la 1080 fa pure di più).

Le Pascal al contrario hanno una buona resa in dx12 (si parla ovviamente in quei pochi titoli che valga la pena giocare in dx12 e non dx11), temo più che altro che necessitino di un supporto ad hoc più complesso (così spiegava mikael) e che quando uscirà volta verrà droppato.

Comunque io vedo una certa riluttanza generale nello scrivere in DX12 eh. anche da parte dei partner amd. Per citarti un paio di titoli: deus ex ha un path dx12 pessimo, prey e dirt 4 sono solamente dx11. Nonostante questo gli ultimi due girano alla grande su ryzen e polaris.

Però, per tornare al discorso Vega queste non hanno dimostrato nulla ancora. Insomma: se uno ha paura di spendere 500€ su una Pascal per motivi di obsolescenza, non vedo perché non dovrebbe anche aver paura di spenderne altrettanti su Vega, che per il momento sono semplicemente delle schede video mediocri, anche in dx12... Insomma, hanno diverse feature promettenti ma non hanno dimostrato ancora nulla (se poi uno si basa sugli storici lanci "turbolenti" AMD è un altro conto)

Per me, il banco di prova definitivo sarà Wolfenstein. Lì dovrà andare quanto la Ti senza riserve (RPM incluso) :)



Inviato dal mio Redmi Note 2 utilizzando Tapatalk

non sei d’accordo ma vai di fretta: Vega é ancora immatura, e non ci sono driver, vuoi dargli il tempo? Abbi bontá, non fare come il 95% degli stupdi che frequentano questo tipo di forum che pretendono la VGA bella pronta al D1, lo sai bene che questi prodotti non sono maturi mai al D1, soprattutto AMD é piú ''lenta'' (vedi Polaris, recente novitá in campo GPU da parte di AMD, quanto ha guadagnato per poi superare in alcuni giochi, la rivale 1060 in 2,3 mesi, sono fatti.).
cosa deve dimostrare Vega in DX12? In mezzo giorno? Non scherzare, ragiona.

Poi, come il cane che si morde la coda: non ci sono giochi che sfruttino a regime dx12 e che ne sfruttino tutte le features di calcolo, i vari BF1, ROTTR, hitman, anche Deus Ex MD (che tra l’altro é ottimizzato di m***a) sono pagliacciate, hanno performance in DX12 talvolta inferiori o problemi di VRam, di framepacing etc.
L’unico gioco DX12 davvero fatto con criterio, lo stato dell’arte é gears of war 4, vai a vedere lí cosa succede...
I giochi citati io li ho tutti, so bene come girano.

Se queste capre di devs iniziassero a sviluppare seriamente (purtroppo le console... e le ''loro'' API che sono derivative dx11, non aiutano allo scopo) in dx12, lo scenario sarebbe completamente differente.

Ancora, la riluttanza (conclamata, é lapalissiano) a cambiare tecnologia software dipende unicamente dalle case HW che foraggiano le case SW. Cosí si mantiene l’equilibrio dell’industria dle pc gaming.
 
Ste Vega non hanno senso allora se i giochi nativi in dx12 arriveranno fra un anno e mezzo/2, a quel punto usciranno le Navi, o Vega 2.0

Sent from my HTC One_M8 dual sim using Tapatalk
 
Pubblicità
Pubblicità
Indietro
Top