Aspettando Nvidia Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Le leggi di mercato le fa nvidia\amd quindi nulla di strano. Decidono loro cosa e quando mettere sul mercato.
Quindi confermi che uscira prima la 1080ti??
Mi fa strano che lancino prima quella grossa con prestazioni estreme che pochi possono permettersi e solo dopo quella che la maggior parte può permettersi che però avrà prestazioni minori della 1080ti
Bha, tanto come hai detto le leggi le fanno loro.....non credo avranno problemi di soldi in casa nvidia
 
Quindi confermi che uscira prima la 1080ti??
Mi fa strano che lancino prima quella grossa con prestazioni estreme che pochi possono permettersi e solo dopo quella che la maggior parte può permettersi che però avrà prestazioni minori della 1080ti
Bha, tanto come hai detto le leggi le fanno loro.....non credo avranno problemi di soldi in casa nvidia

No io non ho confermato nulla, mica ho detto quale esce per prima. Era per dirti che decidono loro, se pure uscisse prima la titan, non ci sarebbe nulla di anomalo.

Imho uscirà prima la 1080, per vendere il piu possibile e spennare piu polli possibili che prendono al D1 a prezzo iperpompato. X80 é storicamente la scheda peggiore come v rapporto qualità-prezzo.

Poi uscirà x70 imho dopo diverse settimane, che é la scheda che vende di più , solitamente il best-buy delle schede da gioco prodotte da Nvidia.

Poi x80ti che é il top a livello prestazionale nonché la più costosa tra le tre prodotte, uscirà imho nel 2017.

Se AMD dovesse proporre schede molto competitive , allora Nvidia come gia fatto due o tre anni fa, potrebbe accelerare i tempi e rilasciare x80ti per fine anno.

Diciamo che x80ti esce tardi (é l'asso nella manica) se nel frattempo la concorrenza non ha nulla di competitivo contro x70 e x80 , come successo con Maxwell: 970 e 980 regnavano sovrane perché AMD era in letargo e vendevano a vagonate e per 7-8 mesi Nvidia non aveva alcun motivo di rilasciare 980ti.

Considerando l obsolescenza programmata a cui vanno incontro le geffo, non spenderei mai più di quello che costa x70, tanto al giro successivo va cambiata con la x70 successiva che solitamente va quanto x80ti della precedente serie.
Nvidia ha sempre un motivo per castrare volente nolente la serie precedente: Con Maxwell la tassellatura eccessiva faceva andare malissimo Kepler, ora con pascal Maxwell andrà male per via del bandwidth inadeguato a gestire risoluzioni superiori al fHD.

Le Nvidia sono schede che ormai durano una generazione e diventano problematiche al lancio della generazione successiva sia per supporto driver scadente sia per limiti hardware che l azienda programma a lungo termine, se non é questa la definizione di obsolescenza programmata ... Ecco perché credo che Nvidia sia la scelta peggiore per chi vuole una scheda che gli duri, bene o male, più di una generazione. Chi la cambia ad ogni giro, invece non avrà mai problemi, ovviamente.
 
Ultima modifica:
Considerando l obsolescenza programmata a cui vanno incontro le geffo, non spenderei mai più di quello che costa x70, tanto al giro successivo va cambiata con la x70 successiva che solitamente va quanto x80ti della precedente serie.
Nvidia ha sempre un motivo per castrare volente nolente la serie precedente: Con Maxwell la tassellatura eccessiva faceva andare malissimo Kepler, ora con pascal Maxwell andrà male per via del bandwidth inadeguato a gestire risoluzioni superiori al fHD.

Le Nvidia sono schede che ormai durano una generazione e diventano problematiche al lancio della generazione successiva sia per supporto driver scadente sia per limiti hardware che l azienda programma a lungo termine, se non é questa la definizione di obsolescenza programmata ... Ecco perché credo che Nvidia sia la scelta peggiore per chi vuole una scheda che gli duri, bene o male, più di una generazione. Chi la cambia ad ogni giro, invece non avrà mai problemi, ovviamente.

Scusami un attimo ma rispondo per punti.

La tassellatura eccessiva non la fa Nvidia, la fanno i giochi. Quindi chiedere ad una casa (che ci mette anni a pensare un chip) di prevedere il mercato con la sfera di cristallo lo vedo quantomeno discutibile. Extra Kepler è 2013, e solo oggi quell'architettura ha mostrato il fianco.

Maxwell sappiamo tutti del bus e sappiamo che non sono schede (970/980) per il 4K, con la prima che dovrebbe fermarsi al 1080p. Se poi vogliamo mostrarne i limiti dove la rivale vince allora basta sparare a 2.5K tutto e peace. Ma è come fare un furmark e dire che le AMD consumano 100W in più delle Nvidia. Permettimi ma è assurdo.

Le schede nvidia durano quel che durano, gente con la 580 gioca ancora oggi levando i consueti filtri. Obsolescenza la fa il giocatore che esagera costantemente coi filtri e pretende il tutto a palla.

Si parla tanto di confronti con 390/970 e le 780 abbandonate (con la fregatura dei giochi tessellation 16x) ma non si vede la 280X che è sempre in linea o quasi con 770 (tolti casi specifici). Dove starebbe l'abbandono?

https://www.techpowerup.com/reviews/ASUS/GTX_980_Ti_Matrix/23.html
Febbraio 2016 - 1080p ovviamente

D'altronde è sempre il solito discorso: se prendiamo giochi AMD allora sembra che la rivale arranchi, accade il contrario sui giochi nvidia. E' sempre la solita storia da anni.

GPU Charts 2015 Single Card - 1080p, 1440p, UHD - AMD Radeon R9 Fury X - Charts > Graphics cards - Reviews - ocaholic
Dicembre 2015 - altri giochi e vedi le verdi sopra

Perché? Perché in base ai giochi scelti ste statistiche lasciano il tempo che trovano.

Facile per AMD fare driver per chip rebrand (370? 280x? 390x?) e dire che l'altra, su alcune architetture cala. Ti credo ha chip su chip.
Aspettiamo e vediamo cosa succederà quando rinnoverà con polaris

E ancora, voglio ricordare che i bench vengono sparati al massimo, quindi con la tassellatura che un utente non terrebbe (e manco Geforce experience consiglia). A questo punto mi sorge la domanda: dov'è la castratura delle verdi?
 
lol... è sempre bello vedere le 980 custom tallonare la fury x:lol: considerando il fatto che le 980 spingono un botto in co..mentre la 980ti custom prende il volo rispetto alla fury x.. (ochaolic)

Eh ma la fury x è sopra o pari alla 980ti:lol:

Pfff..schede pompate di fabbrica

Zanflank lo abbiamo ripetuto piu volte, ma tanto non capiscono..:lol:
 
Ultima modifica da un moderatore:
ma chi ha mai detto che la Fury X sta sopra la 980ti? il marketing AMD prima del lancio e poi?...
sta mediamente pari in QHD/4K e i dati sono li a dimostrarlo, poi in OC e FHD le prende è indiscutibile

... in genere a me fa solo ridere la storiella della mancata concorrenza, di certo l'errore è stato lasciare spazio alla serie 900 per 9 mesi!
poi che la gpu più potente sia di nVidia non fa di certo questa una scelta obbligata a 360°
 
Ultima modifica da un moderatore:
Ma ti senti sempre chiamato in causa? sei nella mia lista ignorati, ma ti rispondo

è sbagliato dire che sta pari, non sta pari assolutamente, la 980ti custom è ben sopra... In FHD/QHD e 4k

tiratemi fuori le 980ti custom andare pari a fury x (tranne hitman e aots) e mi sto zitto,.. avanti

- - - Updated - - -

egrtegrt.webp

Comunque posto anch'io qualcosa tra gtx 780 e r9 290 ci passa un 8% di differenza, possibile che i 3gb di gtx 780 stiano stretti, da gtx 770 2gb a 380x 4gb c'è appena un 4%, invece la 280x prende il volo ma ha ben 3gb rispetto a 770 che monta 2gb, con una 770 4gb il gap è più contenuto (imho) .. per la 280x, sembra che il bus più grande faccia la differenza contro la 380x, a parte i 30mhz in più di 280x
inoltre vedo una gtx 780ti pareggiare con 290x, tutto in linea o quasi, visto che la 780ti era più veloce di un 10% rispetto a 290x

Imho kepler è peggiorato ma non di tanto, sarà si e no un 8-10% non di più..

Inoltre vedo che la 390 sta sopra addirittura alla 290x, con le stesse frequenze sul core, ops amd fa peggiorare le stesse architetture:asd:eh....bisogna moddare i timing delle ram:vv:

Suite 15 giochi 2015-2016 Gameworks OFF
Grafikkarten-Rangliste 2016: 23 Radeon- und Geforce-GPUs im Benchmarkvergleich
 
Ultima modifica da un moderatore:
Io non sono completamente d'accordo sulla frase "i giochi li fanno gli sviluppatori"
Non é più così per alcuni giochi: I giochi brandizzati Nvidia tipo far cry, Project cars ecc, vengono sviluppati ANCHE da Nvidia, non crediate che Nvidia si limiti a fornire soltanto i suoi software proprietari, bensì i giochi brandizzati Nvidia passano anche per le mani di quest ultima, svegliatevi! (caso analogo per quei pochi oramai giochi brandizzati amd).

Non é come una volta dove usciva il gioco e stop, quello era.

Oggi rendetevi conto che per lanciare giochi su pc gli sviluppatori e le case produttrici , parlo dei tripla A, devono collaborare con i produttori di schede video, nella fattispecie Nvidia é quella che "investe di più".

Nei giochi "pro-Nvidia" La tassellation a 16 a 32 o a 64 che sia non é una decisione che gli sviluppatori prendono da soli, toglietevelo dalla testa.

Nvidia paga e anche tanto, e in virtù di ciò partecipa nello sviluppo di quei detetminati giochi che la sponsorizzano e che usano le sue tecnologie proprietarie.

Ormai gli sviluppatori pur di prender soldi qua e là sono sempre meno padroni dei giochi, ma questo sta bene a entrambi (sviluppatori e produttori schede)
 
Ma ti senti sempre chiamato in causa? sei nella mia lista ignorati, ma ti rispondo

è sbagliato dire che sta pari, non sta pari assolutamente, la 980ti custom è ben sopra... In FHD/QHD e 4k

tiratemi fuori le 980ti custom andare pari a fury x (tranne hitman e aots) e mi sto zitto,.. avanti

- - - Updated - - -

Visualizza allegato 199771

Comunque posto anch'io qualcosa tra gtx 780 e r9 290 ci passa un 8% di differenza, possibile che i 3gb di gtx 780 stiano stretti, da gtx 770 2gb a 380x 4gb c'è appena un 4%, invece la 280x prende il volo ma ha ben 3gb rispetto a 770 con 2gb.. sembra che il bus più grande faccia la differenza contro la 380x
inoltre vedono una gtx 780ti pareggiare con 290x, tutto in linea o quasi, visto che la 780ti era più veloce di un 10% rispetto a 290x

Imho kepler è peggiorato ma non di tanto sarà si e no un 8-10% non di più..

Inoltre vedo che la 390 sta sopra addirittura alla 290x, con le stesse frequenze sul core, ops amd fa peggiorare le stesse architetture:asd:eh....bisogna moddare i timing delle ram:vv:

Suite 15 giochi 2015-2016 Gameworks OFF
Grafikkarten-Rangliste 2016: 23 Radeon- und Geforce-GPUs im Benchmarkvergleich

cosa vuoi che mi importi che mi hai messo in ignore list :lol:
rispondo perché come è nella tua natura iniziavi a trollare... aspetta ma è il tuo thread o è pubblico? chiedo non si sa mai...

sta alla pari delle 980ti lisce, ma i grafici di TPU li vedi?
con le custom nemmeno in QHD/4k sta alla pari, certo... ma esistono solo le 980ti/fury X o anche schede da 150€ :grat:

eh "amd muoviti, non fai concorrenza" :hihi:

...già il fatto che sia peggiorato è un male, cosa vuol dire non di tanto??? è una giustificazione?!?.. ma leggi quello che scrivi?
la 680 al lancio stava sopra di un 10% alla 7970, ora sta sotto del 20% quando va bene!...
sono stato stupido a non comprare una 7970 dopo l'uscita delle 200/700, dato che le 7000 hanno avuto diversi problemi dovuti al cambio drastico di architettura con la serie precedente, anche se in realtà mi ha dato modo di recuperare giochi sulla PS3...
 
Ultima modifica da un moderatore:
Io non sono completamente d'accordo sulla frase "i giochi li fanno gli sviluppatori"
Non é più così per alcuni giochi: I giochi brandizzati Nvidia tipo far cry, Project cars ecc, vengono sviluppati ANCHE da Nvidia, non crediate che Nvidia si limiti a fornire soltanto i suoi software proprietari, bensì i giochi brandizzati Nvidia passano anche per le mani di quest ultima, svegliatevi! (caso analogo per quei pochi oramai giochi brandizzati amd).

Non é come una volta dove usciva il gioco e stop, quello era.

Oggi rendetevi conto che per lanciare giochi su pc gli sviluppatori e le case produttrici , parlo dei tripla A, devono collaborare con i produttori di schede video, nella fattispecie Nvidia é quella che "investe di più".

Nei giochi "pro-Nvidia" La tassellation a 16 a 32 o a 64 che sia non é una decisione che gli sviluppatori prendono da soli, toglietevelo dalla testa.

Nvidia paga e anche tanto, e in virtù di ciò partecipa nello sviluppo di quei detetminati giochi che la sponsorizzano e che usano le sue tecnologie proprietarie.

Ormai gli sviluppatori pur di prender soldi qua e là sono sempre meno padroni dei giochi, ma questo sta bene a entrambi (sviluppatori e produttori schede)

Nvidia ha gameworks che, per l'appunto c'è scritto ovunque si occupa degli effetti. La tassellatura di questi effetti è andata sempre aumentando questo è vero e lo ha deciso Nvidia.
Ma la tassellatura degli ambienti, questo lo han deciso loro ;)

Sei proprio sicuro che sia nvidia a portare tutta la tassellatura? Perché TW3 girava senza problemi su AMD con 16x con gran bei risultati estetici (al pari di 780 senza airworks per intenderci).

Io vedo effetti sempre più pesati, come è logico sia e avviene da 30 anni a questa parte, che le nuove schede supportano al meglio.
Una volta addirittura dovevi cambiarla la scheda.

E non è che se metti a 16x invece di 64x (lol IMHO la follia) ti cambia la vita. Io stesso sono contro a tutte ste cose e le disabilito di default (dopo averle provate).
Io voglio fluidità e pulizia massime e da sempre ho segato sti filtri; finché gli sviluppatori mi danno la possibilità di segarli allora non mi tange proprio; possono pure farli alla Crysis1. Ma quando li impongono per un motivo o per l'altro allora non va bene. Sinora non ho mai visto nulla di simile.

Quindi non capisco dove stiano i problemi. Sai cosa compri, e addirittura hai un SW (GeForce Experience) che ti setta i giochi da solo, perché ci si lamenta dei filtri nuovi disattivabili che appesantiscono la propria scheda della serie vecchia?
nvidia ha sempre creato effetti della madonna (physx) pesanti un macigno e mezzo, e pochissimi elitari li hanno usati (ed i giochi con questi implementati li conti veramente sulle dita di due mani). Ora invece si ingigantisce tutto senza saperne il passato, e si accusa così la casa, non so bene il perché.

In ultimo ecco la domanda da un milione di euro:
perché si scrive sempre che Nvidia castra le schede ormai da anni (attenzione, anni, per me si intende ben prima di 780) e mai si argomenta?

e attenzione io a quest'ora sarai con una 290 al posto di 780 (all'epoca scartata a malincuore per via dei dissipatori ridicoli in uscita), non sono verde perché blabla driver migliori sempre e cavolate simili.
 
Potrei dire una baggianata, ma attualmente la scheda forse più avanzata non è la R9 fury/R9 fury X?
Avendo le memorie HBM?
 
...già il fatto che sia peggiorato è un male, cosa vuol dire non di tanto??? è una giustificazione?!?.. ma leggi quello che scrivi?
la 680 al lancio stava sopra di un 10% alla 7970, ora sta sotto del 20% quando va bene!...
sono stato stupido a non comprare una 7970 dopo l'uscita delle 200/700, dato che le 7000 hanno avuto diversi problemi dovuti al cambio drastico di architettura con la serie precedente, anche se in realtà mi ha dato modo di recuperare giochi sulla PS3...

link prego, perché io leggo questo
togliamo i 1440p e 2160p che ovviamente limitano la scheda da 2GB (mi sembra il minimo), e vediamo un solo gioco (Mordor) dove c'è una netta differenza ed è quel gioco che non può reggere a ultra le texture con 2GB di vram (era quello dei famosi 6GB della titan).

Quindi dov'è sto peggioramento agognato, vituperato, odiato che SEMPRE, OVUNQUE, in QUALSIASI topic, pure parlando delle nuove schede, salta fuori?

Abbiamo fatto OT scorsa volta che ero arrivato, io ho portato i dati e altri nulla... ora ri-salta fuori sto discorso. Oh ma peggio di un disco rotto eh

Arriva il leak delle performance delle schede nuove. E poco dopo: tanto nvidia abbandona le schede, non valgono nulla, nel tempo fanno schifo...

Ora ditemi, serio eh, io vengo nel vostro topic a sparare che consumate 100W in più e questo porta inquinamento maggiore, fauna e flora si riducono, e soldi all'ISIS?

Ovviamente esagero ma capite che è odioso sto comportamento. E' un continuo OT su questo argomento, sempre e sempre.
E' uno schifo leggere qui perché arriva qualcuno che sempre porta a ste discussioni che non portano a nulla.
Rancore, OT, scatole girate a chi vuole info su Pascal, fauna e flora ridotte :sisi:

Per favore quindi. Potete evitare?
Grazie
 
Nvidia ha gameworks che, per l'appunto c'è scritto ovunque si occupa degli effetti. La tassellatura di questi effetti è andata sempre aumentando questo è vero e lo ha deciso Nvidia.
Ma la tassellatura degli ambienti, questo lo han deciso loro ;)

Sei proprio sicuro che sia nvidia a portare tutta la tassellatura? Perché TW3 girava senza problemi su AMD con 16x con gran bei risultati estetici (al pari di 780 senza airworks per intenderci).

Io vedo effetti sempre più pesati, come è logico sia e avviene da 30 anni a questa parte, che le nuove schede supportano al meglio.
Una volta addirittura dovevi cambiarla la scheda.

E non è che se metti a 16x invece di 64x (lol IMHO la follia) ti cambia la vita. Io stesso sono contro a tutte ste cose e le disabilito di default (dopo averle provate).
Io voglio fluidità e pulizia massime e da sempre ho segato sti filtri; finché gli sviluppatori mi danno la possibilità di segarli allora non mi tange proprio; possono pure farli alla Crysis1. Ma quando li impongono per un motivo o per l'altro allora non va bene. Sinora non ho mai visto nulla di simile.

Quindi non capisco dove stiano i problemi. Sai cosa compri, e addirittura hai un SW (GeForce Experience) che ti setta i giochi da solo, perché ci si lamenta dei filtri nuovi disattivabili che appesantiscono la propria scheda della serie vecchia?
nvidia ha sempre creato effetti della madonna (physx) pesanti un macigno e mezzo, e pochissimi elitari li hanno usati (ed i giochi con questi implementati li conti veramente sulle dita di due mani). Ora invece si ingigantisce tutto senza saperne il passato, e si accusa così la casa, non so bene il perché.

In ultimo ecco la domanda da un milione di euro:
perché si scrive sempre che Nvidia castra le schede ormai da anni (attenzione, anni, per me si intende ben prima di 780) e mai si argomenta?

e attenzione io a quest'ora sarai con una 290 al posto di 780 (all'epoca scartata a malincuore per via dei dissipatori ridicoli in uscita), non sono verde perché blabla driver migliori sempre e cavolate simili.

Capisco cosa vuoi dire, ma siamo dentro un sistema industriale, e sviluppatori insieme a produttori di hardware inventano di tutto per spingerci a cambiare hardware e a comprare software ( giochi).

Poi io sono del parere che queste tecnologie Nvidia proprietarie siano piu dannose per le performance anche degli stessi utenti verdi, che davvero utili ad offrire livello grafico superiore.

Se poi per voi quattro capelli bianchi o quattro peli di cavallo giustifichino una perdita che va dai 10 ai 15 fps beh non ho altro da dire.

Ormai sto diventando grande e di hardware ne ho avuto, mi basta aver avuto una 770 segata letteralmente appena uscita Maxwell, e mi riferisco a giochi o meglio a situazioni in cui rientravo pienamente nei 2 gb di vram, come il caso del witcher , appunto.

Vedersi superare da una 280 é stato assurdo, e l'unica spiegazione che mi sono dato é quella che già ho espresso. Suffragata dal confronto con altri utenti aventi 770-780-780 ti.

Fine OT.
 
Ultima modifica:
Potrei dire una baggianata, ma attualmente la scheda forse più avanzata non è la R9 fury/R9 fury X?
Avendo le memorie HBM?

a livello hardware puro si

link prego, perché io leggo questo
togliamo i 1440p e 2160p che ovviamente limitano la scheda da 2GB (mi sembra il minimo), e vediamo un solo gioco (Mordor) dove c'è una netta differenza ed è quel gioco che non può reggere a ultra le texture con 2GB di vram (era quello dei famosi 6GB della titan).

...

une media di tutti i test nelle rete non c'è un link specifico, magari 20% in FHD no, ma un 10% tutto eccome, quindi rispetto alla 7970 ha perso il 20% e la 7970 ghz a volte se la gioca addirittura con la 780
cosa vuol dire "togliamo la 1440/2160"? intanto chi ha un 7970 gestisce bene pure il 1440, chi ha la 680/770 NO!

non l'ho tirato io in ballo sta storia, ho spezzato sul nascere e schiacciato ogni minima forma di "mancanza di concorrenza" che aleggia con il solito trollaggio, quindi ho risposto di certo non ho iniziato ...

esempio veloce NFS
Wyniki kart graficznych (GPU test) – 1920 × 1080 Low :: PCLab.pl 1080 low
Wyniki kart graficznych (GPU test) – 1920 × 1080 Medium :: PCLab.pl 1080 mid
Wyniki kart graficznych (GPU test) – 1920 × 1080 Ultra :: PCLab.pl 1080 ultra
Wyniki kart graficznych (GPU test) – 2560 × 1440 Ultra :: PCLab.pl 1440 ultra
http://pclab.pl/art68903-8.html 2160 ultra

ps. qua si che le prende la Fury X :asd: ... sarà il driver D1?

ora parliamo di Pascal e di come Micron abbia dichiarato questo
http://www.hwupgrade.it/news/memori...icron-conferma-le-prime-spedizioni_61742.html
mi membra un ottima notizia!
 
Ultima modifica da un moderatore:
Buone NUOVe


Le memorie GDDR5X presto sul mercato: Micron conferma le prime spedizioni | Hardware Upgrade



Il profumo e la fragranza dei troll la mattina:trotta: ahhhhhhhhhhhh... mi mancava..
I TROLLOSI

1334392326617_mulino.jpg
 
Ultima modifica da un moderatore:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top