UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Stai scherzando spero. Guarda in 4k quanto va di più delle 2080 ti... cioè, 21 fps di più in tomb raider... E il paragone è con la 2080 ti. Pensa contro la 2080, che sarebbe la scheda contro cui andrebbe paragonata. Contro la super fa 33 fps in più... cioè, 33, non so se è chiaro, in 4k. E i driver ancora non sono buoni
Resta il fatto che oggi possiamo prendere una scheda con 700 euro che andrà + forte almeno del 25% della 2080ti che aveva cifre fuori dalla portata di molti comuni mortali..
Cmq garantisce 60fps in4k su tutti i giochi
Per me è un ottima scheda

Inviato dal mio CPH1917 utilizzando Tapatalk
 
Beh che andava di più era preventivabile ad un prezzo inferiore, è sempre così a salto nodo, solo che non pare come promesso dalle slide ufficiali, io da quando ho saputo che 3080 sarebbe stata un cit di ga102 quindi del chippone ho sempre sostenuto che fosse su strada il 20/30% più veloce, e che la 6900xt la pareggia o supera a prezzo simile o di 100 dollari meno.

News sulle x60
IMG_20200911_134643.jpg
Uhm, non penso che una x60 in RT batta o raggiunga la 2080ti, come invece molti sostenevano, starà ai livelli di 2080super o poco meno, come 3070 ai livelli di 2080ti o poco meno.
Direi su strada 3070 tra 2080super e 2080ti, mentre x60ti tra 2080 e 2080super.

Probabilmente la 3060 liscia uscirà con ga106 nel Q1 2021 ai livelli di 2070 super.
 
Ultima modifica da un moderatore:
Stai scherzando spero. Guarda in 4k quanto va di più delle 2080 ti... cioè, 21 fps di più in tomb raider... E il paragone è con la 2080 ti. Pensa contro la 2080, che sarebbe la scheda contro cui andrebbe paragonata. Contro la super fa 33 fps in più... cioè, 33, non so se è chiaro, in 4k. E i driver ancora non sono buoni
Guarda che in fondo alla foto trovi anche le percentuali. Rispetto alla 2070 super in 4k c'e un guadagno del 39 per cento in tomb raider. Adesso non voglio dire che sia nulla pero doppiare significa che doveva guadagnare il 100 per cento. Non mi aspettavo un guadagno del genere anche perché dipende molto dai diversi giochi ma da 39. a 100. C'e molta molta differenza. Comunque aspettiamo lunedì ?
 
Ultima modifica:
stando ai benchmark leakati..

3080 vs 2080 ti

3DM FS : 25.6% Faster / 3DM Time Spy: 27% faster

3DM FSE: 29.6% Faster / 3DM Time Spy Extreme: 36.4% faster

3DM FSU: 35.6% Faster / Port Royal: 32.9%

Gap Medio: 31,18% più veloce di una 2080ti

contro il suo vero competitor invece...

3080 vs 2080 Super

3DM FS: 49.6% Faster / 3DM Time Spy: 55% faster

3DM FSE: 55.4% Faster / 3DM Time Spy Extreme: 68.3 % faster

3DM FSU: 62.9 % Faster / Port Royal: 64.4% faster



Gap Medio : 59,27% più veloce di una 2080 Super

(assumendo che in media la 2080S sia un 5% più veloce della 2080 liscia la 3080 è il 67.2% più veloce)

Stiamo parlando di un salto IMPORTANTE a prezzi ridotti. Una 3080 a 718 euro ha un incremento di oltre il 30% sulla 2080TI da 1200 euro. La 3070 a 512 euro se questi sono i valori sarà un 2-3% più veloce della 2080Ti. Se la giocano. Per chi si lamenta del (3080 = 2x 2080) ricordo che nella presentazione è stato detto UP TO 2X 2080. Solo in alcuni casi la 3080 fa quelle performance aliene. Non che ci sia da sputare su un 67%.....

Poi se si è acquirenti della 2080Ti e si vuole fare il grande salto, allora la RTX 3090 è la scelta da fare. Stando ai leak la 3090 aveva ottenuto 10000 punti in TSE. La 3080 all epoca 8500. Quel valore tra l'altro è incrementato di 300 punti. Assumendo quindi un gap generico del 18% tra 3080 e 3090, la 3090 sarà un 54.7% PIU VELOCE DELLA 2080TI e adesso per davvero 2 volte la performance di una 2080. Numeroni insomma.

Bisogna stare attenti a non far salire troppo l'hype per cause di marketing, ma Ampere ha performance da vendere. E' indubbio.
 
se è da 650 (sotto l'avatar nella sezione "alimentatore" è da 540), senza monitor sei al pelo. ma dovresti riuscire a spegnerlo premendo il tasto di accensione senza grossi problemi. se è da 540... a pieno carico gpu e cpu non ci stai dai dentro.

No infatti, anzi, grazie per avermelo fatto notare. Purtroppo a quanto pare il 540W non bastava manco con la 1080Ti, o meglio, in game pesanti quando se ne andava la luce si spegneva il pc. Ho preso quindi di recente il 650W ... Vuoi vede' che non regge la 3080?!?!? Porca di quella ..... ?
 
Guarda che in fondo alla foto trovi anche le percentuali. Rispetto alla 2070 super in 4k c'e un guadagno del 39 per cento in tomb raider. Adesso non voglio dire che sia nulla pero doppiare significa che doveva guadagnare il 100 per cento. Non mi aspettavo un guadagno del genere anche perché dipende molto dai diversi giochi ma da 39. a 100. C'e molta molta differenza. Comunque aspettiamo lunedì
Stai sbagliando calcoli .
La 2070super tra l'altro non è quella normale da 61fps
La 3080 fà 103 fps
Quindi la 380 è il 70% più veloce di una 2070super

Inviato dal mio CPH1917 utilizzando Tapatalk
 
Ultima modifica:
No infatti, anzi, grazie per avermelo fatto notare. Purtroppo a quanto pare il 540W non bastava manco con la 1080Ti, o meglio, in game pesanti quando se ne andava la luce si spegneva il pc. Ho preso quindi di recente il 650W ... Vuoi vede' che non regge la 3080?!?!? Porca di quella ..... ?
per reggerla dovrebbe reggerla se è da 650. anche in game il sistema chiederà intorno ai 520 al massimo + 10% per l'efficienza del psu... 570W arrotondiamo a 600 nei picchi. regge. senza monitor, con quello rischi di essere al limite. ?

ma tanto nel momento di black-out, anche se stavi giocando ti fermi, e ovviamente i consumi un minimo scendono, dandoti un filo più margine per spegnere il pc premendo il tasto di accensione.
30 sec. per guardarti intorno e tirar na bestemmia per il black-out e trovare il tasto a tentoni, 90sec per lo spegnimento. ci stai dentro come tempistiche. (queste son tutte ipotesi, ma abbastanza precise.)
 
rtx 3080 "twice the performance as 2080"
rtx 3070 "faster than 2080ti"

Se la 3080 fosse stata veramente il doppio della 2080 la differenza dalla 2080ti sarebbe dovuta essere più alta e non del 20/30%. Ovviamente se i primi bench presenti in rete sono veritieri
Però loro hanno parlato di performance in ray tracing se ho ben capito, non in generale..
 
Però loro hanno parlato di performance in ray tracing se ho ben capito, non in generale..
No era in generale compreso anche i software Pro vicini al 2x, ma come ho fatto notare l'altro giorno nei giochi RT e Dlss ci sarà un salto vicino al 1.8x, mentre in quelle Raster intorno al 1.6x, questo è quello visto nella slide che ri-riporto
IMG_20200909_160128.jpg
Il tutto a 4k, a basse res sarà decisamente meno.
C'è scritto sotto "games & apps run at 4k i9 CPU"
PS. Su videocardz mi sto divertendo a trollare tramite disqus, andrà a finire che mi bloccano anche lì come su Tom's news ???
 
No era in generale compreso anche i software Pro vicini al 2x, ma come ho fatto notare l'altro giorno nei giochi RT e Dlss ci sarà un salto vicino al 1.8x, mentre in quelle Raster intorno al 1.6x, questo è quello visto nella slide che ri-riporto
Visualizza allegato 385526
Il tutto a 4k, a basse res sarà decisamente meno.
C'è scritto sotto "games & apps run at 4k i9 CPU"
PS. Su videocardz mi sto divertendo a trollare tramite disqus, andrà a finire che mi bloccano anche lì come su Tom's news ???
quei test non dicono niente che già non si sapeva, i giochi con RTX attivo generano più fps (grazie al piffero se raddoppi gli RT core), i programmi che non sfruttano int32, ora possono utilizzare quelle porzione anche per elaborare calcoli in FP32, raddoppiando così gli ipotetici CUDA cores, ma che in realtà se un programma sfrutta entrambe quelle istruzioni vengono dimezzati in base alla tipologia di calcoli richiesti
 
quei test non dicono niente che già non si sapeva, i giochi con RTX attivo generano più fps (grazie al piffero se raddoppi gli RT core), i programmi che non sfruttano int32, ora possono utilizzare quelle porzione anche per elaborare calcoli in FP32, raddoppiando così gli ipotetici CUDA cores, ma che in realtà se un programma sfrutta entrambe quelle istruzioni vengono dimezzati in base alla tipologia di calcoli richiesti
Si è così, per quello parlo di architettura compute riutilizzata nel gaming, mentre prima faceva architetture specifiche per Gaming come Pascal che è estremamente efficiente.
 
quei test non dicono niente che già non si sapeva, i giochi con RTX attivo generano più fps (grazie al piffero se raddoppi gli RT core), i programmi che non sfruttano int32, ora possono utilizzare quelle porzione anche per elaborare calcoli in FP32, raddoppiando così gli ipotetici CUDA cores, ma che in realtà se un programma sfrutta entrambe quelle istruzioni vengono dimezzati in base alla tipologia di calcoli richiesti

Turing aveva la capacità di eseguire FP32 e INT insieme, Pascal e le precedenti no: quindi diciamo che un cuda Ampere è pari a un cuda Pascal con buona approssimazione (in realtà cambia che non tutti i cuda ampere possono eseguire un INT, ma non è un caso d'uso tipico).

Ma si è capito se la RTX3070 avrà VRAM da 14 o da 16Gbps? Perché cambia un po' la situazione...
 
Turing aveva la capacità di eseguire FP32 e INT insieme, Pascal e le precedenti no: quindi diciamo che un cuda Ampere è pari a un cuda Pascal con buona approssimazione (in realtà cambia che non tutti i cuda ampere possono eseguire un INT, ma non è un caso d'uso tipico).

Ma si è capito se la RTX3070 avrà VRAM da 14 o da 16Gbps? Perché cambia un po' la situazione...

Le vrma avranno 14 Gbps come clock.

Il lancio previsto sarà per il 15 ottobre
 
Pubblicità
Pubblicità
Indietro
Top