Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
Ragazzi ma voi col gruppo Telegram PartAlert ne avete beccata qualcuna di RTX 30xx? Io ci sono dentro da settimane ed arrivano notifiche ogni minuto quasi ma quando vado ad aprire il link, anche immediatamente, sono già finite.
Come sostenevo tempo fa,ecco la fascia media della serie 30" e in quanto fascia media "loro" la prezzano a 330 dollari che è un prezzo onesto (ma che a causa del coronavirus e dei ritardi nella produzione/distribuzione non vedremo per mesi)per una fascia media.Sempre per chi sostiene la teoria che la fascia media odierna sia sulle 450 euro.La tecnologia quando si evolve costa meno,non di più.
Chiedo qua ma sono sicuro che ci sono posti più corretti dove porre la domanda (la sezione GPU? monitor?). Ho appena ripetuto il benchmark Unigine Superposition sulla build che ho appena completato. Ho ottenuto 7052 punti (DirectX,1080p Extreme) mentre al giro precedente, appena completata la build ne avevo fatti molti meno (6629), cioè chiaramente fuori dalla pura fluttuazione statistica da "errore di misura".
La differenza è che questa run io l'ho effettuata con Gsync off, mentre nella precedente avevo Gsync attivo. Ovviamente sto cercando di capire se davvero sia questa l'unica differenza, ma questa mi balza all'occhio nell'immediato.
Ha un qualche senso? intendo dire, il Gsync on/off può avere impatto sulla performance di una GPU?
Come sostenevo tempo fa,ecco la fascia media della serie 30" e in quanto fascia media "loro" la prezzano a 330 dollari che è un prezzo onesto (ma che a causa del coronavirus e dei ritardi nella produzione/distribuzione non vedremo per mesi)per una fascia media.Sempre per chi sostiene la teoria che la fascia media odierna sia sulle 450 euro.La tecnologia quando si evolve costa meno,non di più.
Chiedo qua ma sono sicuro che ci sono posti più corretti dove porre la domanda (la sezione GPU? monitor?). Ho appena ripetuto il benchmark Unigine Superposition sulla build che ho appena completato. Ho ottenuto 7052 punti (DirectX,1080p Extreme) mentre al giro precedente, appena completata la build ne avevo fatti molti meno (6629), cioè chiaramente fuori dalla pura fluttuazione statistica da "errore di misura".
La differenza è che questa run io l'ho effettuata con Gsync off, mentre nella precedente avevo Gsync attivo. Ovviamente sto cercando di capire se davvero sia questa l'unica differenza, ma questa mi balza all'occhio nell'immediato.
Ha un qualche senso? intendo dire, il Gsync on/off può avere impatto sulla performance di una GPU?
Il gsync nei benchmark va disattivato perché limita il frame rate al massimo che il tuo monitor può visualizzare. Teoricamente se il benchmark fosse molto pesante, non avresti differenze (timespy ad esempio). Ma in quel benchmark evidentemente ci sono momenti in cui la VGA potrebbe andare più veloce
Su una 3060 sono inutili perché per usare effettivamente quella VRAM sei alto di risoluzione con il mondo attivo, ma la scheda non riuscirebbe a gestirla in termini di potenza...Solo marketing concordo...
Inviato dal mio iPhone utilizzando Toms Hardware Italia Forum
Su una 3060 sono inutili perché per usare effettivamente quella VRAM sei alto di risoluzione con il mondo attivo, ma la scheda non riuscirebbe a gestirla in termini di potenza...Solo marketing concordo...
Inviato dal mio iPhone utilizzando Toms Hardware Italia Forum
12gb di vram non servono.
Per me gli 8 della 3070 sono sufficienti.
Come diceva Crime è solo marketing.
Ho una 1060 aorus con 6gb di ram. Secondo voi serve a qualcosa?
Naaa.
dimmi in che gioco la 970 è arrivata a collo di bottiglia per la VRAM e non perchè troppo debole per il gioco stesso
l'ho avuta (e la ho tutt'ora) e conosco bene i limiti di quella scheda
come la mia attuale 1070, mai superato i 5/6GB ma il suo limite è la potenza stessa ormai insufficiente, non la VRAM
Ma che discorso è scusa,avrei avuto torto nel momento in cui loro mi dicono che il prezzo di vendita è 450 euro. Costerà 430 (stai facendo tu una tua previsione su non so quali dati) per un po di mesi perchè c'e' il coronavirus che in un'equazione statistico matematica è una variabile direi significativa per usare un eufemismo.
Che significa costerà 430 e hai torto,costerà 430 (forse) così come momentaneamente costava 5 euro un pacco di lievito o 10 euro un boccione di amuchina,mica significa che quei prezzi sono quelli reali e non significa che saranno perduranti,anzi pima o poi tutto tornerà al loro legittimo prezzo.
Il prezzo di riferimento di una scheda di fascia media è di 330 dollari,lo dice Nvidia mica io.
Ma che discorso è scusa,avrei avuto torto nel momento in cui loro mi dicono che il prezzo di vendita è 450 euro. Costerà 430 (stai facendo tu una tua previsione su non so quali dati) per un po di mesi perchè c'e' il coronavirus che in un'equazione statistico matematica è una variabile direi significativa per usare un eufemismo.
Che significa costerà 430 e hai torto,costerà 430 (forse) così come momentaneamente costava 5 euro un pacco di lievito o 10 euro un boccione di amuchina,mica significa che quei prezzi sono quelli reali e non significa che saranno perduranti,anzi pima o poi tutto tornerà al loro legittimo prezzo.
Il prezzo di riferimento di una scheda di fascia media è di 330 dollari,lo dice Nvidia mica io.
Prezzo di riferimento vuole dire che si parte da quel valore e si arriva a......chissà quanto.
Scommetto 100 euro che quelle schede toccheranno le 500 euro (se va bene) visto che saranno ancora più popolari delle 3070/3080
Ma che discorso è scusa,avrei avuto torto nel momento in cui loro mi dicono che il prezzo di vendita è 450 euro. Costerà 430 (stai facendo tu una tua previsione su non so quali dati) per un po di mesi perchè c'e' il coronavirus che in un'equazione statistico matematica è una variabile direi significativa per usare un eufemismo.
Che significa costerà 430 e hai torto,costerà 430 (forse) così come momentaneamente costava 5 euro un pacco di lievito o 10 euro un boccione di amuchina,mica significa che quei prezzi sono quelli reali e non significa che saranno perduranti,anzi pima o poi tutto tornerà al loro legittimo prezzo.
Il prezzo di riferimento di una scheda di fascia media è di 330 dollari,lo dice Nvidia mica io.
No, Nvidia dice che la SUA 3060 Founder Edition costerà $330 in USA, e senza VAT.
Peccato che fuori dagli USA la FE non si troverà e che le AIB costeranno tutte sopra i 400€...
La mia non è una previsione, bensì una constatazione basata su quanto accaduto con le precedenti SKU Nvidia (ed AMD...).
L'MSRP è un enorme presa per i fondelli alla quale evidentemente tu hai abboccato in pieno...
Peraltro dal 1 gennaio ogni bene prodotto in Cina è soggetto ad una soprattassa, per la quale sono finite le deroghe, che hanno portato TUTTI i produttori ad alzare il prezzo finale di ogni cosa, specialmente mobo e schede video.
L'unica speranza è che Biden tolga questi dazi, ma poi sarei curioso di sapere se Asus e compagnia bella ri-abbasserebbero i prezzi (perché ad alzarli sono velocissimi, ma poi a tornare indietro con merce che vende come il pane li voglio proprio vedere).
Prezzo di riferimento vuole dire che si parte da quel valore e si arriva a......chissà quanto.
Scommetto 100 euro che quelle schede toccheranno le 500 euro (se va bene) visto che saranno ancora più popolari delle 3070/3080
occhio però che il marketing c'entra fino ad un certo punto.
Con il bus usato sulla 3060 avrebbero dovuto scegliere tra 6 Gb e 12 Gb.
6 Gb sono decisamente pochi, da qui la scelta dei 12 Gb.
Il vero punto dolente sono gli 8 Gb della 3070, ma anche qui con il bus a 256 bit la scelta sarebbe stata tra 8 e 16 Gb di VRAM, ed Nvidia ha fatto la scelta "pulciara" per aver modo poi di inserire le 3070 Super in futuro (idem per le 3080 a 20 Gb).
dimmi in che gioco la 970 è arrivata a collo di bottiglia per la VRAM e non perchè troppo debole per il gioco stesso
l'ho avuta (e la ho tutt'ora) e conosco bene i limiti di quella scheda
come la mia attuale 1070, mai superato i 5/6GB ma il suo limite è la potenza stessa ormai insufficiente, non la VRAM
Nei due giochi che ho citato, Rise of the Tomb Raider e Resident Evil 2 Remake, con la 1060 6GB ho stutter con le textures al massimo, e nelle impostazioni grafiche c'è l'indicatore dell'utilizzo di VRAM previsto, che eccede i 6 GB. Gioco in 1440p, che è il target di 3060 e 3070.