• La sezione "Build Gaming" è soggetto a regolamento interno. Chiediamo di prendere visione prima di aprire una discussione.

Build in sostituzione console

Pubblicità
Guarda che come tecnologie AMD mica è così indietro. è sul lato software che AMD non performa sul lato software. Però le sue schede nel tempo sono molto meglio della controparte Nvidia perché più performanti in senso assoluto

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
secondo me invece soio sono parecchio indietro, specie lato ray tracing e tutte le tecnologie accessorie

Però le sue schede nel tempo sono molto meglio della controparte Nvidia perché più performanti in senso assoluto
questa frase non l'ho capita, AMD attualmente riesce a stare al passo solo sul lato rasterizzazione, e dal lancio delle RTX 4000 nemmeno tanto più su quello se andiamo a vedere di fatto non vendono e i prezzi delle schede AMd sono crollati

Ray teacing stanno enormemente indietro, lato scaler FSR è piuttosto inferiore al DLSS sia come rendimento che come performance, lato drivber sono nettamente meno affidabili, anche se sono migliorati, comunque non sono al livello di nvidia.

Pioi ci sta il DLSS 3 che è una feature decisamente killer e ancora non hanno cacciato nulla in grado di contrastarlo

Lato streaming e registrazione AMD è mooolto indietro ( e sono buono) e sono molto indietro anche per tutto quello che riguarda il supporto per creazione di contenuti ed al livello professioanle
 
Intendo dire che il loro hardware nella fascia main stream è più duraturo, la rx580 aveva un bus da 256 e 8g di RAM...7 anni fa ...proprio perché sul lato software (driver acerbi e tutta la pletora di upscaling vari) sono più carenti compensano corazza di meglio l'hardware, almeno fino alla serie 6000....ad oggi nessuna scheda con meno di 8giga di vram potrebbe mai essere future proof per il 1440

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
 
Intendo dire che il loro hardware nella fascia main stream è più duraturo, la rx580 aveva un bus da 256 e 8g di RAM...7 anni fa ...proprio perché sul lato software (driver acerbi e tutta la pletora di upscaling vari) sono più carenti compensano corazza di meglio l'hardware, almeno fino alla serie 6000....ad oggi nessuna scheda con meno di 8giga di vram potrebbe mai essere future proof per il 1440

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
Sulla quantità di vram ti posso dare ragione ma ha tutto il resto carente. Il fatto che nVidia se la goda riuscendo persino a fare una serie, oggettivamente, pessima (non tecnologicamente che sono delle cose assurde) e con castrazioni sotto tutti i punti di vista: è un altro fatto oggettivo di quanto Amd stia lasciando tutto in mano a nVidia.

Poi, certo, se riesci a trovare una serie 6000 a molto meno potrebbe valere l'acquisto.... ma qui dipende sempre da persona a persona. Personalmente, se trovassi una 6800 xt a meno di 500 euro, probabilmente, ignorerei bellamente la 4070 ma solo perché avrei le stesse prestazioni in raster (o forse qualcosina in più), più vram a -200 e più euro. Ovviamente: facendo una cosa del genere bisogna mettere in conto anche i contro e capire che in futuro non si avranno diverse feature e tecnologie a disposizione.
 
Intendo dire che il loro hardware nella fascia main stream è più duraturo, la rx580 aveva un bus da 256 e 8g di RAM...7 anni fa ...proprio perché sul lato software (driver acerbi e tutta la pletora di upscaling vari) sono più carenti compensano corazza di meglio l'hardware, almeno fino alla serie 6000....ad oggi nessuna scheda con meno di 8giga di vram potrebbe mai essere future proof per il 1440

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk


LA 580 8Gb è stata una scheda esattamente conma la 4060 16GB in cui il quantitativo di VRAM non ]è servito ad un bel nulla in quanto il chip grafico è un chip poco potente adato solo al full hd quindni gli 8GB si memoria non sono mai serviti cosi come non serviranno mai a chi prenderà la 4060 ti 16GB credendo che servono a qualcosa

Seconda cosa il famoso "bus" della 580 a 256 bit GDDR5 corrisponde esattamente al bus GDDR6 a 128 bit di fatto tutti e due danno un bandwith simile.

Sulla memoria video ci sta una DISINFORMAZIONE ENORME, la memoria video serve a una cosa soltanto, elaborare le texture.
AMD usa il quantitativo maggiore di memoria video ( da sempre) come marketing e come unico "cavallo di battaglia" per spingere l'utenza a comprare le loro schede, davvero debole come strategia!

Strategia che poi AMD è stata pronta a rimangiarsi immediatamente in tempi di crisi cacciando roba come la 6500XT

Le schede AMd non durano affatto di "piu" perchè non è la memoria video che fa la longevità di una scheda ma il chip grafico.

in linea generale AMD ha fatto passi in avanti rispetto al passato riguardo alla stabilità dei driver, ma Nvidia non detiene l'80% del mercato perchè le persone sono contente di cacciare più soldi per avere poi schede che "durano meno", la realtà è che AMD è oggettivamente indietro, lo è da semrpe anche se co durante il periodo in cui ha cacciatio le RX 6000 grazie anche e soprattutto al nodo TMSC sembrava recuperasse terreno, n0on ha spauto approfittare affatto delle buone occasioni che le sono state concesse da Nvidia
 
Ultima modifica:
LA 580 8Gb è stata una scheda esattamente conma la 4060 16GB in cui il quantitativo di VRAM non ]è servito ad un bel nulla in quanto il chip grafico è un chip poco potente adato solo al full hd quindni gli 8GB si memoria non sono mai serviti cosi come non serviranno mai a chi prenderà la 4060 ti 16GB credendo che servono a qualcosa

Seconda cosa il famoso "bus" della 580 a 256 bit GDDR5 corrisponde esattamente al bus GDDR6 a 128 bit di fatto tutti e due danno un bandwith simile.

Sulla memoria video ci sta una DISINFORMAZIONE ENORME, la memoria video serve a una cosa soltanto, elaborare le texture.
AMD usa il quantitativo maggiore di memoria video ( da sempre) come marketing e come unico "cavallo di battaglia" per spingere l'utenza a comprare le loro schede, davvero debole come strategia!

Strategia che poi AMD è stata pronta a rimangiarsi immediatamente in tempi di crisi cacciando roba come la 6500XT

Le schede AMd non durano affatto di "piu" perchè non è la memoria video che fa la longevità di una scheda ma il chip grafico.

in linea generale AMD ha fatto passi in avanti rispetto al passato riguardo alla stabilità dei driver, ma Nvidia non detiene l'80% del mercato perchè le persone sono contente di cacciare più soldi per avere poi schede che "durano meno", la realtà è che AMD è oggettivamente indietro, lo è da semrpe anche se co durante il periodo in cui ha cacciatio le RX 6000 grazie anche e soprattutto al nodo TMSC sembrava recuperasse terreno, n0on ha spauto approfittare affatto delle buone occasioni che le sono state concesse da Nvidia
Per me: il discorso sulla vram è un po' come quando, molti anni fa, si diceva: "eh ma amd ha 8 core e intel 4" però quei 8 core erano del tutto inutili nel gaming e i processori in se andavano nettamente meno.
 
Per me: il discorso sulla vram è un po' come quando, molti anni fa, si diceva: "eh ma amd ha 8 core e intel 4" però quei 8 core erano del tutto inutili nel gaming e i processori in se andavano nettamente meno.
In tutta la mia vita non ho mai visto una shceda video giungere a fine vita perchè a poca VRAM magari al massimo in qualche gioco male ottimizzato ha portato a fare abbassare il livello di texture, ma si tratta di situazioni che si contano sulle punta delle dita.

Oltretutto poi Nvidia ha una gestione e algoritmi di compressioen delle texture che sono più evolute e ci sono anche nuovi algoritmi che permetterebbero un opccupazioen della VRAM nettamente inferiore


A me Nvidia sta simpatica come una suocera incazzata perchè hai tradito la figlia, ma in campo grafico sta avanti a tutti e di un bel pò e non è una cosa relativa ad un solo ambito loro dettano proprio le innovazioni attualmente e gli altri purtroppo inseguono
 
In tutta la mia vita non ho mai visto una shceda video giungere a fine vita perchè a poca VRAM magari al massimo in qualche gioco male ottimizzato ha portato a fare abbassare il livello di texture, ma si tratta di situazioni che si contano sulle punta delle dita.

Oltretutto poi Nvidia ha una gestione e algoritmi di compressioen delle texture che sono più evolute e ci sono anche nuovi algoritmi che permetterebbero un opccupazioen della VRAM nettamente inferiore


A me Nvidia sta simpatica come una suocera incazzata perchè hai tradito la figlia, ma in campo grafico sta avanti a tutti e di un bel pò e non è una cosa relativa ad un solo ambito loro dettano proprio le innovazioni attualmente e gli altri purtroppo inseguono
Ho visto anch'io dei test per la 4060 Ti e il risultato è come lo immaginavo... si, forse, qualche fps (tipo massimo 5) li guadagna ad alte risoluzioni ma li subentrano altri problemi.... ovvero: chip non all'altezza.
 
Ho visto anch'io dei test per la 4060 Ti e il risultato è come lo immaginavo... si, forse, qualche fps (tipo massimo 5) li guadagna ad alte risoluzioni ma li subentrano altri problemi.... ovvero: chip non all'altezza.
Le 4060 e la 4060 ti sono molto criticate per una ragione, in rasterizzazione havvo un avanzamento tecnologico minimo ( la 4060 ti è simile alla 3070)

La 4060 addirittura ci sono dei casi in cui è più lenta della vecchia 3060.

Il punto cruciale però è guardare le cose da una prospettiva diversa in quanto oggi come oggi non esiste più la rasterizzazione e Nvidia punta principalmente su Ray tracing E DLSS

Per quanto riguarda queste tecnologie sia la 4060 che la 4060 ti sono oggettivamente le schede che vanno meglio in quanto ovviamente il chip è le tecnologie che ci stanno dietro sono migliori

Ovviamente tutti avremmo voluto un avanzamento tecnologico come il passato, questo mi porta a sconsilgiare di comprare una RTX 4000 a chi possiede una RTx 3000 poichè sono schede ancora buone e non varrebbe la pena fare un upgrade simile se non proprio si ha la scimmia incallita e soldi da buttare

Ma per chi deve comprare una scheda ex novo o proviene da schede più "vecchie" come le RTX 2000, soluzioni come la 4060 o la 4060 ti secondo me sono da preferire rispetto alle RTX 3000, proprio perchè hanno una resa migliore al livello di ray tracing e DLSS ma soprattutto per via del DLSS 3 ed altere seppure piccole innovazioni che le nuove schede comportano.

Adesso per chi ha una RTX 3000 cambiare per avere il DLSS 3, una migliore efficienza energetiche e una versione dello streaming registrazioni leggermente migliore è chiaro che non ne varrebbe la pena, ma per chi ha bisogno di una scheda grafica sarebbe uno sbalgio rinunciare ad una tecnologia come il dlss 3 e tutto il resto
 
il discorso sulla scheda grafica lo capisco: se devo affrontare la spesa diciamo tra due ipotetiche schede dello stesso livello, è meglio spendere di più per avere features che mi garantiscono prestazioni migliori nell'immediato e più longevità della scheda
poi naturalmente va sempre fatto un discorso soggettivo sulle proprie esigenze però in linea generale concordo.

dove non ti seguo è sul processore
quando parli di longevità cosa intendi?
lasciamo da parte il discorso intel vs amd per evitare fraintendimenti

diciamo che devo scegliere tra un serie 11000 e un 13000

se parli di durata fisica diciamo che a parità di utilizzo tra 10/20 anni l'11000 morirà e il 13000 avrà un anno in più di vita. ok

se parli di sostenibilità dei giochi vedendo i requisiti consigliati di qualche gioco per le massime risoluzioni trovo serie tra 8000 e 10000 (starfield mi sembra 10600) quindi la longevità è relativa nel senso che potrei avere diciamo un anno in più a medio/lungo termine ma dovrei spendere diciamo il 15/20% in più per avere forse benefici nell'immediato nella stessa percentuale (poi è da verificare se su ogni gioco e in full hd) e forse un anno in più... non so se c'è tutta questa convenienza

se parli di aggiornabilità vedo ancora meno vantaggi, se li prendo oggi e volessi cambiarli tra 2/5/10 anni mi ritroverei nella stessa condizione ovvero dovrei cambiare tutto.

ora è chiaro che l' 11000 era un paradosso ma anche prendendo un 12000 non cambierebbe molto.

per riassumere non so quanto valga la pena spendere di più per avere forse un minimo di benefici nell'immediato ma nel medio lungo termine trovarsi nella stessa situazione.
 
se parli di durata fisica diciamo che a parità di utilizzo tra 10/20 anni l'11000 morirà e il 13000 avrà un anno in più di vita.
e parli di sostenibilità dei giochi vedendo i requisiti consigliati di qualche gioco per le massime risoluzioni trovo serie tra 8000 e 10000 (starfield mi sembra 10600) quindi la longevità è relativa nel senso che potrei avere diciamo un anno in più a medio/lungo termine ma dovrei spendere diciamo il 15/20% in più per avere forse benefici nell'immediato nella stessa percentuale (poi è da verificare se su ogni gioco e in full hd) e forse un anno in più... non so se c'è tutta questa convenienza

Nom èujn anno di vita melgio come ho già detto non eisste una risposta perchè dipende da cosa una cerca ma comuqnue un processore più recente offre più "vita" di uno di 2 anni fa.

Da qualsiais punto di vista per quello che riguarda i giochi è possibole che questo si noti meno, ma fa anche qui la differenza poi se vuoi risparmiare e mettere un 5600x va bene ma si tratta di un processore che ormai non mette più quasi nessuno
 
Le 4060 e la 4060 ti sono molto criticate per una ragione, in rasterizzazione havvo un avanzamento tecnologico minimo ( la 4060 ti è simile alla 3070)

La 4060 addirittura ci sono dei casi in cui è più lenta della vecchia 3060.

Il punto cruciale però è guardare le cose da una prospettiva diversa in quanto oggi come oggi non esiste più la rasterizzazione e Nvidia punta principalmente su Ray tracing E DLSS

Per quanto riguarda queste tecnologie sia la 4060 che la 4060 ti sono oggettivamente le schede che vanno meglio in quanto ovviamente il chip è le tecnologie che ci stanno dietro sono migliori

Ovviamente tutti avremmo voluto un avanzamento tecnologico come il passato, questo mi porta a sconsilgiare di comprare una RTX 4000 a chi possiede una RTx 3000 poichè sono schede ancora buone e non varrebbe la pena fare un upgrade simile se non proprio si ha la scimmia incallita e soldi da buttare

Ma per chi deve comprare una scheda ex novo o proviene da schede più "vecchie" come le RTX 2000, soluzioni come la 4060 o la 4060 ti secondo me sono da preferire rispetto alle RTX 3000, proprio perchè hanno una resa migliore al livello di ray tracing e DLSS ma soprattutto per via del DLSS 3 ed altere seppure piccole innovazioni che le nuove schede comportano.

Adesso per chi ha una RTX 3000 cambiare per avere il DLSS 3, una migliore efficienza energetiche e una versione dello streaming registrazioni leggermente migliore è chiaro che non ne varrebbe la pena, ma per chi ha bisogno di una scheda grafica sarebbe uno sbalgio rinunciare ad una tecnologia come il dlss 3 e tutto il resto
Sto seguendo tutta la discussione, perché se la 4060ti si equivale alla 3070 è sconsigliata per il QHD? Io mi trovo proprio nella situazione che hai detto, ho una serie 2000 e non so che fare, vado solo di console (che ho già) oppure gli affianco una 4000 ? Ho molti giochi su PC ancora da giocare e da concludere mentre sulla console ho solo 3 titoli ed il PC lo uso anche per altre cose

Inviato dal mio RMX3151 utilizzando Tapatalk
 
Sto seguendo tutta la discussione, perché se la 4060ti si equivale alla 3070 è sconsigliata per il QHD? Io mi trovo proprio nella situazione che hai detto, ho una serie 2000 e non so che fare, vado solo di console (che ho già) oppure gli affianco una 4000 ? Ho molti giochi su PC ancora da giocare e da concludere mentre sulla console ho solo 3 titoli ed il PC lo uso anche per altre cose

Inviato dal mio RMX3151 utilizzando Tapatalk
La 4060Ti è simile alla 3070 ma allo stesso tempo anche simile alla 3060Ti.

Il problema di comprare una 4060 è un altro, secondo me. Sinceramente: non posso tollerare né vedere delle GPU nuove sui 450+ euro, appena uscite, che non reggono i 60fps nemmeno in giochi usciti qualche anno fa.

La 4060 e 4060 Ti non sono da considerare in nessun modo, per me. Piuttosto aggiungi qualche euro e ti prendi una 4070 o punti a qualche serie 6000 di AMD ben scontata (ovviamente considerando di perdere le features tecnologiche di nVidia).

Ho visto che alcuni si sono comprati la versione da 16gb della 4060Ti... ma a quel prezzo ti prendi una 6800 XT che va, in raster, decisamente di più, hai 12gb di vram (se non erro) che può essere meglio sfruttata dal chip al contrario della 4060 Ti che non riesce per nulla a sfruttare quei 16gb.
 
Sto seguendo tutta la discussione, perché se la 4060ti si equivale alla 3070 è sconsigliata per il QHD? Io mi trovo proprio nella situazione che hai detto, ho una serie 2000 e non so che fare, vado solo di console (che ho già) oppure gli affianco una 4000 ? Ho molti giochi su PC ancora da giocare e da concludere mentre sulla console ho solo 3 titoli ed il PC lo uso anche per altre cose

Inviato dal mio RMX3151 utilizzando Tapatalk

La 3070 è una scheda che era consigliata comprarla per QHD 3 anni fa quando uscì oggi non è più da considerarsi una scheda per il QHD cosi coem schede del passato venivano considerate schede adatte a risoluzioni superiori.

La tecnologa avanza e anche se schede come la 3070 e anche la 4060 ti reggono i giochi in commercio per il QHD dovranno avere dei compromessi per i giochi più pesanti che usciranno per la VRAM installata.

Tra una 3070 e uina 4060 ti secondo me non vi è dubbio sul fatto di preferire la seconda in ogni caso, perchè la scheda ha delle tecnologie che la 3070 non ha, un efficienza energetica decisamente superiore, il vantaggio del DLSS 3, il nodo TMSC che è enttamente milgiore di quello samsung euna milgiroe gestioen dello streaming e della registrazione

In raster si pareggiano
 
La 4060Ti è simile alla 3070 ma allo stesso tempo anche simile alla 3060Ti.

Il problema di comprare una 4060 è un altro, secondo me. Sinceramente: non posso tollerare né vedere delle GPU nuove sui 450+ euro, appena uscite, che non reggono i 60fps nemmeno in giochi usciti qualche anno fa.

La 4060 e 4060 Ti non sono da considerare in nessun modo, per me. Piuttosto aggiungi qualche euro e ti prendi una 4070 o punti a qualche serie 6000 di AMD ben scontata (ovviamente considerando di perdere le features tecnologiche di nVidia).

Ho visto che alcuni si sono comprati la versione da 16gb della 4060Ti... ma a quel prezzo ti prendi una 6800 XT che va, in raster, decisamente di più, hai 12gb di vram (se non erro) che può essere meglio sfruttata dal chip al contrario della 4060 Ti che non riesce per nulla a sfruttare quei 16gb.
le rTx 6000 secondo me oggi sono da evitare cosi come la 4060 ti 16GB
 
Pubblicità
Pubblicità
Indietro
Top