UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Tralasciando quelli appena usciti, che devo recuperare tutti e che richiedono molta vRam:

-)
IN ARRIVO)
-)
-)
-)
-)
-) Poi sicuramente ci saranno altri Port Sony quest'anno, sicuramente HFW
Non sono sicuro al 100% ma di tutti questi titoli solo Starfield sarà veramente next gen , cyberpunk e alan wake 2 non li definirei next gen, felice di essere smentito
 
Non sono sicuro al 100% ma di tutti questi titoli solo Starfield sarà veramente next gen , cyberpunk e alan wake 2 non li definirei next gen, felice di essere smentito
infattoi ed è anche il motivo del mio commento

Su starfield siamo abbastanza sicuri che non sarà cosi pesante, visto che deve girare bene su xbox X/S

Alan wake è un motore grafico proprietario di remedy, forza motorsport è sicuramente un bel gioco ma girerà bene in tutti i sistemi in quanto titolo molto commerciale, oltretutto anche questo dovrà girare a 120 fps su xbox,.

La versione di CP è senza commento in quanto è la stessa versione con l'applicazione del patch tracing cosa fatta a uno scopo commerciale e di marketing e non per girare bene sui sistemi attuali

Se i giochi che escono sono cosi staremmo bene con le nostre schede per i prossimi 200 anni altro che next gen
 
Ultima modifica:
Certo che però è triste essere arrivati come progresso tecnologico alla 4090 e non avere titoli che la sfruttino a pieno (se non per la male ottimizzazione ma quello non è sfruttare).

È un po' come avere una Ferrari e soltanto un viottolo di campagna per correrci 😔

Cioè in 1440p è una scheda da 200 fps di media. È evidente che c'è un mare di potenza sprecata per inutili fps che se venisse usata intelligentemente potrebbe portare a qualità grafiche impensabili.

Chissà quando verrà fuori il prossimo rdr2 capace di sfruttare anche le schede top di gamma del momento, e non per inutili fps sopra i 100 o per cattive ottimizzazioni 🤔
E' quello che sto dicendo da un pò di tempo, mancano i giochi......ed in sviluppo non ci sta assolutamente nulla di davvero serio in grado non di giustificare l acquisto delle 4000, ma proprio in generale!
 
Certo che però è triste essere arrivati come progresso tecnologico alla 4090 e non avere titoli che la sfruttino a pieno (se non per la male ottimizzazione ma quello non è sfruttare).

È un po' come avere una Ferrari e soltanto un viottolo di campagna per correrci 😔

Cioè in 1440p è una scheda da 200 fps di media. È evidente che c'è un mare di potenza sprecata per inutili fps che se venisse usata intelligentemente potrebbe portare a qualità grafiche impensabili.

Chissà quando verrà fuori il prossimo rdr2 capace di sfruttare anche le schede top di gamma del momento, e non per inutili fps sopra i 100 o per cattive ottimizzazioni 🤔
È in arrivo la versione overdrive di CB2077, e penso che anche Alan Wake II la sfrutterà per bene la 4090, parlo sempre di giochi moderni e non di inutili confronti con roba del 2018, ma si, in generale le console frenano l'avanzamento nella grafica, c'è bisogno di partership nVidia o di privati come Epic che sviluppino a dovere engine massicci come lo è UE5, ecco, quest'ultimo quando sarà diffuso inchioderà tutte le gpu attualmente in commercio, ad eccezione della Regina, ma c'è sempre TSR, perché spendere 1500 euro e poi giocare con il penoso upscaler, è stupendoh.
Il vero problema riguarda le cpu e l'overhead delle gpu nVidia sulla cpu, e Lovelace sembra esser ancor peggior di Ampere in riguardo al carico sulla cpu, oggi nessuna cpu tiene testa alla 4090, neanche il 7800x3d, che con i suoi vergognosi otto core costa €550, io mi vedo più in difficoltà sulla scelta della cpu che non per altro, cercherò di tamponare per fine estate con un 7800X3D fino a Zen5, dato che €550 per un otto cores non glieli do.
--- i due messaggi sono stati uniti ---
Non sono sicuro al 100% ma di tutti questi titoli solo Starfield sarà veramente next gen , cyberpunk e alan wake 2 non li definirei next gen, felice di essere smentito
In realtà il titolo che più risulta essere indietro tecnicamente è proprio Starfield, e lo si può vedere dal trailer gameplay.
Remedy è maestra nella gestione delle luci e della fisica, cb2077 ha un livello tecnico impressionante, Starfield sembra avere assets del 2016 per non parlare delle animazioni viste nel trailer, e fidati, su questo non mi sbaglio ;)
 
Ultima modifica:
È in arrivo la versione overdrive di CB2077, e penso che anche Alan Wake II la sfrutterà per bene la 4090, parlo sempre di giochi moderni e non di inutili confronti con roba del 2018, ma si, in generale le console frenano l'avanzamento nella grafica, c'è bisogno di partership nVidia o di privati come Epic che sviluppino a dovere engine massicci come lo è UE5, ecco, quest'ultimo quando sarà diffuso inchioderà tutte le gpu attualmente in commercio, ad eccezione della Regina, ma c'è sempre TSR, perché spendere 1500 euro e poi giocare con il penoso upscaler, è stupendoh.
Il vero problema riguarda le cpu e l'overhead delle gpu nVidia sulla cpu, e Lovelace sembra esser ancor peggior di Ampere in riguardo al carico sulla cpu, oggi nessuna cpu tiene testa alla 4090, neanche il 7800x3d, che con i suoi vergognosi otto core costa €550, io mi vedo più in difficoltà sulla scelta della cpu che non per altro, cercherò di tamponare per fine estate con un 7800X3D fino a Zen5, dato che €550 per un otto cores non glieli do.
--- i due messaggi sono stati uniti ---

In realtà il titolo che più risulta essere indietro tecnicamente è proprio Starfield, e lo si può vedere dal trailer gameplay.
Remedy è maestra nella gestione delle luci e della fisica, cb2077 ha un livello tecnico impressionante, Starfield sembra avere assets del 2016 per non parlare delle animazioni viste nel trailer, e fidati, su questo non mi sbaglio ;)
Abbiamo idee completamente diverse, cb è un accozzaglia per me, un gioco iniziato a sviluppare con le dx11 poi rappezzato con le dx12 per metterci RT , facendo in parte il giochetto fatto con Control, rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare ma gestito molto male. Pozzanghere e nebbia perenne non significa fare RT.

Dimenticavo Nvidia deve far scomparire software scheduler, e rimettere quello hardware altrimenti sarà sempre peggio
 
Abbiamo idee completamente diverse, cb è un accozzaglia per me, un gioco iniziato a sviluppare con le dx11 poi rappezzato con le dx12 per metterci RT , facendo in parte il giochetto fatto con Control, rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare ma gestito molto male. Pozzanghere e nebbia perenne non significa fare RT.

Dimenticavo Nvidia deve far scomparire software scheduler, e rimettere quello hardware altrimenti sarà sempre peggio
A lui piacciono le accozzaglie 😂
Sono pienamente d'accordo con te su Cyberpunk 2077.
 
Abbiamo idee completamente diverse, cb è un accozzaglia per me, un gioco iniziato a sviluppare con le dx11 poi rappezzato con le dx12 per metterci RT , facendo in parte il giochetto fatto con Control, rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare ma gestito molto male. Pozzanghere e nebbia perenne non significa fare RT.

Dimenticavo Nvidia deve far scomparire software scheduler, e rimettere quello hardware altrimenti sarà sempre peggio

Capisco, meglio questo, Starfield:
1680906125123.jpeg

Vorresti confrontarlo con il livello tecnico di cb2077, dai:

1680906426532.jpeg

#Starfield2023BornIn2014
 
Ultima modifica:
rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare
Da incorniciare!

Il raster da solo produce giochi come RDR2 (con molti anni sulle spalle tra l altro).
Basta guardare come è gestita l'illuminazione di quel gioco per capire che senza azzoppare il raster non implementandolo a dovere, il Ray tracing non potrebbe fare così bella figura.

Di nuovo, è l implementazione il problema, si torna sempre lì, alle case produttrici che pubblicano prodotti indegni.

in sviluppo non ci sta assolutamente nulla
Avevo visto qualcosa su gta VI mesi fa. Non so se sta per uscire ma di sicuro dovrebbe essere almeno in sviluppo (segreto).
Forse non è un titolo dove si punta sulla grafica (ma magari si) però è pur sempre rockstar (produttrice di rdr2) 🤔
 
Capisco, meglio questo, Starfield:
Visualizza allegato 457167

Vorresti confrontarlo con il livello tecnico di cb2077, dai:

Visualizza allegato 457168

#Starfield2023BornIn2014
ma il punto non è starfliel o non starfield ti avevano chiesto quali sono questi giochi "next gen" che dovrebbero mettere alla berlina tutte quelle schede che hanno 8gB di Vram

Starfiled NO
FH dovrà girare su xbox s/s
Alan Wake è un engine vecchietto proprietario cross gen
CP PTX ma al momento è solo una marchetta "dimostrativa"

Altro?

Dove stanno ste "bombe"

La tech demo più avanzata al momento è MATRIX Awekwens, che gira su ps5, xbox series X a 4k 60 fps
 
Ultima modifica:
Ragazzi però una appunto, alla fase iniziale del lancio delle serie 4000 il DLSS3 era sciocco menzionarlo come una cosa che faceva grande differenza in quanto la situazione era che ce l'avevano due giochi. Oggi invece la situazione è molto diversa, ad ogni driver nuovo Nvidia fornisce la compatibilità DLSS3 con mucchi di giochi, attualmente ce l'hanno parecchi titoli (l'hanno implementata in quasi tutti i nuovi giochi di certo peso usciti negli ultimi tempi e se non l'hanno fatto è questione di qualche update. Hanno messo il supporto DLSS3 persino su Diablo 4) e non può più non essere preso in considerazione nella valutazione di queste schede. Nei benchmarks ci sta che si testi la forza bruta delle schede video, però chi visiona questi benchmarks e vede 40 o 50 fps in 4k, sta vedendo la situazione che molto probabilmente la scheda avrebbe DLSS OFF, ancor di più su giochi che ancora necessitano di patch. Ok, la forza bruta è importante in fase di benchmarks ma non dimentichiamoci che oggi la IA e DLSS3 è presente in tanti di quei giochi, anche menzionati nei benchmarks, che in 4k permetterebbero un framerate ben maggiore rispetto a quello con DLSS OFF che si vede nei benchmarks. Non confondete questi benchmarks dove la 4070 ti scende sotto i 60 come la situazione in cui uno andrebbe a trovarsi perchè gli basterebbe attivare il DLSS 2.0 o ancora più drasticamente il DLSS3 che il framerate gli schizza comunque ben più in alto di quelle cifre nei benchmarks. Poi ci mancherebbe, uno può pure scegliere di giocare a DLSS OFF, però se lo fa in 4k su certi giochi pesanti con una 4070ti che è una scheda che va alla grande in 4k su tanti giochi ma è pensata più per il 1440p, se le va a cercare anche un pò lui.

Oggi, con tutti questi mucchi di giochi che hanno il supporto a DLSS3, è una feature che non va più messa in un angolino, è una realtà presente in molti giochi (anche in HL, dove con una CPU limitata da aggiornare ci sparo in 1440p 130 fps e parlo di quando ancora non era stato ottimizzato "per bene", anche un paio di patch fa e senza fix vari). Facciamo attenzione quando riportiamo i benchmarks perchè appunto sono a DLSS OFF e chi gioca a DLSS OFF in 4k con una 4070ti, o il gioco è molto ben ottimizzato, ma se è pesante e mal ottimizzato, AVENDO delle feature che aumentano il framerate ma non facendolo è solo lui che se le va a cercare.

Ormai la IA è entrata a pieno titolo nel gaming, non la si può ignorare più, può piacere o non piacere ma non può più essere ignorata, va considerata quando si parla delle performance in game, basare la propria opinione su benchmarks che fanno figurare l'average framerate su giochi pesanti perchè mal ottimizzati (anche gravemente mal ottimizzati) a DLSS OFF è oggi molto limitante e anche fuorviante rispetto a quello che certe schede potrebbero fare sfruttando il DLSS e il DLSS3, che fa una grande differenza a livello di framerate.
 
Ultima modifica:
rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare ma gestito molto male. Pozzanghere e nebbia perenne non significa fare RT.
Da incorniciare!

Il raster da solo produce giochi come RDR2 (con molti anni sulle spalle tra l altro).
Basta guardare come è gestita l'illuminazione di quel gioco per capire che senza azzoppare il raster non implementandolo a dovere, il Ray tracing non potrebbe fare così bella figura.

Di nuovo, è l implementazione il problema, si torna sempre lì, alle case produttrici che pubblicano prodotti indegni.

Premesso che io forse ormai sono vecchio e glionito rinco 😅 Però a me sempre più spesso, e da diverso tempo, ogni volta che vedo i confronti (anche ufficiali NVIDIA) tra versione raster e versione ray-tracing, a me sembra migliore la "vecchia" versione raster. Se proprio devo essere sincero, il ray-tracing a me sembra che in qualche modo snaturi la qualità della renderizzazione. A parte la follia di inserire pioggia battente persino nel deserto, o di inserire corridoio pieni di specchi inutili, pur di enfatizzare il RT, ma è proprio la qualità finale dell'immagine che mi sembra peggiorare.

Poi dal punto di vista prettamente tecnico il lavoro ingegneristico di NVIDIA per implementare il ray-tracing è stato indiscutibilmente geniale (vedi video sotto)! In ogni caso rimango dell'opinione che la potenza di calcolo impiegata per il RT sia troppo elevata(/costosa) per il risultato finale ottenuto sulla visualizzazione finale ... che come ho detto a me non fa impazzire (IMHO ovviamente)

 
ma il punto non è starfliel o non starfield ti avevano chiesto quali sono questi giochi "next gen" che dovrebbero mettere alla berlina tutte quelle schede che hanno 8gB di Vram

Starfiled NO
FH dovrà girare su xbox s/s
Alan Wake è un engine vecchietto proprietario cross gen
CP PTX ma al momento è solo una marchetta "dimostrativa"

Altro?

Dove stanno ste "bombe"

La tech demo più avanzata al momento è MATRIX Awekwens, che gira su ps5, xbox series X a 4k 60 fps
Ma infatti io ancora sto aspettando che lui elenchi questi titoli next gen usciti e in uscita.
Io sto aspettando Diablo 4, Baldur's Gate 3 e Star Wars: Jedi survivor, tutti giochi che devono ancora uscire quest'anno e che girerebbero anche su una gtx 1660ti 6GB senza problemi.
Attendiamo il suo elenco.
--- i due messaggi sono stati uniti ---
Ragazzi però una appunto, alla fase iniziale del lancio delle serie 4000 il DLSS3 era sciocco menzionarlo come una cosa che faceva grande differenza in quanto la situazione era che ce l'avevano due giochi. Oggi invece la situazione è molto diversa, ad ogni driver nuovo Nvidia fornisce la compatibilità DLSS3 con mucchi di giochi, attualmente ce l'hanno parecchi titoli (l'hanno implementata in quasi tutti i nuovi giochi di certo peso usciti negli ultimi tempi e se non l'hanno fatto è questione di qualche update. Hanno messo il supporto DLSS3 persino su Diablo 4) e non può più non essere preso in considerazione nella valutazione di queste schede. Nei benchmarks ci sta che si testi la forza bruta delle schede video, però chi visiona questi benchmarks e vede 40 o 50 fps in 4k, sta vedendo la situazione che molto probabilmente la scheda avrebbe DLSS OFF, ancor di più su giochi che ancora necessitano di patch. Ok, la forza bruta è importante in fase di benchmarks ma non dimentichiamoci che oggi la IA e DLSS3 è presente in tanti di quei giochi, anche menzionati nei benchmarks, che in 4k permetterebbero un framerate ben maggiore rispetto a quello con DLSS OFF che si vede nei benchmarks. Non confondete questi benchmarks dove la 4070 ti scende sotto i 60 come la situazione in cui uno andrebbe a trovarsi perchè gli basterebbe attivare il DLSS 2.0 o ancora più drasticamente il DLSS3 che il framerate gli schizza comunque ben più in alto di quelle cifre nei benchmarks. Poi ci mancherebbe, uno può pure scegliere di giocare a DLSS OFF, però se lo fa in 4k su certi giochi pesanti con una 4070ti che è una scheda che va alla grande in 4k su tanti giochi ma è pensata più per il 1440p, se le va a cercare anche un pò lui.

Oggi, con tutti questi mucchi di giochi che hanno il supporto a DLSS3, è una feature che non va più messa in un angolino, è una realtà presente in molti giochi (anche in HL, dove con una CPU limitata da aggiornare ci sparo in 1440p 130 fps e parlo di quando ancora non era stato ottimizzato "per bene", anche un paio di patch fa e senza fix vari). Facciamo attenzione quando riportiamo i benchmarks perchè appunto sono a DLSS OFF e chi gioca a DLSS OFF in 4k con una 4070ti, o il gioco è molto ben ottimizzato, ma se è pesante e mal ottimizzato, AVENDO delle feature che aumentano il framerate ma non facendolo è solo lui che se le va a cercare.

Ormai la IA è entrata a pieno titolo nel gaming, non la si può ignorare più, può piacere o non piacere ma non può più essere ignorata, va considerata quando si parla delle performance in game, basare la propria opinione su benchmarks che fanno figurare l'average framerate su giochi pesanti perchè mal ottimizzati (anche gravemente mal ottimizzati) a DLSS OFF è oggi molto limitante e anche fuorviante rispetto a quello che certe schede potrebbero fare sfruttando il DLSS e il DLSS3, che fa una grande differenza a livello di framerate.
Il Dlss 2, nelle sue ultime versione ha raggiunto una qualità tale da essere quasi a livello del render nativo, se implementato bene può anche superare il render nativo ( esempio Control ). Il dlss3 non potrà mai raggiungere quella qualità poiché il suo scopo non è restituire un immagine renderizzata ad una risoluzione inferiore per poi fare l'upscaling ricostruito con I.A. alla risoluzione nativa del monitor, lo scopo del dlss3 è dare priorità alla performance andando ad utilizzare l'interpolazione dei frame, questo produce non solo un incremento dell'input lag ma causa anche artefatti grafici come il ghosting ecc
Quindi se io con il Dlss2 riesco a giocare in 2160p ( Quality mode ) e restare a 60fps fissi in un gioco single player, tenderò ad evitare di utilizzare il dlss3.
Io possessore di una rtx 3000, non sento la mancanza del dlss3, anzi la vedo come una mossa marketing per vendere le rtx 4000.
 
Ultima modifica:
Il video l'ho visto tutto, e oltre a fare una pubblicità schifosa alla scheda ASROCK parla solo del difetto della camera di vapore che un determinato numero di schede reference ha avuto , un piccolo numero non tutte, anzi per dirla tutta al tipo gli ho lasciato un bel commento sotto al video, di cambiare mestiere!!!!

Ora parliamo di sti driver così schifosi incasinati ecc ecc, ho fatto gli screen così vediamo cosa c'è di tanto difficile e incasinato:



Prima schermata delle impostazioni, non credo che c'è molto da dire riepilogo generale soft e hard



Grafica ci sono alcune impostazioni della grafica



Schermo le impostazioni che riguardano lo schermo



Audio e video anche qui c'è poco da dire mi sembra tutto semplice.



Tasti di scelta rapida, tutti i tasti per aprire il pannello radeon andare quindi sui settaggi screen avviare registrazione ecc ecc



Per collegare gli account e fare streaming



AMD Link Ora non è collegato ma funziona ve lo posso assicurare, ci ho collegato con l'app il mio telefono e anche la mia tv sony android e avere tutte le info sulla scheda video.



Registrazione e streaming tutte le impostazioni per la registrazione e lo streaming



Metriche quelle che ho attivato li a destra in verde



Schermata con le preferenze generali



Giochi, in questa parte puoi modificare diverse impostazioni per ogni singolo gioco in libreria, le impostazioni modificate qui riguarderanno solo quel gioco.





Prestazioni -metriche , da qui modifichi quello che vuoi che sia visualizzato sulle metriche che sono a dx in verde



Ottimizzazione ,molto semplice da qui si fa uv /oc della scheda video







Tutte le impostazioni per la registrazione lo streaming la chat ecc ecc

Ho dimenticato il browser web interno del software adrenalin quello col simbolo della terra vicino al tasto cerca in alto a dx

Ora spiegami cortesemente cosa c'è di così incasinato, magari all'inizio uno deve farci l'abitudine come succede sempre con qualcosa di nuovo ma nulla di più.

Video fresco fresco appena fatto questo pomeriggio usando gli adrenalin per registrare, sti driver che vanno veramente "male" , non faccio sicuro questo per lavoro quindi non ho schede di acquisizione ecc ecc (sta iancora in elaborazione fino a 4k mentre scrivo)

Direi che il video non l’hai visto, e che ti sei perso la parte in cui ammette che crashano ancora (supponendo che siano i due connettori 8 pin parte dei problema).
E direi che preso dalla foga di difendere la tua scheda video, neppure hai letto il mio post, dove la parola INCASINATI non l’ho mai citata. Al limite ho detto che sono troppo pieni di opzioni che ineveìitabilmente crashano, e postano un mare di screenshot OT non hai fatto altro che confermare la mia tesi.
Ora concordo con @jesse83 , l’ OT è andato avanti più del dovuto, e come detto da @crimescene uno dei problemi principali di AMD sono gli utenti come te, che difendono la Casa a spada tratta anche di fronte a problemi noti.
Sei soddisfatto della tua scheda ? Sono felice per te. No ci voglio neppure provare a convincerti del contrario. Ma il dato di fatto è che le Radeon non se le fila nessuno e che io, dopo averne installate a decine, specie su utenti con budget limitato, ho smesso di consigliarle perché mi fanno perdere troppo tempo e mi rovinano le relazioni con amici e “clienti”.

Certo che però è triste essere arrivati come progresso tecnologico alla 4090 e non avere titoli che la sfruttino a pieno (se non per la male ottimizzazione ma quello non è sfruttare).

È un po' come avere una Ferrari e soltanto un viottolo di campagna per correrci 😔

Cioè in 1440p è una scheda da 200 fps di media. È evidente che c'è un mare di potenza sprecata per inutili fps che se venisse usata intelligentemente potrebbe portare a qualità grafiche impensabili.

Chissà quando verrà fuori il prossimo rdr2 capace di sfruttare anche le schede top di gamma del momento, e non per inutili fps sopra i 100 o per cattive ottimizzazioni 🤔
C’ìè ache da dire che il tempo di sviluppo dei giochi è diventato biblico, quindi l’hardware alla fine esce prima dei titoli stessi. Alcuni dei giochi che devono ancora uscire, sono stati sviluppati inizialmente sulla Serie 20 !
Anche per questo alla fine hanno una certa “fretta” di uscire, e tagliano sul beta testing.
 
Non sono sicuro al 100% ma di tutti questi titoli solo Starfield sarà veramente next gen , cyberpunk e alan wake 2 non li definirei next gen, felice di essere smentito
Star field si, e su Alan Wake non mi è chiaro che engine useranno, ma essendo proprietario sarà da vedere. Invece CP2077 è la cronaca di una morte annunciata… su un engine nato male, sistemato alla meglio con millemila patch, hanno appiccicato altre funzioni per fare vedere, in accordo con Nvidia che è lo sponsor numero 1, quando “necessaria” è la 4090. Sarà un mattone. E come vedi il marketing Nvidia funziona bene (vedasi Kal El che è il loro PR numero 1 😅).
 
Direi che il video non l’hai visto, e che ti sei perso la parte in cui ammette che crashano ancora (supponendo che siano i due connettori 8 pin parte dei problema).
E direi che preso dalla foga di difendere la tua scheda video, neppure hai letto il mio post, dove la parola INCASINATI non l’ho mai citata. Al limite ho detto che sono troppo pieni di opzioni che ineveìitabilmente crashano, e postano un mare di screenshot OT non hai fatto altro che confermare la mia tesi.
Ora concordo con @jesse83 , l’ OT è andato avanti più del dovuto, e come detto da @crimescene uno dei problemi principali di AMD sono gli utenti come te, che difendono la Casa a spada tratta anche di fronte a problemi noti.
Sei soddisfatto della tua scheda ? Sono felice per te. No ci voglio neppure provare a convincerti del contrario. Ma il dato di fatto è che le Radeon non se le fila nessuno e che io, dopo averne installate a decine, specie su utenti con budget limitato, ho smesso di consigliarle perché mi fanno perdere troppo tempo e mi rovinano le relazioni con amici e “clienti”.
Noi in negozio le evitiamo da anni poiché procurano problemi, alle volte anche cavolate per via dei driver, ma i clienti tornano ed è stressante anche perché gli devi spiegare che non è l'hardware che gli hai venduto ad essere difettoso ma il software di AMD.
Per quanto riguarda l'esperienza personale, sia io che la mia ragazza non ci siamo mai trovati bene, purtroppo, con le gpu Ati e successivamente AMD. Nell'ultimo periodo la mia ragazza stava impazzendo con la sua ex rx580 8GB, dove i driver almeno una volta al mese gli saltavano, da quando è ritornata ( aggiungo sempre purtroppo ) a Nvidia, non ha più avuto problemi.
 
Pubblicità
Pubblicità
Indietro
Top