- Messaggi
- 5,082
- Reazioni
- 4,403
- Punteggio
- 159
Non intendevo aggredirti, l'ho anche spiegato a @DareDevil_ , io volevo solamente dire che non bisogna cercare di accontentare l'utente ad ogni costo ( in generale ). Noi due ci siamo chiariti anche in passato, io scrivo male, mi spiego male e di persona ci vuole un traduttore sumero per farmi capire. Non voglio giustificarmi o altro, è un dato di fatto che mi esprimo malissimo. Infatti ogni volta mi scusavo per essermi spiegato male, proprio perché sono in buona fede.Ma da quale pulpito arriva la predica, secondo me hai fatto un viaggio spirituale
--- i due messaggi sono stati uniti ---
@Dradkol.
Se rileggi dall'inizio la risposta abbastanza chiara è stata data all'utente. E rispondere è d'obbligo oltre che cortesia. Ho messo in risalto parte di quello che ha chiesto l'utente sull'argomento della tollerabilità in gaming che è soggettiva. Se chiede di giocare degnamente non si può consigliare con quella cpu una 6600.
Tutto qui, ci tenevo a chiarire.
--- i due messaggi sono stati uniti ---
Invece si, la rx 6600 ha performance superiori ad una gtx 1080 e persino ad una rx 5700. Un i5 6600 avrebbe fatto bottleneck persino ad una gtx 980ti/1070 e questo te lo posso assicurare al 100%.è vero che i5 6600 ha fatto il suo corso ma con schede video amd di potenza moderata con la maggior parte dei videogiochi, non è proprio totalmente da buttare
Certo ci sono giochi poco cpu intensive se fosse l'anno 2015, ma se prendiamo un arco di tempo che va dal 2019 al 2023, quasi tutti i giochi riescono a sfruttare 8/12 thread alcuni persino 16 thread, esempio banale Shadow of the tomb raider gioco del 2018, sfrutta una cpu con 12 thread. Hogwards Legacy durante la compilazione degli shader, sfonderebbe una cpu con soli 4 thread e stesso discorso per The last of Us parte 1 remake.
Prova a giocare ad Apex, fortnite, cod ecc con quella cpu e vedrai il frame time fare le montagne russe.
Ultima modifica: