- 1,556
- 219
- CPU
- Intel i7 8700
- Dissipatore
- Noctua NH-U12S
- Scheda Madre
- MSi Z370 Tomahawk
- HDD
- Sabrent NVMe 1TB
- RAM
- 32GB 3200MHz Corsair
- GPU
- MSi RTX 2070 Super Gaming X
- Monitor
- LG 34GN850 + 27GN850
- PSU
- EVGA 550 B3
- Case
- NZXT H510 Elite
- Periferiche
- VortexRace3, Logitech g502
- OS
- Win 10 Pro 64bit
Ciao a tutti, come da titolo vorrei capire se l'aumento di risoluzione impatta sui frame al secondo che una data cpu riesce a gestire. Da quel che so, semplificando il discorso, nel gaming la cpu si occupa principalemente di mandare alla gpu un insieme da dati da elaborare e visualizzare a schermo. Vista cosi, mi verrebbe da pensare che all'aumentare della risoluzione i dati da inviare alla gpu siano bene o male gli stessi, sarà poi compito della gpu mostrarli ad una risoluzione più alta.
Quindi la domanda nel concreto è: all'aumentare del dettaglio grafico (aumento di risoluzione, anti-aliasing, ecc ecc), la cpu ne risente in termini di fps? Oppure ne risente solo la gpu?
Faccio un esempio: immaginando di avere una gpu infinitamente potente (quindi la gpu non può essere il collo di bottiglia), se a 1080p una CPU processa 100fps, a 2160p con ogni possibile filtro grafico al massimo, la CPU ne riesce sempre a processare sempre 100fps? (magari anche solo circa 100).
IN base alla risposta avrei anche da chiedere un consiglio su una CPU
Grazie
Quindi la domanda nel concreto è: all'aumentare del dettaglio grafico (aumento di risoluzione, anti-aliasing, ecc ecc), la cpu ne risente in termini di fps? Oppure ne risente solo la gpu?
Faccio un esempio: immaginando di avere una gpu infinitamente potente (quindi la gpu non può essere il collo di bottiglia), se a 1080p una CPU processa 100fps, a 2160p con ogni possibile filtro grafico al massimo, la CPU ne riesce sempre a processare sempre 100fps? (magari anche solo circa 100).
IN base alla risposta avrei anche da chiedere un consiglio su una CPU
Grazie