Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
Curiosità, rimarrai in 1440p o adesso passi al 4k? Comunque sia anch'io non ho trovato alcun problema con 9700k, anche nei casi dove la percentuale di usage era alta, tipo in Ghost Recon Wildlands che la spreme decisamente parecchio, sempre avuto alto framerate e mai alcuno stuttering, pertanto me la tengo ancora un pò e un bello stica se mi taglia qualche decina di fps, quando sono comunque tantissimi in 1440p. Pareri sulla scheda? Grado di soddisfazione che ti sta dando? Provato il DLSS3? Che te ne pare?
Curiosità, rimarrai in 1440p o adesso passi al 4k? Comunque sia anch'io non ho trovato alcun problema con 9700k, anche nei casi dove la percentuale di usage era alta, tipo in Ghost Recon Wildlands che la spreme decisamente parecchio, sempre avuto alto framerate e mai alcuno stuttering, pertanto me la tengo ancora un pò e un bello stica se mi taglia qualche decina di fps, quando sono comunque tantissimi in 1440p. Pareri sulla scheda? Grado di soddisfazione che ti sta dando? Provato il DLSS3? Che te ne pare?
ho collegata pure una TV 4k quindi alterno ogni tanto, ma il monitor rimarrà 1440p per adesso, ance se effettivamente la 4080 inizia ad essere esagerata, ma sfruttata insieme alla tv diciamo che va bene
Come ho detto son soddisfatto, i, DLSS3 è un grande passo in avanti nella tecnologia, peccato non sia retrocompatibile ( almeno per adesso) sulle RTX 3000
mi ha stupito per la stabilità e la fedeltà delle immagini, è davvero qualcosa di notevole, senza dubbio.
La scheda è un mostro non ci sta nulla da dire sulla "potenza" e sulle tecnologie che accompagnano questa generazione, ma non abbiamo mai criticato per quello, sono schede molto potenti, molto ben costruite, non esiste una scheda da "evitare" al livello di VRM per quello che riguarda sia le 4080 che le 4090 e hanno una dissipazione direi più che generosa
La 4080 in particolare è un bestione come si è visto anche dalle foto e ci vuole un case bello grosso hanno tutte temperature bassissime, e hanno migliorato l'efficienza energetica rispetto alla passata generazione, il nodo TMSC è chiaramente superiore a quello di Samsung ma questo si sapeva pure prima le schede hanno un boost di 2,8 ghz circa che è un balzo notevole
Tecnicamente non ci sta nulla da dire, l'unica nota dolente lo sappiamo tutti è il prezzo costassero meno sarebbero andate a ruba.
Poi odio ripetermi per un utente che vuole solo "giocare" ed ha preso una rtx 3000 a meno che non è proprio un appassionato, come me ed ha i soldi da buttare non dovrebbe pensare a fare un upgrade questa generazione.
Per chi proviene invece dalla serie 2000 o precedente passare alle nuove schede può essere un bel salto in avanti a p[atto che si sia consapevoli di pagarle care
Poi se sei un appassionato hai comprato una 3000 e magari ce l'hai da 2 3 anni ed hai i soldi per fare un upgrade si può anche fare
Eh già, perchè tecnicamente si respira proprio il passo avanti generazionale, soprattutto io passando dalla serie 2000 ho percepito un divario bello netto, poi quel tdp, quel processo produttivo, quella potenza, il DLSS3 che è una feature fantastica. Purtroppo il prezzo le ha fatte inevitabilmente cadere sugli zebedei a molti, anche giustamente direi, però come tecnologia mi dovrei sforzare a mentire se negassi che sono veramente soddisfatto di questa scheda.
Eh già, perchè tecnicamente si respira proprio il passo avanti generazionale, soprattutto io passando dalla serie 2000 ho percepito un divario bello netto, poi quel tdp, quel processo produttivo, quella potenza, il DLSS3 che è una feature fantastica. Purtroppo il prezzo le ha fatte inevitabilmente cadere sugli zebedei a molti, anche giustamente direi, però come tecnologia mi dovrei sforzare a mentire se negassi che sono veramente soddisfatto di questa scheda.
al livello tecnico sono dei mostri di potenza, il DLSS 3 è quasi una magia è davvero una feature assurda!
il problema rimane sempre quello sono care, non ci sta una vera concorrenza e io sono pure fesso che cambio scheda ad ogni gen
poi inutile dire che quello che ha detto @Max(IT) è assolutamente corretto, il cosiddetto "bottleneck" è un altra cosa, e l'ho sperimentato con la 3080 ed il 9600k in alcuni giochi pe chiamarsi davvero collo si iniziano ad avere problemi nel framtime più o meno seri
il processore viene messo alla corda, la `GPU non riesce a spingere ed hai stuttering evidente , l'utilizzo delle risorse dipende molto dal motore grafico e dal tipo di gioco, in uno scenario "teorico" ideale dovremmo avere CPU e GPU che lavorano sempre la 100% senza ostacolarsi l'un altro am parliamo di scenari teorici la realtà è diversa
Ci sono schede cosi potenti che ad una ad una certa risoluzione non vengono semplicemente sfruttate, si va oltre quello che era stato concepito da chi ha fatto il gioco stesso
poi inutile dire che quello che ha detto @Max(IT) è assolutamente corretto, il cosiddetto "bottleneck" è un altra cosa, e l'ho sperimentato con la 3080 ed il 9600k in alcuni giochi pe chiamarsi davvero collo si iniziano ad avere problemi nel framtime più o meno seri
il processore viene messo alla corda, la `GPU non riesce a spingere ed hai stuttering
attenzione che che non esiste solo il bottleneck cpu, basta una qualsiasi componente ad essere sbilanciata per crearsi un collo, CPU, GPU, RAM, SSD, MONITOR.
attenzione che che non esiste solo il bottleneck cpu, basta una qualsiasi componente ad essere sbilanciata per crearsi un collo, CPU, GPU, RAM, SSD, MONITOR.
poi inutile dire che quello che ha detto @Max(IT) è assolutamente corretto, il cosiddetto "bottleneck" è un altra cosa, e l'ho sperimentato con la 3080 ed il 9600k in alcuni giochi pe chiamarsi davvero collo si iniziano ad avere problemi nel framtime più o meno seri
Diciamo che è una cosa che può aprire a diverse interpretazioni, però sono anch'io dello stesso parere, se il gioco rimane fluido, la CPU taglia qualche decina di FPS in certi giochi, nemmeno in tutti, anzi, ma la scheda fa comunque tantissimi fps di media e non si percepiscono problemi di stuttering, anche se la scheda non venisse sfruttata al suo massimo possibile, rispetto ad una CPU più nuova e potente, non ci vedo proprio nessun problema nel sacrificare un pò di fps in certi giochi (dico certi perchè nella maggior parte dei casi le mie medie sono le medesime di quelle viste nei benchmarks). Parlassimo di guadagnare un certo framerate per arrivare ai 60 ok, in quel caso ci sarebbe una differenza palpabile e importante, ma fare 150 fps anzichè 170 o 130 anzichè 150 (ma anche fosse fare 80 fps anzichè 100, in casi estremi), a me non fa alcuna differenza tale da spingermi ad un cambio repentino, come fosse una questione di vita o di morte altrimenti gioco male! Mi frega niente insomma!
La situazione che può presentarsi è proprio questa, ovvero che in certi giochi che sfruttano molto la CPU (e attualmente non sono tantissimi tali da portare a questo problema) la scheda potrebbe non essere sfruttata al massimo del suo potenziale parlando sempre di numeri alti di framerate, cosa però che è ben diversa dal trovarsi con problemi che portano a giocare male. A me importa che non si verifichi il secondo caso, ovvero giocare male a causa di stuttering, non di fare 150 fps anzichè 170.
Il fatto che la scheda in certi casi non sfrutti il suo massimo potenziale è bottleneck? Forse anche si, capisco che qualcuno potrebbe tranquillamente interpretarlo come tale, ma è assolutamente trascurabile quando ci si trova in situazioni di alti framerate che non danno alcuna palpabile differenza e non vi è stuttering. Va fatta distinzione tra "teoria" e "pratica", teoricamente il fatto che una scheda non sia sfruttata alla sua massima potenza perchè castrata dalla CPU può pure essere un bottleneck, ma se poi nella pratica ciò si traduce in fottii di fps senza alcuno stuttering è semplicemente un bottleneck trascurabile.
Parlando del mio caso con la 4070 ti e il 9700k soprattutto.
al livello tecnico sono dei mostri di potenza. Poi odio ripetermi per un utente che vuole solo "giocare" ed ha preso una rtx 3000 a meno che non è proprio un appassionato, come me ed ha i soldi da buttare non dovrebbe pensare a fare un upgrade questa generazione.
Per chi proviene invece dalla serie 2000 o precedente passare alle nuove schede può essere un bel salto in avanti a p[atto che si sia consapevoli di pagarle care
Poi se sei un appassionato hai comprato una 3000 e magari ce l'hai da 2 3 anni ed hai i soldi per fare un upgrade si può anche fare
Eh già, perchè tecnicamente si respira proprio il passo avanti generazionale, soprattutto io passando dalla serie 2000 ho percepito un divario bello netto, poi quel tdp, quel processo produttivo, quella potenza
In linea di massima e provenendo da una 3090 avrei normalmente aspettato una 5080/5090 per aggiornare la GPU ma purtroppo a sto giro il "salto" generazionale è stato troppo goloso per farselo scappare. Qui non si parla di una manciata di frames di guadagno: la 4090 ha doppiato la gen precedente e i miei vecchi Firestrike Ultra sono la pietra tombale alle lamentele del mio portafoglio.
PS: con la serie 5000 di Nvidia col processo 3nm di TSMC non si ripeterà molto probabilmente un balzo prestazionale così grande non avendo più a disposizione +1000mhz da buttare dentro al progetto.
Ebbene signori, dopo averci fatto 3 run e più di 500 ore di gioco, ci sono ricascato di nuovo, che musiche e che luce, rigiocato così gli rende onore, un roba impressionante dal punto di vista grafico, ma soprattutto delle luci <3
Tu da solo di notte e sei potentissimo, con il tuo cavallo e le due spade, una pejr i mostri(argento) ed una per gli umani(acciaio), silenzioso, solitario e letale. <3
Non rende giustizia lo screen, non c'è profondità nell'immagine e neanche le musiche :(
In senso generale il collo di bottiglia in un sistema è rappresentato dal processo più lento di una serie, che quindi finisce col dettare il passo agli altri (più veloci).
Poi voi lo usate per dire solo quando è grave... Vabbè allora quando non è grave chiamiamolo "fattore limitante".
La domanda che aveva fatto @Lorenzo Lanas resta:
Perché nessun core è al 100% se è la cpu il fattore limitante ?
Lasciate perdere che gli fps sono già buoni, io sarei curioso di sapere quale è il fattore limitante. È qualcosa legato alla cpu (cambiando la aumentano gli fps) ma non legato alle % di utilizzo dei cores... Forse la banda ram? Forse la pcie 4.0?
In senso generale il collo di bottiglia in un sistema è rappresentato dal processo più lento di una serie, che quindi finisce col dettare il passo agli altri (più veloci).
Poi voi lo usate per dire solo quando è grave... Vabbè allora quando non è grave chiamiamolo "fattore limitante".
La domanda che aveva fatto @Lorenzo Lanas resta:
Perché nessun core è al 100% se è la cpu il fattore limitante ?
Lasciate perdere che gli fps sono già buoni, io sarei curioso di sapere quale è il fattore limitante. È qualcosa legato alla cpu (cambiando la aumentano gli fps) ma non legato alle % di utilizzo dei cores... Forse la banda ram? Forse la pcie 4.0?
la 4090 è uan scheda talmente potente che non la sfrutti bene in QHD manco la 4080 la sfrutti completamente in QHD figurarsi al 4090
LA CPU in quel caso non è un fattore limitante, si deve fare come detto un discorso più complesso di come sono progettati i giochi e di come sfruttano le risorse a disposizione
si il DLSS non utilizza la CPu semplicemente facendo fare più frame la CPU viene stresstata di più perchè ha più frame da processare
questo pero non dovrebbe succedere o aleno succede in aprte con il DLSS3 in quanto il frame generation è un interpolazione che avviene direttamente lato GPU
Non è bottleneck quello, che come ho detto è la parola più abusata del web/tubo.
Semplicemente una 4080 a 1440P su quel gioco è troppo potente per essere messa alla frusta, quindi conserva risorse libere. Ma risorse libere le ha anche la CPU, quindi vedi un frametime abbastanza regolare, senza grossi picchi, 1%low buono e ottimo frame rate.
No @Max(IT) mi dispiace, ma questa volta ha ragione @Kal El
Forse questo è l'evento che @Avets stava aspettando da decenni ma abbiamo scoperto che anche tu non sei infallibile ma "umano" come tutti noi
Se osserviamo il 1° screenshot che "il sommo" ha postato, scopriamo che la GPU è carica al massimo mentre la CPU è al ~56% con risultato finale di 156 FPS.
Nel 2° screenshot con DLSS attivo invece la GPU si carica solo al 77% mentre la CPU rimane pressochè invariata ma il framerate scende a 82 FPS.
. Questo perchè la QUANTITA' di calcoli che il processore deve fare in ogni singolo frame rimane invariato (es, meccaniche di gioco, intelligenza artificiale, movimento foglie, ecc ecc) ma è la velocità (cioè il clock, i gigahertz) che non riesce a stargli dietro. In questo caso aggiungere ulteriori core al processore potrebbe non servire ad una beata fava se il videogioco non è stato programmato e pensato per sfruttare al meglio il più core possibili (operazione tutt'altro che semplice, se non impossibile, da realizzare).
L'esempio portato dal nostro super-UOMO in effetti è calzante! Se lui passa dall'i9 all'i5, di pari gigahertz, avrebbe un carico della CPU che passa dal 50% al 70% (ad esempio) ma poi gli FPS finali del gioco non cambierebbero perchè è la VELOCITA' (per core) che non riesce a stargli dietro.
Come ci dice @crimescene adesso l'ultimo test che @Kal El "il sommo" dovrebbe fare è testare il gioco in 1080p nativi (ovviamente sarebbe scandaloso a livello grafico a causa del monitor 1440p ma è solo per benchmarkare)! Se lui prova il gioco in 1080p nativi, il framerate dovrebbe tornare ad essere ~150 FPS anzi forse qualcosina in più però il carico sul processore dovrebbe rimanere invariato (o aumentare proporzionalmente in base a quanto aumenta l'fps).
DETTO QUESTO
Chiaramente rimane il fatto che la 4090 è una scheda video che è un mostro di potenza, o giochi a Hogwarts Legacy o Cyberpunk 2077 @ 1440p con ray-tracing psyco-hyper-mega loco level attivo oppure per tutti gli altri giochi "leggeri" passi al 4K ... e penso che su questo non ci piove!!!
PS - Scusate non ho citato anche la memoria di sistema: in effetti anche quella concorre alla velocità generale del framerate, anche solo passare da DDR4 a DDR5 estremamente veloci potrebbe aiutare
Ma come fa la risoluzione a rallentare la cpu??
Quella cpu è rallentata da qualcosa!
Ho capito che in 8k il fattore limitante diverrebbe la gpu, grazie, ma siamo in 1440p e la cpu non sta dietro alla gpu, ma i suoi cores non sono neanche al 70%.
Questo è strano.
Poi ho capito che il sistema è sbilanciato per quella res, ma non significa che la cpu non stia limitando (in maniera non grave) il sistema.
Che fatica, bisogna mettere tutti i puntini sue i con voi
Il mio è un quesito tecnico, non un prpema di prestazioni
No @Max(IT) mi dispiace, ma questa volta ha ragione @Kal El
Forse questo è l'evento che @Avets stava aspettando da decenni ma abbiamo scoperto che anche tu non sei infallibile ma "umano" come tutti noi
Se osserviamo il 1° screenshot che "il sommo" ha postato, scopriamo che la GPU è carica al massimo mentre la CPU è al ~56% con risultato finale di 156 FPS.
. Questo perchè la QUANTITA' di calcoli che il processore deve fare in ogni singolo frame rimane invariato (es, meccaniche di gioco, intelligenza artificiale, movimento foglie, ecc ecc) ma è la velocità (cioè il clock, i gigahertz) che non riesce a stargli dietro. In questo caso aggiungere ulteriori core al processore potrebbe non servire ad una beata fava se il videogioco non è stato programmato e pensato per sfruttare al meglio il più core possibili (operazione tutt'altro che semplice, se non impossibile, da realizzare).
L'esempio portato dal nostro super-UOMO in effetti è calzante! Se lui passa dall'i9 all'i5, di pari gigahertz, avrebbe un carico della CPU che passa dal 50% al 70% (ad esempio) ma poi gli FPS finali del gioco non cambierebbero perchè è la VELOCITA' (per core) che non riesce a stargli dietro.
Come ci dice @crimescene adesso l'ultimo test che @Kal El "il sommo" dovrebbe fare è testare il gioco in 1080p nativi (ovviamente sarebbe scandaloso a livello grafico a causa del monitor 1440p ma è solo per benchmarkare)! Se lui prova il gioco in 1080p nativi, il framerate dovrebbe tornare ad essere ~150 FPS anzi forse qualcosina in più però il carico sul processore dovrebbe rimanere invariato (o aumentare proporzionalmente in base a quanto aumenta l'fps).
DETTO QUESTO
Chiaramente rimane il fatto che la 4090 è una scheda video che è un mostro di potenza, o giochi a Hogwarts Legacy o Cyberpunk 2077 @ 1440p con ray-tracing psyco-hyper-mega loco level attivo oppure per tutti gli altri giochi "leggeri" passi al 4K ... e penso che su questo non ci piove!!!