E una delle cose meno smart da fare ( per non essere offensivi ) quando si tratta di buildare un pc.In realtà i pezzi li ho presi man mano nel tempo, avevo iniziato nel 2021, quindi l'ho conclusa ad oggi ma iniziata un po di tempo fa. La build non mi è costata molto, sulle 1400 diciamo, anche perche poi comprando col tempo i vari componenti quel prezzo si è smorzato tantissimo. Quando la iniziai di meglio c'era solo la serie 10 di intel, la 11 era un aggiornamento anche peggiore diciamo, e quindi optai per un i9 10900k. Poi ho lasciato stare e oggi ho ripreso la build acqustando gli ultimi componenti. La 3080 l'ho pagata 600 euro, e di meglio per quel prezzo non è che ci sia molto ad oggi. Però non immaginavo che la serie 10 fosse davvero così male, dici quindi che tra qui e qualche anno mi ritroverò a spendere altri soldi?
Non si fa, è una cazzata assurda. I prezzi delle gpu sono alti ? Bhe aspetti e compri tutto quando i prezzi delle gpu scendono, non che ti compri il pc a pezzi. Ecco questo succede quando si utilizza questo metodo sbagliato, ti ritrovi con una cpu da 500 euro che viene superata in ipc da un'altra di fascia medio-bassa da 170 euro, inoltre la decima generazione non aveva il pcie gen 4.Questo problema si è verificato a molti: prezzi assurdi delle gpu? Bene, per adesso compro il resto ,E POI CON CALMA, quando ce lo potremo permettere, compriamo anche la gpu...Beh, a mio parere una bella caxxata...
Ti dò ragione, ma nessuno sapeva quando sarebbero tornate in stock. Nel 2020 si parlava di inizio 2021, nel 2021 di inzio 2022, e niente siamo arrivati nel 2023.Questo problema si è verificato a molti: prezzi assurdi delle gpu? Bene, per adesso compro il resto ,E POI CON CALMA, quando ce lo potremo permettere, compriamo anche la gpu...Beh, a mio parere una bella caxxata...
Guarda a me il multi core serve anche, infatri è per questo che al tempo scelsi questa cpu. Ho un monitor 4k che uso per editing e rendering, il pc quindi lo uso anche per software come blender, premiere, ecc... Quindi avere un margine anche sul multicore mi è molto utile, è anche per questo che ho preso 32gb di ram invece che 16 a 3600mhz. Poi a quanto ho capito non sempre il 12400 raggiunge o supera il 10900k, anzi, in alcuni benchmark ho visto l'opposto. Poi ho una 3080, non una 3090 o 4090, la gpu mi va in bottleneck del 29%, quindi alla fine li starebbero le prestazione maggiori, in quel 29% di uso in più della gpu, cosa che però non risolvo con un 12400( anzi va ancora di più in bottleneck )e neanche con un 12600k ma con un 12900k, con comunque un bottle neck dell'8%, e che per farlo girare devi comunque accoppiarci una mobo seria della ram serie e un alimentatore almeno da 1000watt, e che quindi stiamo già sugli 800 euro, complessivamente 3/4 della mia spesa. Quindi a parità di prezzo speso per mobo e cpu avrei un incremento del 7%, ma ho lasciato stare ram e incluso nel prezzo un scheda madre "economica" per le attuali gen. Forse effettivamente c'è davvero molto hype su questa nuova gen? Facendo due conti si hanno prezzi stellari sulle ram (ddr5) e sulle mobo, che vanifica il risparmio sulla cpu e la maggior parte dei benchmark in-game che mostra una grande differenza è effettuata con ram da 6000mhz e cl30, praticamente dei mostri di ram da 250 euro. Non so, stavo considerando di vendere mobo e cpu ma forse effettivamente non è necessario?E una delle cose meno smart da fare ( per non essere offensivi ) quando si tratta di buildare un pc.
Se io lo compro a pezzi e mi prendo la gpu nel 2020, esempio rtx 2070 e poi nel 2023 finisco la build mi ritrovo con una gpu già vecchia, superata anche dalla fascia bassa delle nuove architetture.
Comunque la cazzata è già stata fatta, inutile ripensarci e farsi il sangue amaro, l'9 10900K è comunque una cpu ottima per giocare con un ipc in linea con i tempi, ha anche 20 thread quindi ottimo per lavori pesanti ma come ti è stato detto, oggi con 170 euro ci si porta a casa un i5 12400 che è più veloce in single core quindi sono stati sicuramente soldi spesi male.
Quanto ti durerà il pc prima di un upgrade ? Bhe sicuramente per l'intera generazione di console attuali, visto che sia lato cpu che gpu sei nettamente sopra le specifiche console. Comincerà a diventare vecchio con l'uscita della next gen.
Post unito automaticamente:
Non si fa, è una cazzata assurda. I prezzi delle gpu sono alti ? Bhe aspetti e compri tutto quando i prezzi delle gpu scendono, non che ti compri il pc a pezzi. Ecco questo succede quando si utilizza questo metodo sbagliato, ti ritrovi con una cpu da 500 euro che viene superata in ipc da un'altra di fascia medio-bassa da 170 euro, inoltre la decima generazione non aveva il pcie gen 4.
Bottleneck ? Stai scherzando vero ?Ti dò ragione, ma nessuno sapeva quando sarebbero tornate in stock. Nel 2020 si parlava di inizio 2021, nel 2021 di inzio 2022, e niente siamo arrivati nel 2023.
Guarda a me il multi core serve anche, infatri è per questo che al tempo scelsi questa cpu. Ho un monitor 4k che uso per editing e rendering, il pc quindi lo uso anche per software come blender, premiere, ecc... Quindi avere un margine anche sul multicore mi è molto utile, è anche per questo che ho preso 32gb di ram invece che 16 a 3600mhz. Poi a quanto ho capito non sempre il 12400 raggiunge o supera il 10900k, anzi, in alcuni benchmark ho visto l'opposto. Poi ho una 3080, non una 3090 o 4090, la gpu mi va in bottleneck del 29%, quindi alla fine li starebbero le prestazione maggiori, in quel 29% di uso in più della gpu, cosa che però non risolvo con un 12400( anzi va ancora di più in bottleneck )e neanche con un 12600k ma con un 12900k, con comunque un bottle neck dell'8%, e che per farlo girare devi comunque accoppiarci una mobo seria della ram serie e un alimentatore almeno da 1000watt, e che quindi stiamo già sugli 800 euro, complessivamente 3/4 della mia spesa. Quindi a parità di prezzo speso per mobo e cpu avrei un incremento del 7%, ma ho lasciato stare ram e incluso nel prezzo un scheda madre "economica" per le attuali gen. Forse effettivamente c'è davvero molto hype su questa nuova gen? Facendo due conti si hanno prezzi stellari sulle ram (ddr5) e sulle mobo, che vanifica il risparmio sulla cpu e la maggior parte dei benchmark in-game che mostra una grande differenza è effettuata con ram da 6000mhz e cl30, praticamente dei mostri di ram da 250 euro. Non so, stavo considerando di vendere mobo e cpu ma forse effettivamente non è necessario?
I test sulle cpu si fanno esclusivamente in 1080p tutto low, altrimenti non stai testando la cpu, ma la gpu. I dati non li ho fatti io, ci sono vari calcolatori online di bottleneck.Bottleneck ? Stai scherzando vero ?
Un i9 10900K non fa bottleneck ad una rtx 3080 in 1440p/2160p te lo posso garantire, forse in alcuni rari casi potrebbe farlo in 1080p, soprattutto se il titolo sfrutta molto l'ipc e poco il multi-thread.
Io ho un i7 11700K che ha un ipc superiore alla tua cpu di poco, e ho sempre la mia rtx 3080 12GB al 99/100% di utilizzo mentre la cpu "dorme", considera che la mia rtx 3080 12Gb è molto più simile alla rtx 3080ti/rtx 3090 piuttosto che alla rtx 3080 10GB, soprattutto in 4K grazie al bus a 384bit invece che 320bit della 10GB, quindi se non fa bottleneck a me figurati a te.
Ma scusami tu giochi a tutto low in 1080p ? Ovvio che in quel caso vi è del bottleneck, ma chi gioca a tutto low in 1080p con una rtx 3080 ?????I test sulle cpu si fanno esclusivamente in 1080p tutto low, altrimenti non stai testando la cpu, ma la gpu. I dati non li ho fatti io, ci sono vari calcolatori online di bottleneck.
Come già detto si, nella maggior parte dei titoli competitivi, dove non vi è necessità di alta qualità gioco in 1080p low. Quando voglio godermi un gioco accendo il monitor 4k 60hz tutto sparato su high e allora là le differenze tra cpu sono neanche dell'1%.Ma scusami tu giochi a tutto low in 1080p ? Ovvio che in quel caso vi è del bottleneck, ma chi gioca a tutto low in 1080p con una rtx 3080 ?????
Lasciamo stare i benchmark sintetici che nella vita reale non servono a nulla, la tua cpu non fa bottleneck alla tua gpu e questo è un dato di fatto.
Me lo immaginavo... ragazzi, se seguite sta porcheria siamo alla frutta... quella è pura nuda e cruda aria fritta. Quelli non ti calcolano un bel niente, quelli non ti danno un test reale. Ci sono test veritieri tra le 2 cpu, basta conoscere le fonti giuste e quelle che hai seguito tu fino ad ora non lo sono. Guarda qua https://www.techpowerup.com/review/intel-core-i5-12400f/16.htmlci sono vari calcolatori online di bottleneck.
Ma tu sei pazzo a giocare in 1080p a low con quel hardware. Dio da il pane a chi non ha i denti.Come già detto si, nella maggior parte dei titoli competitivi, dove non vi è necessità di alta qualità gioco in 1080p low. Quando voglio godermi un gioco accendo il monitor 4k 60hz tutto sparato su high e allora là le differenze tra cpu sono neanche dell'1%.
sto sinceramente pensando al suicidio 🤯Ma tu sei pazzo a giocare in 1080p a low con quel hardware. Dio da il pane a chi non ha i denti.
Sai quanta gente vorrebbe avere il tuo hardware ma non può permetterselo ?! Più della metà degli utenti su questo forum.
Io hai giochi competitivi non ci gioco quasi mai, ma quando capita, gioco in 1440p dettagli alti ( non ultra ) e nonostante questo mi va oltre i 120fps, perché la rtx 3080 non è una gpu per il 1080p. Non puoi proprio fisicamente, se tu avessi studiato l'architettura ampere, ti renderesti conto della cagata che stai facendo, l'ho spiegato più di mille volte su questo forum, mi sono stancato di ripeterlo.
Mi sono dimenticato di ringraziare tutti comunque per le risposte. Ma il test con che gpu è stato effettuato? Perché se è con una gpu superiore alla mia non ha più di tanto senso il test.Me lo immaginavo... ragazzi, se seguite sta porcheria siamo alla frutta... quella è pura nuda e cruda aria fritta. Quelli non ti calcolano un bel niente, quelli non ti danno un test reale. Ci sono test veritieri tra le 2 cpu, basta conoscere le fonti giuste e quelle che hai seguito tu fino ad ora non lo sono. Guarda qua https://www.techpowerup.com/review/intel-core-i5-12400f/16.html
Questa è una recensione, fatta con test reali.
Ma smetterla di farsi le pippe mentali e godersi la gpu in 1440p tutto al max no ehhh ?Mi sono dimenticato di ringraziare tutti comunque per le risposte. Ma il test con che gpu è stato effettuato? Perché se è con una gpu superiore alla mia non ha più di tanto senso il test.
Vabbè sicuramente l'hardware me lo sto godendo, sono solo domande oltre vote ad informarmi anche per capire la longevità delle componenti. Grazie per la spiegazione comunque.Ma smetterla di farsi le pippe mentali e godersi la gpu in 1440p tutto al max no ehhh ?
Che cazz.. te ne freghi dei benchmark sintetici, gioca e goditi l'hardware di fascia alta e fatti un favore, non usare quella gpu in 1080p è da idioti, scusami ma non voglio essere aggressivo o offensivo e che alcune cose mi fanno uscire fuori di testa. Per scusarmi faccio lo sforzo di spiegarti perché considero idiota usare una rtx 3080 in 1080p.
L'architettura ampere ( rtx 3000 ) ha un grosso problema che ne causa il bottleneck in un certo senso. Lo si può notare sia nella fascia bassa dove una rtx 3060 viene superata da un 10% dalla rx 6600xt in 1080p mentre in 1440p la rtx 3060 recupera quel 10%. Stessa cosa con la fascia alta dove una rtx 3080 10GB risulta essere più lenta di un 5/10% in 1080p e 1440p rispetto ad una rx 6900xt mentre recupera quel svantaggio in 2160p. Perché accade questo ?
Perché l'archiettura ampere ha una mole enorme di cuda core che non riescono ad essere sfruttati a basse risoluzioni per via del basso carico di lavoro e dalle basse frequenze. Quando invece le si usa in alte risoluzioni, la storia cambia, visto che la grande mole di lavoro tende a far sfruttare tutti i cuda core e quindi a sfruttare il potenziale della gpu nonostante le basse frequenze.
Infatti con Ada Lovelance ( rtx 4000 ) si è risolto questo problema alzando le frequenze di 1GHZ che è tantissimo e questo aiuta molto a sfruttare quella mole di cuda core anche alle basse frequenze.
Quindi una rtx 3080 deve essere usata in 2160p ( dettagli grafici ottimizzati ) o 1440p quasi sempre tutto al max ( dipende dal gioco ) per cercare di caricare il più possibile la gpu.
Utilizzare una rtx 3080 in 1080p la si castra ancor prima che lo faccia la cpu.
Spero di essermi spiegato, ora GIOCA e goditi l'hardware cercando di sfruttarlo.
la longevità dei componenti la decidi tuVabbè sicuramente l'hardware me lo sto godendo, sono solo domande oltre vote ad informarmi anche per capire la longevità delle componenti. Grazie per la spiegazione comunque.
È stato fatto proprio con una 3080, ma sei fuori strada! Se fosse stata una gpu più potente il test sarebbe stato ancora più veritiero, perchè si elimina ancora meglio un possibile bottleneck da parte della gpu. Sarebbe stato un problema il contrario, cioè se ci fosse stata una gpu più scarsa.Mi sono dimenticato di ringraziare tutti comunque per le risposte. Ma il test con che gpu è stato effettuato? Perché se è con una gpu superiore alla mia non ha più di tanto senso il test.