UFFICIALE Raptor Lake: e Raptor Lake Refresh: 13th e 14th generazione Intel

Pubblicità
sarei curioso di vedere un 12900k/ks allineato alle stesse frequenze del 13900k per vedere un confronto mele con mele in game,stessa cosa portare un 12700k alle stesse frequenze del 13700,sono sicuro che quella poca percentuale di differenza si assottiglierebbe ulteriormente
 
sarei curioso di vedere un 12900k/ks allineato alle stesse frequenze del 13900k per vedere un confronto mele con mele in game,stessa cosa portare un 12700k alle stesse frequenze del 13700,sono sicuro che quella poca percentuale di differenza si assottiglierebbe ulteriormente
Visto ieri questo video (più o meno dal minuto 11-12)
 
Ormai lo stiamo dicendo dai tempi del 5950x 🤣
ma c'è gente che lo compra ugualmente...
Sul 7950X siamo all'assurdo che in gaming va MEGLIO se disattivi 8 core 🤦‍♂️
In pratica compri una CPU da 900 euro e la disattivi a metà !!!

E sul 13900K non è molto diverso il discorso: i core che contano sono i P Core, e quelli sono 8 come sul 13700K...
Alcune differenze ci sono solo su frequenza e cache, ma come si vede in gaming tra un 13700K ed un 13600K a 1440P la differenza è ridicola

1666345269273.webp

Ma la gente è convinta che se spende di più fa più figo, anche se poi la spesa è ingiustificata.
Diciamo che anche se io avessi una 4090, che è la scheda più esigente oggi (ed inutile per il gaming, specifichiamolo) andrei su un 13600K per giocare. Se proprio volessi esagerare un 13700K.
 
Ok proclamiamo il 13900K la miglior CPU overall

7950x e 13900k sono CPU molto vicine in termini di prestazioni, non è facile stabiliere "la migliore" in senso assoluto.

Sicuramente in gaming il 13900k ha qualcosa in più, anche perchè il 7950x a volte va addirittura meno del 7700x a causa di pasticci di scheduling causati dai due CCD.
Ma così tanti core per giocare sono inutili, se non addirittura dannosi in certi casi (vedi Far Cry 6), quindi non sono CPU da prendere per giocare.
Per giocare un 13600k va più che bene per il 99% delle persone, se proprio si vuole esagerare e si ha una GPU al top (4090?) c'è il 13700k.
Portarsi a casa un 13900k che vince di misura sul 13700k principalmente per le maggiori frequenze (ma intanto si può overcloccare) e in piccolissima parte per la maggiore cache è stupido, soprattutto perchè gestire un 13900k a livello di raffreddamento è tutt'altro che facile.

Ryzen 9 7950x e ii9 13900k sono CPU da giudicare principalmente in compiti di produttività. E qui la partita è aperta: a volte vince l'uno, a volte l'altro. Tendenzialmente Intel è meglio nei carichi meno parallelizzati, AMD prevale leggermente in quelli che scalano bene su tanti core. Ma non è nemmeno vero sempre. Quindi bsiogna scegliere per forza in base all'utilizzo.

Se invece uno mi dicesse che vuole fare un PC ad uso misto, lavoro, con software dove necessita di più core possibili, e anche gaming e il budget non è un problema, si va di 13900k. Poi si accende una candela a Lourdes per sperare che gli capiti un buon esemplare, perchè anche i 13900k usciti meglio sono un incubo da raffreddare, pure con AIO di fascia alta...

sarei curioso di vedere un 12900k/ks allineato alle stesse frequenze del 13900k per vedere un confronto mele con mele in game,stessa cosa portare un 12700k alle stesse frequenze del 13700,sono sicuro che quella poca percentuale di differenza si assottiglierebbe ulteriormente

Qui c'è quello che cerchi: https://www.techspot.com/review/2552-intel-core-i9-13900k/

Il grafico a cui mi riferisco in particolare è questo:

1666349814146.png

Sì, confermo che cambia poco.
Del resto gli E core aggiuntivi in gaming non contano nulla (qui sono addirittura disattivi, ma sarebbe lo stesso non lo fossero): il 13900k praticamente vince solo per la maggior cache. L'architettura è sostanzialmente identica.

ma c'è gente che lo compra ugualmente...
Sul 7950X siamo all'assurdo che in gaming va MEGLIO se disattivi 8 core 🤦‍♂️
In pratica compri una CPU da 900 euro e la disattivi a metà !!!

E sul 13900K non è molto diverso il discorso: i core che contano sono i P Core, e quelli sono 8 come sul 13700K...
Alcune differenze ci sono solo su frequenza e cache, ma come si vede in gaming tra un 13700K ed un 13600K a 1440P la differenza è ridicola

Visualizza allegato 444107

Ma la gente è convinta che se spende di più fa più figo, anche se poi la spesa è ingiustificata.
Diciamo che anche se io avessi una 4090, che è la scheda più esigente oggi (ed inutile per il gaming, specifichiamolo) andrei su un 13600K per giocare. Se proprio volessi esagerare un 13700K.

Sono d'accordo con il concetto espresso: 13600k è già una CPU ottima per giocare e non serve di più. 13700k per chi vuole il top ad ogni costo, almeno fin quando non arriveranno i nuovi Ryzen con cache 3D.
Con il 13900k si spendono soldi e ci si complica la vita per niente.

Però ad onor del vero, i test di TPU in questo caso non li ritengono i migliori per evidenziare le differenze tra le CPU, perchè testare con una RTX3080 appiatisce i risultati, rispetto a quanto si otterrebbe con una delle nuove GPU top di gamma.
Però sicuramente sono un buon reminder che con una GPU "umana" come la RTX3080 non serve una CPU assurda per trarne (quasi) il massimo.
 
Però ad onor del vero, i test di TPU in questo caso non li ritengono i migliori per evidenziare le differenze tra le CPU, perchè testare con una RTX3080 appiatisce i risultati, rispetto a quanto si otterrebbe con una delle nuove GPU top di gamma.
Però sicuramente sono un buon reminder che con una GPU "umana" come la RTX3080 non serve una CPU assurda per trarne (quasi) il massimo.

si, in effetti non capisco perché non testino con la 4090, visto che ce l'hanno.
Per quanto assurda come configurazione, mostrerebbe le differenze meglio.
 
si, in effetti non capisco perché non testino con la 4090, visto che ce l'hanno.
Per quanto assurda come configurazione, mostrerebbe le differenze meglio.

Perchè riciclano i dati: sicuramente non testano tutte quelle CPU in tutti quei carichi ogni volta che esce una recensione nuova.
Non avranno avuto tempo, in questi giorni, di aggiornare i dati rifacendo i test con la RTX4090 o magari stanno aspettando che esca anche la RX 7900 XT per decidere quale usare.
Comunque sicuramente in futuro cambieranno GPU pure loro.
 
Perchè riciclano i dati: sicuramente non testano tutte quelle CPU in tutti quei carichi ogni volta che esce una recensione nuova.
Non avranno avuto tempo, in questi giorni, di aggiornare i dati rifacendo i test con la RTX4090 o magari stanno aspettando che esca anche la RX 7900 XT per decidere quale usare.
Comunque sicuramente in futuro cambieranno GPU pure loro.
si ma così falsano i dati, cioè se per esempio esce un aggiornamento di un gioco, quello potrebbe influire sui risultati (in positivo o in negativo). O no?
 
si ma così falsano i dati, cioè se per esempio esce un aggiornamento di un gioco, quello potrebbe influire sui risultati (in positivo o in negativo). O no?

Ho controllato: stando alle note di test, mantengono le stesse versioni dei software e dei driver per tutti i test:

Dicono anche di non riciclare i dati, ma mi piacerebbe capire cosa significa esattamente. Forse è inteso nel senso che non riciclano dati ottenuti in precedenza con software, driver o BIOS più vecchi e questo mi sembra assolutamente corretto. Ma di sicuro non ritestano tutto ad ogni recensione: hanno dei dati di repertorio, che aggiornano ogni tot e inseriscono i prodotti nuovi. Altrimenti non è umanamente possibile fare tutti quei test nei pochi giorni prima della pubblicazione in cui si ha a disposizione il prodotto da testare.
Infatti i driver grafici usati, i 516.94, risalgono al 9 agosto e sono ormai superati da due release più recenti (27 settembre e 12 ottobre).
 
a chi interessa i prodigeek hanno testato con la 4090 e rifatto tutti i test delle alte cpu, c'è da dire che pero' hanno usato un preset bassissimo, e poi hanno rilasciato un ulteriore test in QHD, il video dura 50 minuti 😆
 
Pubblicità
Pubblicità
Indietro
Top