UFFICIALE Intel Alder Lake (Gen 12)

Pubblicità
Io se i prezzi non sono folli potrei prendere una 4090


Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma dai… la 3090 è stata una scheda ridicola, non tanto per prezzo quanto per il consumo ed il modesto incremento di prestazioni rispetto alla 3080. Una scheda che ha senso solo per chi fa rendering GPU ed allora necessita di quei 24 GB.
la 4090 mi aspetto che replichi la situazione in scala maggiorata.
Le soluzioni più equilibrate in questa generazione sono state la 3060 Ti e la 3080. Mi aspetto cose simili per la prossima generazione (beh magari spero la 4070 venga fuori meglio della 3070 che è stata quella che mi ha deluso di più)
 
Ma dai… la 3090 è stata una scheda ridicola, non tanto per prezzo quanto per il consumo ed il modesto incremento di prestazioni rispetto alla 3080. Una scheda che ha senso solo per chi fa rendering GPU ed allora necessita di quei 24 GB.
la 4090 mi aspetto che replichi la situazione in scala maggiorata.
Le soluzioni più equilibrate in questa generazione sono state la 3060 Ti e la 3080. Mi aspetto cose simili per la prossima generazione (beh magari spero la 4070 venga fuori meglio della 3070 che è stata quella che mi ha deluso di più)

se al posto della 3080 parlavi della 3080 ti mi tornava, se parli della 3080 no.
la 3080 è una scheda che non è in grado di reggere le texture di un gioco come far cry per via della VRAM,
quella è una scheda ridicola sopratutto se considerata in un'ottica della prossima generazione di giochi.

non dimentichiamoci che oggi gli engine sono tutti calibrati sulla old gen,
mo che arrivano i titoli next gen la sentite cosa vuol dire avere 10GB di VRAM :D
 
se al posto della 3080 parlavi della 3080 ti mi tornava, se parli della 3080 no.
la 3080 è una scheda che non è in grado di reggere le texture di un gioco come far cry per via della VRAM,
quella è una scheda ridicola sopratutto se considerata in un'ottica della prossima generazione di giochi.

ma quando mai ?
La 3080 in Far Cry non ha alcun problema…

non dimentichiamoci che oggi gli engine sono tutti calibrati sulla old gen,
mo che arrivano i titoli next gen la sentite cosa vuol dire avere 10GB di VRAM :D
La quantità di VRAM necessaria dipende dalla risoluzione.
I 10 GB potranno diventare un limite solo in 4K.
E per me in 4K con questa generazione il limite sono le prestazioni più che la VRAM
 
ma quando mai ?
La 3080 in Far Cry non ha alcun problema…


La quantità di VRAM necessaria dipende dalla risoluzione.
I 10 GB potranno diventare un limite solo in 4K.
E per me in 4K con questa generazione il limite sono le prestazioni più che la VRAM

Dai max prima di parlare devi averlo provato :)
La maggior parte dei titoli tripla A sono giocabili in 4k con una 3080 se si hanno come target i 60fps.

Con le texture high res far cry 6 in 4k necessità di più di 11GB di vram.
Mentre sto giocando mi esce un popup di Windows che mi avvisa che è finita la vram e il gioco inizia a scalzettare e io ho 11GB di vram. Prima che la vram finisca il gioco gira fluidissimo grazie al fsr.

10GB è roba da old gen, fatevene una ragione.
 
Ma dai… la 3090 è stata una scheda ridicola, non tanto per prezzo quanto per il consumo ed il modesto incremento di prestazioni rispetto alla 3080. Una scheda che ha senso solo per chi fa rendering GPU ed allora necessita di quei 24 GB.
la 4090 mi aspetto che replichi la situazione in scala maggiorata.
Le soluzioni più equilibrate in questa generazione sono state la 3060 Ti e la 3080. Mi aspetto cose simili per la prossima generazione (beh magari spero la 4070 venga fuori meglio della 3070 che è stata quella che mi ha deluso di più)

No no a sto giro il chippone distanzia di brutto
e0f688549d74e454c537166e34c254fb.jpg



Inviato dal mio iPhone utilizzando Tapatalk Pro
 
No no a sto giro il chippone distanzia di brutto
e0f688549d74e454c537166e34c254fb.jpg



Inviato dal mio iPhone utilizzando Tapatalk Pro
Vedremo… vedremo… questi leak li prendo sempre con le pinze.
Già sembrerebbe che Nvidia abbia rivisto al ribasso i TGP delle schede, rendendosi probabilmente conto che erano improponibili, e siccome i miracoli non esistono, mi aspetto che abbiano ottenuto questo ribasso limando le frequenze (e di conseguenza le prestazioni).
Vedremo davvero questa nuova generazione alle prime prove pratiche, e da li prenderemo le nostre decisioni.

Personalmente ho deciso che non starò dietro alle follie di Intel/AMD/Nvidia sui consumi, da qui in avanti. Avere 3 PC in casa inizia a farsi sentire sulla bolletta e francamente sono stufo.
Prenderò hardware sensato.

Dai max prima di parlare devi averlo provato :)
La maggior parte dei titoli tripla A sono giocabili in 4k con una 3080 se si hanno come target i 60fps.

Con le texture high res far cry 6 in 4k necessità di più di 11GB di vram.
Mentre sto giocando mi esce un popup di Windows che mi avvisa che è finita la vram e il gioco inizia a scalzettare e io ho 11GB di vram. Prima che la vram finisca il gioco gira fluidissimo grazie al fsr.

10GB è roba da old gen, fatevene una ragione.
Ho Far Cry 6 installato sul mio PC ed una 3080 nel case.
Ho finito il gioco 2 volte (mi sono divertito in coop con mio figlio).

Il 4K per me non è un opzione sensata con questa generazione: arrivare a 60 FPS con uno shooter non è quello che mi interessa.
Per il 1440P non ha alcun senso installare texture 4K.

Non cambierò il mio monitor 1440P per molti anni ancora, perché a 27” non ha alcun senso andare sul 4K neppure per chi ha un visus ancora buono come il mio.
 
Vedremo… vedremo… questi leak li prendo sempre con le pinze.
Già sembrerebbe che Nvidia abbia rivisto al ribasso i TGP delle schede, rendendosi probabilmente conto che erano improponibili, e siccome i miracoli non esistono, mi aspetto che abbiano ottenuto questo ribasso limando le frequenze (e di conseguenza le prestazioni).
Vedremo davvero questa nuova generazione alle prime prove pratiche, e da li prenderemo le nostre decisioni.

Personalmente ho deciso che non starò dietro alle follie di Intel/AMD/Nvidia sui consumi, da qui in avanti. Avere 3 PC in casa inizia a farsi sentire sulla bolletta e francamente sono stufo.
Prenderò hardware sensato.


Ho Far Cry 6 installato sul mio PC ed una 3080 nel case.
Ho finito il gioco 2 volte (mi sono divertito in coop con mio figlio).

Il 4K per me non è un opzione sensata con questa generazione: arrivare a 60 FPS con uno shooter non è quello che mi interessa.
Per il 1440P non ha alcun senso installare texture 4K.

Non cambierò il mio monitor 1440P per molti anni ancora, perché a 27” non ha alcun senso andare sul 4K neppure per chi ha un visus ancora buono come il mio.

La differenza tra il 4k ed il 2k per il mio visus è molto più che apprezzabile.
Se non hai un monitor 4k, a quanti giochi hai giocato in 4k per poter dire quello che dici?

Ti dico solo che quelli che affermi è ribadito da tanta gente che non ha monitor 4k e non è assolutamente vero soprattutto con i titoli moderni dove le texture appunto permettono di dare il massimo.

Anche con le tecniche come il dlss o l'fsr il 4k da grossi vantaggi perché in 2k si parte da una risoluzione troppo bassa e non ha molto senso.

Non voglio convincere nessuno, è una mia personale opinione, io ho dei buoni monitor 2k e 4k, li ho messi a confronto uno vicino all'altro e la differenza è notevole con i titoli moderni. Non tornerei mai indietro ad un 2k.
 
Ma con un i7 12700 arrivare tra 65 a 76 gradi , è normale ? Stavo giocando un'oretta a spiderman remastered tutto maxato e in 4k

le mie caratteristiche del pc le sapete già come dai vecchi post
 
La differenza tra il 4k ed il 2k per il mio visus è molto più che apprezzabile.
Se non hai un monitor 4k, a quanti giochi hai giocato in 4k per poter dire quello che dici?

Ti dico solo che quelli che affermi è ribadito da tanta gente che non ha monitor 4k e non è assolutamente vero soprattutto con i titoli moderni dove le texture appunto permettono di dare il massimo.

Anche con le tecniche come il dlss o l'fsr il 4k da grossi vantaggi perché in 2k si parte da una risoluzione troppo bassa e non ha molto senso.

Non voglio convincere nessuno, è una mia personale opinione, io ho dei buoni monitor 2k e 4k, li ho messi a confronto uno vicino all'altro e la differenza è notevole con i titoli moderni. Non tornerei mai indietro ad un 2k.
Non si chiamano neppure 2K…

Io in mezzo ai PC ci vivo, di monitor 4K ne ho provati a decine. La risoluzione da sola non significa nulla. L’unico parametro che l’occhio umano può valutare è la densità di pixel. Su un 27” i 1440P sono più che sufficienti per saturare la capacità di risoluzione dell’occhio umano (beh bisognerebbe inserire anche la distanza nell’equazione, ma per semplicità consideriamo una normale distanza “sedia-scrivania” ).
Il 4K nasce ed ha senso per le diagonali maggiori (io direi almeno 32” ma anche di più).
Io un 32” sulla scrivania non ce lo metto (ho un 27 ed un 24), se tu lo usi può aver senso il 4K, altrimenti è solo suggestione.

Ma con un i7 12700 arrivare tra 65 a 76 gradi , è normale ? Stavo giocando un'oretta a spiderman remastered tutto maxato e in 4k

il gaming non è il modo giusto per capire se il PC è ben dissipato. Fai un Cinebench e vediamo.
Dette così non sembrano temperature preoccupanti.

le mie caratteristiche del pc le sapete già come dai vecchi post

E secondo te in un forum con migliaia di iscritti ci possiamo ricordare del tuo PC ? ?
O le metti in firma, oppure le ripeti ogni volta le caratteristiche ??‍♂️
 
Non si chiamano neppure 2K…

Io in mezzo ai PC ci vivo, di monitor 4K ne ho provati a decine. La risoluzione da sola non significa nulla. L’unico parametro che l’occhio umano può valutare è la densità di pixel. Su un 27” i 1440P sono più che sufficienti per saturare la capacità di risoluzione dell’occhio umano (beh bisognerebbe inserire anche la distanza nell’equazione, ma per semplicità consideriamo una normale distanza “sedia-scrivania” ).
Il 4K nasce ed ha senso per le diagonali maggiori (io direi almeno 32” ma anche di più).
Io un 32” sulla scrivania non ce lo metto (ho un 27 ed un 24), se tu lo usi può aver senso il 4K, altrimenti è solo suggestione.

Dici di non voler usare texture high res perché servono solo in 4k ma poi il 4k non serve.
I pixel non si vedono più nemmeno su un 27 1440p, non è questo il punto.

Giochi come far cry 6, metro Exodus, cyberpunk, ecc ecc beneficiano tanto del 4k proprio per via delle texture a più alta risoluzione che in 4k non vengono riscalate o hanno una minore compressione.

Certo ci sono persone che valutano la qualità grafica dai video YouTube dicendo che ps5 è paragonabile al PC, tutto dipende da quanto l'occhio è capace di percepire le differenze.

Su un gioco che conosco, un monitor 4k 27 pollici te lo riconosco in una frazione di secondo rispetto ad un 27 1440p.
 
Dici di non voler usare texture high res perché servono solo in 4k ma poi il 4k non serve.
I pixel non si vedono più nemmeno su un 27 1440p, non è questo il punto.

Giochi come far cry 6, metro Exodus, cyberpunk, ecc ecc beneficiano tanto del 4k proprio per via delle texture a più alta risoluzione che in 4k non vengono riscalate o hanno una minore compressione.

Certo ci sono persone che valutano la qualità grafica dai video YouTube dicendo che ps5 è paragonabile al PC, tutto dipende da quanto l'occhio è capace di percepire le differenze.

Su un gioco che conosco, un monitor 4k 27 pollici te lo riconosco in una frazione di secondo rispetto ad un 27 1440p.
Siamo abbondantemente OT qui… puoi aprire un thread apposito in schede video oppure monitor se vuoi parlarne.

4K su un 27” non serve ad una fava. Poi tu sei liberissimo di usare un 8K su un 24” peraltro…
La compressione con la risoluzione non c’entra nulla: texture high anzi potrebbero dover essere compresse anche di più per motivi di prestazione. Ma l’algoritmo di compressione è interno e l’utente non ne ha alcun controllo.
Il discorso su youtube poi non capisco cosa c’entri… nessuno sta parlando di PS5 qui.

Quindi non è un 12700 ma è un 12700KF, che è diverso…
Così ad occhio è tutto in ordine, supponendo che tu abbia temperature estive in casa.
Per darti un paragone ecco il mio 12700K con 30°

CB23 12700K daily SUMMER.webp

Se vuoi qualche analisi più precisa, includi più dati come ho fatto io visto che non riesco a valutare i consumi dalla tua schermata.
 
Siamo abbondantemente OT qui… puoi aprire un thread apposito in schede video oppure monitor se vuoi parlarne.

4K su un 27” non serve ad una fava. Poi tu sei liberissimo di usare un 8K su un 24” peraltro…
La compressione con la risoluzione non c’entra nulla: texture high anzi potrebbero dover essere compresse anche di più per motivi di prestazione. Ma l’algoritmo di compressione è interno e l’utente non ne ha alcun controllo.
Il discorso su youtube poi non capisco cosa c’entri… nessuno sta parlando di PS5 qui.


Quindi non è un 12700 ma è un 12700KF, che è diverso…
Così ad occhio è tutto in ordine, supponendo che tu abbia temperature estive in casa.
Per darti un paragone ecco il mio 12700K con 30°

Visualizza allegato 439498

Se vuoi qualche analisi più precisa, includi più dati come ho fatto io visto che non riesco a valutare i consumi dalla tua schermata.
Tue personalissime opinioni che non trovano riscontro con persone da dieci diottrie :D
Quando si scade nel tecnico di come funzionano gli engine non si può leggere quello che scrivi, perché non ti limiti a dire la tua e basta senza andare in un territorio che non conosci?
La compressione delle texture non c'entra niente con la risoluzione? Direi che è l'esatto opposto.

Quello che dici tu era vero qualche anno fa ma non è più così da tempo.


Adesso direi che siamo ot e che il discorso si può chiudere, d'altronde l'hai iniziato tu sempre partendo dallinesattezza che 10GB di VRAM sono sufficienti al giorno d'oggi. era bene non lasciare sempre correre queste inesattezze e credenze popolari perché questo thread sta diventando la sagra del luogo comune.

Non credete a me, cercate un sito autorevole che parli dell'argomento e vedrete che è come dico io. ;)
 
Ultima modifica:
Ed eccolo il tech che conosciamo tutti: voi poveracci accontentatevi di 1440P perché non potete permettervi di più (Fortunatamente hai editato… ma è stato letto, tranquillo… il 1440P è consigliato da chi non può permettersi il 4K… noi siamo poveracci che possiamo farci ? ??‍♂️).

Sei un disco rotto.
Il video che hai linkato LETTERALMENTE consiglia il 1440P dicendo che non vale la pena andare sopra su quella diagonale.

per inciso lezioni su cosa io capisca o meno da uno che definisce il 1440P come “2K” non ne accetto, ma vabbé ??‍♂️
 
Ultima modifica:
Ed eccolo il tech che conosciamo tutti: voi poveracci accontentatevi di 1440P perché non potete permettervi di più (Fortunatamente hai editato… ma è stato letto, tranquillo… il 1440P è consigliato da chi non può permettersi il 4K… noi siamo poveracci che possiamo farci ? ??‍♂️).

Sei un disco rotto.
Il video che hai linkato LETTERALMENTE consiglia il 1440P dicendo che non vale la pena andare sopra su quella diagonale.

per inciso lezioni su cosa io capisca o meno da uno che definisce il 1440P come “2K” non ne accetto, ma vabbé ??‍♂️

Non mi permetterei mai di darti del poveraccio e non lo penso minimamente.

Il video parla di diminishing return, qualcosa che interessa alle persone che badano al rapporto qualità prezzo.

Molto diverso dal dire come dici tu che non serve a niente. Il video dice anche che in 4k la resa grafica è migliore, non tanto migliore da giustificare una spesa maggiore per alcuni.
È un controsenso però comprare schede di fascia alta e ostinarsi a giocare a 1440P, soprattutto ora che usciranno le serie 4 che non avranno più il problema della vram.
 
Pubblicità
Pubblicità
Indietro
Top