UFFICIALE AMD Big NAVI RDNA2

Pubblicità
Oddio, XFX in realtà lato schede grafiche ha fatto un sacco di casini: di loro schede veramente buone non me ne ricordo ?
--- i due messaggi sono stati uniti ---


Io non l'ho mai capita come regola e quando potevo girarmi dall'altra parte lo facevo ?
Se è ai livelli della thicc III è ottima.

Comunque ho comprato stamattina Grid 2019, 5 euro la Deluxe su kinguin, e niente sto a 55-60 fps in QHD tutto su Alto (c'è anche Ultra).

Fondamentalmente finché uso sti giochi ben ottimizzati una 6800 non mi serve a nulla, farei il doppio degli fps ma a che pro che tanto ho la TV a 60hz? Sprecherei solo soldi adesso.

Almeno la base c'è ed è future proof, monto domani il PC nuovo, ma posso tranquillamente aspettare per la GPU, in kulo a loro, allo shortage e alle speculazioni.
 
Oddio, XFX in realtà lato schede grafiche ha fatto un sacco di casini: di loro schede veramente buone non me ne ricordo ?

Bhe si , solitamente XFX è sempre tra i brand più economici , ed alcune schede che mi ricordo come quelle della prima linea delle Thicc 5700/5700xt lasciavano un pò a desiderare soprattutto per il sistema di dissipazione (memorie che andavano a 90°+) e anche per la qualità dei materiali. Poi hanno effettuato il restyling delle Thicc 5700/5700xt e le hanno migliorate rispetto al passato , almeno parlando di dissipazione . A memoria anche le rx590 Fatboy mi pare che non erano granchè lato dissipazione , scaldavano come un fornetto..

Io invece , ho una 5600xt XFX Thicc 3 triple fan e devo dire che provandola sul campo la sto trovando ottima , silenziosa e con ottime temperature che non superano mai i 68/70° nei giochi . Quindi fino ad ora esperienza positiva. ?Sono curioso di vedere la recensione della loro 6800xt , anche se le dimensioni mi sembrano veramente eccessive e potrebbe non entrare in tutti i case ?
 
Screenshot_2020-11-21-16-43-25-391_com.facebook.katana.jpg
Come ovvio che fosse del resto gli sviluppatori sono costretti a tenere ancora la old gen come riferimento, a sto punto questa è una generazione di GPU desktop di transizione dove non varrà molto la pena spenderci troppi soldi, cioè vanno forte per carità ma per cosa, la vera next gen di giochi arriverà fra un paio di anni.
--- i due messaggi sono stati uniti ---
Bhe si , solitamente XFX è sempre tra i brand più economici , ed alcune schede che mi ricordo come quelle della prima linea delle Thicc 5700/5700xt lasciavano un pò a desiderare soprattutto per il sistema di dissipazione (memorie che andavano a 90°+) e anche per la qualità dei materiali. Poi hanno effettuato il restyling delle Thicc 5700/5700xt e le hanno migliorate rispetto al passato , almeno parlando di dissipazione . A memoria anche le rx590 Fatboy mi pare che non erano granchè lato dissipazione , scaldavano come un fornetto..

Io invece , ho una 5600xt XFX Thicc 3 triple fan e devo dire che provandola sul campo la sto trovando ottima , silenziosa e con ottime temperature che non superano mai i 68/70° nei giochi . Quindi fino ad ora esperienza positiva. ?Sono curioso di vedere la recensione della loro 6800xt , anche se le dimensioni mi sembrano veramente eccessive e potrebbe non entrare in tutti i case ?
Si la thicc II avevano cannato sulla dissipazione dei vrm mi pare, la thicc III è praticamente un Top.
 
Di XFX con problemi di temperature su VRM e memorie me ne ricordo diverse: la Thicc II, qualche cosa ai tempi delle RX480\RX580 ma anche le famigerate HD7970 di cui non ricordo il nome, andando ancora indietro.
Poi ci sarà stato anche qualche modello buono, ma non li definirei una certezza in ambito schede video: una certezza può essere ad esempio Sapphire di cui non ricordo modelli cannati onestamente.
Ma la cosa migliore è, come sempre, valutare il modello specifico senza farsi influenzare troppo dal marchio perchè tutti (o quasi tutti) hanno avuto alti e bassi.
 
Facevo una riflessione personale, mi fa profonda tristezza che adesso delle dimensioni dei chip, dei consumi e dell'efficienza non interessi più a nessuno, ho letto per anni e anni su tutti i siti, tutte le recensioni e tutti i forum che calcolavano la bolletta al centesimo, di quanto GCN fosse inefficiente nonostante le prestazioni, ma come volevasi dimostrare erano tutte scuse, ora che le cose si sono ribaltate conta 0.
Capisco chi nel corso degli anni abbia smesso di seguire queste cose, mi è decisamente chiaro adesso di come sia posizionata la stampa di settore e l'influenza media delle persone al marchio nVidia.
 
Ultima modifica da un moderatore:
Facevo una riflessione personale, mi fa profonda tristezza che adesso delle dimensioni dei chip, dei consumi e dell'efficienza non interessi più a nessuno, ho letto per anni e anni su tutti i siti, tutte le recensioni e tutti i forum che calcolavano la bolletta al centesimo, di quanto GCN fosse inefficiente nonostante le prestazioni, ma come volevasi erano tutte scuse, ora che le cose si sono ribaltate conta 0.
Capisco chi nel corso degli anni abbia smesso di seguire queste cose, mi è decisamente chiaro adesso di come sia posizionata la stampa di settore e l'influenza media delle persone al marchio nVidia.
ma e uno scherzo?
 
A me interessa ancora... ma non fare i conti per le bollette, che veramente, lascia il tempo che trova.
Piuttosto m'importa perché si possono fare interessanti osservazioni dal punto di vista tecnologico.
Si infatti io sono uno di quelli che non ha mai fatto il calcolo della bolletta, ma va considerato l'alimentatore giusto e la dissipazione giusta, quindi maggiori costi fissi e soprattutto calore da smaltire e spazio da occupare.
Certo che 20 o 50 watt non sono nulla è vero, ma quando diventano 100 come alcune custom della 3080 o la 3090 lo sono eccome, infatti ho sempre detto che la Vega 64 era un Fail vs 1080, mentre la Vega56 decisamente buona, tanto è che nVidia ha fatto la 1070ti per pareggiarla.

Tecnicamente c'è che oggi si è ribaltata la storia, l'architettura nVidia è più General Purpose, occupa più spazio e transistor a pari prestazioni vs AMD, ciò significa maggiori costi nel produrre i chip e rese più basse, certo non sappiamo quanto costa il silicio Samsung vs quello TSMC, presumo che alla fine gli costi uguale, chip più piccolo ma wafer più caro, si compensa.

Nel 2017 c'era il perculamento generale di come gp104 pareggiasse vega10 con 150mmq in meno e 100watt meno, oggi è l'esatto opposto.

Comunque sono entrambi al limite del silicio, la differenza sta che le custom di Navi21 si potranno overclockare meglio, mentre le Ga102 sono già tirare a stock, questo fa recuperare un buon 10-15% di performance alle rx6800, cosa che su ga102 non succede, ci prendi un 3-5%.
 
Facevo una riflessione personale, mi fa profonda tristezza che adesso delle dimensioni dei chip, dei consumi e dell'efficienza non interessi più a nessuno, ho letto per anni e anni su tutti i siti, tutte le recensioni e tutti i forum che calcolavano la bolletta al centesimo, di quanto GCN fosse inefficiente nonostante le prestazioni, ma come volevasi dimostrare erano tutte scuse, ora che le cose si sono ribaltate conta 0.
Capisco chi nel corso degli anni abbia smesso di seguire queste cose, mi è decisamente chiaro adesso di come sia posizionata la stampa di settore e l'influenza media delle persone al marchio nVidia.

Io ti posso parlare solo per me stesso e non per altri , e ti dico che l'efficienza è una cosa che guardo e a cui do una certa importanza. Ovviamente non mi interessa calcolare l'aumento o il risparmio in bolletta , non saranno quei 10 euro in più o in meno a fare la differenza . Ma ne faccio una questione anche a livello di progettazione : potrei sbagliarmi ma per me una scheda più efficiente significa che è progettata meglio ed è tecnologicamente avanti su certi aspetti, e soprattutto equivale a meno calore generato. Non è affatto male avere una scheda che consuma e scalda meno a parità di performance.

Però bisogna dare il giusto peso alle cose imho , e quindi rimane sempre una questione un po' secondaria rispetto alle performance pure o alle tecnologie relative alle innovazioni grafiche come il RT ad esempio.

Poi se mi dici che spesso viene data importanza o meno a certe questioni in base al colore della bandiera , ti posso dare anche ragione e mi trovi d'accordo , ma purtroppo non è ne la prima e non sarà di certo l'ultima volta che fanno simili giochetti.
 
Facevo una riflessione personale, mi fa profonda tristezza che adesso delle dimensioni dei chip, dei consumi e dell'efficienza non interessi più a nessuno, ho letto per anni e anni su tutti i siti, tutte le recensioni e tutti i forum che calcolavano la bolletta al centesimo, di quanto GCN fosse inefficiente nonostante le prestazioni, ma come volevasi dimostrare erano tutte scuse, ora che le cose si sono ribaltate conta 0.
Capisco chi nel corso degli anni abbia smesso di seguire queste cose, mi è decisamente chiaro adesso di come sia posizionata la stampa di settore e l'influenza media delle persone al marchio nVidia.
Si può anche rigirare la frittata. Prima si portava acqua al mulino di AMD dicendo che l'efficienza non era importante e che avere un chip più grosso a parità di prezzo era un plus. Ho letto parecchie volte frasi del tipo "Nvidia fa pagare i suoi chippini più di AMD che fa chip di 1 metro quadro" "in bolletta il risparmio è marginale, 50 watt in più non sono nulla". Con la differenza che si parlava di Polaris vs Pascal e la differenza di 50 watt era in percentuale molto più grande rispetto ai 50 watt di differenza fra 3080 e 6800xt. Ma questi sono i soliti discorsi da fanboy. Ad oggi l'efficienza è a favore di AMD ma marginalmente e della dimensione del chip non dovrebbe fregare a nessuno, visto che non impatta in nessun modo sull'esperienza d'uso. Contano solo prestazioni, temperature, consumi, features e driver
 
Facevo una riflessione personale, mi fa profonda tristezza che adesso delle dimensioni dei chip, dei consumi e dell'efficienza non interessi più a nessuno, ho letto per anni e anni su tutti i siti, tutte le recensioni e tutti i forum che calcolavano la bolletta al centesimo, di quanto GCN fosse inefficiente nonostante le prestazioni, ma come volevasi dimostrare erano tutte scuse, ora che le cose si sono ribaltate conta 0.
Capisco chi nel corso degli anni abbia smesso di seguire queste cose, mi è decisamente chiaro adesso di come sia posizionata la stampa di settore e l'influenza media delle persone al marchio nVidia.

Non mi trovi d'accordo con questa riflessione.
Quello che penso io è che sin dalla notte dei tempi in questo mondo c'è sempre stata una lotta di fazioni. Questo se mai è il fenomeno interessante che merita una riflessione: io capisco che per esperienza pregressa ci si possa fidare più di un marchio, ma non capisco la partigianeria al limite del fanatismo religioso verso una multinazionale con cui si pongono alcuni. Ma ciò non riguarda la sola Nvidia o la sola Intel: riguarda Nvidia, Intel, Apple (soprattutto Apple!), console vs PC (ok queste non sono aziende ma vale lo stesso discorso).
Allo stesso modo non vedo assolutamente una stampa schierata in blocco contro AMD o contro Nvidia o contro Intel: si capisce che c'è chi simpatizza più per l'una che per le altre e onestamente per quanto riguarda la stampa specializzata mi sembra già questa un anomalia, ma intuisco che ci possano essere anche interessi economici sotto.

Esclusi i fanatici di cui parlavo prima, che ovviamente si attaccano a tutto per portare acqua al proprio mulino, chi riteneva l'efficienza importante la ritiene importante anche ora e viceversa.
Io personalmente l'ho sempre considerato un parametro importante in fase d'acquisto, non l'unico, e ha contribuito ad indirizzare le mie scelte.
Discorso un po' diverso per il die size, che alla fine è più una curiosità da appasionati che altro: se l'azienda X per raggiungere certe prestazioni ha bisogno un chip del 50% più grande rispetto alla concorrenza è un problema dell'azienda X, ma a me in fase d'acquisto non interessa, purchè i prezzi di X e del concorrente di X siano allineati.

Si infatti io sono uno di quelli che non ha mai fatto il calcolo della bolletta, ma va considerato l'alimentatore giusto e la dissipazione giusta, quindi maggiori costi fissi e soprattutto calore da smaltire e spazio da occupare.
Certo che 20 o 50 watt non sono nulla è vero, ma quando diventano 100 come alcune custom della 3080 o la 3090 lo sono eccome, infatti ho sempre detto che la Vega 64 era un Fail vs 1080, mentre la Vega56 decisamente buona, tanto è che nVidia ha fatto la 1070ti per pareggiarla.

Tecnicamente c'è che oggi si è ribaltata la storia, l'architettura nVidia è più General Purpose, occupa più spazio e transistor a pari prestazioni vs AMD, ciò significa maggiori costi nel produrre i chip e rese più basse, certo non sappiamo quanto costa il silicio Samsung vs quello TSMC, presumo che alla fine gli costi uguale, chip più piccolo ma wafer più caro, si compensa.

Nel 2017 c'era il perculamento generale di come gp104 pareggiasse vega10 con 150mmq in meno e 100watt meno, oggi è l'esatto opposto.

Comunque sono entrambi al limite del silicio, la differenza sta che le custom di Navi21 si potranno overclockare meglio, mentre le Ga102 sono già tirare a stock, questo fa recuperare un buon 10-15% di performance alle rx6800, cosa che su ga102 non succede, ci prendi un 3-5%.

E qui arrivo alla seconda parte del discorso. Non puoi assolutamente paragonare il divario di efficienza che c'era tra Nvidia e AMD qualche anno fa a quello che c'è oggi. Vega64 consumava quasi il doppio rispetto alla GTX1080 per offrire praticamente le stesse prestazioni! E se Vega64 era un disastro in termini di efficienza non è che Vega56 fosse sta gran cosa: meglio della 64 ma comunque 60 watt più della GTX1080 per andare un po' meno...

Capisci anche tu che parliamo di proporzioni totalmente diverse a quelle che si ritrovano ora tra Navi21 e il GP102: adesso vince AMD lato efficienza, ma è una vittoria di misura. E una vittoria tra l'altro solo in rastering, perchè se misurassimo l'efficienza con un carico RT vincerebbero le schede Nvidia.
Forse se ne parla meno per questo: perchè il divario di oggi è una frazione di quello che c'era un tempo.
Casomai c'è da dare atto ad AMD di essere riuscita a recuperare un gap enorme, fatto per niente scontato: ma questo è un'altro discorso.

Infine, piccola nota a margine: a me solitamente non piace fare i conti nei PC delle altre persone, quindi ti prego di non prendertela troppo. Ma mi permetto di notare che se l'efficienza per te è importante come dici, è un po' strano vederti utilizzare FX8320e + Vega56, entrambi componenti non esattamente al top da questo punto di vista per il loro periodo.
Ora sicuramente avrai fatto i tuoi conti per sceglierli, è sacrosanto e sicuramente avevi ragione tu: ma di sicuro facendolo hai sacrificato l'efficienza.
 
Ultima modifica:
Non mi trovi d'accordo con questa riflessione.
Quello che penso io è che sin dalla notte dei tempi in questo mondo c'è sempre stata una lotta di fazioni. Questo se mai è il fenomeno interessante che merita una riflessione: io capisco che per esperienza pregressa ci si possa fidare più di un marchio, ma non capisco la partigianeria al limite del fanatismo religioso verso una multinazionale con cui si pongono alcuni. Ma ciò non riguarda la sola Nvidia o la sola Intel: riguarda Nvidia, Intel, Apple (soprattutto Apple!), console vs PC (ok queste non sono aziende ma vale lo stesso discorso).
Allo stesso modo non vedo assolutamente una stampa schierata in blocco contro AMD o contro Nvidia o contro Intel: si capische che c'è chi simpatizza più per l'una che per le altre e onestamente per quanto riguarda la stampa specializzata mi sembra già questa un anomalia, ma intuisco che ci possano essere anche interessi economici sotto.

Esclusi i fanatici di cui parlavo prima, che ovviamente si attaccano a tutto per portare acqua al proprio mulino, chi riteneva l'efficienza importante la ritiene importante anche ora e viceversa.
Io personalmente l'ho sempre considerato un parametro importante in fase d'acquisto, non l'unico, ma ha contribuito ad indirizzare le mie scelte.
Discorso un po' diverso per il die size, che alla fine è più una curiosità da appasionati che altro: se l'azienda X per raggiungere certe prestazioni ha bisogno un chip del 50% più grande rispetto alla concorrenza è un problema dell'azienda X, ma a me in fase d'acquisto non interessa, purchè i prezzi di X e del concorrente di X siano allineati.



E qui arrivo alla seconda parte del discorso. Non puoi assolutamente paragonare il divario di efficienza che c'era tra Nvidia e AMD qualche anno a quello che c'è oggi. Vega64 consumava quasi il doppio rispetto alla GTX1080 per offrire praticamente le stesse prestazioni! E se Vega64 era un disastro in termini di efficienza non è che Vega56 fosse sta gran cosa: meglio della 64 ma comunque 60 watt più della GTX1080 per andare un po' meno...

Capisci anche tu che parliamo di proporzioni totalmente diverse a quelle che si ritrovano ora tra Navi21 e il GP102: adesso vince AMD lato efficienza, ma è una vittoria di misura. E una vittoria tra l'altro solo in rastering, perchè se misurassimo l'efficienza con un carico RT vincerebbero le schede Nvidia.
Forse se ne parla meno per questo: perchè il divario di oggi è una frazione di quello che c'era un tempo.
Casomai c'è da dare atto ad AMD di essere riuscita a recuperare un gap enorme: non è scontato. Ma questo è un'altro discorso.

Infine, piccola nota a margine: a me solitamente non piace fare i conti nei PC delle altre persone, quindi ti prego di non prendertela troppo. Ma mi permetto di notare che se l'efficienza per te è importante come dici, è un po' strano vederti utilizzare FX8320e + Vega56, entrambi componenti non esattamente al top da questo punto di vista per il loro periodo.
Ora sicuramente avrai fatto i tuoi conti per sceglierli, è sacrosanto e sicuramente avevi ragione tu: ma di sicuro facendolo hai sacrificato l'efficienza.
te l'ho già detto che riesci a esprimere il mio pensiero meglio di me?

quoto ogni virgola, vorrei aggiungere anche che su questa fascia le prestazioni in RT oggi diventano motlo importanti almeno per me lo sono
 
Si può anche rigirare la frittata. Prima si portava acqua al mulino di AMD dicendo che l'efficienza non era importante e che avere un chip più grosso a parità di prezzo era un plus. Ho letto parecchie volte frasi del tipo "Nvidia fa pagare i suoi chippini più di AMD che fa chip di 1 metro quadro" "in bolletta il risparmio è marginale, 50 watt in più non sono nulla". Con la differenza che si parlava di Polaris vs Pascal e la differenza di 50 watt era in percentuale molto più grande rispetto ai 50 watt di differenza fra 3080 e 6800xt. Ma questi sono i soliti discorsi da fanboy. Ad oggi l'efficienza è a favore di AMD ma marginalmente e della dimensione del chip non dovrebbe fregare a nessuno, visto che non impatta in nessun modo sull'esperienza d'uso. Contano solo prestazioni, temperature, consumi, features e driver

Certo che si può girare la frittata, è proprio questo il punto secondo me. Vale tutto e niente , trovi scritto tutto ed il contrario di tutto ,e questo vale per ogno settore e categoria non solo nell'informatica, per cui sono discorsi che sarebbe bene mettere da parte imho.

Questa continua lotta tra Amd e Nvidia non porta assolutamente a nulla di concreto , è solo tempo perso. Sarebbe come decidere se è migliore Mcdonald's o Burger King. Semplicemente non puoi , sono concorrenti che si danno battaglia ed ognuno insegue e sta al passo con le idee dell'altro e se provi a fare sondaggi e a chiedere alle persone trovi chi ti dice meglio uno e chi dice meglio l'altro. Nessuno prevale mai nettamente sull'altro .

Io personalmente credo che sia giusto lodare Amd se fa qualcosa di buono , e fare altrettanto con Nvidia , senza sfociare nel fanatismo. Poi noi consumatori ci compriamo quello che preferiamo e che riteniamo migliore in quel determinato momento , ma senza stare a criticare una cosa piuttosto che un'altra solo per partito preso.
 
Si può anche rigirare la frittata. Prima si portava acqua al mulino di AMD dicendo che l'efficienza non era importante e che avere un chip più grosso a parità di prezzo era un plus. Ho letto parecchie volte frasi del tipo "Nvidia fa pagare i suoi chippini più di AMD che fa chip di 1 metro quadro" "in bolletta il risparmio è marginale, 50 watt in più non sono nulla". Con la differenza che si parlava di Polaris vs Pascal e la differenza di 50 watt era in percentuale molto più grande rispetto ai 50 watt di differenza fra 3080 e 6800xt. Ma questi sono i soliti discorsi da fanboy. Ad oggi l'efficienza è a favore di AMD ma marginalmente e della dimensione del chip non dovrebbe fregare a nessuno, visto che non impatta in nessun modo sull'esperienza d'uso. Contano solo prestazioni, temperature, consumi, features e driver
Ma sono d'accordo eh, sempre detto anche io che del chip in sé alla massa non importa, o se è fatto a 12, 8 o 7nm, ed è una informazione da forum per parlarne a livello tecnologico, ma il 99% non la pensava così 3 anni fa, lo sai benissimo, o no?
Questo dico.
Ieri era tutto, oggi sto caxxi.
Non mi trovi d'accordo con questa riflessione.
Quello che penso io è che sin dalla notte dei tempi in questo mondo c'è sempre stata una lotta di fazioni. Questo se mai è il fenomeno interessante che merita una riflessione: io capisco che per esperienza pregressa ci si possa fidare più di un marchio, ma non capisco la partigianeria al limite del fanatismo religioso verso una multinazionale con cui si pongono alcuni. Ma ciò non riguarda la sola Nvidia o la sola Intel: riguarda Nvidia, Intel, Apple (soprattutto Apple!), console vs PC (ok queste non sono aziende ma vale lo stesso discorso).
Allo stesso modo non vedo assolutamente una stampa schierata in blocco contro AMD o contro Nvidia o contro Intel: si capisce che c'è chi simpatizza più per l'una che per le altre e onestamente per quanto riguarda la stampa specializzata mi sembra già questa un anomalia, ma intuisco che ci possano essere anche interessi economici sotto.

Esclusi i fanatici di cui parlavo prima, che ovviamente si attaccano a tutto per portare acqua al proprio mulino, chi riteneva l'efficienza importante la ritiene importante anche ora e viceversa.
Io personalmente l'ho sempre considerato un parametro importante in fase d'acquisto, non l'unico, e ha contribuito ad indirizzare le mie scelte.
Discorso un po' diverso per il die size, che alla fine è più una curiosità da appasionati che altro: se l'azienda X per raggiungere certe prestazioni ha bisogno un chip del 50% più grande rispetto alla concorrenza è un problema dell'azienda X, ma a me in fase d'acquisto non interessa, purchè i prezzi di X e del concorrente di X siano allineati.



E qui arrivo alla seconda parte del discorso. Non puoi assolutamente paragonare il divario di efficienza che c'era tra Nvidia e AMD qualche anno fa a quello che c'è oggi. Vega64 consumava quasi il doppio rispetto alla GTX1080 per offrire praticamente le stesse prestazioni! E se Vega64 era un disastro in termini di efficienza non è che Vega56 fosse sta gran cosa: meglio della 64 ma comunque 60 watt più della GTX1080 per andare un po' meno...

Capisci anche tu che parliamo di proporzioni totalmente diverse a quelle che si ritrovano ora tra Navi21 e il GP102: adesso vince AMD lato efficienza, ma è una vittoria di misura. E una vittoria tra l'altro solo in rastering, perchè se misurassimo l'efficienza con un carico RT vincerebbero le schede Nvidia.
Forse se ne parla meno per questo: perchè il divario di oggi è una frazione di quello che c'era un tempo.
Casomai c'è da dare atto ad AMD di essere riuscita a recuperare un gap enorme, fatto per niente scontato: ma questo è un'altro discorso.

Infine, piccola nota a margine: a me solitamente non piace fare i conti nei PC delle altre persone, quindi ti prego di non prendertela troppo. Ma mi permetto di notare che se l'efficienza per te è importante come dici, è un po' strano vederti utilizzare FX8320e + Vega56, entrambi componenti non esattamente al top da questo punto di vista per il loro periodo.
Ora sicuramente avrai fatto i tuoi conti per sceglierli, è sacrosanto e sicuramente avevi ragione tu: ma di sicuro facendolo hai sacrificato l'efficienza.
Ennò dai, ma non ricordi davvero i calcoli sulla bolletta della differenza tra un FX e un i3 o un i5?
Non puoi non ricordare, se lo citi, oggi Intel consuma quasi il doppio, scalda quasi il doppio, ci vogliono dissipatori a liquido vs gli stock o i classici ad aria se monti AMD, ma anche qui sti caxxi, tanto è vero che per giocare nessuno non ha smesso di consigliare i core 10000.

Sul mio PC è semplice, normale che non lo sai come ho aggiornato la piattaforma negli anni ci mancherebbe e anzi ne vado molto fiero.
Ho sfruttato la longevità dei socket AMD da AM2 fino AM3+ potevi cambiare pezzi un po 'per volta, i phenom potevano gestire sia le ddr2 su socket AM2+ che ddr3 su socket AM3 con il doppio controller IMC integrato, ho cambiato quindi solamente 2 MoBo 2 ram e 3 CPU in 10 anni, ti rendi conto cosa significa questo in termini di soldi spesi?
Altro che i consumi per un PC che sta acceso 2 ore al giorno.

AM2+ con athlon 6000+ e ddr2
AM2+ con phenom 955 e ddr2
AM3+ con phenom 955 e ddr3
AM3+ con fx8320e e ddr3

2 MoBo
2 ram
3 processori

In 10 anni, sfido chiunque ad aver fatto di meglio nella gestione dei costi di un PC.

Per cui quando comprai fx8320e, innanzitutto è un 95watt e non 125, ma soprattutto era per dare continuità alla piattaforma senza dover cambiare MoBo, l'ho pagato nuovo 125 euro in negozio sotto casa.

Sulla Vega56 Pulse l'ho presa quando al lancio di Turing si era capito che costavano tanto e AMD per fare concorrenza mise ben 3 giochi in bundle, l'ho pagata 360 euro spedita comprata su Cdiscount con 3 giochi Tripla A, ho rivenduto DMC5 e RE2 a 30euro l'uno, mi sono tenuto The Division 2 che ho giocato, inoltre in downvolt consuma quanto una 1080 andando quasi uguale.

Non è un affare questo?

Voi pensate che io sia un fanboy AMD, ma ho sempre guardato il rapporto performance cost come la base di tutto.

Tanto lo so che molti di voi non mettere condividerà questo pensiero per partito preso, senza aver capito nulla di ciò che ho scritto.
 
Pubblicità
Pubblicità
Indietro
Top