rtx 3080 domande full hd alimentatore

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
dalla lista di linus sembra avere qualche problemino, mettendolo fra le low priority units
Il G6 850 ? Strano…

Qui, in quella che è considerata la lista di riferimento (più aggiornata di quella di Linus e ci partecipa JohnnyGuru) lo considerano il migliore della sua classe

 
Il G6 850 ? Strano…

Qui, in quella che è considerata la lista di riferimento (più aggiornata di quella di Linus e ci partecipa JohnnyGuru) lo considerano il migliore della sua classe

Ma su questa lista dove è il nzxt?
 
Il G6 850 ? Strano…

Qui, in quella che è considerata la lista di riferimento (più aggiornata di quella di Linus e ci partecipa JohnnyGuru) lo considerano il migliore della sua classe

è aggiornata di sicuro, ma non la vedo nemmeno tanto completa, ad esempio gli enermax revolution DF, fino a 650w sono dei single rail, dai 750w in su dei multirail, li vengono inseriti tutti insieme
gli MWE V2 bronze vengono messi fra i prodotti mid range, mentre su linus su mid/low con low priority per problemi di ripple alti, cosa emersa anche da una recensione di uno youtuber italiano, forse è stato messo in mezzo perchè non c'è una fascia mid/low, ma solo mid range, ma personalmente non mi piace vederlo in mezzo a degli EVGA B3 (piattaforma silver), CX-F di corsair (efficenza quasi silver), supremo F2 e silentstorm cool zero, che sono tutti alimentatori con efficienza bronze/silver e gold molto affidabili
 
gli MWE V2 bronze vengono messi fra i prodotti mid range, mentre su linus su mid/low con low priority per problemi di ripple alti, cosa emersa anche da una recensione di uno youtuber italiano,
Ehm no. Qui c'è il test completo del MWE V2. Come già detto in separata sede gli MWE v2 non hanno alcun tipo di problema
 
Ehm no. Qui c'è il test completo del MWE V2. Come già detto in separata sede gli MWE v2 non hanno alcun tipo di problema
qualche problema c'è l'ha, non ne parla male, ma nemmeno bene, si tiene molto neutrale nelle conclusioni facendo riferimento a qualche condensatore che non gli piaceva perchè c'era di meglio e parla soprattutto del periodo, che era quello dove non trovavi un alimentatore decente sotto le 130€, ne abbiamo già parlato e per me quell'alimentatore è buono nella fascia d'ufficio o con massimo una gpu di fascia bassa, ma se devi farti un pc con una 3060/TI dove ci spendi 1500€ e passa, c'è roba molto migliore per 10€ di più
 
qualche problema c'è l'ha, non ne parla male, ma nemmeno bene, si tiene molto neutrale nelle conclusioni facendo riferimento a qualche condensatore che non gli piaceva perchè c'era di meglio e parla soprattutto del periodo, che era quello dove non trovavi un alimentatore decente sotto le 130€, ne abbiamo già parlato e per me quell'alimentatore è buono nella fascia d'ufficio o con massimo una gpu di fascia bassa, ma se devi farti un pc con una 3060/TI dove ci spendi 1500€ e passa, c'è roba molto migliore per 10€ di più
Parlando di condensatori, a meno che non prendi 80+ gold certificati è ovvio che non puoi trovare full jappo, qui stiamo parlando di un alimentatore di fascia media data l'efficienza, ma sicuramente di problemi di ripple come dicevi non ne dà, questo è poco ma sicuro!

Veramente ci si abbinabo anche delle 3070 e guarda un pò non danno alcun tipo di problema, con i tagli da 600w in su
 
ma l'MWE V2 è una PSU economica che non da particolari problemi.
Il suo unico "problema" è il prezzo: se lo trovi in sconto, ne vale la pena. Chiaro che se devi pagarlo solo 10/15€ meno di roba migliore, allora lo si evita.
Ma non perché crei problemi.
 
ma che vuol dire multi rail o single rail?
Tradotto dall'inglese:
Singolo binario

Un singolo rail lascia passare tutta la corrente di una tensione, in questo caso 12v su una singola traccia o "rail" (vedili come interruttori nella tua casa). Questo ha il vantaggio di spegnersi meno rapidamente, ma significa che consente alla piena corrente di passare attraverso un singolo filo o connettore, potenzialmente sciogliendolo o bruciandolo prima di spegnersi



Multirotaia

I multi rail in questi giorni non sono binari fisici, ma hanno più punti in cui misurano la corrente (generalmente 2-8). può spegnere l'alimentatore prima per proteggersi, con una minore possibilità di bruciare connettori e/o cavi con un guasto catastrofico.

Poi da una discussione:
Se il multi-rail è migliore, allora perché qualcuno dovrebbe ottenere un single-rail o un psus commutabile?



Perché sono più economici e più comuni.
 
4) tutti dicono che non va una 3080 in full hd ma non capisco perche... nel senso se voglio fare piu fps possibili la risoluzione migliore per fare fps è 1080p, gia se vado su un 2k vado a perdere fps e non pochi rispetto al 1080p sbaglio ? anche se sono un po in bottleneck comunque farei sempre piu fps di una 3070 o no?
?
Te lo spiego io.
Ampere è un architettura che ha dei pro e contro come qualsiasi altra architettura. Tra i contro di questa architettura vi è un problema dovuto al grosso numero di cuda core che queste gpu montano.
Infatti il salto tra turing e ampere nella conta dei cuda core è stato mostruoso, più del doppio.
Questo però cosa comporta ? Comporta che l'architettura si "auto/strozza", mi spiego meglio.
Una rtx 3080 che ha 8704 cuda core non riuscirà mai a sfruttare tutti quei core con un carico cosi leggero come può essere un videogame in 1080p. La mole di dati che deve elaborare la gpu è talmente poca che spesso più della metà dei cuda letteralmente dormono. Per riuscire a sfruttare una rtx 3080 in 1080p al 100% servirebbe un gioco di ultima generazione sparato al massimo, un monitor da 360hz e una cpu mostruosa di fascia enthusiast con un altissimo ipc che riesce a stare dietro ad una rtx 3080 con quel alto refresh rate e forse in questo caso estremo si riesce a sfruttarla.
Questo problema di Ampere lo si può notare anche con una semplice rtx 3060 dove in 1080p prende le mazzate dalla rx 6600xt ma non appena si passa al 1440p, il gap tra le due si riduce al minimo, questo per lo stesso motivo speigato precedentemente, cioè che la grande mole di cuda core della serie rtx 3000 vengono sfruttati in pieno al aumentare della risoluzione ( cioè del carico di lavoro ). Non mi fraintendere questo non significa che chi ha una rtx 3060 dovrebbe giocare in 1440p e non in 1080p, significa solo che la rx 6600xt all'aumentare della risoluzione soffre maggiormente rispetto la rtx 3060 e quest'ultima riesce ad accorciare il gap prestazionale, ma è ovvio che la rtx 3060 sia una gpu per il 1080p.
Ora ho delle domande da farti:
1- Hai un cpu come un i9 12900k o un i7 12700k ?
2- Hai un monitor 1080p da 240/320hz ?


1920x1080p = 2 073 600 pixel in totale
2560x1440p = 3 686 400 pixel in totale
3840x2160p = 8.294.400 pixel in totale
Come puoi vedere il QHD ha quasi il doppio dei pixel da elaborare, mentre il 4k ha quattro (QUATTRO) volte i pixel da elaborare rispetto al 1080p.

Ora le ultime due domande finali:
1- Se questa gpu è stata progettata per il 4k, non ti sembra "stupido" investire tutti quei soldi per poi utilizzarla in 1920x1080p ?
2- Ma che caz.... te ne devi fare di tutti quei fps ?
 
Te lo spiego io.
Ampere è un architettura che ha dei pro e contro come qualsiasi altra architettura. Tra i contro di questa architettura vi è un problema dovuto al grosso numero di cuda core che queste gpu montano.
Infatti il salto tra turing e ampere nella conta dei cuda core è stato mostruoso, più del doppio.
Questo però cosa comporta ? Comporta che l'architettura si "auto/strozza", mi spiego meglio.
Una rtx 3080 che ha 8704 cuda core non riuscirà mai a sfruttare tutti quei core con un carico cosi leggero come può essere un videogame in 1080p. La mole di dati che deve elaborare la gpu è talmente poca che spesso più della metà dei cuda letteralmente dormono. Per riuscire a sfruttare una rtx 3080 in 1080p al 100% servirebbe un gioco di ultima generazione sparato al massimo, un monitor da 360hz e una cpu mostruosa di fascia enthusiast con un altissimo ipc che riesce a stare dietro ad una rtx 3080 con quel alto refresh rate e forse in questo caso estremo si riesce a sfruttarla.
Questo problema di Ampere lo si può notare anche con una semplice rtx 3060 dove in 1080p prende le mazzate dalla rx 6600xt ma non appena si passa al 1440p, il gap tra le due si riduce al minimo, questo per lo stesso motivo speigato precedentemente, cioè che la grande mole di cuda core della serie rtx 3000 vengono sfruttati in pieno al aumentare della risoluzione ( cioè del carico di lavoro ). Non mi fraintendere questo non significa che chi ha una rtx 3060 dovrebbe giocare in 1440p e non in 1080p, significa solo che la rx 6600xt all'aumentare della risoluzione soffre maggiormente rispetto la rtx 3060 e quest'ultima riesce ad accorciare il gap prestazionale, ma è ovvio che la rtx 3060 sia una gpu per il 1080p.
Ora ho delle domande da farti:
1- Hai un cpu come un i9 12900k o un i7 12700k ?
2- Hai un monitor 1080p da 240/320hz ?


1920x1080p = 2 073 600 pixel in totale
2560x1440p = 3 686 400 pixel in totale
3840x2160p = 8.294.400 pixel in totale
Come puoi vedere il QHD ha quasi il doppio dei pixel da elaborare, mentre il 4k ha quattro (QUATTRO) volte i pixel da elaborare rispetto al 1080p.

Ora le ultime due domande finali:
1- Se questa gpu è stata progettata per il 4k, non ti sembra "stupido" investire tutti quei soldi per poi utilizzarla in 1920x1080p ?
2- Ma che caz.... te ne devi fare di tutti quei fps ?
Drad sei eccezionale come sempre, preciso ed esaustivo. Basterebbero a me personalmente, 90 fps ingame su tutti i giochi, punto. Molte persone credono e purtroppo non vogliono capire, nemmeno andare in giro per il web per cercare info, che non si assembla un PC e via, bisogna imparare certe regole di informatica oggi per capire che si può fare tutto certo, ma con il cervello. Il fullhd fino alla rtx3060ti, qhd per le rtx3070/ti e anche per una 3080. Successive vga per il 4k. Cmq, lo hai spiegato? Ottimo, provvederà l'utente interessato.
 
Drad sei eccezionale come sempre, preciso ed esaustivo. Basterebbero a me personalmente, 90 fps ingame su tutti i giochi, punto. Molte persone credono e purtroppo non vogliono capire, nemmeno andare in giro per il web per cercare info, che non si assembla un PC e via, bisogna imparare certe regole di informatica oggi per capire che si può fare tutto certo, ma con il cervello. Il fullhd fino alla rtx3060ti, qhd per le rtx3070/ti e anche per una 3080. Successive vga per il 4k. Cmq, lo hai spiegato? Ottimo, provvederà l'utente interessato.
alla fine è difficile stabilire una regola base, anche perché dipende dal genere di giochi ed anche dal singolo gioco.
Io dico che la RTX 3060Ti ad esempio va benissimo anche a 1440P nel 99% dei titoli ad esempio... ma di base c'è l'errata convinzione che se non fai "millemila effepiesse" non giochi bene, il che è sbagliato.
Ad un Assassins Creed o Cybepunk 2077 ad esempio, anche a 50 FPS stabili si gioca una meraviglia.
A R6 invece averne almeno 144 FPS può aiutare...
 
alla fine è difficile stabilire una regola base, anche perché dipende dal genere di giochi ed anche dal singolo gioco.
Io dico che la RTX 3060Ti ad esempio va benissimo anche a 1440P nel 99% dei titoli ad esempio... ma di base c'è l'errata convinzione che se non fai "millemila effepiesse" non giochi bene, il che è sbagliato.
Ad un Assassins Creed o Cybepunk 2077 ad esempio, anche a 50 FPS stabili si gioca una meraviglia.
A R6 invece averne almeno 144 FPS può aiutare...
Capisco. Le regole se li fa chi lo assembla e poi quali giochi usa.
 
Te lo spiego io.
Ampere è un architettura che ha dei pro e contro come qualsiasi altra architettura. Tra i contro di questa architettura vi è un problema dovuto al grosso numero di cuda core che queste gpu montano.
Infatti il salto tra turing e ampere nella conta dei cuda core è stato mostruoso, più del doppio.
Questo però cosa comporta ? Comporta che l'architettura si "auto/strozza", mi spiego meglio.
Una rtx 3080 che ha 8704 cuda core non riuscirà mai a sfruttare tutti quei core con un carico cosi leggero come può essere un videogame in 1080p. La mole di dati che deve elaborare la gpu è talmente poca che spesso più della metà dei cuda letteralmente dormono. Per riuscire a sfruttare una rtx 3080 in 1080p al 100% servirebbe un gioco di ultima generazione sparato al massimo, un monitor da 360hz e una cpu mostruosa di fascia enthusiast con un altissimo ipc che riesce a stare dietro ad una rtx 3080 con quel alto refresh rate e forse in questo caso estremo si riesce a sfruttarla.
Questo problema di Ampere lo si può notare anche con una semplice rtx 3060 dove in 1080p prende le mazzate dalla rx 6600xt ma non appena si passa al 1440p, il gap tra le due si riduce al minimo, questo per lo stesso motivo speigato precedentemente, cioè che la grande mole di cuda core della serie rtx 3000 vengono sfruttati in pieno al aumentare della risoluzione ( cioè del carico di lavoro ). Non mi fraintendere questo non significa che chi ha una rtx 3060 dovrebbe giocare in 1440p e non in 1080p, significa solo che la rx 6600xt all'aumentare della risoluzione soffre maggiormente rispetto la rtx 3060 e quest'ultima riesce ad accorciare il gap prestazionale, ma è ovvio che la rtx 3060 sia una gpu per il 1080p.
Ora ho delle domande da farti:
1- Hai un cpu come un i9 12900k o un i7 12700k ?
2- Hai un monitor 1080p da 240/320hz ?


1920x1080p = 2 073 600 pixel in totale
2560x1440p = 3 686 400 pixel in totale
3840x2160p = 8.294.400 pixel in totale
Come puoi vedere il QHD ha quasi il doppio dei pixel da elaborare, mentre il 4k ha quattro (QUATTRO) volte i pixel da elaborare rispetto al 1080p.

Ora le ultime due domande finali:
1- Se questa gpu è stata progettata per il 4k, non ti sembra "stupido" investire tutti quei soldi per poi utilizzarla in 1920x1080p ?
2- Ma che caz.... te ne devi fare di tutti quei fps ?
ho un 9700k monitor 240hz gli fps non è che voglio fare 4000000 fps pero.. almeno 250 su tutti i giochi maxati al massimo.
perche 250 come detto altre volte il monitor tende a laggare quando gli fps scendono sotto il refresh del monitor quindi se dovessi fare 120 fps in gta5 non mi bastano perche vedrei comunque della lag per chi non ha un monitor 240 non puo capire cosi come apex legend csgo che non usa chissa quante risorse sotto i 300 fps inizia a laggare se hai un monitor 144 hz non lo vedi ma 240 si .
prima di questo monitor avevo un 144hz e la differenza si nota su qualsiasi gioco pure overwatch e io non voglio abilitare nessun sync o vsync perche va ad aggiungere imput lag.
e per questo motivo anche se il 360hz e ancora piu fluido e ha meno imput lag rispetto il 240 non lo comprerò mai perche se gia il 240 hz sono costretto a ricercare 250 fps ha 360 hz sarei costretto ha farne 360 e non è possibile nemmeno con la 4090ti e 2 cpu
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top