Rottame è un termine molto forte e scorretto, su questo ti do ragione.
Non sono dei rottami, ma sono state tra le peggiori schede Nvidia che io ricordi.
Poca VRAM, nessuna nuova features, prezzi alle stelle aumenti prestazionali risicati rispetto alle gen precedenti.
--- i due messaggi sono stati uniti ---
Comprare una rtx3080 oggi sopra le 1000€ non ha senso, comprare una rtx3090 oggi ha ancora meno senso.
--- i due messaggi sono stati uniti ---
Io ho smesso di volerla comprare qualche mese dopo l'uscita quando ho capito che i pezzi non sarebbero tornati indietro.
Non ho bisogno di svendere per comprare il nuovo quindi non so dove tu voglia arrivare.
Io vendo al prezzo che ritengo opportuno per togliermi lo scomodo il prima possibile. La vendita porta via tempo con vari contatti delle persone che ti scrivono per cui io vendo sempre a prezzo basso per togliermi prima lo scomodo. ;)
Stai tranquillo che se avessi ritenuto la serie 3 un upgrade sensato l'avrei presa a qualsiasi prezzo, così come prenderò la serie 4000 a qualsiasi prezzo.
Se non l'ho presa è solo una conferma di quello che ti sto dicendo.
L'upgrade dalla serie 2000 alla 3000 era tempo perso, un upgrade dalla serie 3000 alla 4000 invece ci può stare anche grazie alle nuove features che queste schede portano oltre che al sopraggiunto quantitativo di VRAM.
Peggiori ? Mi dispiace che la pensi cosi, avresti dovuto esserci al tempo di Fermi e di Keplar.
Ada Lovelace è la peggiore a mani basse. La 70 venduta a più di 1200 euro prezzo msrp e la 80 venduta a 1500 euro MSRP
Tra Turing e Ampere ce stato un passo avanti con i tensor core, rt core e i cuda core. Infatti i cuda core sono cambiati totalmente e come ti ho già spiegato mille volte a differenza di quelli di Turing, potevano eseguire un calcolo INT32 FP32 simultaneamente andando a raddoppiare il calcolo degli shader ad ogni ciclo di clock. Se sfruttata questa cosa può incrementare la potenza di calcolo enormemente.
In Ampere la 80 torna ad essere una top di gamma, montando una GA102, la stessa della flag ship rtx 3090ti, mentre su turing la rtx 2080 era una gpu di fascia medio/alta montando una TU104 questo porto ad un incremento del 67% rispetto alla rtx 2080 e un 40% rispetto alla rtx 2080ti e questo gap era dovuto solo ed esclusivamente alla forza bruta e non al dlss 3 o altre furbate del genere.
Come se questo non bastasse il gap del +40% di performance veniva a costare 699$ msrp cioè la metà della ex flag ship turing.
L'unica cosa che effettivamente concordo con te sono i 10GB di vram, li nvidia l'ha fatta fuori da vaso, ma in ogni caso in commercio ce la 12GB che è anche più veloce.
Ampere ha avuto solo la sfiga di uscire in un momento storico disastroso altrimenti sarebbe stata la migliore di sempre in quanto a rapporto prestazioni/costi.
Ada Lovelace è orrida, una presa per il culo, un furto.
--- i due messaggi sono stati uniti ---
Io la 2060 l'ho sul notebook e ho giocato bene a Cyberpunk e Control con ray tracing on, DLSS a bilanciato e opzioni grafiche rimanenti regolate nel modo migliore e bilanciato per non accusare problemi e ho giocato più che bene a entrambi i titoli a 1080p. Con la 2080 li maxo completamente entrambi, soprattutto oggi che sono ottimizzati, lasciando stare i primi tempi di Cyberpunk che era terribilmente malottimizzato. Davvero, sono 2 i giochi che mi portano attualmente a 1440p a dover abbassare leggermente qualche cosetta con la 2080.. perchè mai cambiarla?
Considera che la rtx 2060 su notebook ha diverse varianti tutte inferiori alla versione desktop.
Per esempio la più diffusa è la 90Watt che come puoi ben immaginare va molto, molto meno di una rtx 2060 desktop che può contare su un tdp di 160watt. Infatti il clock massimo su notebook è 1200/1400/1500mhz in base al modello della gpu sul notebook, mentre quella desktop raggiunge i 1900mhz.
La rtx 2060 desktop ha performance superiori ad una gtx 1080 mentre quella notebook ha più o meno le stesse performance della gtx 1070 desktop, però essendo che può contare sul dlss la supera senza problemi.
Comunque detto ciò, anche io ho un notebook con una rtx 2060 ( 90Watt ) e su Time spy aveva un punteggio superiore alla mia vecchia gtx 1070 ( rtx 2060 circa 6500 punti / gtx 1070 circa 6300 punti) ho ancora a casa dei screenshot fatti ai punteggi. Con quel notebook mi sono sparato due anni fa la prima run su cyberpunk 2077 senza problemi., figurati la desktop.