Macbook oppure un Notebook?

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
TDP
la dissipazione del mac non consente di usare il turbo per periodi prolungati, quella del santech SI
Provato o sentito dire? (parliamo di MacBook Pro Retina 15")

il santech può essere configurato con 32gb a 1866mhz!
Hai ragione. Mi ero sbagliato a credere che solo solo gli 'M58 avessero 4 slot. Comunque anche questo 15" è sostanzialmente un desktop replacement che se usi a chiodo fatica a superare un ora di autonomia. E poi, con una batteria da 76,96 Wh ed una radeon che assorbe 100W anche un ora sarebbe un'esagerazione. Ovvio che siano previsti sia una seconda batteria che un alimentatore da 180W. Invece il "piccolo" MBPR 15" ha una batteria da 95W mentre l'alimentatore è solo da 85W. Per un portatile tutti valori più logici.

non direi, la gtx675mx và pur sempre il doppio della gt650m
Si, ma al di là che serva a qualcosa (escluso il gamer spinto) quando hanno progettato e pure prodotto il MacBook Pro Retina 15" non esisteva. Ti sembra un dato secondario?

se un full hd opaco (in quello del mac sotto il sole non vedi una cippa e ti ci puoi specchiare...) con resa RGB del 95% lo chiami inguardabile, o che sei abituato con gli ips di fascia alta o che non sai quello che dici
Hai ragione anche se la critica era molto più valida per gli schermi di altri modelli precedenti. Con una pellicola apposita l'inconveniente dei riflessi diventa sopportabile, ma mai risolto al livello degli schermi HiResMatte dei Mac Standard e dei precedenti 17". Comunque proprio sotto il sole non si vede una cippa in nessuno schermo, e te lo assicura uno che usa LCD opachi dal 1998 nei cantieri edili.
... ma voi gamer come fate a farvi bastare schermi con 8 ms di tempo d'accesso?
Ti sei preso quei 3 minuti per leggere cosa pensa AnandTech nel capitolo Gaming at 2880 x 1800 col MBPRetina 15"?
http://www.anandtech.com/show/5998/macbook-pro-retina-display-analysis

Sulla questione angolo di visuale ti sbagli. Forse tu non hai bisogno che le tue immagini vengano fruite da più persone, ma io ho portato l'esempio in cui per me invece è indispensabile. Ti assicuro che di quel 95% del gamut RGB superando la perpendicolare in quel TN film ne resta sempre meno fino ad una inguardabilità laterale incontestabile attorno ai 90-100°. Prova e vedrai, io l'ho fatto. Da qualche parte c'è un mio post in cui chiedevo informazioni per realizzare un hackintosh portatile da 17" perché quando Apple ha cessato la produzione dei modelli Pro con grande schermo mi sono letteralmente imbestialito. Purtroppo sembra che un portatile con OS X con le caratteristiche almeno di un Sandy Bridge i7 sia irrealizzabile. In una settimana ho provato con mano (ed occhi) di tutto e non posso altro che provare molta pena per chi s'industria per far diventare un PC gradevole come un Mac.

ma da uno che si chiama Macuser non posso certo aspettarmi oggettività nel confronto Mac vs Pc:sisi:
Io non mi sforzo di essere oggettivo. Cerco di guardare il più spassionatamente possibile la realtà e, soprattutto, parlo solo di quel che conosco e che ho provato. Tu ti senti oggettivo?


A proposito di inesattezze, al limite è quadrupla, non doppia :lol:
Purtroppo sono bresciano e conosco bene i limiti dei locali.

L'unità di misura della risoluzione è il dpi, dot per inch, ed essa è una misura lineare. Quindi se io raddoppio la risoluzione lineare è evidente che quadruplo il numero dei pixel nell'area. Però resta immutato il fatto che la risoluzione è semplicemente doppia perché appunto si esprime in termini lineari.

Tu invece avresti bisogno di ripetizioni sui concetti di esattezza ed inesattezza. La pretendi sui termini legali, non pertinenti in un forum tecnologico, ma sbagli quelli tecnici proprio qui. Che faccina dovrei usare? Va bene questa?
44.gif


(1) Intelligente chi ha capito cosa hai scritto...
Leggendo la pagina linkata si capisce. Astenendosi no.

(2) Quando si fanno i copia&incolla almeno cerchiamo di prendere cose attinenti.... la parte che hai incollato è relativa ad un CF, ovvero CROSSFIRE, di HD 7970M che non solo sorpassa ma addirittura disintegra una GT650M.
Chiedo scusa. Non che m'interessasse troppo, una scheda anche se non consuma 100+100W ma solo 100W non è da meno nell'essere una stufetta indissolubilmente schiava di presa e filo. Ovviamente il computer che la ospitasse non sarebbe da meno.

(3) CUDA è un linguaggio di programmazione per sfruttare la potenza di calcolo delle schede video (GPGPU). Quindi, non è chissà quale cosa per cui ci dobbiamo meravigliare, ma è solamente un linguaggio proprietario diverso dallo standard OpenCL. Detto questo, quando si parla di GPGPU -e per chi fa grafica è importante-, quello che conta è la potenza di calcolo e quella di una HD7970M o di una GTX675MX non è nemmeno lontanamente paragonabile a quella di una GT 650M.
Ma tu usi software Adobe o parli solo per sentito dire? Conosci l'impatto CUDA su Premiere ecc.? Al minimo vai su Wikipedia per imparare le differenze fra le varie accelerazioni grafiche. Adobe sembra (sembra!) che finalmente introduca il supporto ad OpenCL, ma fino alla CS5 non s'è visto. Ora comunque lo "aggiunge" a CUDA, mica lo sostituisce. Rispetto ai MacBook Pro del giugno 2012 devo ricordare che le scelte di progetto si fanno mesi o anni prima della commercializzazione?

(4) Tolto il Mercury Playback Engine nella versione CS6, quello che si fa con una VGA nVidia usando CUDA si può fare con una VGA AMD usando OpenCL. Il fatto che Apple sia passata a nVidia è dovuto alle lamentele dei clienti che avevo Mac con VGA AMD i quali si lamentavano di non poter sfruttare le loro VGA in GPGPU perché Adobe si era fissata a supportare solo CUDA. Quando Adobe si è accorta di aver fatto una cavolata è tornata sui suoi passi.
Ma tu usi software Adobe o parli solo per sentito dire? ... ...

(5) E quindi?
Difficile produrre un computer, eventualmente, con una componente non disponibile sul mercato e persino sconosciuta. Devo ancora ricordare che le scelte di progetto si fanno mesi o anni prima della commercializzazione?

(6) Peccato che la tanto decantata "esperienza d'uso" non sia un fatto quantificabile. Al contrario, il prezzo, la dotazione hardware, la potenza di calcolo lo sono e in tutti questi Apple è perdente.
È un peccato solo per chi si rifiuta di provare quell'esperienza d'uso. Ma d'altronde è meglio così perché Apple quando ha quote di mercato troppo grandi s'impigrisce ed innova di meno. Meglio se restiamo in pochi.
Riguardo i dati tu stai difendendo qualcosa che si potrebbe definire un Hammer (GPU) con i pneumatici della Punto (schermo) ed il serbatoio della 500 anni '60 (batteria). Sicuramente un'esperienza 'incredibile'.

Ultimo ma non meno importante: se attacchi il MBPR ad un display esterno, magari un monitor IPS in WQHD, starai comunque lavorando con una macchina che ha una pessima VGA per la grafica. Al contrario, se ci attacchi il Santech, hai la capacità di elaborazione di un buon desktop.
Non so, ho sempre avuto più Mac a disposizione, i portatili solo dal 1998 e non li ho mai usati come computer fissi, al limite come estensioni dello schermo e dell'HD di quelli desktop. Però dato che ho linkato un test sulla questione 3 schermi esterni lascio ai lettori l'interpretazione del tuo definire "pessima" quella scheda video che ha saputo gestire 14.630.400 pixel: oltre al Retina (2880x1800) 2 iMac27" (2560x1440 l'uno) ed un LG FullHD (1920x1080). Tutti IPS.
Siam sempre li: provato o sentito dire?
Persino quel sito che linko, specializzato dal punto di vista Gamer, scrive cacchiate sullo schermo retina (che nemmeno inserisce nelle sue tabelle) ma non tace che quella scheda supporti 4 schermi: «... Il set di features migliorato ora include il supporto per un massimo di 4 display attivi. Inoltre, ora possono essere collegati anche dei monitors ad alta risoluzione fino a 3840x2160 pixels tramite DisplayPort 1.2 o HDMI 1.4 se disponibili.». Rimando anche te ad AnandTeck.

Devo dire che i tuoi post da fanboy mi fanno impazzire :)
Anche i tuoi mi lasciano di buon umore, tranquillo. Una simile sicumera è rara da incrociare.
 
Ultima modifica:
1) Stai attento perché a me gli insulti non piacciono, nemmeno quelli velati.

2) Qui i DPI centrano come i cavoli a merenda visto che gli schermi sono fatti di pixel e non di dots e, in ogni caso, la risoluzione di un monitor è un dato bidimensionale che ti piaccia o no.

3) Una GPU con un TDP di 100W non consuma sempre 100W ma solo quando è sotto stress, ovvero con il PC ci si sta lavorando pesantemente ma, in tal caso, sfido chiunque a non usare l'alimentazione da rete elettrica. Inoltre, e il punto è questo, esaurirà il compito con larghissimo anticipo rispetto ad una GT650M.

4) Mi pare chiaro che tu ragioni con le parole del marketing, vuoi di Apple, vuoi di nVidia. CUDA è solo un linguaggio di programmazione che funziona solamente con le nVidia. Non è altro, Non è una magia. E, per inciso, in GPGPU le nVidia Kepler fanno anche mediamente schifo, il che spiega perché una GPU Tahiti si divori una GK104.

5) Se vai avanti a sparare cazzate su di me prima o poi, per la legge dei grandi numeri, ci prendi. Ho avuto due MacBook e un MacMini personali e anni fa rilevai un'azienda che progettava e realizzava arredamenti customizzati, azienda in cui tutto il parco computer era composto da Mac (iMac, MacPro, MacBook Pro, etc.) e usava software professionali fra cui anche la suite di Adobe. Quindi si, io so di cosa sto parlando.

6) Se tu misuri le prestazioni di una VGA solo in base al numero di schermi che può gestire, allora hai proprio capito tutto :boh:

Ribadisco: se ti piacciono i Mac, buon per te, ma non insultare la nostra intelligenza cercando di giustificarne il prezzo spropositato con "l'esperienza utente" e uno schermo "retina". E' bello, è di moda, fa "figo" e anche casual chic, esattamente come la Mini, ma da qui a definirlo un supercomputer c'è una bella differenza.
 
1) Stai attento perché a me gli insulti non piacciono, nemmeno quelli velati.
Oh santo cielo ... ancora col nominalismo.
Quale sarebbe l'insulto velato? Sicumera? Sai che significa? Non hai un vocabolario? Quello del Mac mi restituisce questo:

sicumera
[si-cu-mè-ra]

etimologia Etimo incerto

definizione s. f. ostentata sicurezza di sé, presunzione altezzosa: parlare, agire con sicumera.

È sbagliato? Ostentare sicurezza di se è un comportamento riprovevole tanto che notarlo equivarrebbe ad un'offesa?
Certo "Lord" non è "Altezza" ... ma insomma ...

2) Qui i DPI centrano come i cavoli a merenda visto che gli schermi sono fatti di pixel e non di dots e, in ogni caso, la risoluzione di un monitor è un dato bidimensionale che ti piaccia o no.
... c ' entrano ...

DPI = Punti per pollice

I punti per pollice, noti anche con il termine inglese dots per inch o con l'acronimo DPI, sono la quantità di informazioni grafiche che possono essere rese da un dispositivo di output quale una stampante grafica, un plotter, un RIP, un mouse o uno schermo. Con il DPI si esprime la quantità di punti stampati o visualizzati su una linea lunga un pollice (2,54 cm). Ad un valore più elevato corrisponde una risoluzione maggiore ed una migliore resa sulle linee inclinate.

EDIT: ho pensato che forse non basta citare Wikipedia.
La questione dal punto di vista scientifico è che il pixel non ha una misura d'ingombro definita. In prodotti diversi hanno misure diverse e quindi ci sono schermi composti da 1920x1080 pixel che hanno diagonale sia di 50" sia di 5". Stesso numero di pixel, quindi, ma risoluzione abissalmente diversa. È per questo che interviene la normazione e, presa un'unità di misura standard che in questo caso è il pollice, ad essa rapporta "il numero" dei pixel presenti in essa affinché l'insieme diventi una nuova unità di misura riconoscibile ed utilmente applicabile: il DPI appunto.

... ma da qui a definirlo un supercomputer c'è una bella differenza.
Se trovi una mia sola frase che possa intendersi anche vagamente come definizione "Mac = Supercomputer" mi taccio.
Per abitudine linko: dati, pareri, opinioni esperte. Provati a linkare una mia frase così pretenziosa se puoi.

Qui siete tanti che ad un utente che ha chiesto "Macbook oppure un Notebook?" decantate l'ipotesi di acquistare un supercomputer. Dei costi mi sembra ben informato e credo sia grande abbastanza per decidere per se. Io gli ho suggerito di andare a provare un MBP con un suo software per almeno un quarto d'ora e nel giudicarlo di non fidarsi dei pareri altrui da tifosi. Né pro né contro.

Chiunque, se equilibrato, può farsi un'opinione precisa di quanto siano diversi il tuo ed il mio approccio ad una risposta su un forum. Io ho concluso la mia con «Comunque buoni acquisti.». Se scegliesse un MBP tu che gli diresti? Da tutti i tuoi interventi io mi sono fatto un'idea precisa ...
 
Ultima modifica:
Invece il "piccolo" MBPR 15" ha una batteria da 95W mentre l'alimentatore è solo da 85W. Per un portatile tutti valori più logici.
ma ti rendi conto del assurdità?
in pratica apple dà un alimentatore talmente sottodimensionato che non è in grado di alimentare a pieno carico il notebook e la batteria assieme!!!
quando hanno progettato e pure prodotto il MacBook Pro Retina 15" non esisteva. Ti sembra un dato secondario?
guarda che le gpu kepler sono uscite prima del macbook retina...
Provato o sentito dire?
mai sentito notebookcheck.net?
Tu ti senti oggettivo?
si
Però resta immutato il fatto che la risoluzione è semplicemente doppia perché appunto si esprime in termini lineari.
la risoluzione è il numero di pixel, ottenuti moltiplicando base x altezza
quindi sono il quadruplo i pixel, sei tè che ti confondi
Ma tu usi software Adobe o parli solo per sentito dire? Conosci l'impatto CUDA su Premiere ecc.? Al minimo vai su Wikipedia per imparare le differenze fra le varie accelerazioni grafiche. Adobe sembra (sembra!) che finalmente introduca il supporto ad OpenCL, ma fino alla CS5 non s'è visto. Ora comunque lo "aggiunge" a CUDA, mica lo sostituisce. Rispetto ai MacBook Pro del giugno 2012 devo ricordare che le scelte di progetto si fanno mesi o anni prima della commercializzazione?
guarda che in alcuni ambiti CUDA, come nella conversione video è molto indietro rispetto a intel quicksync...
Riguardo i dati tu stai difendendo qualcosa che si potrebbe definire un Hammer (GPU) con i pneumatici della Punto (schermo) ed il serbatoio della 500 anni '60 (batteria). Sicuramente un'esperienza 'incredibile'.
continui a dire cose insensate
perchè:
la gpu è molto + prestazionale di un hummer (non hammer:asd:), gli hummer su strada hanno prestazioni da fiat panda:asd:
lo schermo del santech è molto superiore alla media dei notebook, quindi più che punto la definirei una porsche carrera s
76 w/h all batteria sono decisamente superiori alla media, dato che la media è sui 50, ma i moderni ultrabook e quelli economici sono sui 40...
quindi una batteria da 76wh non è un serbatoio da 30 litri, ma bensì uno da 90...
Non so, ho sempre avuto più Mac a disposizione, i portatili solo dal 1998 e non li ho mai usati come computer fissi, al limite come estensioni dello schermo e dell'HD di quelli desktop. Però dato che ho linkato un test sulla questione 3 schermi esterni lascio ai lettori l'interpretazione del tuo definire "pessima" quella scheda video che ha saputo gestire 14.630.400 pixel: oltre al Retina (2880x1800) 2 iMac27" (2560x1440 l'uno) ed un LG FullHD (1920x1080). Tutti IPS.
Siam sempre li: provato o sentito dire?
Persino quel sito che linko, specializzato dal punto di vista Gamer, scrive cacchiate sullo schermo retina (che nemmeno inserisce nelle sue tabelle) ma non tace che quella scheda supporti 4 schermi: «... Il set di features migliorato ora include il supporto per un massimo di 4 display attivi. Inoltre, ora possono essere collegati anche dei monitors ad alta risoluzione fino a 3840x2160 pixels tramite DisplayPort 1.2 o HDMI 1.4 se disponibili.». Rimando anche te ad AnandTeck.
guarda che anche la più scarsa gpu come una intel hd4000 può gestire 3 schermi ad altissima risoluzione
le dedicate moderne pure...
E, per inciso, in GPGPU le nVidia Kepler fanno anche mediamente schifo, il che spiega perché una GPU Tahiti si divori una GK104.
già, fermi era migliore nel gpgpu rispetto a kepler
Certo "Lord" non è "Altezza" ... ma insomma ...
perchè offendi il suo nickname?
i dpi non centrano dato che sono dipendenti anche dalla superficie dello schermo
infatti il mio (scrauso) smartphone ha 260dpi e solo 480x320p
la mia tv invece è full hd, ma i suoi dpi sono di gran lunga inferiore dato che la superficio è enormemente superiore
Se trovi una mia sola frase che possa intendersi anche vagamente come definizione "Mac = Supercomputer" mi taccio.
non lo dici direttamente, ma lo lodi come se fosse la macchina perfetta creata da dio e scesa sulla terra per innalzare la rozza tecnologia umana

se continui ad avere questo atteggiamento arrogante dovrò chiamare Davideb
 
Bella stà discussione :asd:
Non sò se esprimermi serio o incendiare tutto :pompiere:........:lol:

Comunque, per quel che può servire, la mia misera esperienza mi ha insegnato che :

[ambito lavorativo / professionale]
- I Mac fanno figo (cit. utente sopra), quindi in un'ufficio che si rispetti, deve esserci
- Lavorano bene l'audio, benino il video
- Sono effettivamente belli da vedere

[ambito casalingo]
- non mi esprimo, ancora stò bestemmiando

[ambito tecnico]
- E' come smontare un transatlantico con un' accendino scarico
- Molte componenti obsolete (ovviamente non parlo di cpu e gpu, ma chi ha aperto un mac per ripararlo capirà)
- Non vedo tutta questa qualità costruttiva, anzi.....ho trovato colla in posti che voi umani non potete nemmeno immaginare :rock::asd:
- Senza il banco saldante "serio" , ripari stà bella ceppalippa!!

Conclusioni IMHO
Per quel che costa, e quel che offre, a meno che il costo non si ammortizzi nei primi 6 mesi, i vari mac non convengono.

Con questo non voglio screditare la mela, e nemmeno osannare lo standard, ma ho solo permesso alla mia esperienza sul campo di esprimersi.
Non vado contro niente e nessuno in questo 3D, continuate ad insultarvi pure :asd:.....ma dovevo dire la mia!!!:lol:

:birra:......:trotta:.......Vi stimo Fratelli :rock::asd:
 
Io direi:
- ASUS G75VX (1400€)
- Samsung Chronos 7 (lo trovi a 1200 ma anche a 1700€)
- Oppure un Dell, magari anche un Alienware (per uno buono ti bastano 1500€-1600€)

Tu sei fortunato perché hai un budget molto elevato e quindi puoi accedere al 90€ dei notebook
 
Io direi:
- ASUS G75VX (1400€)
- Samsung Chronos 7 (lo trovi a 1200 ma anche a 1700€)
- Oppure un Dell, magari anche un Alienware (per uno buono ti bastano 1500€-1600€)

Tu sei fortunato perché hai un budget molto elevato e quindi puoi accedere al 90€ dei notebook

2di questi sono più notebook per sostituire desktop... Ora non lui cosa voglia,... Sei 3 il samsung è il più leggero e più trasportabile... Ovviamente ha una scheda video inferiore... Ma non di molto...
 
non direi proprio...

non ha optimus!!!

evidentemente non sono gli stessi quelli da 1200 e 1700...

wow 5 utenti stanno visualizzando la discussione:lol:

1 1500€ sono in effetti pochi, hai ragione
2 Serve proprio l'Optimus dell'Nvidia? Immagino che starà con la corrente se vuole giocare o usare programmi con grafica pesante.
3 Sì non sono gli stessi, sta a lui decidere se vuole quello da 1200 o quello da 1700-1800€
 
Però comunque un pc a quel prezzo lo trovi difficilmente. Secondo me è uno dei migliori in quanto qualità/prezzo
 
Però comunque un pc a quel prezzo lo trovi difficilmente. Secondo me è uno dei migliori in quanto qualità/prezzo

Non ho capito di cosa state parlando... Del samsung?? Comunque il chronos 7 ultimo uscito costa 1300 euro circa.. Quelli che costano di più sono di solito versioni più ultrabook con ssd ma cpu e gpu meno performanti il migliore quello più equilibrato e migliore degli altri è l'ultimo da 15,6 pollici... Già il 17 pollici nuovo è diverso dal 15,6 e diverso soprattutto lo schermo peggiore.. Ho già scritto nelle pagine precedenti il modello preciso...
 
Non ho capito di cosa state parlando... Del samsung?? Comunque il chronos 7 ultimo uscito costa 1300 euro circa.. Quelli che costano di più sono di solito versioni più ultrabook con ssd ma cpu e gpu meno performanti il migliore quello più equilibrato e migliore degli altri è l'ultimo da 15,6 pollici... Già il 17 pollici nuovo è diverso dal 15,6 e diverso soprattutto lo schermo peggiore.. Ho già scritto nelle pagine precedenti il modello preciso...

Intendo l'Asus GV75



quale?
l' asus o il samsung?

Asus, ma anche il Samsung

Il Samsung però è migliore perché ha la scocca in metallo e a vederlo sembra un Mac (è favoloso)
 
Ultima modifica:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top