Gelsinger non usa mezzi termini: "NVIDIA ha avuto fortuna con l'IA"

Pubblicità
Ahahah, Pat, così come ho apprezzato il tuo impegno in Intel per rimetterla in piedi puntando a sistemare la base, cioè il PP, così comprendo che la tua visione di prodotto vincente è scadente.
Larrabee era fondato su due concetti sbagliati per poter fare concorrenza alle GPU:
1. le CPU non sono pensate per gestire carichi di lavoro paralleli, tanto che l'unica cosa che funzionava a dovere su quella accozzaglia di transistor erano le unità AVX
2. l'architettura delle CPU usate era la peggiore possibile: x86. Quella del Pentium addirittura, per cercare di risparmiare con le dimensioni. Roba preistorica con una ISA obsoleta che di certo non favorisce l'esecuzione parallela di carichi di lavoro avendo una gestione delle istruzioni troppo complessa. Dimensione, consumi, complessità, tutta roba che va all'opposto di ciò che serve per una esecuzione parallela efficiente: core piccoli, con istruzioni veloci e tempo di esecuzione predicibile, gestione dei salti efficiente con subentro immediato di altri thread nel caso, grandi bandi passanti con tanti registri locali per evitare più stalli possibili (x86 è ancora con 8 registri come nel 1980, con accessi con dimensione variabile sovrapponibili nel più totale caos che poi richiede milioni di transistor per fare le rimappature con SMT).
Era già una cassata al momento del suo design, ne è venuta fuori una schifezza quando realizzato. Non c'era alcun dubbio che sarebbe fallita contro la capacità di scaling delle unità parallele delle GPU.
Ma capisco, era il tempo x86 o morte, con ARM che già iniziava a farsi vedere ed era controproducente pensare di usare una architettura diversa da quella sviluppata in casa. Sarebbe stato come dire, non abbiamo sviluppato qualcosa che sia in grado di affrontare l'era moderna dei calcoli paralleli.
Vero, non l'avete detto, ma alla fine lo avete dimostrato.
 
Quando in Intel si convinceranno che a x86 serve quantomeno una bella rinfrescata che non sia solo l'ennesima estensione di istruzioni (ormai a quante siamo 15? 20? Ho perso il conto) per poter competere con le nuove architetture più moderne, sarà troppo tardi.
x86 vive ancora grazie alla retrocompatibilità, basta vedere la questione dei processori Qualcomm. Ma se questa barriera viene finalmente abbattuta, magari con l'entrata in campo di altri attori come nVidia/MediaTek/Broadcomm che invogliano alla ricompilazione anche per ARM, salutiamo x86 per quello che è stato e avanti con la modernità.
 
Sono più di 30 anni che Jensen ha "fortuna" arrivando sempre dopo gli altri, la grafica 3d l'ha inventata 3dfx , il gpgpu ATI, l'AI arm, il ray tracing powervr, l'upscaling sony.
Jensen non è fortunato è più bravo degli altri.
 
Sono più di 30 anni che Jensen ha &quot;fortuna&quot; arrivando sempre dopo gli altri, la grafica 3d l&#039;ha inventata 3dfx , il gpgpu ATI, l&#039;AI arm, il ray tracing powervr, l&#039;upscaling sony.<br />
Jensen non è fortunato è più bravo degli altri.
Arrivare dopo, parliamone..
Non è che abbozzare qualcosa è arrivare prima.
Tentare di fare gpgpu con le TMU non è GPGPU.
L'accelerazione del ray tracing c'era ancora prima di Imagination Tech, infatti loro stessi hanno comprato una implementazione (Caustic Graphics). Si può pensare che la semplice FPU sia nata per accelerare i conti degli algoritmi raytracing 40 anni fa (in effetti POV ray andava 10 volte più velocemente).
Anche gli algoritmi di scaling ci sono da ben prima di Sony, implementati in diverse maniere in SW o con HW apposito.
Sono tutti concetti generali di larga adozione che nel tempo si sono evoluti, chi implementandoli in un modo, chi in un altro con vantaggi e svantaggi per ciascuno.
Anche l'approccio di Nvidia alla soluzione di questi problemi è un insieme di vantaggi e svantaggi, non è che ha la soluzione perfetta per tutto.
Non mi sembra comunque che nessuno abbia mai proclamato di aver "inventato" il ray tracing, lo scaling o il GPGPU, che è una cosa comunque poco definibile e anche oggi in via di continuo sviluppo.
Sono idee che nascono nel tempo e nel tempo vengono sempre più raffinate, partendo da rudimentali esperimenti per vedere fino a dove ci si può spingere con quello che si ha già.
La forza di Nvidia è che dove ha deciso che era da sviluppare lo ha fatto in modo tale da rendere le altre modalità obsolete. Non ci ha messo 1 anno o 2, ma decine credendoci e investendoci, talvolta sbagliando (la storia iniziale di Nvidia come azienda che progettava acceleratori grafici è emblematica da questo punto di vista) ma poi correggendo là dove magari altri si sarebbero rassegnati, e oggi gode dei frutti dei suoi sforzi. Perché la concorrenza che c'era e c'è non hanno avuto la lungimiranza di pensare anni prima a cosa sarebbe potuto diventare una nuova funzionalità. E avere il coraggio di inserirla e di farla pagare, magari senza un immediato riscontro in termini prestazionali.
Anche il T&L, l'origine delle GPU, all'inizio non era il massimo perché la CPU più potenti potevano fare meglio, ma se nessuno lo avesse mai inserito credendo che le CPU avrebbero scalato allo stesso modo delle GPU oggi non saremmo dove siamo ora.

La forza e il genio di chi succede in questo mercato sta proprio nel vedere l'uovo oggi che diventa un cigno domani. Chi si ferma a criticare che è un uovo non va da nessuna parte.
 
Pubblicità


Scrivi la tua risposta...
Pubblicità
Indietro
Top