Le nanotecnologie

U

Utente 16812

Ospite
Il 29 dicembre 1959 il celebre fisico americano Richard Feynman, uno dei padri della QED (elettrodinamica quantistica), tenne un famoso discorso presso il Caltech (California Institute of Technology), intitolato "There's plenty of room at the bottom" ("C'è un sacco di spazio laggiù in fondo"), nel quale predisse che l'uomo, di lì a poco tempo, sarebbe stato in grado di manipolare la materia a livello di singolo atomo, dando così l'avvio al dibattito "teorico" su quel "new field of Physics", cioè quel nuovo campo della Fisica, che è conosciuto con il nome di "nanotecnologie" (termine coniato da Drexler nel 1975).
Cito un breve brano tratto da quella conferenza: "Non ho paura di affrontare la domanda finale cioè se alla fine, nel grande futuro che ci aspetta, saremo in grado di disporre gli atomi nel modo che vogliamo; proprio gli atomi, laggiù in fondo ! Che cosa accadrebbe se potessimo disporre gli atomi uno per uno come vogliamo ? (in posizioni chimicamente stabili, ovviamente)".
Per chi fosse interessato all'intero intervento di R. Feynman, ecco la trascrizione (in lingua originale, in italiano non l'ho trovato):
http://www.google.it/url?sa=t&rct=j...a91CDladuGatON89A&sig2=bmyXCEfRDdbEIvK_Qw3OlA
Ma cosa studiano le nanoscienze ?
Le nanoscienze studiano le proprietà della materia con dimensioni comprese tra 1 e 100 nanometri (ricordo che 1nm = 10^(-9)m), allo scopo di comprendere come essa si comporti e possa interagire con altri sistemi materiali, dando luogo a sistemi più complessi e con proprietà nuove.
Nel campo dell'elettronica, ad esempio, le nanotecnologie hanno consentito la costruzione di componenti elettronici sempre più piccoli, da cui si sono sviluppati i chip, nei quali occorre monitorare la crescita di strati di materiale a spessore nanometrico, e i microprocessori.
In biologia, grazie soprattutto alla disponibilità di nuovi strumenti microscopici come i microscopi a scansione ad effetto tunnel (STM), è stato possibile analizzare le proprietà di biomolecole come il DNA e le proteine (studi che hanno portato allo sviluppo della nano-bioelettronica, cioè all'utilizzo di nanosistemi biologici in applicazioni di nanoelettronica).
In medicina, o meglio in nanomedicina, le nanoparticelle possono essere efficacemente utilizzate come particelle-vettore in grado di curare alcune patologie tumorali.
Sulle leggi della fisica quantistica sono basati i diodi laser (utilizzati nella propagazione "guidata" nelle fibre ottiche in quanto producono luce "coerente", a differenza dei LED che producono, invece, luce "incoerente"), dispositivi optoelettronici progettati per emettere luce ad una determinata frequenza.
Infine, grazie alla chimica "supramolecolare", sono state costruite delle nanomacchine "molecolari" in grado di compiere, quando opportunamente stimolate, movimenti nanometrici.
Chimica supramolecolare - Wikipedia
Un esempio in questo campo è il cosiddetto "ascensore molecolare", ossia un sistema supramolecolare in cui, variando il pH della soluzione, è possibile far spostare la "piattaforma" molecolare verso il basso o verso l'alto, a distanze nanometriche.
L'Alambicco n°5 - Maggio 2011
In ambito più specificamente teorico, le nanotecnologie hanno permesso lo studio di nuovi "scenari", in cui la materia si comporta in modo strano.
Si è notato, ad esempio, che il comportamento della materia in due dimensioni è nettamente diverso da quello in tre dimensioni: elettroni che vengono "confinati" su di un piano e sottoposti a campi magnetici si muovono in maniera assolutamente coordinata, come se "danzassero" all'unisono.
I fisici della materia condensata, in particolare Landau, hanno dato un nome a queste particelle interagenti, le hanno chiamate quasi-particelle (con una carica che è un terzo della carica elementare): l'elettrone, che si trova nello stato "entangled" (sull'entanglement scriverò un apposito articolo), è una quasi-particella.
Orbitone, una nuova "quasi-particella" - Le Scienze
Per concludere questa breve introduzione, possiamo senz'altro affermare che le nanoscienze costituiscono il punto in cui la ricerca pura, la fisica, la chimica e la biologia, e la ricerca industriale, nel campo della scienza dei materiali, della medicina, dell'energetica e così via, convergono.
Lo sviluppo delle conoscenze nell'ambito delle nanoscienze e delle nanotecnologie è inevitabilmente legato all'integrazione di diverse competenze in diversi settori del sapere scientifico e tecnologico.
Buona lettura ;)

P.S. Da un punto di vista strettamente teorico, le tecnologie alla nanoscala riguardano processi basati sul "confinamento" quantistico, governato dal principio di indeterminazione di Heisenberg: all'interno di un sistema materiale composto di circa 1000 atomi si verificano fenomeni di confinamento quantico.
A quella scala, da qualche nanometro fino ad arrivare alle dimensioni del singolo atomo (0.1nm), le proprietà del sistema dipendono fortemente dalle dimensioni.
Una particella, ad esempio, può diventare trasparente, senza alterare la composizione chimica ma agendo soltanto sulle dimensioni. Non è un argomento di facile comprensione per chi non ha familiarità con la fisica quantistica ma ne riparleremo :sisi:
http://www.google.it/url?sa=t&rct=j...75Utemaubw63u2Oeg&sig2=SR5ihSHqbpNom-gGRikQhQ (breve introduzione alle nanotecnologie)
 
Ultima modifica da un moderatore:

Andretti60

Utente Èlite
6,440
5,091
Grazie del tutorial.
Vorrei aggiungere che in questo caso il buon Feymann non e' stato molto lungimirante, non e' riuscvito a vedere tutte le implicazioni che tale nuova tecnologia potesse portare.

Non siamo ancora in grado di manipolare i songoli atomi, anche se ci stiamo andando molto vicino. Ma le applicazioni che per adesso abbiamo trovato sono ben diverse da quelle che ci si aspettava. In particolare, il settore in cui lavoro adesso, e' quello biomedico, dove la nanomedicina ha fatto passi da gigante da una parte, da un'altra ci siamo resi conto che possiamo usare altre tecnologie per ottenere gli stessi risultati in maniera piu' efficiente. In altre parole, per piantare i chiodi non siamo ancora riusciti a sostituire il martello :)

Purtroppo abbiamo scoperto che manipolazioni della materia cosi vicine all'atomo producono "scarti" di produzione che sono ben difficilmente controllabili, e una volta liberi nell'ambiente diventano altamente tossici. Al punto che lo studio delle nanotecnologie e' adesso ben controllato, prima di fare qualcosa si studia bene e lo si fa in laboratori completamente sterili.

Non e' ancora chiaro che le nanoscienze siano le ricerche del domani e che ci diano tutte le risposte ai nostri problemi attuali e futuri. Certo sono affascinanti. Sono molto cauto nel consigliare questa strada a chi di voi e' giovane e sta pensando alla carriera e cosa vorra' studiare. E' un settore che potrebbe esplodere nei prossimi anni oppure si limitera' a pochi laboratori in tutto il mondo. Difficile dirlo a questo punto.
 
U

Utente 16812

Ospite
L'intervento di @Andretti60 mi consente di svolgere alcune importanti considerazioni sulle nanotecnologie: ritengo che il settore della nanomedicina sia uno tra i più "fecondi" nell'ambito delle applicazioni nanotecnologiche ma è necessario, prima di prevedere l'utilizzo "in massa" delle nanoparticelle e dei nanomateriali in campo clinico, comprendere a fondo le interazioni, inevitabilmente complesse dato che dipendono anche dalle piccole dimensioni di queste sostanze, dei nanosistemi con i tessuti biologici e con l'ambiente.
Certo, è vero anche che, nel passaggio dalla teoria alla produzione di un prototipo funzionante, il passo è spesso molto lungo: mi viene in mente l'esempio del "diodo molecolare", che venne ideato negli anni Cinquanta e il cui prototipo è stato costruito solo negli anni Novanta.
Un diodo fatto con una singola molecola | Galileo :sisilui:
Attualmente la ricerca è orientata su una metodologia che usa un approccio "bottom-up" (non è mia intenzione discutere, al momento, dei "fullereni" e dei "nanotubi"), che consiste nella realizzazione di strutture nanometriche assemblando chimicamente componenti a dimensioni nanometriche.
Si intuisce allora quanto, in questo caso, sia importante lo studio della Natura per comprenderne i diversi gradi di organizzazione, dal più semplice, come le basi del DNA o le catene di amminoacidi, al più complesso, come quello cellulare.
D'altronde, alla nanoscala le leggi della fisica quantistica diventano predominanti e ciò mi porta naturalmente a parlare di un settore che, a mio giudizio, rappresenta uno dei campi di maggior sviluppo, attuale e futuro, delle applicazioni nanotecnologiche: quello della computazione quantistica. Il qubit, l'unità base dell'informazione, può trovarsi, come è noto, in una "sovrapposizione" dello stato 0 e dello stato 1.
Usando i qubit è possibile risolvere alcuni problemi, come ad esempio la fattorizzazione di un numero primo, importante in crittografia, in modo molto più rapido rispetto ai tradizionali computer elettronici.
Il rovescio della medaglia è che il sistema, interagendo con l'ambiente circostante, fa perdere ai qubit il loro comportamento, che è "intrinsecamente" quantistico. Si tratta di un problema molto complesso e molti studiosi ritengono che la soluzione potrebbe provenire proprio dai nanomateriali.
Buona lettura :ok:

P.S. @Andretti60: Feynman non è stato poco lungimirante, anzi ha mostrato grande intuito nel concepire l'impostazione top-down (cioè partire da sistemi macroscopici e arrivare alla realizzazione di strutture nanometriche), attualmente la metodologia più consolidata, che ha portato a risultati "fecondi", come ad es. la costruzione di testine per dischi rigidi, basata sul fenomeno della "magnetoresistenza gigante" (Premio Nobel per la Fisica a Fert e Grunberg nel 2007), ma conveniamo entrambi, credo, che egli non abbia ricoperto un ruolo di primo piano nello sviluppo delle nanoscienze.
SCIENZAinDIRETTA/ Premi Nobel per la Scienza 2007 - FISICA :sisi:
Per ciò che riguarda la manipolazione dei singoli atomi, essa è stata resa possibile dall'invenzione del microscopio a scansione ad effetto tunnel (Premio Nobel per la Fisica a Binnig e a Rohrer nel 1986), strumento largamente utilizzato nella fisica delle superfici, mentre il microscopio a forza atomica (AFM) è per lo più usato in biologia e topografia.
MICROSCOPI :sisilui:
Infine ritengo che il panorama che le nanoscienze e le nanotecnologie hanno aperto sia, in prospettiva futura, immenso e non è difficile prevedere che, entro questo secolo, ci saranno sviluppi rilevanti sia nell'ambito della conoscenza scientifica "pura" sia sotto il profilo tecnologico, che "pervaderà" tutti i settori produttivi, a partire dalla medicina e dall'elettronica fino ad arrivare all'ingegneria energetica e ambientale. E' necessario, però, un approccio "interdisciplinare" alla conoscenza delle nanoscienze, che coinvolga competenze di fisica e chimica di base, scienza dei materiali, elettronica e così via.
Pertanto suggerisco, a chi desiderasse lavorare nel campo delle nanoscienze e delle nanotecnologie, di seguire un corso di laurea scientifico, in modo da acquisire una formazione di base solida in uno specifico settore, e poi specializzarsi, magari a partire già dalla scelta della tesi di laurea, nel campo delle nanoscienze.
In seguito sarà possibile frequentare uno specifico dottorato di ricerca presso un centro di ricerca, sia in Italia che all'estero.
 

cyberdrugo

Utente Attivo
446
38
CPU
i7 965,(2)i52400,(3)intel celeron2coreg530
Scheda Madre
asus rampage 2 extreme,z68gigabytexp-ud3-gigabyteh61m-d2
HDD
1 tb samsung+ssd corsair60gb+2tbwd+1tb+500gb
RAM
corsair 6gb ddr3 triple,8gbddr3 g-skl sniper 1600mhz-4gbddr3 corsair ddr3 1333mhz
GPU
GTX670-DC2-2GD5 +hd6870 directcu asus
Audio
supreme x-fi
Monitor
panasonic plasma50txgt30e-asus 25VE258Q-philiphs170c
PSU
enermax revolution85+1020w80+silver-corsairtx850-be quiet 350w 80+
Case
nzxt white usb3.0 full tower-CMelite430atx finestrato-powerx
OS
7ultimate 64 bit-w7 ultimate-w7
mi permetto di aggiungere che tutte le branchie della splendida nanotecnologia sono state bloccate appositamente per interessi economici nel tempo poiche" dalle mille potenzialita"...e di conseguenza scomode...ora molto lentamente il tutto sembra procedere ma come vogliono che vada...discussione molto interessante comunque
 

Andretti60

Utente Èlite
6,440
5,091
mi permetto di aggiungere che tutte le branchie della splendida nanotecnologia sono state bloccate appositamente per interessi economici nel tempo poiche" dalle mille potenzialita"...e di conseguenza scomode...ora molto lentamente il tutto sembra procedere ma come vogliono che vada...discussione molto interessante comunque

Interessanti che tu dica cio'... visto che dove lavoro io stiamo proprio ricercando e usando nanotecnologie ... :)
Ma dove le trovi notizie del genere???
 

cyberdrugo

Utente Attivo
446
38
CPU
i7 965,(2)i52400,(3)intel celeron2coreg530
Scheda Madre
asus rampage 2 extreme,z68gigabytexp-ud3-gigabyteh61m-d2
HDD
1 tb samsung+ssd corsair60gb+2tbwd+1tb+500gb
RAM
corsair 6gb ddr3 triple,8gbddr3 g-skl sniper 1600mhz-4gbddr3 corsair ddr3 1333mhz
GPU
GTX670-DC2-2GD5 +hd6870 directcu asus
Audio
supreme x-fi
Monitor
panasonic plasma50txgt30e-asus 25VE258Q-philiphs170c
PSU
enermax revolution85+1020w80+silver-corsairtx850-be quiet 350w 80+
Case
nzxt white usb3.0 full tower-CMelite430atx finestrato-powerx
OS
7ultimate 64 bit-w7 ultimate-w7
non parlo di oggi infatti...parlo del passato...tu le studi oggi...ma gia negli anni 70 erano in progettazione.......una marea di esperimenti sulle nanotecnologie...
 

Andretti60

Utente Èlite
6,440
5,091
Negli anni 70 si inizio' a studiare queste tecnologie, che portarono addirittura a un premio Nobel per la scoperta dei "fullereni", ma ci volle del tempo per vedere le prime applicazioni pratiche. Che io sappia ricerca e sviluppo non sono mai stati bloccati, ma di certo si e' consci che non sia una tecnologia "pulita" a causa delle particelle prodotte nella lavorazione, che sono cosi' piccole che e' diffcile tenere sotto controllo e che e' quindi tossica (nella porta del laboratorio dove lavoro c'e' un sacco di cartelli gialli grandi come una casa indicando i vari pericoli)
 

LS1987

Utente Èlite
3,530
516
CPU
Phenom II X 4 945 @ 3 GHz
Scheda Madre
Asus M3A78-CM
HDD
Seagate 500 GB
RAM
4096 MB DDR2
GPU
nVidia GeForce 9800 GT
Audio
Integrato
Monitor
HP 21.5" 16:9
PSU
Cooler Master
Negli anni 70 si inizio' a studiare queste tecnologie, che portarono addirittura a un premio Nobel per la scoperta dei "fullereni", ma ci volle del tempo per vedere le prime applicazioni pratiche. Che io sappia ricerca e sviluppo non sono mai stati bloccati, ma di certo si e' consci che non sia una tecnologia "pulita" a causa delle particelle prodotte nella lavorazione, che sono cosi' piccole che e' diffcile tenere sotto controllo e che e' quindi tossica (nella porta del laboratorio dove lavoro c'e' un sacco di cartelli gialli grandi come una casa indicando i vari pericoli)

Non credo che la ricerca si sia fermata solo per quello, del resto esistono dei paesi in cui non si fanno troppi problemi per l'inquinamento.
 

bj94

Nuovo Utente
10
1
il futuro è in piccolo, le possibilità di queste tecnologie sono praticamente infinite, dalle cose più pratiche a quello più complesse
 
U

Utente 16812

Ospite
Nel 1945, a soli vent'anni, Jean Bartik, da poco diplomata in Matematica all'Università del Missouri, venne assunta, con la qualifica professionale di "Computer", presso i laboratori di ricerca balistica dell'esercito degli Stati Uniti a Philadelphia, insieme ad altre giovani matematiche, per compilare le "tabelle di fuoco" (o "tavole di tiro") dell'artiglieria che venivano utilizzate per i calcoli delle traiettorie dei proiettili.
https://en.wikipedia.org/wiki/Jean_Bartik
L'anno seguente, nel 1946, l'esercito propose a Jean e ad altre cinque matematiche (tra cui Antonelli, Teitelbaum e Spence) di entrare a far parte di un progetto segreto, denominato "Project PX": si trattava dell'ENIAC (Electronic Numerical Integrator And Calculator), il primo calcolatore di tipo "general purpose" completamente elettronico della storia.
Jean e le altre colleghe del suo gruppo diventarono così le prime grandi "pioniere" della programmazione.
Le donne dell'ENIAC: le prime 6 programmatrici della Storia
Per poter funzionare, l'ENIAC aveva bisogno di 200kW di potenza (la prima volta che fu attivato ci fu un "blackout" di corrente in alcuni quartieri di Philadelphia ma probabilmente si tratta di una leggenda metropolitana) e il "codice" non veniva inserito tramite una tastiera, come accade oggi, ma agendo manualmente su migliaia di interruttori.
La caratteristica fondamentale dell'ENIAC era la sua velocità: le traiettorie "stimate" duravano, per la prima volta, più del tempo di calcolo impiegato.
L'ENIAC impiegava 18000 valvole termoioniche, ancora oggi utilizzate negli impianti amplificati ad alta fedeltà, e un numero enorme di resistori e condensatori; l'intera struttura occupava circa 180 m^2, l'equivalente della superficie di un grande appartamento.
https://it.wikipedia.org/wiki/ENIAC
Un anno più tardi, nel 1947, i tre fisici americani Shockley, Bardeen e Brattain (premio Nobel per la Fisica nel 1956) scoprirono l'effetto transistor, dando inizio alla tecnologia dei semiconduttori che ha reso possibile la miniaturizzazione e l'integrazione, sempre più spinta, dei componenti elettronici.
William Shockley, John Bardeen e Walter Brattain ? Italiano
Il linguaggio "parlato" da un microprocessore è quello binario, sia che si tratti di fare dei calcoli che di ascoltare musica; c'è bisogno dunque di un interruttore elettronico in grado di assumere alternativamente il bit 0 e il bit 1.
La funzione di memorizzare "fisicamente" un bit può essere svolta da un transistor.
Infatti, in base alla tensione applicata ad un contatto, detto di "Gate", è possibile far passare la corrente tra altri due contatti, il "Source" e il "Drain": se la tensione al Gate "blocca" il passaggio della corrente, il transistor memorizza il bit 0, se la tensione lascia passare la corrente, il transistor memorizza il bit 1.
Nel 1958 l'ingegnere americano Jack Kilby (premio Nobel per la Fisica nel 2000) mostrò che i componenti di un circuito (transistor, resistenze e condensatori) potevano essere "integrati" su un unico "wafer" di materiale semiconduttore: nasce così il "circuito integrato", progenitore dei primi microprocessori programmabili, realizzati nel 1970.
https://it.wikipedia.org/wiki/Jack_St._Clair_Kilby
La curva di crescita del numero di transistor integrati su un singolo chip viene chiamata "legge di Moore" (Gordon Moore, uno dei fondatori della Intel, la ipotizzò nel 1965): la complessità e quindi anche le prestazioni di un circuito integrato, in termini di numero di transistor integrati sul singolo chip, raddoppiano ogni 18 mesi circa.
In un processore moderno sono integrati miliardi di transistor e tale integrazione è alla base della cosiddetta ICT (Information and Communication Technology), che rappresenta l'insieme delle tecnologie atte all'elaborazione e allo scambio di informazioni che conducono a "scenari" completamente nuovi nell'ambito della tecnologia digitale.
https://it.wikipedia.org/wiki/Tecnologie_dell'informazione_e_della_comunicazione
Buona lettura ;)
 
Ultima modifica da un moderatore:

Andretti60

Utente Èlite
6,440
5,091
... il "codice" non veniva inserito tramite una tastiera, come accade oggi, ma agendo manualmente su migliaia di interruttori ...
Ohibo', non proprio migliaia :)
In effetti ne bastavano pochi, l'equivalente della quantita' di memoria e della lunghezza della "parola" dell'elaboratore, in binario. Per esempio, un computer da 16 bits richiedeva 16 interuttori per digitare l'istruzione, piu' un pulsante di "invio" che aumentava anche l'indirizzo di memoria. Usai uno di quelli nei primi anni 80, un Texas da sedici bits (a transistor, non valvolare). Una vitaccia, e non esisteva una memoria fissa, quando mancava la tensione di rete si perdeva tutto. Ma il programma che scrivemmo permetteva di regolare la temperatura di una fornace. In fondo siamo andati sulla Luna con qualcosa non molto piu' evoluto di quello.
 

Blume.

Moderatore
Staff Forum
Utente Èlite
24,462
11,291
CPU
I7 8700K
Dissipatore
Silent loop B-Quiet 360
Scheda Madre
Fatal1ty Z370 Gaming K6
HDD
3 Tera su Western Digital 3 Tera su Toshiba p300 3Ssd da 500Gb
RAM
Corsair Vengeance DDR4 LPX 4X4Gb 2666Mhz
GPU
Msi Gtx 1080Ti Gaming Trio X
Audio
Integrata
Monitor
SyncMaster P2470HD
PSU
Evga Supernova 650W G2
Case
Dark Base 700 B-Quiet
Net
100/50 Ftth Fastweb
OS
Windows 10Pro. 64Bit
Lo studio del nano...:asd:
 
U

Utente 16812

Ospite
LE BANDE DI ENERGIA
------------------------------

Nel modello atomico a livelli energetici discreti (detti orbitali s, p, d, f) a ciascun elettrone è assegnato un ben determinato valore di energia, quello del livello energetico cui appartiene.
E' importante ricordare che in un atomo vi sono solo determinati livelli di energia ed un elettrone può assumere soltanto quei valori di energia e non altri.
Un elettrone può passare da un livello a bassa energia ad uno ad alta energia solo se gli viene fornita un'energia pari alla differenza tra i due livelli.
Quando un elettrone è "saltato" ad un livello più alto, dopo un po' torna al livello di partenza cedendo l'energia in eccesso sotto forma di energia elettromagnetica (fotoni).
La relazione tra il salto energetico e la frequenza della radiazione emessa è ben evidenziata nella equazione di Planck: E=h*f (h=6.625*10^(-34) J*s è la costante di Planck - f è la frequenza in Hz). Tale modello atomico è valido solo se l'atomo è isolato, ossia lontano da altri atomi con cui potrebbe interagire.
Nel caso, ad esempio, di un reticolo cristallino, in presenza di altri atomi vicini, i singoli livelli energetici, proprio per effetto dell'interazione, si "scompongono" in più livelli con valori di energia poco diversi, formando delle "bande di energia".
Ciò accade perché gli elettroni interagenti non possono avere caratteristiche perfettamente uguali.
Ricordo che in base al principio di esclusione di Pauli due elettroni non possono occupare lo stesso stato, in particolare se sono vicini non possono avere la stessa energia.
Al posto del singolo livello energetico "subentra", per così dire, una gamma di valori permessi che va sotto il nome di "banda di energia".
Tenendo presente che in un solido gli atomi sono circa 10^22/cm^3, possiamo considerare i nuovi livelli energetici condivisi talmente densi da formare un intervallo di energie permesse praticamente continuo.
In riferimento alle bande energetiche più esterne, quella con energia minore si chiama "banda di valenza", quella con energia maggiore viene denominata "banda di conduzione".
Un elettrone che si trova nella banda di valenza rimane vincolato all'atomo, possedendo meno energia, e può essere utilizzato per formare legami covalenti mentre un elettrone che si trova nella banda di conduzione, non essendo vincolato all'atomo, è libero di muoversi, dando luogo alla corrente elettrica.
Infatti l'occupazione delle bande determina la conducibilità, ossia la maggiore o minore facilità con cui un materiale può condurre la corrente.
Anche nel caso delle bande di energia, un elettrone può saltare dalla banda di valenza in quella di conduzione, a patto che gli venga fornita energia sufficiente a compiere il salto.
Tra la banda di valenza e la banda di conduzione esiste una gamma di valori energetici "proibiti", denominata, appunto, "banda proibita" (in inglese "Energy Gap").
Il "gap" rappresenta la quantità di energia che un elettrone deve "assorbire" per passare dalla banda di valenza a quella di conduzione.
In alcuni casi il gap è molto piccolo e addirittura, nel caso di materiali conduttori, la banda di valenza è parzialmente sovrapposta a quella di conduzione, per cui gli elettroni possono passare facilmente in conduzione, già a temperatura ambiente.
Nei materiali isolanti, al contrario, il gap è molto alto e pochissimi elettroni riescono, a temperatura ambiente, a passare in conduzione.
Nei semiconduttori il gap energetico non è né molto alto né molto basso per cui un certo numero di elettroni si trova nella banda di conduzione e tale numero aumenta sensibilmente all'aumentare della temperatura.
Ad esempio, il germanio (Ge) ha un gap di 0.67 eV, il silicio (Si) ha un gap di 1.14 eV.
Il valore del gap non è influenzato molto dalla temperatura, ad esempio il silicio passa da un gap di 1.16 eV a 0 K ad un gap di 1.12 eV a 300 K.
Buona lettura ;)

P.S. Nel caso dei semiconduttori c'è da precisare che, già a temperatura ambiente, gli elettroni ricavano energia, per passare in banda di conduzione, anche dalle vibrazioni del reticolo cristallino, attraverso urti tra gli ioni del reticolo e gli elettroni stessi. La probabilità di questo fenomeno diminuisce esponenzialmente con la temperatura in quanto le vibrazioni del reticolo sono meno energetiche (occorre anche tenere presente che più il gap è ampio, maggiore è l'energia richiesta per superarlo e minore è il numero di elettroni che si trasferiscono per agitazione termica).
Una volta passati in banda di conduzione, gli elettroni possono essere accelerati da un campo elettrico, come accade nei metalli.
https://it.wikipedia.org/wiki/Struttura_elettronica_a_bande :sisi:

- - - Updated - - -

Ohibo', non proprio migliaia :)
In effetti ne bastavano pochi, l'equivalente della quantita' di memoria e della lunghezza della "parola" dell'elaboratore, in binario. Per esempio, un computer da 16 bits richiedeva 16 interuttori per digitare l'istruzione, piu' un pulsante di "invio" che aumentava anche l'indirizzo di memoria. Usai uno di quelli nei primi anni 80, un Texas da sedici bits (a transistor, non valvolare). Una vitaccia, e non esisteva una memoria fissa, quando mancava la tensione di rete si perdeva tutto. Ma il programma che scrivemmo permetteva di regolare la temperatura di una fornace. In fondo siamo andati sulla Luna con qualcosa non molto piu' evoluto di quello.

Programming the ENIAC ;)
 

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!