L'indeterminismo quantistico

  • Autore discussione Autore discussione Utente 16812
  • Data d'inizio Data d'inizio
Pubblicità
U

Utente 16812

Ospite
Nei miei precedenti articoli dedicati alla Teoria Quantistica (leggi qui: http://www.tomshw.it/forum/scienza-e-tecnologia/192223-la-teoria-quantistica.html) ho sottolineato il fatto che i processi fisici quantistici sono, in generale, "genuinamente" casuali. Vorrei ora soffermarmi meglio su questo aspetto che ritengo di cruciale importanza ai fini di ciò che dirò in seguito e chiarire l'asserzione appena fatta. L'aleatorietà di un evento o di una serie di eventi assume una valenza rigorosa soltanto se viene precisato il contesto in cui la questione può essere formulata in modo corretto e alla quale si può dare una risposta non ambigua (come vedremo in seguito, è possibile formulare alcune teorie, cosiddette "a variabili nascoste", che sono deterministiche ed equivalenti alla Meccanica Quantistica, se consideriamo le previsioni che esse fanno). Faccio un esempio molto banale: del numero pi-greco, rapporto tra la circonferenza ed il diametro, si conoscono oltre un miliardo di cifre e tali cifre hanno superato tutti i test di casualità. La successione è "genuinamente" casuale ma, d'altra parte, è anche ovvio che la sequenza non è affatto casuale e che la cifra successiva può essere determinata da un algoritmo che conduce ad un esito non ambiguo.
Intendo dire che il fatto che certi criteri verifichino che la successione sia casuale non è di per sé sufficiente a garantire l'aleatorietà della successione stessa. Parlando di processi fisici quantistici, ciò vuol dire che, oltre che dagli esiti degli esperimenti, la natura intrinsecamente casuale di tali processi deriva dall'assunto che la teoria quantistica sia completa, ossia che la sua descrizione teorica venga considerata esauriente. Possiamo determinare con precisione, ad esempio, le probabilità che un fotone riesca a superare un test di polarizzazione ma la teoria ci dice anche che null'altro potremo conoscere del processo in esame.
In termini più semplici, la conoscenza delle probabilità quantistiche non può essere attribuita ad una mancanza di informazione sul processo, ossia, parlando il linguaggio della filosofia, tali informazioni probabilistiche sono non epistemiche, assumendo completa la descrizione quantistica del sistema. Allo scopo di rendere più chiaro il concetto, discuterò di un esempio di sistema probabilistico in cui le probabilità sono dovute alla nostra ignoranza sullo stato del sistema stesso: il lancio di una monetina non truccata.
La teoria delle probabilità ci dice che i due possibili eventi, "testa" o "croce", sono casuali ed equiprobabili, cioè hanno la stessa probabilità di verificarsi. E' chiaro che, ponendoci dal punto di vista della meccanica classica, tali probabilità sono epistemiche poiché non conosciamo con precisione le condizioni iniziali e le condizioni al contorno del sistema.
In linea teorica, se tenessimo conto di tutti quegli elementi che determinano l'esito (che è perfettamente determinato) del lancio della monetina (ad es. la distribuzione delle molecole d'aria, la rotazione iniziale della moneta, il tipo di superficie su cui la moneta cadrà, ecc...), si potrebbe prevedere con assoluta certezza se l'esito del lancio sarà "testa" o "croce".
Questa situazione rispecchia esattamente la posizione "deterministica" del matematico francese Laplace, in base alla quale lo stato presente dell'Universo viene inteso come effetto del suo stato passato e come causa del suo stato futuro: è una visione del mondo denominata, appunto, "determinismo".
Tale visione meccanicistica del mondo, però, non è scientificamente difendibile, come messo in rilievo, nel 1873, dapprima da Maxwell, lo scopritore dell'elettromagnetismo, e in seguito, nel 1903, dal grande fisico Poincaré, il quale, studiando le traiettorie instabili di alcuni sistemi fisici, scoprì l'estrema sensibilità del moto di un sistema di tre corpi alle condizioni iniziali (leggi i miei articoli sul Caos Deterministico qui: http://www.tomshw.it/forum/scienza-e-tecnologia/187278-il-caos-deterministico.html).
Poincaré è il fondatore di quella teoria, apparentemente contraddittoria, che oggi è conosciuta col nome di "caos deterministico".
Ho ritenuto opportuno illustrare queste tematiche soprattutto per mettere i lettori in grado di cogliere le differenze tra probabilità epistemiche e probabilità non epistemiche. Tali differenze non hanno rilevanza pratica, ma concettuale.
Anche se, ipoteticamente, riuscissimo ad immagazzinare tutte le informazioni relative ad un semplice sistema in un computer "universale", utilizzando le particelle dell'Universo come chip (1 bit per ogni chip), riusciremmo a prevedere l'evoluzione del sistema stesso soltanto per qualche minuto, ma ciò non toglie nulla al fatto che, in base allo schema teorico adottato, la descrizione in termini probabilistici deriva dall'ignoranza che noi abbiamo riguardo alle condizioni iniziali.
Nei sistemi quantistici, al contrario, la "stocasticità" dell'esito che riguarda un processo di misurazione è "intrinseca" alla struttura stessa della teoria la quale, se assunta come valida e completa, non permette neanche di pensare che l'esito possa essere predeterminato, anche se in un modo sconosciuto. Tornerò in seguito a discutere di quelle importantissime ricerche che prendono il nome di "teorie a variabili nascoste", come già su accennato.
Buona lettura ;)
 
Ultima modifica da un moderatore:
Anche se, ipoteticamente, riuscissimo ad immagazzinare tutte le informazioni relative ad un semplice sistema in un computer "universale", utilizzando le particelle dell'Universo come chip (1 bit per ogni chip), non riusciremmo a prevedere l'evoluzione del sistema stesso per più di qualche minuto, ma ciò non toglie nulla al fatto che, in base allo schema teorico adottato, la descrizione in termini probabilistici deriva dall'ignoranza che noi abbiamo riguardo alle condizioni iniziali.
e se ipoteticamente riuscissimo a comprendere le condizioni iniziali sarebbe possibile prevedere l' evoluzione del sistema per più tempo?
 
e se ipoteticamente riuscissimo a comprendere le condizioni iniziali sarebbe possibile prevedere l' evoluzione del sistema per più tempo?
precedo gronag nella risposta e ti dico si.
Questo è quello che cercano di fare gli analisti di borsa che applicano i modelli del moto browniano alle fluttuazioni, non tutti almeno, solo quelli bravi:asd:
 
risulterebbe comunque impossiblie prevedere tutte le variabili,giusto?

Giustissimo, caro andreas9600 :ok:
In linea teorica, conoscendo le condizioni iniziali con precisione INFINITA, è possibile ricostruire l'evoluzione temporale di un sistema in un qualsiasi altro istante, anche in un futuro lontano. Ciò ci è stato insegnato da Galileo attraverso il suo metodo sperimentale.
Se non ci fosse una certa regolarità nei fenomeni fisici, non esisterebbe neanche la scienza fisica, non ti pare ?
Gli orologi a pendolo, per fare un esempio banale, vengono utilizzati da centinaia di anni per misurare il tempo (Foucault utilizzò un pendolo per dimostrare la rotazione della Terra, proprio per la regolarità delle sue oscillazioni).
Il nocciolo della questione sta esattamente nei termini che tu hai indicato: è assolutamente impossibile conoscere con precisione INFINITA, lo ripeto, le condizioni iniziali della dinamica di un sistema poiché la loro conoscenza deriva da un processo di misurazione che, per sua natura, è affetto da errori.
Anche il comportamento di un sistema totalmente deterministico che mostra sensibilità alle condizioni iniziali non è in pratica calcolabile.
Un sistema può essere, infatti, totalmente deterministico con una descrizione delle sue leggi fisiche completamente compiuta, ma può avere una dinamica caotica che non consente di prevederne l'evoluzione futura.
Il caos deterministico è un limite EPISTEMOLOGICO (riguarda, cioè, la struttura della conoscenza) alla predicibilità dei fenomeni fisici naturali.
La causa di questo comportamento anche in sistemi NOMOLOGICAMENTE (cioè descritti da leggi fisiche) molto semplici è matematica: le equazioni di base che li descrivono sono non-lineari.
Grazie a tutti coloro che hanno mostrato interesse nei riguardi dei miei "articoletti" :D

P.S. Saival_87: "L'intero sistema può collassare all'improvviso: Jurassic Park ha una instabilità intrinseca." (citazione dal libro di Crichton) :asd:
Oltre a "Jurassic Park" ti suggerisco di leggere "Rumore di tuono" di R. Bradbury: riprende la definizione di "effetto farfalla" dalla Teoria del Caos :rolleyes:
 
...le teorie sono fatte per essere scardinate....
la rivoluzione è alla base della scienza.
il problema fondamentale nella scienza dalla fine della seconda guerra mondiale è il conformismo.
...è la differenza di potenziale che crea l'energia, infatti se l'uomo primitivo non si fosse preso a clavate oggi non volerebbe sui jet.....
tutto questo è ben oltre la scienza e si chiama spirito......
il grosso del problema è lì.....
 
...le teorie sono fatte per essere scardinate....
permettimi una correzione: le teorie non sono fatte per essere scardinate, altrimenti che teorie sarebbero? Sono fatte per essere "ampliate". Per esempio la teoria della Relativita' di Einstein non ha scardinato quella Galileiana, che possiamo continuare ad usare ogni giorno, la ha solo ampliata quando le velocita' degli oggetti sono vicine a quella della luce. I numeri Complessi non hanno sostituito quelli Reali, come quelli Reali non avevano sostituito quelli Naturali, a seconda del contesto si usano quelli piu' adatti. E potrei andare avanti.

... tutto questo è ben oltre la scienza e si chiama spirito......
si, lo spirito dell'umorismo... :-) Scusa la battuta.
 
IL PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG

In fisica, per grandezza s'intende una quantità che è possibile misurare con uno strumento di misura. Una proprietà come, ad esempio, la bontà di una persona non è una grandezza fisica poiché essa non è misurabile. Il processo di misurazione della grandezza fisica di un sistema comporta, però, il fatto di andare sempre a "perturbare" il sistema stesso. La determinazione della posizione di un corpo in moto implica la sua osservazione, per la quale è necessario che esso venga "colpito" da onde luminose. Tali onde sono composte da fotoni che hanno una certa quantità di moto e quindi tra il corpo e lo strumento utilizzato per la misurazione avviene una interazione a causa della quale alcune grandezze cinematiche risultano "alterate".
Supponiamo di voler determinare, mediante un esperimento ideale, la velocità e la posizione di un elettrone che viene "sparato" da un "cannone elettronico", all'interno di una stanza in cui è stato fatto il vuoto, e soggetto soltanto alla forza gravitazionale terrestre.
In base alle leggi della fisica classica, la traiettoria dell'elettrone sparato dal cannone dovrebbe essere rappresentata da un ramo di parabola, paragonando l'elettrone ad un proiettile. Per poter verificare ciò, però, è necessario che un fotone colpisca l'elettrone in moto al fine di illuminarlo.
Al momento dell'urto l'elettrone dovrà modificare la sua velocità e la sua traiettoria: se potessimo osservarlo con un potente microscopio, vedremmo una traiettoria a zig-zag, ciò che indica che, in un certo intervallo di tempo, più fotoni lo avranno colpito.
Essendo le interazioni energetiche dello stesso ordine di grandezza, dopo l'osservazione la posizione dell'elettrone è esattamente determinata ma la sua quantità di moto è completamente indeterminata. In sintesi, senza impartire all'elettrone una quantità di moto indeterminata, non è possibile conoscere con precisione la sua posizione e viceversa. Non si può più neanche parlare di traiettoria in quanto la traiettoria di un corpo è determinata soltanto se si può osservare il suo moto senza perturbarlo. Supponiamo ora di diminuire l'energia del fotone in modo tale da perturbare il meno possibile l'elettrone che viene urtato.
Come sappiamo dall'ipotesi di Planck, l'energia di un quanto del campo elettromagnetico è E=h*f, in cui h=6.63*10^-34 J*s (costante di Planck) e f è la frequenza.
Inoltre, in base all'ipotesi di De Broglie sulla natura ondulatoria delle particelle materiali, sappiamo anche che l'informazione relativa alla quantità di moto di una particella è associata alla sua lunghezza d'onda e alla sua frequenza dalla relazione p=h/l (p è la quantità di moto e l la lunghezza d'onda) ossia p=h*f/c (dato che l=c/f, in cui c=3*10^8 m/s è la velocità della luce).
Volendo, dunque, perturbare il meno possibile l'elettrone, possiamo pensare di diminuire la frequenza del fotone e quindi aumentare la sua lunghezza d'onda. Ripetiamo lo stesso esperimento ideale sopra descritto aumentando, pian piano, la lunghezza d'onda dei fotoni incidenti. Inizialmente non accadrà nulla di strano, continueremo ad osservare la solita traiettoria a zig-zag dell'elettrone.
Nel momento in cui, però, la lunghezza d'onda dei fotoni è dell'ordine di grandezza delle dimensioni dell'elettrone illuminato, la sua immagine al microscopio sembrerà sfocata. E' intervenuta la cosiddetta diffrazione della luce, fenomeno che compare nel processo di formazione delle ombre e secondo cui quando un corpo, con dimensioni paragonabili a quelle della lunghezza d'onda della luce incidente, viene posto davanti ad una sorgente luminosa, si noterà un'ombra confusa (figura di diffrazione) su uno schermo che si trova di fronte (è lo stesso fenomeno che accade quando due persone, tra le quali è frapposto un ostacolo, ad esempio una montagna, stanno parlando con i loro walkie-talkie. Le onde radio trasmesse da un apparecchio diffrangono sui bordi della montagna e raggiungono l'altro apparecchio). Ne consegue che è possibile la determinazione della posizione dell'elettrone con precisione maggiore lasciando la sua traiettoria completamente indeterminata, oppure possiamo rilevare la traiettoria mantenendo indeterminata la posizione.
Il tentativo di migliorare la conoscenza di una delle due grandezze ci ha fatto perdere informazione sull'altra.
Heisenberg, in base a questi ragionamenti, nel 1927 enunciò, dandone anche una precisa formulazione matematica, il suo famoso principio di indeterminazione: è impossibile determinare contemporaneamente con la stessa precisione coppie (ad es., posizione e quantità di moto) di grandezze fisiche.
Indicando con Delta(x) l'incertezza sulla posizione dell'elettrone ed essendo essa dell'ordine di grandezza della lunghezza d'onda l del fotone, avremo Delta(x)=l=c/f. Allo stesso modo, essendo Delta(p) l'incertezza sulla quantità di moto dell'elettrone, otterremo Delta(p)=h/l. Come si nota, anche Delta(p) dipende dalla lunghezza d'onda. Moltiplicando, membro a membro, le due relazioni avremo: Delta(x)*Delta(p)=h.
Istante per istante, dunque, il prodotto dell'incertezza sulla posizione con quella sulla quantità di moto dovrà essere maggiore, o al più uguale, alla costante di Planck: Delta(x)*Delta(p) >= h. Tenendo conto che Delta(p)=Delta(m*v), la relazione diventerà: Delta(x)*Delta(v) >= h/m.
La formulazione finale del principio di indeterminazione tuttavia, applicando le relazioni sulla quantità di moto e sulla costante di Planck, è: Delta(x)*Delta(p) >=h/2*pi (pi = 3.14, rapporto tra una circonferenza e il suo diametro).
Prima di concludere questa parte, desidero fare alcune osservazioni:
1) non c'è alcun limite concettuale alla precisione con la quale si può determinare la posizione, rimanendo però entro i limiti della relazione di Heisenberg;
2) qualsiasi tentativo di conoscere meglio la posizione, tramite una sua precisa misurazione, a fronte della perdita di conoscenza della quantità di moto corrispondente, è dovuto esclusivamente alla duplice natura ondulatoria e corpuscolare di tutti i fenomeni fisici;
3) si può dimostrare che si verifica anche il contrario, così che la relazione di Heisenberg sia sempre verificata;
4) le conclusioni a cui siamo giunti non sono in alcun modo legate al tipo di metodo scelto per eseguire la misurazione, ma hanno validità generale, cioè sono una conseguenza diretta del "formalismo" della teoria.
Tale formalismo implica il fatto che possano esistere coppie di variabili, cosiddette "incompatibili", tali per cui è impossibile ridurre contemporaneamente l'incertezza sui loro valori al punto da violare il principio di Heisenberg.
Un altro esempio di coppia "osservabile" che è incompatibile è la coppia energia-tempo ma, per evitare fraintendimenti, sottolineo che non tutte le osservabili di un sistema sono incompatibili e quindi soggette alla relazione di indeterminazione.
Faccio anche notare che la relazione di Heisenberg è valida sia per i corpi macroscopici che per quelli microscopici ma per gli oggetti che ci circondano essa non ha praticamente conseguenze, dato che la costante di Planck, su scala macroscopica, è molto piccola (le incertezze Delta(x) e Delta(p), rispetto agli errori di misura, possono essere considerate trascurabili).
Non stupisce che i lavori di Heisenberg, dopo la loro pubblicazione, abbiano "creato" scompiglio nella comunità scientifica e abbiano acceso un vivace dibattito sul significato di quel formalismo così rivoluzionario, da un punto di vista concettuale, che all'epoca non era stato pienamente compreso.
Avremo modo di riparlarne.
Grazie a tutti e buona lettura ;)

P.S. Desidero esprimere tutta la mia gratitudine a Mark_1 per le gentili parole di apprezzamento avute nei miei confronti. A lui va il mio più sentito ringraziamento. Ringrazio anche Blume, il cui incoraggiamento non mi è mai mancato, e tutti gli altri che, con pazienza e cortesia, hanno letto i miei "sproloqui" :D
 
Ultima modifica da un moderatore:
Ciao gronag.
leggo molto volentieri i tuoi post,ammettendo anche che non essendo ferrato in materia,la cosa a volte non mi risulta di facile comprensione ma essendo io uno a cui piace la scienza,a volte anche se non ho delle basi di studio,riesco di mio a capire ...a farmi un'idea.

Fin quando riterrai piacevole per tè stesso...scrivi...io continuerò a leggere anche se per pura curiosità.

Grazie!!
 
Ho letto qualche post... Vorrei aggiungere una cosa. Matematicamente molti problemi Quantistici sono impossibili per qualsivoglia computer quanlsivoglia potente.
Tenere conto di tutto è impossibile.
Comunque per l'elettronica di oggi dobbiamo sostanzialmente ringraziare 2 persone. Einstein (effetto fotoelettrico) e De Broglie.
Vi asicuro che pensare quelle cose, nel senso ipotizzare che i fotoni siano "corpuscoli" e applicare la teoria ondulatoria agli elettroni... più ci penso più mi dico che solo un "pazzo" poteva arrivare a pensare certe cose...
Considerate che Heisenberg ha formulato la teoria quantistica matriciale che è perfetta per i PC. Prima ancora che esistessero i PC.
Però secondo me ancora maggior scompiglio lo ha portato Godel (in matematica) con il teorema dell'incompletezza (se così si dice)... devono essere stati anni tosti quelli... in una decina d'anni hanno distrutto tutte le certezze assolute che si erano costruite in secoli di studi XD
 
Ultima modifica:
Ho letto qualche post... Vorrei aggiungere una cosa. Matematicamente molti problemi Quantistici sono impossibili per qualsivoglia computer quanlsivoglia potente.
Tenere conto di tutto è impossibile.
Comunque per l'elettronica di oggi dobbiamo sostanzialmente ringraziare 2 persone. Einstein (effetto fotoelettrico) e De Broglie.
Vi asicuro che pensare quelle cose, nel senso ipotizzare che i fotoni siano "corpuscoli" e applicare la teoria ondulatoria agli elettroni... più ci penso più mi dico che solo un "pazzo" poteva arrivare a pensare certe cose...
Considerate che Heisenberg ha formulato la teoria quantistica matriciale che è perfetta per i PC. Prima ancora che esistessero i PC.
Però secondo me ancora maggior scompiglio lo ha portato Godel (in matematica) con il teorema dell'incompletezza (se così si dice)... devono essere stati anni tosti quelli... in una decina d'anni hanno distrutto tutte le certezze assolute che si erano costruite in secoli di studi XD
andando un pò fuori tema mi permetto di dire che tutto ciò non ha distrutto praticamente niente; il concetto della "crisi delle certezze", per quanto possa sembrare strano, è caro solo ai prof di filosofia del liceo. Casomai queste scoperte rivoluzionarie sono correzioni a "cose che funzionavano gia" o scoperte ex-novo che non screditano minimamente le teorie vigenti fino a quel momento, anzi. le ampliano.
Ciononostante, allargando un pochino il gap temporale, si possono riscontrare scoperte che hanno veramente distrutto quello che si sapeva prima. Uno su tutti il flogisto, goffo e originale abbozzo di teoria per spiegare ossidazione e combustione (introducendo un elemento talmente leggero da avere peso negativo), smentito dal celeberrimo Lavoisier con la legge della conservazione della massa.
Oppure, avvicinandosi un pò di più al periodo della "crisi delle certezze", si potrebbe parlare dell'eperimento di Michelson-Morley i quali volevano provare l'esistenza del cosidetto etere luminifero, non giungendo mai ad una dimostrazione definitiva. (@ gronag: sai meglio di me che qui ci sarebbero tante cose da dire, però passami l'esempio:asd:).
Tutto questo è per dire che spesso tale periodo viene superficialmente bollato come periodo di crisi in tutto -scienze, politica, economia, arte...- senza approfondire, in particolare il ramo scientifico, dove sarebbe piu' corretto parlare di ampliamento.
Scusate il comento un pò aspro, ma 3 anni di filosofia -fatta male e spiegata peggio- non potevano che portare questo tipo di ragionamento nella mia mente.

Dopo ciò non posso che complimentarmi ancora con gronag per la voglia, la pazienza, l'impegno e l'efficacia dei suoi scritti.:ok:

EDIT: per quanto riguarda i teoremi di Goedel, senza stare a scrivere vagonate di pagine, lascio una riga presa da Wikipedia,
che esplicita tutto quello quello che avrei detto io.
Lo stesso Gödel non credeva che i suoi teoremi avrebbero distrutto la fede nella matematica: disse infatti che semplicemente la completezza dell'aritmetica non poteva essere dimostrata dagli assiomi dell'aritmetica, ma occorreva qualcos'altro.
trattasi di ampliamento, non di distruzione.
Dimenticavo: Oggi, grazie alle teorie di Heisenberg sappiamo che se conosciamo con precisione la velocità della gallina allora non possiamo conoscerne la quantità di moto, ma il perchè questa attraversi la strada resti tuttora un mistero.............
 
Ultima modifica:
... Scusate il comento un pò aspro, ma 3 anni di filosofia -fatta male e spiegata peggio- non potevano che portare questo tipo di ragionamento nella mia mente ...
La avrai anche fatta male, ma il tuo ragionamento e' fino :-)

DI fatto, le "certezze" ci sono solo nei dogmi, e sono ad appannaggio dei culti e delle religioni: sono verita' che vanno credute, punto e basta (non dico non bisogni credere, ognuno e' libero di seguire la fede che vuole) e non possono essere cambiate.
Nella Scienza non c'e' mai la certezza assoluta perche' siamo abituati a continue evoluzioni delle teorie. Ogni teoria non smantella quella precedente, ma la amplia. Per esempio Einstein non ha distrutto la relativita' Galileiana, che possiamo continuare ad usarla quando le velocita' in esame sono molto inferiori a quelle della luce. Lo stesso per la dualita' particella-onda. Questo vale per tutte le scienze, non solo la Fisica. Per contare continuiamo a usare i numeri Naturali, per dividere usiamo quelli Razionali, per estrarre radici usiamo i numeri Irrazionali, e via di seguito con i numeri Trascendenti, Reali e Complessi. Questo e' il bello della Scienza, ed e' uno dei tanti motivi per cui e' temuta dai cultisti
 
Pubblicità
Pubblicità
Indietro
Top