14'

La teoria dei quanti

La teoria dei quanti nasce agli inizi del Novecento dalla ricerca di Max Planck sulla radiazione del corpo nero e gli studi successivi di Einstein sull’effetto fotoelettrico che portano alla scoperta della natura corpuscolare della luce e alla cosiddetta dualità onda-particella. Tra il 1913 e il 1916, con Niels Bohr e Arnold Sommerfeld, l’ipotesi quantistica viene applicata con successo alla struttura dell’atomo, consentendo la spiegazione dello spettro dell’atomo di idrogeno osservato fin dall’Ottocento e aprendo il varco verso una spiegazione della distribuzione elettronica negli elementi chimici. All’inizio degli anni Venti, un numero crescente di anomalie spettroscopiche mette in crisi la teoria di Bohr-Sommerfeld e rende necessario introdurre nuovi elementi teorico-concettuali: si sviluppa così tra il 1925 e il 1928 la nuova teoria dei quanti, ovvero la meccanica quantistica, con i contributi fondamentali di Schrödinger, Heisenberg, Born, Pauli, Dirac, e lo stesso Bohr. Intorno alla meccanica quantistica, e in particolare all’interpretazione detta di Copenaghen, si è acceso un dibattito tra fisici e tra filosofi della fisica, che è tuttora in corso.

La vecchia teoria dei quanti: Planck e la radiazione del corpo nero

Secondo le leggi dell’elettromagnetismo classico, qualunque corpo portato a temperature elevate emette una radiazione elettromagnetica che dipende dalla temperatura ma anche dalla natura del corpo. Un caso speciale, in contrasto con le leggi classiche è costituito dalla cosiddetta radiazione del corpo nero, ovvero dalla radiazione emessa da un corpo (si consideri un corpo cavo con un buco che lascia penetrare la radiazione incidente) che ha la capacità di assorbire tutte le radiazioni incidenti e re-irradiarle in maniera dipendente dalla temperatura ma indipendente dalla natura e dal materiale di cui il corpo è composto. Secondo le leggi classiche, più precisamente secondo la legge di Rayleigh-Jeans, l’intensità della radiazione, ovvero l’energia emessa dal corpo nero, dovrebbe crescere proporzionalmente e indefinitamente all’aumentare della frequenza fino a raggiungere le frequenze dell’ultravioletto. Gli esperimenti invece dimostrano che l’intensità cresce fino a raggiungere un picco per poi decrescere per frequenze più elevate. Nel 1900 Max Planck fornisce una spiegazione per questo fenomeno introducendo un’ipotesi radicalmente nuova che avrà conseguenze rivoluzionarie. Planck ipotizza che la radiazione emessa dal corpo nero non fosse continua ma fosse invece “quantizzata”, ovvero emessa in quantità discrete di energia dette “quanti di energia”, uguali ad dove ν è la frequenza e h è una costante nota come costante di Planck. Le importanti implicazioni di questa ipotesi saranno chiare solo qualche anno dopo con l’analisi dell’effetto fotoelettrico di Einstein.

Einstein e l’effetto fotoelettrico

Einstein è uno dei primi fisici a mettere in atto l’impatto rivoluzionario dell’ipotesi quantistica e a estenderne l’applicazione a campi diversi dalla radiazione del corpo nero, convinto che la teoria elettromagnetica classica sia valida essenzialmente per spiegare fenomeni come la riflessione e la diffrazione ma inadeguata per un’analisi dei fenomeni di emissione e assorbimento della radiazione come quelli presenti nell’effetto fotoelettrico. L’effetto fotoelettrico consiste nell’emissione di elettroni da parte di una superficie metallica colpita in vacuo da radiazioni di frequenza alta come le radiazioni ultraviolette. Secondo l’elettromagnetismo classico ci si aspetterebbe che l’energia cinetica degli elettroni emessi dipenda dall’intensità della radiazione incidente; ma i dati sperimentali suggeriscono che l’energia degli elettroni sia indipendente dall’intensità e dipendente invece dalla frequenza della radiazione incidente. Nel 1905 Einstein spiega l’effetto fotoelettrico assumendo che la radiazione incidente sia composta non da onde elettromagnetiche ma da quanti di energia uguali a hv, che interagendo con gli elettroni degli atomi della superficie metallica trasmetterebbero loro energia “quantizzata” e quindi proporzionale alla frequenza della radiazione incidente, come osservato. Einstein introduce così l’ipotesi della natura corpuscolare della luce: i fotoni, ovvero le particelle di cui la radiazione elettromagnetica consisterebbe, sono presentati come un semplice “punto di vista euristico”. L’ipotesi quantistica non sarà subito accettata anche perché la teoria classica, secondo cui la luce consisterebbe di onde, continuerà a essere applicata con successo in altri campi, come per esempio la diffrazione dei raggi X (ossia la capacità di aggirare ostacoli e diaframmi) osservata da W. Friederich e Paul Knipping nel 1912. Solo 17 anni dopo, con la scoperta dell’effetto Compton, l’ipotesi della natura corpuscolare della luce trovò conferma.

Dall’effetto Compton alle onde materiali di de Broglie: la dualità onda-particella

Nel 1922 il fisico statunitense Arthur Compton ricorre all’ipotesi dei fotoni per spiegare un effetto particolare osservato nella diffusione della radiazione monocromatica dei raggi X. Quando un fascio di raggi X attraversa una sottilissima lamina metallica, ci si aspetterebbe, secondo la teoria classica, che il fascio in uscita possieda la stessa lunghezza d’onda e frequenza del fascio incidente. Gli esperimenti mostrano invece che il fascio in uscita possiede una lunghezza d’onda più grande e quindi una frequenza più piccola. Secondo Compton, il fenomeno può essere spiegato assumendo che i fotoni che compongono il fascio di raggi X venendo a contatto con gli elettroni della lamina metallica non perdono completamente la loro energia per trasformarsi nell’energia cinetica dell’elettrone emesso (come nel caso dell’effetto fotoelettrico), ma solo una porzione della loro energia hv, Quindi il fascio in uscita possiede una minore energia e minore frequenza, mentre l’elettrone di rinculo (ovvero l’elettrone emesso per effetto fotoelettrico dall’assorbimento dei raggi X diffusi) possiede una certa energia e impulso impartitogli dal fotone che ha perso una porzione della sua energia iniziale. Nel 1923 l’esperimento di Charles T. Wilson fornisce i primi dati sulla direzione dell’elettrone di rinculo; due anni dopo Hans Geiger usando particolari rilevatori di particelle subatomiche, le camere a nebbia, cioè particolari rilevatori di particelle subatomiche, misura le correlazioni tra l’angolo di deviazione dei raggi X e l’angolo di rinculo dell’elettrone, in perfetto accordo con la spiegazione quantistica data da Compton. Questo esperimento segna la conferma definitiva della natura corpuscolare della luce, ovvero di quello che Einstein nel 1905 aveva descritto come un semplice “punto di vista euristico”. Einstein nel 1922 riceve il premio Nobel “per i molti servizi resi alla fisica teorica ma specialmente per la scoperta della legge dell’effetto fotoelettrico”.

La dualità onda-particella della radiazione è a questo punto un fatto sperimentalmente accertato: esistono due modelli diversi della radiazione, quello ondulatorio risalente all’elettromagnetismo classico e quello corpuscolare introdotto dalla teoria dei quanti; entrambi erano necessari per descrivere diversi tipi di fenomeni, ed entrambi sperimentalmente verificati. Ma la dualità onda-particella si rivelerà ben presto un fenomeno molto più radicato e diffuso in natura. Come il fisico francese Louis de Broglie nota nel 1924, non è solo la radiazione che presenta aspetti sorprendentemente corpuscolari, ma anche la materia presenta aspetti sorprendentemente e inaspettatamente ondulatori. Ogni particella, secondo De Broglie, può essere associata a un’onda la cui lunghezza e frequenza sono proporzionali all’impulso e all’energia della particella rispettivamente, mentre il raggio dell’onda corrisponde alla traiettoria della particella. L’idea di De Broglie fornisce presto la base di una nuova meccanica, ovvero della meccanica ondulatoria di Erwin Schrödinger, mentre nel 1927 gli esperimenti di Clinton Davisson e Lester H. Germer confermano le proprietà ondulatorie della materia (nella fattispecie, un fascio di elettroni che interagisce con un cristallo di nichel dà luogo a fenomeni di diffrazione analoghi a quelli dei raggi X).

Niels Bohr e la quantizzazione dell’atomo

Parallelamente agli sviluppi già descritti, dobbiamo menzionare un altro importante percorso teorico attraverso il quale l’ipotesi quantistica viene affermandosi nel primo decennio del Novecento: ovvero la sua applicazione nella teoria della struttura dell’atomo. Dopo l’iniziale modello atomico “a panettone” di Joseph Thomson, a cui aveva fatto seguito il modello atomico di tipo “planetario” di Ernest Rutherford (con il nucleo al centro e gli elettroni orbitanti intorno), nel 1913 Niels Bohr elabora un modello atomico alternativo in cui l’ipotesi quantistica gioca un ruolo centrale. Nel tentativo di risolvere alcuni problemi del modello di Rutherford (ovvero perché gli elettroni non perdevano energia per collassare quindi sul nucleo, come ci si sarebbe aspettato secondo le leggi dell’elettrodinamica classica), Bohr ipotizza che gli elettroni orbitino in stati discreti di energia (stati stazionari) e nessuna radiazione venga emessa fintanto che l’elettrone rimane nel suo stato stazionario. L’atomo emetterebbe invece radiazione (spettri atomici) quando un elettrone salta da uno stato stazionario a un altro e la radiazione emessa è quantizzata ovvero è uguale a hv = E1- E2, dove h è la costante di Planck, v la frequenza della radiazione, E1 e E2 sono lo stato stazionario iniziale e finale in cui l’elettrone salta.

In questo modo, Bohr può derivare le leggi di Balmer e Rydberg sullo spettro dell’atomo di idrogeno note fin dalla fine Ottocento. Mentre le leggi dell’elettrodinamica classica rimangono valide nella descrizione del comportamento dinamico dell’elettrone nello stato stazionario, queste stesse leggi cessano di essere valide nella descrizione delle transizioni tra stati stazionari, dove invece subentra l’ipotesi quantistica. Di lì a qualche anno, Bohr formulerà il cosiddetto principio di corrispondenza, che elaborava in maniera precisa la corrispondenza tra leggi classiche e leggi quantistiche nella descrizione della struttura atomica.

Nel 1916 Arnold Sommerfeld estendeva il modello atomico di Bohr includendovi orbite ellittiche e nuovi gradi di libertà per gli elettroni, indicati da appositi numeri quantici. La teoria dell’atomo di Bohr-Sommerfeld fu una delle applicazioni più significative delle nuove idee quantistiche, e quindi della vecchia teoria quantistica. È proprio la crisi della teoria di Bohr-Sommerfeld all’inizio degli anni Venti, dovuta a un numero crescente di anomalie spettroscopiche che non potevano essere spiegate tramite essa, che spiana la strada alla nuova teoria quantistica nel 1925. Il passaggio dalla vecchia alla nuova teoria quantistica è uno degli episodi più complessi e affascinanti della fisica del Novecento, che porterà all’introduzione di nuovi gradi di libertà per gli elettroni (lo spin), di nuove leggi per la chiusura delle orbite elettroniche (principio di esclusione di Pauli), ma soprattutto di un nuovo formalismo matematico in cui le idee quantistiche trovavano finalmente una loro espressione compiuta.

La nuova teoria dei quanti: la nascita della meccanica quantistica

Il 1925 fu l’annus mirabilis della nuova teoria dei quanti. Nel mese di luglio il fisico tedesco Werner Heisenberg introduce una nuova meccanica per il trattamento dei fenomeni quantistici che fa uso di matrici. Di qui, i lavori pionieristici di Max Born, Pascual Jordan, e dello stesso Heisenberg per lo sviluppo di un nuovo formalismo basato sul calcolo delle matrici. Nel 1926 è la volta di Erwin Schrödinger, che elabora un formalismo alternativo alla meccanica delle matrici prendendo spunto proprio dall’idea delle onde di materia di De Broglie. Nel marzo 1926 Schrödinger dimostra l’equivalenza tra la meccanica ondulatoria da lui elaborata e la meccanica delle matrici. Alla meccanica classica si affianca ora una meccanica quantistica che si avvale di due alternativi formalismi matematici che si riveleranno equivalenti nel trattamento dei fenomeni quantistici: la meccanica delle matrici fa uso di quantità discrete e di un’algebra non commutativa, mentre la meccanica ondulatoria ricorre a quantità continue ed equazioni differenziali.

Nello stesso periodo si formulano anche delle statistiche quantistiche, che soppiantano la statistica classica di Maxwell–Boltzmann nel trattamento del comportamento di un sistema di particelle: tra il 1924 e il 1925 Einstein in collaborazione con il fisico indiano Satyendra Nath Bose formulano la statistica quantistica per un sistema di fotoni, mentre nel 1926 Enrico Fermi e Dirac elaborano la statistica quantistica per un sistema di elettroni che seguono il principio di esclusione di Pauli (il principio scoperto alla fine del 1924 dice che non esistono in natura due elettroni nello stesso stato dinamico). Come sarà chiaro nel decennio successivo, grazie alla formulazione del teorema spin–statistics da parte di Pauli nel 1940, tutte le particelle esistenti seguono o la statistica Bose-Einstein o la statistica Fermi-Dirac e quindi il principio di esclusione e più precisamente: tutte le particelle a spin zero o intero sono bosoni, mentre le particelle a spin semiintero sono fermioni.

Nel 1928, Paul A.M. Dirac trova un’equazione per l’elettrone che combina meccanica quantistica e relatività speciale, e da cui automaticamente consegue il nuovo grado di libertà (lo spin) introdotto su basi puramente empiriche durante il periodo di crisi della vecchia teoria quantistica; si rende così possibile la spiegazione di tutte le anomalie spettroscopiche osservate all’inizio degli anni Venti. A sua volta l’equazione di Dirac solleva nuove sfide per la meccanica quantistica che, attraverso un lungo percorso teorico e sperimentale, porteranno alla scoperta dell’antiparticella dell’elettrone.

L’interpretazione di Copenaghen della meccanica quantistica

Il nuovo formalismo matematico necessita di un’interpretazione fisica. Con il termine interpretazione di Copenaghen si intende quella che subito si impone come l’interpretazione ortodossa della meccanica quantistica, sebbene esista tuttora un acceso dibattito tra fisici e filosofi della fisica circa la validità e l’equivalenza di interpretazioni alternative. Il termine indica in realtà un insieme di principi e idee elaborato dal fisico danese Niels Bohr insieme ad altri fisici come Werner Heisenberg e Wolfgang Pauli. Nel febbraio 1927 Heisenberg deriva le famose relazioni di indeterminazione tra la posizione e l’impulso, e tra l’energia e il tempo: con quanta maggiore precisione si misura la posizione di una particella, tanto più indeterminata sarà la misurazione dell’impulso, e lo stesso vale per la misurazione dell’energia e del tempo di rilascio di una particella. Heisenberg considera queste relazioni come espressioni di un limite epistemico, un limite alla nostra possibilità di conoscere con precisione entrambe le proprietà in questione di una particella. Diversa sarà l’interpretazione che Bohr darà di lì a poco di queste stesse relazioni. Nel settembre 1927, al termine di un lungo e acceso dibattito con Heisenberg durato diversi mesi, Bohr presenta un articolo al Congresso Internazionale di Fisica tenutosi a Como in cui fornisce un’interpretazione ontologica delle relazioni di indeterminazione di Heisenberg; Bohr vede in esse non un limite alla nostra capacità di conoscenza, ma un limite della stessa realtà quantistica che egli stesso presenta come principio di complementarità. Mentre in fisica classica è possibile fornire simultaneamente un’accurata descrizione sia delle coordinate spazio-temporali di un oggetto sia delle sue caratteristiche dinamiche, in fisica quantistica questo non è più possibile: è la natura stessa degli oggetti quantistici che fa sì che essi ci appaiano solo attraverso gli aspetti mutuamente escludenti e complementari di un’accurata descrizione spazio-temporale o di un’accurata descrizione dinamica. Ovvero viene meno l’immagine classica di una realtà fisica già da sempre dotata di ben definite proprietà fisiche, indipendentemente dalle nostre capacità di osservazione e misurazione, e si afferma invece l’idea per cui esiste un’interazione non trascurabile tra l’oggetto e l’apparato sperimentale impiegato, tale per cui gli oggetti quantistici non possono essere pensati come aventi da sempre ben definite proprietà fisiche. Ha senso invece parlare di una particella dotata per esempio di una certa posizione solo ed esclusivamente in presenza dell’apparato sperimentale che rende possibile la misurazione di tale proprietà (apparato che è incompatibile con la misurazione accurata della proprietà impulso) e viceversa.

Con il principio di complementarità Bohr rovescia uno dei capisaldi concettuali e filosofici della fisica classica: ovvero l’idea che le entità fisiche abbiano sempre un pacchetto ben definito di proprietà indipendentemente dal contesto sperimentale e dalla misurazione di tali proprietà. Sarà questo il fulcro del dibattito tra Bohr ed Einstein che seguirà negli anni tra il 1928 e il 1930 e culminerà con la pubblicazione nel 1935 di un famoso articolo da parte di Einstein, Podolsky e Rosen, nel quale a partire dall’interpretazione di Copenaghen i tre fisici presentavano un paradosso. O l’interpretazione di Copenaghen è corretta e la descrizione della realtà data dalla meccanica quantistica è completa, ma viola il principio relativistico di località (non esistono in natura segnali che viaggiano a velocità superiori a quella della luce) e il principio di separabilità (due sistemi fisici separati e non interagenti possiedono stati fisici separati); oppure salviamo i principi di località e separabilità e concludiamo che la descrizione della realtà data dalla meccanica quantistica è incompleta, ovvero un sistema fisico possiede un pacchetto ben definito di proprietà ma la meccanica quantistica nell’interpretazione di Copenaghen è incapace di descrivere tale pacchetto nella sua completezza.

Il dibattito tra Einstein e Bohr sulla completezza della meccanica quantistica è una delle pagine filosoficamente più interessanti della storia della scienza del Novecento, e ha dato impulso a interessanti sviluppi teorici successivi. La critica di Einstein all’interpretazione di Copenaghen ispirerà le teorie delle variabili nascoste introdotte negli anni Quaranta-Cinquanta per restaurare l’immagine classica della realtà nel dominio quantistico. Con le disuguaglianze di John S. Bell negli anni Sessanta e gli esperimenti di Alain Aspect negli anni Ottanta, nuova luce è stata gettata sul dibattito sulla completezza della meccanica quantistica, un dibattito che, a distanza di 70 anni, va ancora avanti e le cui implicazioni concettuali sono ancora oggetto di studio e d’indagine filosofica.


Tutti i diritti riservati - EM Publishers Srl