Storia della fisica

 

 


Storia della fisica

 

I testi seguenti sono di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente a studenti , docenti e agli utenti del web i loro testi per sole finalità illustrative didattiche e scientifiche.

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

Storia della fisica

 

Storia della fisica

 

Fisica (Dal greco physiké, "studio metodico della natura"), scienza che indaga i molteplici fenomeni che si manifestano in natura (in greco phýsis), con lo scopo di darne una spiegazione razionale. La fisica studia i costituenti fondamentali dell'universo, le forze che essi esercitano l'uno sull'altro e gli effetti prodotti dall'azione di queste forze.

DISCIPLINA

ARGOMENTO

Acustica

Lo studio delle proprietà del suono.

Fisica atomica

Lo studio della struttura e delle proprietà dell'atomo.

Criogenia

Si occupa del comportamento della materia a temperature estremamente basse.

Elettromagnetismo

Lo studio del campo elettromagnetico.

Fisica delle particelle elementari
o fisica delle alte energie

Si occupa dei più piccoli costituenti della materia.

Fluidodinamica

Lo studio del comportamento dei fluidi in moto.

Geofisica

L'applicazione della fisica allo studio della Terra. Suddivisa in idrologia, meteorologia, oceanografia, sismologia e vulcanologia.

Fisica matematica

Lo studio dei modelli matematici applicabili ai fenomeni naturali.

Meccanica

Lo studio del moto dei corpi e delle sue cause.

Fisica molecolare

Lo studio della struttura e delle proprietà delle molecole.

Fisica nucleare

Esamina la struttura e le proprietà del nucleo atomico, le reazioni nucleari
e le loro applicazioni.

Ottica

Lo studio della propagazione della luce.

Fisica dei plasmi

Lo studio del comportamento di gas altamente ionizzati (elettricamente carichi).

Fisica quantistica

Studia il comportamento di sistemi microscopici applicando il concetto
di quantizzazione.

Fisica dello stato solido
o della materia condensata

Si occupa delle proprietà fisiche dei materiali solidi.

Meccanica statistica

Applica i principi della statistica allo studio di sistemi costituiti da un numero altissimo di particelle.

Termodinamica

Lo studio del calore e delle trasformazioni dell'energia da una forma all'altra.

 

Scopo della fisica

La fisica è strettamente legata a tutte le altre scienze naturali; viene distinta dalla chimica, il cui campo di indagine è limitato ai processi che coinvolgono trasformazioni della natura intima di corpi e sostanze, benché questa distinzione sia caduta, almeno in parte con lo sviluppo della fisica moderna, e quindi della meccanica quantistica, che ha permesso l'interpretazione teorica degli aspetti che riguardano la struttura della materia (ad esempio le condizioni di equilibrio all'interno degli atomi, la formazione delle molecole). Con il progresso scientifico si sono sviluppati campi di studio interdisciplinari che si avvalgono dei principi della fisica: la geofisica indaga sui fenomeni fisici che riguardano la Terra; l'astrofisica studia l'evoluzione delle stelle e le proprietà dello spazio interstellare; la biofisica studia i fenomeni biologici sulla base dei principi fisici che li determinano.

Se fino al XIX secolo era frequente che un fisico fosse anche matematico, filosofo, chimico, biologo, ingegnere, il grado di sviluppo raggiunto attualmente dalle scienze impone una più marcata specializzazione nell'ambito di una sola disciplina.

Le conquiste scientifiche in campo teorico trovano oggi immediata applicazione nell'ingegneria e nelle altre scienze applicate. Le scoperte sull'elettricità e sul magnetismo del XIX secolo, ad esempio, sono ora competenza anche degli ingegneri; le proprietà della materia scoperte all'inizio del XX secolo sono sfruttate nell'ambito dell'elettronica; mentre le conoscenze nell'ambito della fisica nucleare, che risalgono a non più di quarant'anni fa, hanno trovato innumerevoli applicazioni in campo industriale, in particolare nell'industria bellica.

Storia della fisica

Sebbene la fisica sia nata come scienza autonoma non prima del XIX secolo, si possono rintracciare i primi studi e le prime osservazioni scientifiche di competenza della fisica fin dai tempi antichi.

Antichità

I cinesi, i babilonesi, gli egizi e alcune popolazioni precolombiane osservavano i movimenti dei pianeti ed erano in grado di prevedere le eclissi; tuttavia nessun popolo seppe collocare i fenomeni osservati entro un quadro teorico esplicativo e sistematico. Le speculazioni dei filosofi greci introdussero due diverse linee di pensiero circa i costituenti fondamentali dell'universo: l'atomismo, promosso da Leucippo nel V secolo a.C., e la teoria degli elementi.

Alessandria, culla della cultura occidentale durante l'Età ellenistica, impresse un notevole impulso allo sviluppo della scienza . Ad Alessandria si svolse l'attività di Archimede, che studiò le condizioni di equilibrio dei corpi immersi, pose le basi dell'idrostatica e costruì le prime leve.

Altri importanti scienziati greci di questo periodo furono Aristarco di Samo, che misurò le distanze relative del Sole e della Luna dalla Terra; Eratostene, che determinò la lunghezza del raggio terrestre e compilò un catalogo delle stelle conosciute; Ipparco, che scoprì il fenomeno della precessione degli equinozi.

Nel II secolo d.C. Tolomeo elaborò un sistema di interpretazione dell'universo e dei moti planetari, secondo il quale la Terra è ferma al centro dell'universo, mentre la Luna, i pianeti e le stelle ruotano intorno a essa con moto circolare.

Medioevo

Nel corso del Medioevo numerosi trattati greci furono conservati, tradotti e commentati da alcuni studiosi arabi, quali Averroè e Al-Farabi. La fondazione delle grandi università in tutta Europa, a partire dall'XI secolo, pose le basi di una grande rinascita culturale. In campo filosofico fu Ruggero Bacone a invocare il metodo sperimentale come fondamento del sapere scientifico.



Secoli XVI e XVII

Nel corso dei secoli XVI e XVII numerosi studiosi cercarono di interpretare il comportamento dei corpi celesti sulla base di nuovi modelli teorici, al fine di eliminare i difetti del sistema tolemaico. Fu Niccolò Copernico a elaborare un complesso sistema eliocentrico, nel quale la Terra e i pianeti orbitano intorno al Sole, immobile al centro dell'universo. Giovanni Keplero enunciò le leggi che regolano il moto planetario, sulla base delle misure effettuate da Tycho Brahe. A partire dal 1609 Galileo Galilei compì sistematiche osservazioni del cielo; per mezzo del telescopio, scoprì le fasi del pianeta Venere, che portò a prova indiretta della validità del sistema eliocentrico, osservò le irregolarità della superficie lunare, i quattro satelliti più luminosi di Giove, le macchie solari e molte stelle della Via Lattea. Le scoperte astronomiche di Galileo e i suoi studi di meccanica aprirono la strada alle ricerche di Isaac Newton.



Newton e la meccanica

Newton formulò i tre principi della dinamica e la legge di gravitazione universale, riconobbe che la luce bianca è il risultato della sovrapposizione di tutti i colori dello spettro, propose una teoria per la propagazione della luce e introdusse il calcolo differenziale e integrale, contribuendo in modo decisivo allo sviluppo di disparati campi del sapere. Le leggi di Keplero sul moto planetario e la teoria di Galileo sulla caduta dei gravi vennero entrambe confermate e riconosciute come conseguenze del secondo principio della dinamica di Newton e della sua legge di gravitazione universale. A lui si deve anche la comprensione del fenomeno delle maree e della precessione degli equinozi.



Lo sviluppo della meccanica

Le leggi del moto di Newton sono tuttora alla base della meccanica classica. La seconda legge, affermando che l'accelerazione di un corpo è direttamente proporzionale alla forza applicata, permette da un lato, di calcolare istante per istante la posizione e la velocità del corpo quando siano note le condizioni iniziali del moto, dall'altro la definizione di uno dei più importanti concetti della fisica: la massa inerziale.



Gravità

Il più specifico contributo di Newton alla descrizione delle forze della natura venne dalla legge di gravitazione universale. Questa legge, che afferma semplicemente che due corpi si attraggono con una forza direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza, ha implicazioni vastissime: introduce il concetto di massa gravitazionale, spiega il moto dei pianeti intorno al Sole e degli oggetti all'interno del campo gravitazionale terrestre, ma è anche responsabile del fenomeno del collasso gravitazionale, che costituisce lo stadio finale del ciclo di una stella massiva.

La legge di gravitazione universale venne dedotta dall'osservazione del comportamento dei pianeti, ma solo nel 1771 Henry Cavendish ne fornì una conferma sperimentale: avvicinando grosse sfere di piombo a piccole masse fissate agli estremi dell'asta di un pendolo di torsione, e misurando l'angolo di torsione dell'asta, egli poté verificare la dipendenza della forza di attrazione gravitazionale dalla massa dei corpi e dall'inverso del quadrato della loro distanza; da queste misure risalì anche alla massa e alla densità media della Terra.

Nei due secoli che seguirono gli studi di Newton, le leggi della meccanica furono analizzate, ampliate e applicate a sistemi complessi. Eulero formulò per primo le equazioni del moto per i corpi rigidi, generalizzando gli studi compiuti da Newton su sistemi ai quali si poteva applicare l'approssimazione di corpi puntiformi. Alcuni fisici matematici, tra i quali Joseph-Louis Lagrange e William Hamilton, riformularono la seconda legge di Newton in modo più sofisticato ed elegante. Nello stesso periodo Daniel Bernoulli estese la meccanica newtoniana giungendo alla formulazione della meccanica dei fluidi.



Elettricità e magnetismo

Sebbene già nell'antica Grecia si conoscessero le proprietà elettrostatiche dell'ambra e i cinesi fin dal 2700 a.C. ricavassero calamite dalla magnetite, lo studio sistematico dei fenomeni elettrici e magnetici fu affrontato solo alla fine del XVIII secolo. Nel 1785 Charles-Augustin de Coulomb verificò sperimentalmente che le forze di interazione fra due cariche elettriche puntiformi sono inversamente proporzionali al quadrato della distanza. In seguito fu sviluppata da due matematici, il francese Siméon Denis Poisson e il tedesco Carl Friedrich Gauss, una teoria che permette di determinare con semplicità l'effetto di qualunque distribuzione di cariche.

Con la pila elettrochimica, inventata nel 1800 da Alessandro Volta, fu possibile mantenere il moto di cariche elettriche in un mezzo. Vennero quindi realizzati i primi circuiti elettrici e furono compiute le prime ricerche sul comportamento dei diversi materiali percorsi da corrente elettrica.

Le prime ricerche sul magnetismo risalgono al XVII secolo, tuttavia per lungo tempo i fenomeni elettrici e magnetici furono studiati separatamente e questo celò la loro stretta relazione. La situazione mutò nel 1829 quando lo scienziato danede Hans Christian Oersted scoprì che un ago magnetico si orienta per effetto di una corrente elettrica. Dopo breve tempo André-Marie Ampère dimostrò che due fili percorsi da corrente si attraggono o si respingono come i poli di una calamita. Nel 1831 il britannico Michael Faraday scoprì che per generare corrente all'interno di un filo conduttore è sufficiente muovere una calamita o mantenere una corrente variabile nelle sue vicinanze.

La stretta relazione che sussiste tra elettricità e magnetismo, ora riconosciuta, diviene assolutamente esplicita se si fa riferimento ai rispettivi campi di forze, elettrico e magnetico. L'intensità e la direzione di un campo in un punto dello spazio rappresentano una misura della forza che agisce in quel punto su una carica unitaria o su una corrente ideale. Cariche elettriche stazionarie generano campi elettrici e risentono di campi elettrici; le correnti, ossia cariche in moto, generano campi magnetici e risentono di campi magnetici. Inoltre, campi magnetici o elettrici variabili generano rispettivamente campi elettrici e magnetici.

Questi risultati furono formalizzati sul piano matematico dal fisico britannico James Clerk Maxwell che, nelle equazioni differenziali che portano il suo nome, mise in relazione le variazioni nello spazio e nel tempo dei campi elettrico e magnetico in un punto, con le cariche e le correnti presenti in quello stesso punto. In teoria, fu quindi possibile calcolare il valore del campo elettrico e magnetico solo conoscendo la distribuzione di cariche e correnti nello spazio. Il risultato inaspettato che scaturì dalla soluzione di queste equazioni fu la scoperta delle onde elettromagnetiche, prodotte da cariche in accelerazione. Nel 1887 il fisico tedesco Heinrich Hertz riuscì a produrre queste onde, ponendo le basi per lo sviluppo della radio, del radar, della televisione e di tutte le altre forme di telecomunicazione.

Luce

L'osservazione che la luce si propaga in linea retta risale all'antichità; già i greci ritenevano che essa fosse costituita di un fascio di corpuscoli, che partivano dall'occhio o erano emanati dall'oggetto osservato. Questa teoria, per quanto fornisse un'interpretazione del processo percettivo della visione, era ben lontana da un quadro teorico completo che spiegasse in modo soddisfacente sia il meccanismo per cui il fascio luminoso si genera e scompare, sia i cambiamenti di velocità e direzione nel passaggio da un mezzo a un altro. Progressi significativi nello studio sulla natura della luce furono compiuti nel XVII secolo da Newton, che propose la teoria corpuscolare della luce, e da Robert Hooke e Christiaan Huygens, che sostennero la teoria ondulatoria. Non fu approntato nessun esperimento che potesse dar credito all'una o all'altra interpretazione fino al XIX secolo, quando il fisico Thomas Young osservò il fenomeno dell'interferenza, caratteristico del moto ondulatorio.

L'interferenza si osserva quando un sottile pennello di luce viene inviato su uno schermo sul quale siano state praticate due fenditure identiche. La luce che giunge su uno schermo posto a una certa distanza dalla doppia fenditura mostra una caratteristica struttura di bande di luce e ombra equispaziate. Assumendo, come fece Huygens, che ciascuna delle due fenditure si comporti come una nuova sorgente che emette luce in tutte le direzioni, si può comprendere come i due treni d'onda che giungono in uno stesso punto dello schermo non arrivino necessariamente in fase, sebbene siano partiti in fase dalle rispettive sorgenti. Se le due onde si sovrappongono in fase in un punto, allora si ottiene in quel punto il massimo dell'intensità (interferenza costruttiva); per sfasamenti via via maggiori, la luminosità decresce fino al buio totale (interferenza distruttiva). In ogni punto l'intensità di illuminazione varia periodicamente con una frequenza che per la luce visibile è compresa tra i 4 × 1014 e i 7,5 × 1014 Hz e che non può quindi essere percepita né dall'occhio umano, né da qualunque strumento classico. Poiché non sono possibili misure dirette, la frequenza viene determinata a partire da misure di lunghezza d'onda e di velocità. Per calcolare la lunghezza d'onda è sufficiente conoscere la distanza tra le fenditure e quella tra due bande di luce adiacenti sullo schermo.

La prima misura della velocità della luce fu effettuata nel 1676 dall'astronomo danese Olaus Roemer. Egli notò apparenti variazioni nella durata dell'intervallo di tempo che separa due eclissi successive dei satelliti di Giove e le interpretò correttamente come conseguenze delle variazioni nella distanza percorsa dalla luce tra la Terra e il pianeta gigante. Le sue misure si rivelarono in buon accordo sia con le osservazioni effettuate nel XIX secolo dal fisico francese Armand Hippolyte Louis Fizeau, sia con i risultati ottenuti agli inizi del XX secolo da Albert Abraham Michelson. Attualmente il valore della velocità della luce nel vuoto è noto con grande accuratezza, ed è pari a 299.792,46 km/s. Nei mezzi materiali la velocità della luce è più bassa e dipende dalla lunghezza d'onda; quest'ultima proprietà sta all'origine del fenomeno della dispersione.

Gli studi di Maxwell furono fondamentali per l'interpretazione della luce come una particolare forma di radiazione elettromagnetica. Ora si sa che lo spettro elettromagnetico si estende dai raggi gamma (vedi Radioattività), le cui lunghezze d'onda tipiche sono inferiori ai 10-12 cm, ai raggi X, alla luce visibile, alle microonde e alle onde radio, fino a lunghezze d'onda dell'ordine delle centinaia di chilometri.

Per analogia con le onde dell'acqua, elastiche e sonore, gli scienziati ipotizzarono l'esistenza di un mezzo, l'"etere cosmico", che facesse da supporto per la propagazione delle onde elettromagnetiche.

L'ipotesi venne abbandonata dopo il famoso esperimento di Michelson-Morley, realizzato per la prima volta nel 1887 e volto a determinare la velocità della Terra rispetto all'etere. Posto che il nostro pianeta viaggiasse attraverso un ipotetico etere stazionario, l'esperimento avrebbe dovuto rivelare una dipendenza della velocità della luce dalla direzione di propagazione; il risultato fu invece negativo. La fisica si trovò in una situazione stagnante, fino a quando Albert Einstein formulò la teoria della relatività, nel 1905.

Termodinamica

Nel corso del XIX secolo lo studio della termodinamica ricevette un notevole impulso: furono ridefiniti in modo rigoroso i concetti di calore e di temperatura, che vennero messi in relazione con grandezze puramente meccaniche quali lavoro ed energia.

Il primo principio della termodinamica

L'equivalenza tra calore e lavoro fu specificata sul piano teorico dal fisico tedesco Hermann Ludwig Ferdinand von Helmholtz e dal fisico britannico William Thomson Kelvin verso la metà del XIX secolo. Nello stesso ambito deve essere inquadrata la serie di esperimenti condotti tra il 1840 e il 1849 da James Prescott Joule. Il risultato di questi studi fu l'enunciato del primo principio della termodinamica: compiendo un lavoro su un sistema si aumenta la sua energia interna, e quindi la temperatura; se non si riscontra alcuna variazione dell'energia interna, la quantità di lavoro compiuto deve essere uguale al calore dissipato. Con lo sviluppo della teoria cinetica fu possibile mettere in relazione l'energia interna di un sistema con l'energia cinetica delle particelle che lo costituiscono.

Il secondo principio della termodinamica

Il primo principio afferma che l'energia totale si conserva in ogni trasformazione in cui il sistema interagisce con l'ambiente circostante, ma non fornisce alcuna indicazione sulle modalità con cui avvengono queste trasformazioni. Che i trasferimenti di energia possano avvenire in una sola direzione fu messo in evidenza da Nicolas-Léonard Sadi Carnot, il quale scoprì nel 1824 che una macchina termica (un dispositivo capace di compiere lavoro continuativamente attingendo calore dall'ambiente) ha bisogno, per funzionare, di due sorgenti: una a temperatura più alta, da cui attingere calore, e l'altra più fredda, che assorba il calore prodotto. Quando la macchina compie lavoro, il calore passa dal corpo più caldo a quello più freddo; perché avvenga il contrario deve essere speso lavoro meccanico (o elettrico).

Le idee di Carnot furono riformulate con rigore nel secondo principio della termodinamica, enunciato in forme equivalenti da Rudolf Julius Emanuel Clausius e da William Thomson Kelvin.

Quando due parti di un sistema isolato (che non interagisca con l'ambiente esterno) si trovano a temperature diverse, si verificano reciproci scambi di calore che portano il sistema in uno stato di equilibrio. Questo concetto è espresso da una grandezza termodinamica detta entropia (definita per la prima volta da Clausius), che fornisce una misura di quanto lo stato di un determinato sistema sia lontano dall'equilibrio (corrispondente a uno stato di perfetto disordine).

Per modificare l'entropia di un sistema si deve intervenire dall'esterno; tuttavia, a causa dell'irreversibilità dei processi macroscopici, la diminuzione dell'entropia locale di un sistema per effetto di una azione esterna ha come conseguenza un aumento dell'entropia dell'ambiente. Se una trasformazione fosse spontaneamente reversibile, cioè se al termine di essa sia il sistema sia l'ambiente potessero essere riportati nello stato iniziale, l'entropia rimarrebbe costante e il secondo principio della termodinamica sarebbe violato.

Dalla formulazione del secondo principio in poi, la termodinamica ha conosciuto ulteriori sviluppi e un gran numero di applicazioni in fisica, chimica e ingegneria. L'ingegneria chimica, l'ingegneria degli impianti per la produzione di energia, la tecnologia del condizionamento dell'aria e la fisica delle basse temperature sono solo alcuni dei campi che devono il loro fondamento teorico alla termodinamica e ai contributi di scienziati quali Maxwell, Willard Gibbs, Walther Hermann Nernst e Lars Onsager.

Energia cinetica e meccanica statistica

La relazione tra il comportamento degli atomi e delle molecole di un gas, sul piano microscopico, e i fenomeni che si manifestano a livello macroscopico è specificata dalla teoria cinetica dei gas, alla quale contribuirono sia Maxwell sia Ludwig Boltzmann. Poiché è impossibile seguire singolarmente l'evoluzione di ogni particella di un fluido, si ricorre a un approccio statistico: la teoria cinetica dei gas consiste infatti nell'applicazione dei principi della meccanica classica e della statistica. Un tipico problema affrontato dalla teoria cinetica è la determinazione della distribuzione delle velocità tra le molecole di un gas e dell'energia cinetica media di ogni particella.

Facendo ricorso alla teoria cinetica si può dimostrare che la temperatura di un sistema è direttamente legata all'energia cinetica media delle molecole che lo costituiscono, e che l'entropia è legata alla distribuzione statistica degli stati del sistema corrispondenti a diversi valori dell'energia. Da questo risultato segue che lo stato di equilibrio termodinamico più probabile è quello di massima entropia.

Prime teorie atomiche e molecolari

La teoria atomica di Dalton e la legge di Avogadro, oltre a svolgere un ruolo fondamentale in fisica, diedero anche un notevole impulso allo sviluppo della chimica.

Legge di Avogadro

La legge di Avogadro afferma che un dato volume di gas, per valori di temperatura e pressione fissati, contiene sempre lo stesso numero di molecole, a prescindere dalla natura chimica di queste. Il numero di Avogadro rappresenta il numero di molecole contenuto in una quantità di sostanza la cui massa espressa in grammi è esattamente uguale al peso molecolare.

Nella seconda metà del XIX secolo furono effettuati numerosi tentativi di determinare le dimensioni dell'atomo; quello che fornì i risultati più significativi fu l'applicazione della teoria cinetica ai gas non ideali, ossia a gas per cui non vale l'approssimazione di molecole puntiformi e non interagenti. Esperimenti successivi, che sfruttarono tecniche avanzate basate sullo scattering di raggi X, di particelle alfa e di altre particelle subatomiche, portarono alla determinazione delle dimensioni tipiche dell'atomo, il cui diametro risultò compreso tra 10-8 e 10-9 cm.

Spettroscopia

La conoscenza della struttura dell'atomo deve moltissimo alla spettroscopia e alla scoperta delle particelle subatomiche.

Nel 1823 John Herschel propose di identificare un elemento chimico per mezzo dell'analisi spettrale, cioè dalla distribuzione dell'intensità della luce emessa dalla sostanza allo stato gassoso. Negli anni che seguirono furono catalogati gli spettri di molte sostanze, grazie al lavoro di due tedeschi, il chimico Robert Wilhelm Bunsen e il fisico Gustav Robert Kirchhoff. Nel 1868 l'osservazione di una riga ignota nello spettro del Sole condusse l'astronomo britannico Joseph Norman Lockyer alla scoperta dell'elio. Contributi importanti allo sviluppo della teoria atomica vennero inoltre dallo studio degli spettri prodotti da singoli elementi.

Uno spettro discreto (a righe) viene generato da una sostanza allo stato gassoso, i cui atomi siano stati eccitati da una fonte di calore o dal bombardamento di particelle subatomiche. Invece, lo spettro prodotto da un corpo solido caldo è continuo e cade nelle regioni del visibile, dell'infrarosso e dell'ultravioletto. La quantità totale di energia emessa dipende fortemente dalla temperatura, come pure la distribuzione dell'intensità tra le varie lunghezze d'onda. Quando si riscalda una sbarretta di ferro, ad esempio, dapprima la radiazione emessa è infrarossa, pertanto non visibile; poi, all'aumentare della temperatura lo spettro si allarga verso il visibile e l'incandescenza passa dal rosso al bianco, mentre il picco dello spettro si sposta verso il centro della regione visibile. I tentativi di spiegare le caratteristiche della radiazione emessa dai solidi con gli strumenti teorici a disposizione alla fine del XIX secolo portarono a concludere che a una data temperatura la quantità di radiazione emessa aumenta indefinitamente all'aumentare della frequenza. Questo risultato era naturalmente in disaccordo con le osservazioni sperimentali.

Il crollo della fisica classica

Era dal 1880 che la fisica poteva dirsi assestata: la maggior parte dei fenomeni trovava spiegazione nella meccanica newtoniana, nella teoria elettromagnetica di Maxwell, nella termodinamica o nella meccanica statistica di Boltzmann. Sembrava che pochi problemi, quali la determinazione delle proprietà dell'etere e la spiegazione degli spettri di radiazione emessi dai corpi solidi, rimanessero irrisolti. La comprensione di questi pochi fenomeni scatenò tuttavia la rivoluzione che investì la fisica. Al crollo della fisica classica contribuì anche una serie di importanti scoperte della fine del XIX secolo: i raggi X da parte di Wilhelm Conrad Röntgen, nel 1895; l'elettrone per merito di J.J. Thomson, nel 1895; la radioattività di Antoine-Henri Becquerel, nel 1896; l'effetto fotoelettrico, durante il periodo tra il 1887 e il 1899. I risultati degli esperimenti condotti in quegli anni, tra cui la scoperta dei raggi catodici, prescindevano da ogni possibile spiegazione teorica entro il quadro della fisica classica.

La fisica moderna

Nel primo trentennio del XX secolo vennero sviluppate la teoria quantistica e la teoria della relatività, che segnarono la nascita della fisica moderna.

Relatività

Supponiamo che una persona A cammini a velocità v su un treno che viaggia nella stessa direzione a velocità u; la velocità di A rispetto a un osservatore B che si trovi fermo a terra è allora V = u + v.

Più in generale, supponiamo che un punto si muova a velocità v in un sistema di riferimento xoy, che a sua volta si muove con velocità costante, u, rispetto a un secondo sistema di riferimento XOY; il moto del punto osservato in quest'ultimo sistema avviene con velocità V = u + v. Questa relazione, che naturalmente può essere generalizzata e applicata a sistemi di riferimento tridimensionali, prende il nome di legge di composizione delle velocità ed è dovuta a Galileo. La conseguenza immediata della legge è che l'accelerazione dei due punti è la stessa, cioè a = A, indipendentemente dal sistema di riferimento che si consideri; da ciò si può dedurre che la seconda legge di Newton (F = m a) assume la stessa forma in tutti i sistemi di riferimento inerziali, ovvero in moto relativo rettilineo uniforme.Il contenuto del principio di relatività galileiano può essere esteso affermando che le leggi della meccanica classica sono le stesse in tutti i sistemi di riferimento inerziali; ciò implica che non è possibile realizzare nessun esperimento che ci permetta di decidere se un sistema di riferimento è fermo o in moto rettilineo uniforme.

La scoperta che le equazioni di Maxwell, che descrivono tutti i fenomeni di natura elettromagnetica, non sono invarianti per trasformazioni di Galileo indusse Albert Einstein a sostituire le leggi galileiane con un nuovo insieme di relazioni, introdotte da Lorentz in base a considerazioni matematiche, e a porre le basi della teoria della relatività.

Le trasformazioni di Lorentz implicano una completa revisione dei concetti classici di spazio e tempo; negando l'esistenza di uno spazio e di un tempo assoluto, che sono a fondamento della meccanica classica, esse infatti richiedono una nuova definizione del significato di distanza e di contemporaneità. Due orologi che risultino sincroni quando sono in quiete l'uno rispetto all'altro, funzionano a velocità diverse se si muovono di moto relativo; analogamente due barre di identica lunghezza a riposo sono diverse quando una di esse si muove rispetto all'altra. Lo spazio e il tempo divennero così le quattro coordinate (tre spaziali e una temporale) dell'iperspazio a quattro dimensioni in cui si collocano tutti i fenomeni fisici.

Conseguenze importanti della relatività di Einstein sono l'equivalenza tra massa ed energia e l'esistenza di un limite superiore per la velocità dei corpi, dato dal valore della velocità della luce, c. La meccanica relativistica, che può spiegare il moto di corpi dotati di velocità prossima a quella della luce, si riduce alla meccanica newtoniana per la descrizione dei fenomeni che avvengono a velocità trascurabili rispetto a c.

Nel 1915 Einstein generalizzò la teoria della relatività a sistemi di riferimento in moto accelerato. Nella relatività generale la gravitazione risulta una conseguenza della complessa geometria dello spazio-tempo, e la teoria di Newton, non più necessaria per la descrizione dei fenomeni fisici, scaturisce in una forma più generale nell'ambito di un'esposizione teorica completa ed esauriente. Nel 1919 fu osservata per la prima volta la curvatura dei raggi luminosi in prossimità di corpo molto massivo; l'evidenza di questo fenomeno, previsto dalla relatività generale, rappresentò una prova indiretta della validità della teoria, che ha avuto un ruolo fondamentale nella comprensione dell'universo e della sua evoluzione.

Teoria quantistica

I risultati dell'analisi sperimentale dello spettro del corpo nero, che non erano in accordo con i principi della fisica classica, furono giustificati sul piano teorico dal fisico tedesco Max Planck. Secondo la fisica classica, le molecole di un solido oscillano intorno alle posizioni di equilibrio compiendo vibrazioni che si verificano a tutte le frequenze e con ampiezza direttamente proporzionale alla temperatura del corpo; l'energia termica del solido verrebbe quindi convertita continuamente in radiazione elettromagnetica. Planck reinterpretò il fenomeno postulando che l'irraggiamento da parte di un corpo, o di un solido incandescente, avvenisse per emissione di quantità discrete di energia, dette quanti, o fotoni.

Ogni fotone ha una lunghezza d'onda caratteristica e un'energia E = hf, dove f è la frequenza dell'onda. La relazione che sussiste tra la lunghezza d'onda l e la frequenza è l f = c, dove c è la velocità della luce. La frequenza viene espressa in hertz (Hz), o cicli al secondo, mentre la costante h, ora nota come costante di Planck, ha un valore molto piccolo (6,626 × 10-34 joule-secondo). Con l'ipotesi quantistica, Planck ripropose la teoria della natura corpuscolare della luce.

L'effetto fotoelettrico

Quando una radiazione di lunghezza d'onda opportuna colpisce una superficie metallica, quest'ultima emette elettroni. Il fenomeno è denominato effetto fotoelettrico e presenta alcuni aspetti rimarchevoli: 1) l'energia di ogni elettrone emesso dipende dalla frequenza e non dall'intensità della radiazione incidente; 2) la probabilità di emissione dei fotoelettroni dipende solo dall'intensità di illuminazione e non dalla frequenza (ammesso che la frequenza della radiazione incidente sia comunque superiore a un certo valore soglia, al di sotto del quale non si verifica alcuna emissione); 3) non si osserva ritardo tra l'illuminazione della superficie metallica e l'emissione di fotoelettroni. In base a queste osservazioni, che non trovano spiegazione nella teoria elettromagnetica di Maxwell, Einstein ipotizzò nel 1905 che la luce potesse essere assorbita solo sotto forma di quanti, o fotoni, ed estese la teoria quantistica proposta da Planck al fenomeno dell'assorbimento della radiazione elettromagnetica. Con questo presupposto, la descrizione dell'effetto fotoelettrico diveniva allora assai semplice: ogni fotone incidente cede a un elettrone del metallo una quantità di energia E = hf, sufficiente per vincere le forze di attrazione e fuoriuscire dalla superficie libera del solido.

Raggi X

La scoperta dei raggi X da parte di Konrad Röntgen nel 1895 ebbe implicazioni notevoli per il progresso delle conoscenze sulla struttura della materia: nel 1914 Henry Gwyn-Jeffreys Moseley usò spettrogrammi X per provare che il numero di cariche positive all'interno di un atomo è esattamente uguale al numero atomico, che esprime la posizione dell'elemento nella tavola periodica.

Fisica dell'elettrone

Già nel XIX secolo si supponeva che la carica elettrica fosse trasportata in quantità ben definite e costanti da particelle elementari. Gli esperimenti sulla conduzione dell'elettricità attraverso i gas a bassa pressione portarono a due importanti scoperte: i raggi catodici, che vengono emessi dall'elettrodo negativo di un tubo a scarica, e i raggi canale, emessi dall'elettrodo positivo. L'esperimento condotto nel 1895 da J.J. Thomson permise di misurare il rapporto tra la carica q e la massa m delle particelle che costituiscono i raggi catodici, e nel 1899 Lenard confermò che il medesimo rapporto caratterizzava anche le emissioni di origine fotoelettrica. Nel 1883 Thomas Alva Edison aveva osservato che fili conduttori incandescenti emettono particelle cariche (effetto Edison), e nel 1899 Thomson mostrò che anche per questa forma di emissione valeva lo stesso rapporto di q su m individuato nei due casi già citati. Intorno al 1911 Millikan scoprì infine che la carica elettrica esiste in multipli interi di un'unità fondamentale: e = 1,602 × 10-19 C. Dal valore di q/m, con q pari a e, fu poi calcolata la massa del portatore, che risultò 9,109 × 10-31 kg. Questo risultato segnò la scoperta dell'elettrone.

In seguito, si scoprì che anche i raggi canale sono fasci di particelle di carica e, ma di segno positivo e molto più massive dell'elettrone. Si trattava infatti di ioni positivi ottenuti dalla rimozione di un elettrone da un atomo neutro. Lo ione più piccolo esistente, lo ione idrogeno, è un protone singolo di massa pari a 1,673 × 10-27  kg, circa 1837 volte la massa dell'elettrone.

Modelli atomici

Sfruttando le radiazioni alfa di recente scoperta, nel 1913 Ernest Rutherford confutò sperimentalmente il modello atomico di Thomson, secondo cui l'atomo era costituito da una distribuzione omogenea di cariche positive e negative. Osservando che le particelle alfa emesse da nuclei radioattivi subivano una netta deviazione al loro passaggio attraverso uno strato sottilissimo di materia, Rutheford concluse che nell'atomo la carica positiva dovesse essere separata da quella negativa; solo così si spiegava l'effetto di scattering osservato. Rutherford propose un modello atomico di tipo "planetario", con la carica positiva dell'atomo quasi interamente concentrata in un nucleo massivo, intorno al quale orbitano gli elettroni. Anche questo modello era tuttavia destinato a cadere: secondo la teoria di Maxwell, infatti, una carica che si muove di moto accelerato irraggia energia sotto forma di onde elettromagnetiche. L'atomo del modello di Rutherford risultava quindi un sistema instabile, poiché gli elettroni, a causa del loro moto orbitale, avrebbero dovuto irraggiare onde elettromagnetiche, perdendo progressivamente energia fino a collassare sul nucleo.

Un nuovo modello atomico, non completamente giustificabile alla luce della fisica classica, fu proposto dal danese Niels Bohr, il quale postulò che gli elettroni all'interno dell'atomo percorressero orbite fisse e stabili, ciascuna corrispondente a un determinato valore dell'energia. Queste orbite, dette stati stazionari, sono individuate in base alla condizione secondo cui il momento angolare J dell'elettrone deve essere un multiplo intero positivo della costante di Planck divisa per 2p, cioè, J = nh/2p, dove il numero quantico n può assumere tutti i valori interi positivi. Con ciò si estendeva la teoria quantistica alla dinamica. Nel 1913, l'anno in cui comparve il primo lavoro di Bohr su questo argomento, il modello fu confermato sperimentalmente da James Franck e da Gustav Hertz.

Il modello avanzato da Bohr fornì la spiegazione del meccanismo dell'emissione della radiazione elettromagnetica da parte dell'atomo. L'elettrone, quando viene sollecitato da una perturbazione sufficientemente intensa, compie una transizione dall'orbita di energia minima (stato fondamentale) a un'orbita più esterna e più energetica; ritornando nello stato fondamentale, emette un singolo fotone di energia E = hf, dove E è la differenza in energia tra il livello finale e quello iniziale. A ogni transizione tra i livelli quantistici corrisponde un fotone di frequenza e lunghezza d'onda definite.

Questo modello era in grado di spiegare con grande accuratezza lo spettro atomico più semplice, ossia quello dell'idrogeno, ma aveva dei limiti; esteso infatti agli atomi con più di un elettrone, non poteva giustificare i dati sperimentali.

Meccanica quantistica

Nell'arco di pochi anni, tra il 1924 e il 1930 circa, fu sviluppato un approccio teorico completamente nuovo alla dinamica su scala subatomica, la meccanica quantistica. Nel 1924 il francese Louis De Broglie suggerì che la materia avesse la duplice natura (corpuscolare e ondulatoria) già osservata per la radiazione elettromagnetica. A ogni particella veniva quindi associata un'onda, detta onda di materia, di lunghezza d'onda l = h/mv, dove m è la massa della particella e v la sua velocità. Queste onde dovevano essere concepite come una sorta di guida per il moto della particella cui erano associate. L'ipotesi di De Broglie venne confermata nel 1927 dai risultati di una serie di esperimenti di interazione elettrone-cristallo condotti dai fisici statunitensi Clinton Joseph Davisson e Lester Halbert Germer, oltre che dal fisico britannico George Paget Thomson. In seguito i tedeschi Max Born, Werner Heisenberg, Ernst Pascual Jordan e il fisico austriaco Erwin Schrödinger svilupparono l'idea di De Broglie in una forma matematica capace di risolvere problemi che non potevano essere spiegati nell'ambito della fisica classica. Oltre a confermare il postulato di Bohr della quantizzazione dei livelli energetici dell'atomo, la meccanica quantistica fornisce una spiegazione degli atomi più complessi e costituisce il fondamento teorico della fisica nucleare. Inoltre, alcune proprietà dei solidi cristallini trovano un'interpretazione soddisfacente solo nei principi della teoria quantistica.

Al postulato di De Broglie, che sancisce il dualismo onda-particella della materia, si sono aggiunti nel corso degli anni nuovi e fondamentali concetti. Tra i più importanti, è il fatto che gli elettroni e quasi tutte le particelle elementari abbiano la proprietà di possedere un momento angolare intrinseco, o spin. Nel 1925 il fisico austriaco Wolfgang Pauli enunciò il principio di esclusione che, stabilendo un limite per il numero di elettroni che possono occupare un determinato livello energetico, giustificava le diverse proprietà dei singoli elementi chimici e si rivelava fondamentale per comprendere la struttura della tavola periodica. Nel 1927 Heisenberg formulò il principio di indeterminazione, con il quale viene riconosciuta l'esistenza di un limite naturale alla precisione con cui si possono misurare simultaneamente alcune coppie di grandezze fisiche, quali ad esempio posizione e momento, energia e tempo. Nel 1928 Dirac giunse a una sintesi della meccanica quantistica e della relatività, grazie alla quale si previde l'esistenza del positrone e più in generale dell'antimateria.

Nell'ambito della fisica moderna si sviluppò in breve tempo l'approccio di tipo statistico che era stato proposto da Bohr. Le relazioni di causa-effetto della meccanica newtoniana sono soppiantate da previsioni degli eventi in termini di probabilità statistica, e in quest'ottica le proprietà ondulatorie della materia vengono a rappresentare, in accordo col principio di indeterminazione, l'impossibilità di prevedere il moto delle particelle con assoluta precisione, anche conoscendo perfettamente le forze in gioco. Pur non essendo significativo per i moti macroscopici, questo aspetto statistico è dominante su scala molecolare, atomica e subatomica.

Fisica nucleare

Alla comprensione della struttura dell'atomo contribuì nel 1896 la scoperta della radioattività dei minerali di uranio; da parte del fisico Antoine-Henri Becquerel. In pochi anni si scoprì che la radiazione emessa dalle sostanze radioattive poteva essere di tre tipi: radiazione alfa, costituita da atomi di elio ionizzati; radiazione beta, composta da elettroni veloci; raggi gamma, in seguito identificati come radiazione elettromagnetica di lunghezza d'onda molto corta. Nel 1898 i fisici francesi Marie e Pierre Curie separarono da un minerale di uranio il radio e polonio, due nuovi elementi, ben presto identificati come radioattivi. Intorno al 1903 Rutherford e Frederick Soddy mostrarono che l'emissione di raggi alfa o beta comportava la trasformazione dell'atomo istabile in una specie atomica diversa. Si trovò in seguito che gli eventi radioattivi avvengono in modo statistico; non esiste quindi alcun modo di sapere quale atomo all'interno di un materiale radioattivo debba decadere in un certo istante. Nel 1919 Rutherford bombardò con particelle alfa un bersaglio di azoto; l'elemento si dissociò in idrogeno e ossigeno, dando luogo alla prima trasmutazione artificiale.

Nello stesso periodo, grazie allo sviluppo dello spettrometro di massa, furono condotte importanti ricerche sulla natura degli isotopi e da questi studi emerse un modello che concentrava nel nucleo tutta la carica positiva e quasi tutta la massa dell'atomo. Le particelle del nucleo dotate di carica positiva vennero identificate come protoni, ma si dovette ammettere l'esistenza di altre particelle neutre (in tutti i nuclei a eccezione dell'idrogeno) per trovare un accordo con i dati ottenuti nelle misurazioni delle masse. Nel 1932 il fisico britannico James Chadwick scoprì il neutrone, una particella elettricamente neutra, con massa pari a 1,675 × 10-27 kg, poco maggiore di quella del protone. La nuova particella fu presto riconosciuta come un costituente fondamentale del nucleo atomico.

La forza di repulsione elettrostatica tra cariche elettriche positive tende ad allontanare i protoni di un nucleo, pertanto perché l'atomo sia stabile è necessaria l'azione di una forza attrattiva molto intensa che tenga strettamente legati tutti i nucleoni (l'insieme di protoni e neutroni). L'energia associata a questo tipo di legame, chiamato interazione nucleare forte, è estremamente grande, milioni di volte superiore a quella tipica dei legami chimici. Si comprende allora come l'emissione di una particella costituita da due protoni e due neutroni da parte di un nucleo radioattivo (decadimento alfa) sia un processo che comporta il superamento di una certa barriera energetica. Il meccanismo del decadimento alfa venne spiegato in termini quantistici dai fisici statunitensi Edward Condon, George Gamow e Ronald Wilfred Gurney nel 1928. Essi mostrarono che la natura statistica dei processi nucleari permette alle particelle alfa di superare la barriera energetica del nucleo radioattivo. Il decadimento beta fu invece interpretato come risultato del decadimento di un neutrone all'interno del nucleo radioattivo: un neutrone del nucleo "padre" si scompone in un protone, un elettrone (la particella beta emessa) e un antineutrino elettronico. In genere dopo il decadimento alfa o beta, il nucleo rimane energeticamente instabile e l'energia in eccesso viene smaltita sotto forma di raggi gamma.

In tutti questi processi nucleari la somma delle masse dei prodotti è inferiore a quella dei reagenti. La differenza, detta difetto di massa, viene convertita in una quantità di energia molto elevata, che può essere calcolata mediante l'equazione E = mc2.

Lo sviluppo della fisica dal 1930 in poi

Le importanti conquiste del primo trentennio del XX secolo, insieme ai progressi tecnologici nel campo dei computer, dell'elettronica, delle applicazioni di fisica nucleare e degli acceleratori di particelle, resero possibile una rapida crescita delle conoscenze scientifiche.

Acceleratori

Nel 1932 i fisici John Cockcroft ed Ernest Walton produssero le prime reazioni nucleari artificiali utilizzando generatori ad alta tensione per portare a un'energia di 700.000 eV i protoni destinati a colpire un campione di litio.

Lo sviluppo degli acceleratori ad alta energia iniziò con l'invenzione del generatore di Van der Graaff, quasi immediatamente seguita da quella del ciclotrone, che si deve ai fisici Ernest Orlando Lawrence e Milton Stanley Livingston. Il ciclotrone si avvale di un campo magnetico che incurva la traiettoria delle particelle cariche, confinandole su un'orbita circolare; dopo ogni mezzo giro le particelle ricevono un piccolo impulso elettrico, accumulando a poco a poco energia, fino al valore desiderato. Il ciclotrone permette di accelerare protoni fino a energie di circa 10 MeV; energie ancora maggiori vengono ottenute con il sincrotrone, che venne sviluppato subito dopo la seconda guerra mondiale da Edwin Mattison McMillan e Vladimir Veksler.

Per avere informazioni sempre più dettagliate, sono necessari acceleratori sempre più potenti e, quindi, visto il meccanismo di accelerazione, di dimensioni sempre maggiori. La più alta energia impressa a un fascio di particelle da un acceleratore alla fine della seconda guerra mondiale era minore di 100 MeV; oggi si costruiscono acceleratori capaci di portare fasci di protoni a oltre un 1 TeV.

Rivelatori di particelle

 

I primi metodi di rivelazione e analisi delle particelle elementari sfruttavano la capacità di queste di impressionare emulsioni fotografiche o di sollecitare materiali fluorescenti. Il fisico britannico Charles Wilson fu il primo a osservare la traccia di particelle ionizzate in una camera a nebbia. Evoluzioni significative di questo dispositivo furono la camera a bolle e la camera a scintille, entrambe costruite negli anni Cinquanta.

Dell'inizio del XX secolo, invece, è un altro tipo di rivelatore, il contatore a scarica, dovuto a Hans Geiger, e in seguito perfezionato da Walter Müller. Questo dispositivo, noto come contatore Geiger-Müller, o semplicemente contatore Geiger, è stato ampiamente sostituito da contatori a stato solido più veloci e convenienti, come lo scintillatore, ideato intorno al 1947 da Hartmut Paul Kallmann.

Particelle elementari

Oltre all'elettrone, al protone, al neutrone e al fotone, nel corso degli anni sono state scoperte altre particelle fondamentali. Nel 1932 il fisico statunitense Carl David Anderson scoprì l'antielettrone, o positrone, la cui esistenza era stata prevista per via teorica da Dirac. Anderson scoprì che un raggio gamma sufficientemente energetico può scomparire nei pressi di un nucleo pesante, dando luogo alla formazione di una coppia elettrone-positrone, ossia trasformandosi completamente da energia in massa. Nella collisione elettrone-positrone può verificarsi invece il processo inverso (annichilazione), durante il quale le due particelle si fondono, trasformandosi in un fotone di energia equivalente alla somma delle masse delle due particelle originali.

La scoperta del muone

Nel 1935 il fisico giapponese Hideki Yukawa propose un modello di interpretazione della struttura del nucleo atomico. La nuova teoria prevedeva l'esistenza di una particella di massa intermedia tra quella dell'elettrone e quella del protone, che svolgesse la funzione di "collante". Nel 1936 Anderson e i suoi collaboratori osservarono nella radiazione cosmica una nuova particella, nota ora come muone, di massa pari a 207 volte quella dell'elettrone. Esperimenti successivi, condotti dal fisico britannico Cecil Frank Powell, portarono alla scoperta di un'altra particella, di massa poco maggiore di 270 volte la massa dell'elettrone, il mesone pi-greco, o pione, che fu infine identificato come l'anello mancante della teoria di Yukawa.

L'analisi della radiazione cosmica di fondo e l'uso di acceleratori sempre più potenti hanno portato alla scoperta di molte altre particelle. Tra queste vi sono i cosiddetti bosoni vettoriali intermedi, quali la particella W e la Z0, "portatrici" della forza nucleare debole, e gli adroni (particelle massive che prendono parte alle interazioni nucleari forti), che comprendono a loro volta i barioni e diversi mesoni pesanti, con massa compresa tra una e tre masse protoniche. Sono state trovate particelle neutre, positive o negative (ma mai con carica di valore superiore alla carica elementare e), in generale con vita media compresa tra 10-8 e 10-14 s . Ciascuna di esse è caratterizzata da un preciso valore del momento angolare intrinseco (spin) e associata a una antiparticella di cui sono note le caratteristiche quantistiche.

Nel 1931, con l'intento di spiegare l'apparente violazione di alcune leggi di conservazione che si manifestava in alcuni decadimenti radioattivi, Pauli postulò l'esistenza di particelle elettricamente neutre e di massa nulla o quasi nulla. Quest'idea fu successivamente sviluppata da Enrico Fermi, che diede alla particella in questione il nome neutrino. Si tratta di una particella neutra molto piccola e molto sfuggente, osservata in un difficile esperimento realizzato dagli statunitensi Frederick Reines e Clyde Lorrian Cowan.

Verso la fine degli anni Quaranta venne scoperto un gran numero di nuove particelle elementari. Si trattava delle cosiddette particelle "strane", cioè caratterizzate da una proprietà quantistica denominata "stranezza".

L'elettrone, il protone, il neutrone, il fotone e tutte le particelle scoperte a partire dal 1932 sono dette complessivamente particelle elementari, benché il termine sia improprio, dal momento che la maggior parte di esse possiede una struttura interna molto complicata. La teoria universalmente accettata è quella dei quark, subparticelle dotate di carica frazionaria; un protone, ad esempio, sarebbe costituito da tre quark. Secondo la teoria proposta nel 1964 dai fisici statunitensi Murray Gell-Mann e George Zweig, i nucleoni sarebbero costituiti da tripletti di quark, mentre i mesoni da coppie di quark. La teoria originariamente postulava l'esistenza di tre soli tipi di quark, ma i risultati di esperimenti successivi, in particolare la scoperta della particella J/psi da parte dei fisici statunitensi Samuel Ting e Burton Richter, imposero di elevare a sei il numero totale di queste particelle.

Teorie unificate dei campi

Le teorie più accreditate sulle interazioni tra particelle elementari sono dette teorie di Gauge e assumono come principio guida la conservazione della simmetria nelle interazioni tra due tipi di particelle. La prima delle teorie di gauge si applica alle interazioni elettriche e magnetiche tra particelle cariche, mentre una seconda teoria molto complessa fu proposta indipendentemente dal fisico statunitense Steven Weinberg e dal fisico pakistano Abdus Salam verso la fine degli anni Sessanta. Quest'ultimo modello collegava i bosoni vettoriali intermedi con il fotone, unificando così l'interazione elettromagnetica con quella debole. In seguito, gli studi di Glashow, Iliopolis e Maiani mostrarono come la stessa formulazione fosse applicabile anche agli adroni (le particelle soggette a interazione forte).

Le teorie di gauge, in linea di principio, possono essere applicate a ogni campo di forze, e ciò suggerisce la possibilità di inquadrare tutte le interazioni fondamentali in un'unica teoria unificata, che naturalmente comprenda il concetto di simmetria. Le simmetrie generalizzate si estendono a scambi di particelle che variano da punto a punto nello spazio e nel tempo ma, anche se matematicamente eleganti, non bastano a spiegare la natura elementare della materia. Per questo motivo molti fisici stanno valutando la possibilità di ricorrere alle cosiddette teorie di supersimmetria, che stabilirebbero una relazione diretta tra fermioni e bosoni attraverso ipotetiche particelle "gemelle" di quelle attualmente conosciute. Esistono molti dubbi in proposito, mentre suscita grande interesse la teoria delle superstringhe. Secondo quest'ipotesi le particelle fondamentali sarebbero "stringhe" monodimensionali, lunghe non più di 10-35 m. Questa teoria risolverebbe gran parte dei problemi dei fisici impegnati nello studio delle teorie unificate dei campi, ma per ora rimane solo un'ardita congettura.

Sviluppi della fisica nucleare

Nel 1931 il fisico statunitense Harold Clayton Urey scoprì il deuterio, il cui nucleo (deutone) costituisce un'ottima "particella-proiettile" per innescare reazioni nucleari. Nel 1933 i fisici francesi Irène e Frédéric Joliot-Curie sintetizzarono il primo nucleo artificiale radioattivo, dando il via alla produzione di radioisotopi destinati a molteplici usi.

Fermi e i suoi numerosi collaboratori compirono con successo una serie di esperimenti volti a sintetizzare elementi più pesanti dell'uranio. Bombardando quest'ultimo con neutroni, sono stati prodotti almeno una dozzina di elementi transuranici. Poco tempo dopo Irène Joliot-Curie, i tedeschi Otto Hahn e Fritz Strassmann, l'austriaca Lise Meitner e il britannico Otto Robert Frisch scoprirono che alcuni nuclei di uranio potevano scindersi in due frammenti distinti, liberando una gran quantità di energia ed emettendo neutroni isolati. Era stata scoperta la fissione nucleare. I risultati delle ricerche successive suggerirono la possibilità di indurre una reazione a catena autoalimentata, che venne effettivamente ottenuta da Fermi e dal suo gruppo nel 1942, quando entrò in funzione il primo reattore nucleare. Da allora gli sviluppi tecnologici si susseguirono rapidamente; la prima bomba atomica fu costruita nel 1945 al termine di un imponente programma guidato Julius Robert Oppenheimer, e il primo reattore nucleare per la produzione di energia elettrica entrò in funzione in Gran Bretagna nel 1956, con una potenza di 78 MW.

Gli sviluppi successivi nel campo della fisica nucleare riguardarono lo studio del meccanismo di produzione dell'energia nelle stelle. Hans Bethe scoprì che negli strati stellari più interni le temperature raggiungono i milioni di gradi e si sviluppano reazioni di fusione nucleare, che sprigionano quantità enormi di energia. La reazione più probabile all'interno delle stelle è quella che porta alla formazione di un nucleo di elio a partire da quattro nuclei di idrogeno, con conseguente sviluppo di energia ed emissione di alcune particelle elementari. Questa reazione nucleare fu studiata da Edward Teller e riprodotta, con qualche modifica, nella bomba a idrogeno. Detonata per la prima volta nel 1952, la bomba a idrogeno si rivelò un'arma ben più potente della bomba a fissione.

Gran parte delle ricerche attuali mirano a ottenere un dispositivo che produca reazioni di fusione controllate, piuttosto che esplosive. Un reattore a fusione avrebbe il vantaggio di essere meno radioattivo di un reattore a fissione e costituirebbe una fonte pressoché illimitata di energia. Nel dicembre del 1993 furono compiuti progressi significativi in questa direzione: alcuni ricercatori dell'Università di Princeton produssero, in un reattore del tipo Tokamak, una reazione di fusione controllata che sviluppò una potenza di 5,6 MW. Sembra però ancora molto lontano il giorno in cui l'energia prodotta da un reattore a fusione sarà maggiore di quella spesa per raggiungere le condizioni di temperatura e pressione necessarie al mantenimento del processo nucleare.

Fisica dello stato solido

Nei solidi gli atomi sono strettamente legati l'uno all'altro da intense forze d'interazione. Da ciò scaturiscono le proprietà meccaniche, termiche, elettriche, magnetiche e ottiche tipiche dello stato solido della materia.

Una delle caratteristiche principali della maggior parte dei solidi è la presenza di una struttura cristallina, ossia di una disposizione regolare degli atomi secondo configurazioni geometriche periodiche (vedi Cristallo). La forma e le caratteristiche specifiche di ogni reticolo cristallino dipendono dalle forze in gioco, cioè dal tipo di legame che unisce le molecole: ionico, covalente, molecolare o metallico. Ad esempio alcuni solidi, come il cloruro di sodio, o sale comune, sono tenuti insieme da legami ionici dovuti all'attrazione elettrostatica che sussiste tra gli ioni di cui il solido è composto. In altri, come nel diamante, gli atomi condividono uno o più elettroni, dando luogo a legami covalenti. Le sostanze inerti invece, come il neon, solidificano a temperature molto basse grazie alle cosiddette forze di van der Waals (dal nome del fisico olandese Johannes Diderik van der Waals), che si instaurano tra molecole o atomi neutri come risultato della polarizzazione elettrica. I metalli, invece, sono caratterizzati dal cosiddetto legame metallico, in cui tutti gli elettroni dell'orbitale più esterno sono liberi di muoversi all'interno del volume del solido e sono in un certo senso condivisi da tutti gli atomi che lo costituiscono.

Gli stretti livelli energetici discreti permessi agli elettroni in ogni singolo atomo si allargano in bande di energia quando gli atomi vengono a far parte di un solido. L'ampiezza e la separazione di queste bande determinano molte delle proprietà del metallo. Ad esempio, la presenza di una cosiddetta banda proibita, entro la quale non si trova alcuna particella, limita i movimenti degli elettroni e determina le caratteristiche di un buon isolante termico ed elettrico. La sovrapposizione di bande energetiche, invece, e la relativa facilità di movimento delle cariche, rendono il materiale un buon conduttore di elettricità e di calore. Se la banda proibita è stretta, alcuni elettroni veloci possono acquistare energia sufficiente per attraversarla, come accade nei semiconduttori. In questo caso la spaziatura tra le bande energetiche può dipendere in misura rilevante dalla presenza di piccole impurità. L'abbassamento di una banda di alta energia per effetto dell'introduzione di impurità all'interno del reticolo è il fenomeno che si produce in un cosiddetto donatore di elettroni, e cioè un semiconduttore di tipo n. L'innalzamento di una banda di bassa energia per effetto di un'impurità come il gallio avviene invece in un accettore di elettroni, in cui le lacune della struttura elettronica si comportano come cariche positive mobili e sono caratteristiche dei semiconduttori di tipo p. Molti dei moderni dispositivi elettronici, tra i quali il transistor, ideato dagli statunitensi John Bardeen, Walter Houser Brattain e William Bradford Shockley, si fondano su queste proprietà dei semiconduttori.

Criogenia

A temperature molto basse (vicine allo zero assoluto), alcuni materiali presentano un comportamento particolare (vedi Criogenia). All'inizio del XX secolo, sviluppate alcune tecniche per raggiungere condizioni criogeniche, il fisico olandese Heike Kamerlingh Onnes osservò la superconduttività del mercurio. Questo fenomeno, che si manifesta come un rapido calo della resistenza elettrica per temperature inferiori a un valore di soglia, è stato osservato per altri materiali e rappresenta uno dei campi di studio più ricchi di possibili applicazioni pratiche.

Un'altra scoperta importante rivelò la proprietà particolare dell'elio di non gelare a basse temperature, ma di trasformarsi, a circa 2 K, dal liquido ordinario He I, allo stato superfluido He II, caratterizzato da viscosità nulla e da conduttività termica pari a circa 1000 volte quella dell'argento. Una pellicola sottile di He II può risalire le pareti del proprio contenitore.

Laser

Un importante, recente risultato della fisica è lo sviluppo del laser (dall'inglese Light Amplification By Stimulated Emission Of Radiation, cioè amplificazione della luce mediante emissione stimolata di radiazione). In questo dispositivo gli atomi della sostanza attiva, che può essere un gas, un liquido o un solido, vengono portati a uno stato energetico superiore, mentre simultaneamente sono indotti a tornare allo stato fondamentale, rilasciando energia sotto forma di luce coerente, cioè di onde elettromagnetiche in fase. Il fatto che la luce emessa sia coerente permette di ottenere fasci molto più intensi di quelli emessi da qualunque altra sorgente e di lunghezza d'onda ben definita, che rimangono focalizzati anche a grandi distanze dalla sorgente. L'emissione continuativa di un laser può sviluppare una potenza di milioni di watt in tempi relativamente brevi. Introdotto negli Stati Uniti tra gli anni Cinquanta e Sessanta, principalmente da Gould, Townes, Maiman, Schawlow e Javan, il laser è diventato oggi uno strumento molto potente nella ricerca e nella tecnologia, con applicazioni nei campi delle comunicazioni, della medicina, della navigazione, della metallurgia, della fusione e del taglio di materiali.

Astrofisica e cosmologia

Nella seconda metà del XX secolo sono stati ottenuti importanti risultati nell'ambito dell'astrofisica e della cosmologia. Scoperte come i quasar, le pulsar (vedi Stella), e la radiazione cosmica di fondo hanno sfidato le capacità esplicative della fisica, stimolando così lo sviluppo teorico in campi quali la gravitazione e la fisica delle particelle elementari. Attualmente si ritiene che tutta la materia accessibile alle nostre osservazioni fosse originariamente concentrata in una massa unica, esplosa tra i 10 e i 20 miliardi di anni fa nel corso di un evento molto violento, detto comunemente big-bang. L'esplosione generò un universo che tuttora risulta in espansione. Un aspetto sconcertante di questa teoria, recentemente formulata, è che le galassie non sono uniformemente distribuite, ma si trovano raccolte in raggruppamenti ai confini di ampie regioni di vuoto. La disposizione di questi vuoti e delle galassie intorno a essi lascia pensare all'esistenza di un altro tipo di materia, di gran lunga più abbondante di quella a noi nota, detta materia oscura. Si tratta comunque di ipotesi non confermate, inserite in un campo di ricerca che vede la fisica dell'infinitamente grande ricongiungersi con quella dell'infinitamente piccolo.


 

Fonte: http://www.liceoscientificofiuggi.191.it/Liceo_Fiuggi/Fisica/Introduzione%20e%20storia%20della%20fisica.doc

Autore del testo: non indicato nel documento di origine

Parola chiave google : Storia della fisica tipo file : doc

 

 

Storia della fisica

Se vuoi trovare velocemente le pagine inerenti un determinato argomento utilizza il seguente motore di ricerca :

 

 

Visita la nostra pagina principale

 

Storia della fisica

 

Termini d' uso e privacy

 


Storia della fisica