Chimica generale 3

 

 

 

Chimica generale 3

 

La meccanica matriciale di Heisenberg

Nello stesso periodo in cui Schrödinger metteva a punto la sua equazione, apparve un lavoro teorico sulla teoria dei quanti di un giovane fisico tedesco, Werner Heisenberg.
Secondo Heisenberg le variabili meccaniche delle particelle. quali la posizione, la quantità di moto, la forza etc potevano essere rappresentate non da numeri ordinari, ma attraverso strutture matematiche complesse, dette matrici. L'algebra delle matrici è molto simile all'algebra ordinaria con la notevole eccezione che la moltiplicazione non gode della proprietà commutativa. Nell'algebra delle matrici il prodotto A x B non è necessariamente uguale al prodotto B x A.

Heisenberg dimostrò che se si rappresentano tutte le grandezze che compaiono nelle equazioni della meccanica classica come matrici e si introduce la condizione aggiuntiva che la differenza tra il prodotto della quantità di moto (p) per la posizione della particella (x) e il prodotto della posizione per la quantità di moto sia uguale ad , con h costante di Planck ed i unità immaginaria, si ottiene una teoria che permette di descrivere tutti i fenomeni quantistici noti.

Se vivessimo in un mondo in cui h = 0, il prodotto px sarebbe uguale al prodotto xp, varrebbe la proprietà commutativa e tutte le relazioni quantistiche si ridurrebbero alla formulazione classica. La realtà del mondo delle particelle non sarebbe governata da fenomeni di tipo discreto, ma di tipo continuo.

Heisenberg pose inizialmente la sua meccanica matriciale in alternativa alla meccanica ondulatoria di Schrödinger. Ma quando Paul Maurice Adrien Dirac venne a conoscenza della meccanica delle matrici pubblicò un articolo nel quale dimostrò che la formulazione di Schrödinger e di Heisenberg erano equivalenti sul piano matematico. Le matrici di Heisenberg rappresentavano infatti le soluzioni tabulate dell'equazione di Schrödinger e nella soluzione di qualsiasi problema quantistico si può usare indifferentemente la meccanica ondulatoria o la meccanica delle matrici.

 

Il principio di indeterminazione di Heisenberg

Sebbene oggi venga prevalentemente utilizzato l'approccio ondulatorio di Schrödinger, la meccanica  matriciale di Heisenberg ha prodotto un risultato teorico di enorme portata, che ci costringe a mettere in discussione dalle radici il nostro modo di concepire la realtà.

Posto che in meccanica quantistica si dicono coniugate coppie di grandezze il cui prodotto ha le dimensioni di un momento angolare, Heisenberg dimostrò che non è possibile misurare simultaneamente con una precisione grande a piacere due variabili coniugate.
Se consideriamo  ad esempio le due variabili coniugate:

  • posizione x di una particella rispetto all’origine di un sistema di riferimento nella direzione x
  • quantità di moto p = mv della medesima particella

le indeterminazioni o incertezze nelle loro misure Dx e Dp devono soddisfare la relazione

nota come principio di indeterminazione.
In pratica se misuriamo contemporaneamente la posizione e la quantità di moto di una particella, esisterà necessariamente una indeterminazione (incertezza) nella misura delle due variabili, tale che il loro prodotto è sempre maggiore o uguale ad un mezzo acca tagliato.

Una relazione analoga vale anche per altre coppie di variabili  coniugate, come ad esempio per l'energia di una particella ed il tempo necessario per misurare tale energia.

Si noti che Heisenberg ricavò tali relazioni direttamente dal formalismo matematico della teoria quantistica ed il principio risulta pertanto valido nella misura in cui vale la descrizione quantistica della realtà.
Il principio di indeterminazione non deriva dunque da una carenza nelle nostre tecniche di misurazione, ma è una conseguenza della teoria e, se questa è esatta, delle leggi di natura che la teoria descrive.

Il principio di indeterminazione condiziona evidentemente il livello di precisione delle nostre misurazioni e pone in definitiva dei limiti alla nostra capacità di conoscere la realtà. Infatti il miglior risultato che possiamo ottenere è quello in cui il prodotto delle indeterminazioni sia uguale ad un mezzo acca tagliato.

In questa caso le indeterminazioni sono inversamente proporzionali. Se dunque poniamo x ® 0, allora p ® ¥ il che significa che se tentiamo di rendere assolutamente precisa la misura della posizione di una particella (annullando l'incertezza insita nella sua determinazione), non possiamo più avere alcuna informazione riguardo alla sua quantità di moto, visto che l'indeterminazione ad essa associata diventa infinita e viceversa.

Si tratta di un'ulteriore conferma che in meccanica quantistica non è più possibile parlare di traiettorie determinate e quindi di orbite.

Certamente quando si ha a che fare con misurazioni di oggetti macroscopici è possibile trascurare il principio di indeterminazione senza incorrere in errori importanti.

Ad esempio per un corpo di massa 1 kg,  tenendo conto che   presenta un ordine di grandezza di 10-34 J s, possiamo in linea di principio determinare la sua posizione con un'indeterminazione di 10-15 m (con una precisione dell’ordine delle dimensioni di un nucleo atomico) e contemporaneamente la sua velocità con  un'indeterminazione di 10-16 m/s, pari a 0,3 mm al secolo!

Ma nel caso di atomi e particelle subatomiche l’indeterminazione diviene ineludibile. Prendiamo ad esempio l’elettrone che viaggia intorno al suo nucleo. Esso possiede una velocità dell’ordine di un centesimo della velocità della luce.
La velocità dell’elettrone nell’atomo si può stimare eguagliando forza centrifuga e forza centripeta. Si ottiene

dove
m » 10-30 kg è la massa dell’elettrone,
e » 10-19 C è la carica dell’elettrone,
k » 10-9 è la costante di Coulomb
r » 10-10 m sono le dimensioni tipiche di un atomo.

Sostituendo opportunamente si ottengono valori dell’ordine di 106 m/s (circa un centesimo della velocità della luce).
Se ora ci proponiamo di misurare la velocità effettiva dell’elettrone con un’incertezza dell’1% pari a 104 m/s (1% di 106 m/s)  dovremmo accontentarci di misurare la sua posizione con un errore di  10-8 m circa l’1% delle dimensioni atomiche.

Possiamo dunque in un certo senso affermare che tanto più grande (massiccio) è un oggetto, tanto minori sono le sue caratteristiche ondulatorie (infatti l = h/mv) e tanto minore è la sua indeterminazione, cosicché gli oggetti macroscopici sono ‘in pratica’ perfettamente localizzabili.

I minuscoli elettroni presentano invece uno spiccato carattere ondulatorio ed una forte indeterminazione relativa, rendendo perciò necessario tutto lo spazio in più che noi osserviamo intorno al nucleo e che noi chiamiamo orbitale. Se cercassimo di confinare l’elettrone in una regione più piccola la sua lunghezza d'onda sarebbe costretta a diminuire ed è facile verificare che in tal caso l'elettrone vedrebbe aumentata la sua quantità di moto e quindi la sua energia cinetica.

Lo stesso ragionamento fu utilizzato per escludere la presenza di elettroni nel nucleo quando fu accertata l'emissione di radiazione beta da nuclei radioattivi. Infatti un elettrone confinato nella piccolissima regione nucleare (10-15 m) avrebbe un'energia troppo grande e verrebbe subito espulso. Gli elettroni che formano la radiazione beta devono quindi formarsi al momento del decadimento e non essere preesistenti ad esso.

 

L'equazione relativistica di Dirac

 

La meccanica ondulatoria di Schrödinger e tutti gli sviluppi fino al 1927 non sono relativistici. Tutti i tentativi fino ad allora compiuti per integrare la relatività ristretta alle equazioni quantistiche avevano portato a risultati assurdi o in netto contrasto con i dati sperimentali.
Nel 1928 finalmente Dirac trovò una equazione quantistico relativistica in grado di descrivere l'elettrone. Essa si riduce naturalmente per piccole velocità all'equazione di Schrödinger.
L'equazione di Dirac porta però un risultato notevole. Essa dà infatti automaticamente lo spin ed il momento  magnetico dell'elettrone. Mentre queste proprietà in approssimazione non relativistica devono essere aggiunte e postulate separatamente, esse derivano direttamente dal formalismo matematico di Dirac.
L'equazione di Dirac descrive in realtà non solo il moto degli elettroni, ma anche di particelle di massa uguale, ma di carica positiva, del tutto sconosciute al tempo di Dirac. Ciò fu considerato da Dirac un grave difetto della teoria, tanto che egli tentò inutilmente di verificare se esse potevano essere identificate con i protoni.
In realtà Dirac aveva postulato l'esistenza dell'antiparticella dell'elettrone, il positrone, scoperto poi da C.D. Anderson nei raggi cosmici solo nel 1932.


 

Meccanica quantistica: interpretazioni

 

La nuova meccanica dei quanti pose notevoli problemi non solo nell’interpretazione fisica del formalismo matematico, ma accese un importante dibattito di natura filosofica ed epistemologica sulle sue implicazioni gnoseologiche.

 

Il microscopio di Heisenberg

Heisenberg non si limitò a dar forma matematica al principio di indeterminazione, ma cercò in qualche modo di esplicitarne il significato che esso poteva assumere nell’ambito di una nuova teoria della conoscenza. Famoso rimane in questo senso l’esperimento mentale che egli propose nel 1927, noto come microscopio di Heisenberg.

Un esperimento mentale (o concettuale) è un esperimento “pensato” (Gedanke Experiment) e non realizzato, in cui lo sperimentatore può immaginare qualsiasi strumento o artificio, anche se non ancora tecnologicamente attuabile, purché il suo funzionamento sia compatibile e non contraddica le leggi della fisica.
Heisenberg immaginò dunque di voler osservare un elettrone inizialmente fermo, illuminandolo attraverso un fotone gamma avente lunghezza d'onda dello stesso ordine di grandezza rispetto alle dimensioni dell’elettrone (re » 10-15 m). Ricordiamo infatti che le onde possono essere usate per studiare oggetti che abbiano dimensioni maggiori o almeno dello stesso ordine di grandezza della lunghezza dell'onda usata .

Tuttavia, a causa della natura ondulatoria della luce, vi è una limitazione nel potere di risoluzione di uno strumento ottico. Due punti possono essere "risolti",  cioè essere percepiti come separati, se  la distanza che li divide è superiore alla lunghezza d'onda della radiazione usata per osservarli. Se illuminiamo un oggetto con luce visibile (l » 0,5m) non riusciremo a distinguere particolari di dimensioni inferiori a 0.5m .

Per questo motivo possiamo affermare che l'incertezza sulla posizione dell'elettrone sarà, in prima approssimazione, dell'ordine di grandezza della lunghezza d'onda della luce utilizzata

x

Appena viene colpito dal fotone, l'elettrone cambia velocità e direzione per effetto Compton, assorbendo una certa porzione dell'energia del fotone. Ricordando che la quantità di moto di un fotone è pari a

l'elettrone  assumerà quindi dal fotone una quantità di moto incognita il cui valore  può variare da 0 a . La quantità di moto dell'elettrone presenterà quindi un'incertezza dello stesso ordine di grandezza della quantità di moto che il fotone potrebbe cedergli, pari a

                                                                         p
da cui, sostituendo la lunghezza d'onda dell'elettrone con  x, otteniamo

                                                                       x p h

La prima considerazione è che il principio di indeterminazione è una conseguenza della natura ondulatoria e quantizzata della materia. La distanza cruciale al di sotto della quale non ha più senso parlare di un'onda è la sua lunghezza d'onda. In altre parole noi definiamo come “onda” solo qualcosa che compie almeno una oscillazione completa, cioè che percorre almeno una lunghezza d'onda. Un'onda occupa quindi almeno una regione pari alla sua lunghezza.
In modo analogo la natura ondulatoria della materia introduce una indeterminazione in natura. La lunghezza d'onda della particella definisce una regione di incertezza, nel cui ambito la posizione della particella è sconosciuta ed inconoscibile. 

La seconda considerazione è che, mentre nel mondo macroscopico noi possiamo interagire senza limitazioni con gli oggetti della nostra conoscenza, misurarli ed ottenere informazioni da essi senza modificarli in modo sostanziale, nel mondo subatomico non è per principio possibile trascurare le perturbazioni che le nostre misure arrecano alle stesse grandezze che misuriamo. Per poter misurare la posizione di un elettrone noi dobbiamo interagire con esso inviandogli almeno un fotone, ma questa interazione altera in modo imprevedibile lo stato di moto dell’elettrone.

 

Nel campo delle particelle atomiche e subatomiche è dunque necessario rinunciare alla pretesa di determinare in modo esatto tutte le variabili del moto. Alla classica visione deterministica del mondo è quindi necessario sostituire una visione probabilistica, in accordo con l'interpretazione di Born.
Si tratta però di una probabilità diversa rispetto a quella utilizzata dai fisici della seconda metà dell'Ottocento per costruire la meccanica statistica.
In quel caso le molecole di un gas venivano descritte su basi statistico-probabilistiche solo a causa dell'incompletezza dell'informazione sulle singole particelle.
Se noi infatti conoscessimo le condizioni iniziali di ogni singola particella del gas, possibilità questa che non viene per principio negata dalla meccanica statistica, saremmo in grado di determinare qualsiasi variabile con una precisione grande a piacere.

Il principio di indeterminazione distrugge dalle fondamenta questo modo di pensare. Noi non possiamo prevedere i movimenti delle singole particelle perché siamo nell'impossibilità teorica, e non solo pratica, di conoscere con esattezza le condizioni iniziali.
Inoltre la probabilità quantistica presenta caratteristiche peculiari rispetto alla probabilità ordinaria, delle quali parleremo in seguito,

 

Principio di complementarietà e interpretazione di Copenaghen

 

La scuola di Bohr a Copenaghen divenne negli anni tra il 1920 ed il 1930, il punto di riferimento per tutti coloro che si occupavano di meccanica quantistica. È qui che nasce una lettura critica ed una sintesi filosofica dei fenomeni connessi con il mondo dei quanti che va sotto il nome di interpretazione di Copenaghen.
I due cardini di tale interpretazione sono, da una parte l'interpretazione probabilistica di Born e di Heisenberg legate al significato della funzione Y2 e del principio di indeterminazione e dall'altra il cosiddetto principio di complementarietà introdotto da Bohr.
Nella sua interpretazione della meccanica quantistica Bohr pose l'accento sulla inadeguatezza del nostro linguaggio a descrivere i fenomeni quantistici.
Inoltre, afferma Bohr, è sbagliato pensare che il compito della fisica sia quello di scoprire come la natura è. La fisica verte su ciò che della natura si può dire.
Inoltre nella meccanica quantistica non è più possibile ignorare deliberatamente le interazioni tra apparato di misura e oggetto dell'indagine. Infatti l'atto stesso di osservare un oggetto quantistico ne modifica in linea teorica lo stato.

Nell'interpretazione di Bohr i concetti di particella e di onda cessano di essere incompatibili proprio per il fatto che il comportamento ondulatorio o corpuscolare dell'oggetto studiato dipendono dal tipo di esperimento e dal dispositivo sperimentale messo in atto per le misurazioni.

Bohr tiene ad esempio a sottolineare il fatto che gli stessi strumenti, costruiti per misurare variabili diverse, come ad esempio la posizione e la quantità di moto, sono essi stessi diversi ed incompatibili. Per misurare distanze occorrono infatti regoli rigidi ed indeformabili. Per misurare quantità di moto sono invece necessari strumenti con parti mobili in grado di deformarsi all'impatto, di fatto incompatibili con i primi.

 

Particelle ed onde sono dunque per Bohr complementari e devono ritenersi due manifestazioni di una stessa realtà che noi catturiamo in modo diverso per il fatto che essa viene modificata dal tipo di osservazione.

In sintesi l'interpretazione di Copenaghen della teoria quantistica da una parte rifiuta il determinismo sostituendo ad esso il carattere statistico-probabilistico della realtà, dall'altra produce una revisione radicale del concetto di oggettività, accettando che la realtà possa dipendere parzialmente dal modo in cui scegliamo di osservarla.

In altre parole, mentre nella fisica classica la realtà oggettiva esiste indipendentemente dall'osservatore, nella fisica quantistica, il modo in cui decidiamo di misurare l'oggetto condiziona l'immagine stessa che di questo oggetto ci possiamo rappresentare: la realtà oggettiva non ha più esistenza autonoma a prescindere dall'osservatore.

Nella primissima versione dell’Interpretazione di Copenaghen l’azione, attraverso la quale l’oggetto quantistico acquistava significato reale, doveva essere individuata nel pensiero dell'osservatore cosciente.

Successivamente si è arrivati a formulare una versione dell’Interpretazione di Copenaghen più debole e meno impegnativa dal punto di vista filosofico, dove viene eliminata la figura un po’ ingombrante da un punto di vista scientifico dell’ osservatore cosciente, sostituita da un “interpretazione operativa”. Secondo tale interpretazione, per poter misurare una caratteristica di un oggetto fisico, occorre necessariamente interagire con esso. Questa interazione è inevitabilmente “invasiva” e perturba lo stato originario, creando appunto la piccola "indeterminazione" e “costringendo” l’oggetto a manifestarsi.

Fu anche proposta un'interpretazione termodinamica secondo la quale la realtà quantistica resta in uno stato indefinito e "non-oggettivo" fino a quando non avviene una "reazione termodinamica irreversibile".  Un esempio di fenomeno irreversibile è quello che avviene su una pellicola quando viene scattata una fotografia: non è possibile far ritornare la pellicola allo stato iniziale.
Ebbene, quando una particella quantistica interagisce con un sensore lascia dei segni irreversibili e ciò è sufficiente a rivelarlo nel "mondo oggettivo" della fisica classica senza la necessità di un soggetto cosciente che testimoni tale evento.

 

La probabilità quantistica ed il microscopio di Feynman

Al di là della naturale difficoltà ad accettare un mondo così poco familiare ed intuitivo come quello dei quanti, il comportamento delle particelle quantistiche presenta ulteriori stranezze.

Una di queste deriva dal fatto che la probabilità quantistica presenta un comportamento diverso rispetto alla probabilità ordinaria.
Infatti mentre in fisica classica le distribuzioni di probabilità di eventi indipendenti sono additive, in meccanica quantistica questo non avviene.

Se ad esempio vogliamo calcolare la probabilità che lanciando due dadi esca il numero 3, dobbiamo sommare tra loro la probabilità dei due eventi indipendenti E1 (esce 2 sul primo dado, esce 1 sul secondo: P1 = ).

                                               Ptot =  P1 + P2

Se osserviamo ora due onde d'acqua sul mare che si accavallano possiamo notare che l'altezza complessiva dell'onda che si forma è data dalla somma delle altezze (ampiezze) delle singole onde. Se ad esempio in un certo punto dello spazio un'onda è al massimo ed una al minimo le due onde si annullano. Si tratta del principio di sovrapposizione che governa, come abbiamo già visto, tutti i fenomeni ondulatori, producendo i tipici processi di interferenza.
Anche le onde di probabilità della teoria quantistica, come le onde ordinarie, obbediscono al principio di sovrapposizione. Se cioè in una regione ci sono due onde di probabilità l'ampiezza totale risulta uguale alla somma delle ampiezze.

Ma la probabilità di trovare una particella in un certo punto non è data dall'altezza, che può essere anche negativa, ma dal quadrato della sua ampiezza (Y2).

Dunque, poiché le ampiezze si sommano in base al principio di sovrapposizione e poiché invece la probabilità è data dal quadrato dell'ampiezza, nella teoria dei quanti la probabilità totale non può essere calcolata sommando le probabilità parziali di eventi indipendenti.

 

Per esemplificare tale comportamento possiamo utilizzare un esperimento mentale proposto da Feynman nel 1960 e noto come microscopio di Feynman.

Immaginiamo di sparare dei proiettili verso uno schermo attraverso due finestre.
Inizialmente apriamo solo la prima finestra. Scopriamo che i proiettili si distribuiscono in modo caratteristico, che viene tipicamente descritto da una distribuzione di frequenza detta gaussiana (o “curva a campana” o anche “curva degli errori” perché descrive la distribuzione degli errori ed evidenzia come gli errori molto piccoli e molto grandi sono via via meno frequenti). Se i lanci effettuati sono sufficientemente numerosi la curva di frequenza diventa una buona misura della probabilità che possiede ciascun punto dello schermo di essere colpito.

Se effettuiamo lo stesso esperimento tenendo chiusa la prima finestra e aprendo la seconda, potremo osservare un'analoga distribuzione nei colpi.

 

Aprendo infine entrambe le finestre scopriremo che nei punti in cui le due curve di probabilità si sovrappongono, i proiettili arrivano con maggior frequenza. Si può facilmente verificare che ora la probabilità che ciascun punto dello schermo  venga colpito è esattamente la somma delle due curve di probabilità singole. Le probabilità non quantistiche di eventi indipendenti si sommano. Per i proiettili vale dunque   Ptot = P1 + P2

 

 

Eseguiamo ora l'esperimento facendo passare degli elettroni attraverso due fenditure sottili disposte parallelamente.

Quando è aperta solo la prima fessura gli elettroni producono sullo schermo una tipica figura di diffrazione che ritroviamo analoga nel caso venga aperta solo la seconda fenditura.


Gli elettroni colpiscono lo schermo più numerosi in una zona centrale per poi diradarsi alle estremità.

Ma nel caso le due fenditure vengano aperte contemporaneamente la curva di distribuzione totale degli elettroni non è data dalla somma delle due curve parziali. Sorprendentemente in alcuni punti in cui prima gli elettroni cadevano quando erano costretti a passare solo per una delle due fenditure, separatamente aperte, ora gli elettroni non cadono più. La curva che si ottiene è ancora una distribuzione di frequenza e quindi una misura della probabilità che gli elettroni hanno di colpire lo schermo, ma in tal caso essa non può essere ottenuta come semplice somma delle probabilità degli eventi separati ed indipendenti. Le probabilità quantistiche di eventi indipendenti non si sommano.

 

È necessario tener presente che gli elettroni arrivano sullo schermo rivelatore in modo discontinuo, venendo cioè captati attraverso singoli impulsi, come vere e proprie particelle. Nonostante ciò la loro distribuzione sullo schermo rivela il loro comportamento ondulatorio. In particolare la distribuzione di frequenza ottenuta con entrambe le fenditure aperte rivela chiaramente la presenza di fenomeni di interferenza, analoghi a quelli che si ottengono per la luce con un’esperienza di Young di doppia fenditura.

In effetti, secondo la teoria quantistica, non sono gli elettroni a comportarsi come onde, infatti colpiscono lo schermo come proiettili, ma è la probabilità di trovare l'elettrone che presenta un comportamento ondulatorio e viene diffratta dalle fenditure subendo quindi interferenza.
In tal caso la probabilità associata al passaggio dell'elettrone attraverso la fenditura 1 è pari a

                                                                  P1 = (Y1)2

e la probabilità  associata al passaggio dell'elettrone attraverso la fenditura 2 è pari a

                                                                  P2 = (Y2)2

Quando entrambe le fenditure sono aperte le due onde  Y1 e Y2 interferiscono, producendo una funzione d'onda che chiameremo Ytot

La probabilità totale sarà quindi pari al quadrato dell'onda prodotta dall'interferenza                                                                 
Ptot = (Ytot)2

Si dimostra quindi facilmente che nel caso degli elettroni, dove il comportamento ondulatorio non può essere trascurato, la probabilità che essi colpiscano lo schermo con due fenditure aperte non può essere ottenuta come semplice somma delle probabilità che essi colpiscano lo schermo con le fenditure alternativamente aperte. Il quadrato di una somma è infatti diverso dalla somma dei quadrati

                                               (Ytot)2  =   (Y1 + Y2)2 ≠ Y12 + Y22

Tale risultato è tanto più sorprendente se si pensa che esso viene ottenuto anche facendo in modo che la sorgente di elettroni emetta un elettrone per volta.

Le onde che investono una nave ancorata lasciano un'ombra d'acqua calma grazie ad un fenomeno di diffrazione, studiando il quale è possibile risalire alla forma della nave. Ma se le stesse onde investono un palo affiorante il fenomeno è insensibile. Non incontreremo invece alcuna difficoltà ad analizzare la forma del palo studiandone l'ombra prodotta da onde luminose..

sono indipendenti gli eventi che si escludono a vicenda

 

Anche se si fanno passare, attraverso le due fenditure aperte, singoli elettroni a grandi intervalli di tempo l'uno dall'altro, essi andranno a cadere solo in corrispondenza dei massimi d'interferenza.

In altre parole il singolo elettrone "non sa" dove sono caduti gli elettroni precedenti e si avvia a colpire lo schermo sulla base della probabilità totale (Ytot)2. La situazione è analoga a quella del gioco dei dadi: se nei primi 5 tiri abbiamo ottenuto sempre il numero 3, la probabilità che al sesto tiro esca ancora 3 è sempre la stessa (1/18). Essa non varia come non varia la probabilità di tutte le altre combinazioni numeriche. Potremmo verificare che il 3 esce 1 volta su 18 tiri solo lanciando molte volte i dadi.

Il fatto che anche un singolo elettrone, il quale chiaramente interagisce con lo schermo come una particella (il cui urto è osservabile come un minuscolo lampo luminoso), si comporti in realtà durante il tragitto come un'onda, la quale, per poter interferire deve passare contemporaneamente attraverso entrambe le fenditure aperte, ci induce a chiederci se l'elettrone in quanto particella passi effettivamente o per la fenditura 1 o per la fenditura 2, quando entrambe le fenditure sono aperte.

È possibile tentare di rispondere a questa domanda cercando di osservare il passaggio dei singoli elettroni attraverso le fenditure. Collochiamo allora un rivelatore alle fenditure che ci informi del passaggio del singolo elettrone. Ad esempio potremo osservare l’elettrone, illuminandolo con un fotone (microscopio di Feynman). Saremo così in grado di sapere da quale fenditura è passato l'elettrone.
Ma nel momento in cui verifichiamo il passaggio dell'elettrone-particella attraverso una delle due fenditure, l'elettrone cessa di comportarsi come un'onda ed inizia a colpire anche le zone dello schermo che prima non colpiva: le frange di interferenza scompaiono.

 

Quando dunque decidiamo di verificare se l'elettrone è una particella che passa realmente attraverso una delle due fenditure come un proiettile, esso si comporta effettivamente come una particella che attraversa la fenditura.

Prescindendo da un effettivo atto di osservazione non ha dunque senso parlare di esistenza oggettiva della particella in un dato punto dello spazio, ad esempio in corrispondenza di una delle due fenditure. È ciò che viene chiamata la realtà creata dall'osservatore.

Nel momento in cui lo osserviamo l'elettrone è una particella. Ma appena cessiamo di osservarlo si comporta come un'onda. Le diverse condizioni sperimentali alterano quindi in modo sensibile i risultati che noi possiamo ottenere.

Ecco quindi che, date le sostanziali differenze di preparazione degli esperimenti, la decisione tra un modello interpretativo e l'altro è compiuta all'atto stesso dell'osservazione. La “misurazione” diviene in un certo qual modo un nuovo ente che viene a far parte imprescindibilmente dello stesso fenomeno fisico sul quale si compie. Il particolare tipo di esperienza seleziona tra onda e corpuscolo.

La teoria quantistica afferma dunque l'impossibilità teorica di fare affermazioni relative alla natura oggettiva degli enti fisici studiati. Essa è una teoria che descrive il comportamento degli enti fisici date particolari condizioni sperimentali e non la loro essenza.
Anche se l'approccio quantistico può sembrare fortemente limitativo della nostra possibilità di conoscere il mondo, esso è in realtà comune a tutta la scienza.
Tutta la scienza si limita a descrivere il comportamento degli enti fisici e non formula affermazioni sulla loro essenza.
Quando ad esempio affermiamo che un filamento di oro è giallo, in realtà ciò non costituisce un'affermazione sull'essenza di questo elemento, ma descrive un suo comportamento in una particolare condizione sperimentale: quella di essere illuminato da luce bianca (o comunque radiazione contenente luce gialla). Se ad esempio esaminiamo il filamento con luce rossa esso appare nero, poiché assorbe tutta la radiazione che lo colpisce. Se poi il filamento viene reso incandescente esso appare rosso.

Se quello delle fenditure è un esperimento mentale, vi sono tuttavia numerosi dispositivi pratici di cui la tecnologia si serve comunemente e che sfruttano le singolari caratteristiche delle onde di probabilità.

 

L'effetto tunnel

 

Un'esemplificazione concreta delle bizzarrie quantistiche è data dal cosiddetto effetto tunnel, che comporta la materializzazione di particelle in regioni ad esse inaccessibili secondo le leggi della fisica classica.

Immaginiamo una sfera posta all'interno di un recipiente. Se sulla sfera non agisce nessuna forza essa non potrà assolutamente uscire.
Nella teoria quantistica però la particella viene descritta da un'onda di probabilità interna al recipiente, onda il cui quadrato esprime la probabilità di trovare la particella.

Si può dimostrare che se nel recipiente si trova ad esempio un elettrone, l'onda di probabilità ad esso associata si prolunga, sia pur di poco, all'esterno delle pareti del recipiente. Ne segue che l'elettrone possiede una probabilità minima, ma finita, di manifestarsi all'esterno delle pareti del recipiente. Se noi effettuassimo una serie di osservazioni troveremmo perciò l'elettrone quasi sempre all'interno del recipiente, ma in alcuni rari casi anche fuori.

L'effetto tunnel viene utilizzato ormai normalmente nell'ingegneria elettronica per amplificare i segnali elettronici.

L'attraversamento quantistico di una barriera di potenziale contribuisce altresì a giustificare il fenomeno della radioattività, dove il nucleo emette spontaneamente particelle che per la fisica classica dovrebbe trattenere.
L'effetto tunnel è stato invocato anche in astrofisica da S. Hawking per sostenere la sua teoria dell'evaporazione dei buchi neri.

 

Il gatto di Schrödinger ed il principio di sovrapposizione degli stati

 

In Meccanica Quantistica le grandezze fisiche che caratterizzano un sistema e che possono essere misurate (posizione, velocità, energia, momento magnetico, eccetera) sono chiamate osservabili.

I possibili valori che può assumere un’osservabile definiscono i potenziali stati in cui il sistema può presentarsi, detti autostati. Soltanto all'atto della misurazione fisica si può ottenere un valore reale per gli osservabili. Fintantoché  non si esegue la misura il sistema quantistico rimane in uno stato che è "oggettivamente indefinito", sebbene sia matematicamente definito e costituito dalla sovrapposizione di tutti gli stati possibili. Lo stato del sistema prima della misura descrive solo una "potenzialità" ovvero contiene l'informazione relativa ad una "rosa" di valori possibili (stati di sovrapposizione), ciascuno con la sua probabilità di divenire reale ed oggettivo all'atto della misura.

In altre parole, il sistema sta potenzialmente in tutti gli stati contemporaneamente. Il suo stato diventerà "puro", unico, solo dopo e come conseguenza di una misura o di un'interazione con un altro sistema.
Nel linguaggio della meccanica quantistica, si dice che all'atto della misura dell'osservabile lo stato collassa in uno dei tanti possibili autostati ammessi da quell'osservabile. Il passaggio di un sistema fisico dal suo stato indeterminato di sovrapposizione ad un particolare autostato si definisce collasso o riduzione. All'atto della misurazione l’incertezza probabilistica viene ridotta o collassa nella certezza di un numero ben determinato. L'osservazione del fenomeno diviene quindi parte fondamentale della medesima realtà che si vuol misurare.

Proviamo a vedere un semplice esempio. Consideriamo un elettrone che si trova in un certo sistema fisico e cerchiamo di misurare la sua energia in un dato istante. Prima della misura, esso non avrà un'energia definita, ma si troverà in uno stato potenziale che contiene (ad esempio):

- l'autostato di energia 850 eV, con probabilità del 20%;
- l'autostato di energia 860 eV, con probabilità del 35%;
- l'autostato di energia 870 eV, con probabilità del 45%.

All'atto della misura del valore dell'energia, la natura dovrà "scegliere" uno dei tre possibili "autostati" dell'energia, ciascuno dei quali ha il suo valore (chiamato "autovalore"): 850 o 860 o 870 eV. Essi sono valori "quantizzati", ovvero discreti o discontinui (in parole povere non sono possibili valori intermedi, come 865 eV). Pertanto lo stato iniziale è oggettivamente "indefinito" rispetto all'osservabile energia, poiché è una combinazione (o sovrapposizione) di tre autostati diversi, ed all'atto della misurazione dovrà "collassare" in uno dei tre possibili "autostati", che danno valori validi dell'energia nella realtà fisica oggettiva. Ogni volta il risultato potrà essere diverso, e ciascun "autovalore" ha la sua probabilità di uscire.

La meccanica quantistica quindi introduce due elementi nuovi ed inaspettati rispetto alla fisica classica. Uno è appunto l'influenza dell'osservatore, che costringe lo stato a diventare un autostato; l'altro è la casualità nella scelta di uno tra i diversi possibili autostati (ognuno con una propria probabilità).

Einstein non credeva alla possibilità di caratteristiche fisiche "non-oggettive", ma riteneva che i valori delle osservabili esistessero oggettivamente anche prima della misura (realismo), indipendentemente dal fatto che venissero misurati o meno. Insomma, secondo Einstein l'universo deve esistere oggettivamente, sia che noi lo osserviamo o meno. Per questo egli considerava la meccanica quantistica "incompatibile con ogni concezione ragionevole e realistica dell'universo".

Famosa resta a questo proposito la domanda che egli pose ad un allievo durante una passeggiata serale a Princeton: «Veramente è convinto che la Luna esista solo se la si guarda?»

Secondo il "realismo" di Einstein, gli stati quantistici devono esistere oggettivamente, indipendentemente da tutte le limitazioni imposte dalla teoria quantistica, che perciò secondo Einstein è incompleta e provvisoria.

Una teoria fisica e' completa qualora ogni elemento della realtà descritta abbia corrispondenza con un elemento teorico. Esisterebbero quindi, secondo Einstein, delle "variabili nascoste" che descrivono la realtà oggettiva dei sistemi quantistici, ma non sono ancora riconosciute dall'attuale teoria e che, se scoperte, renderebbero completa la teoria quantistica.

Per fare un paragone banale, immaginiamo che in una partita di carte il nostro avversario abbia in mano una certa carta. Noi deduciamo che tale carta possa essere l'asso di denari o il re di cuori, ma poiché non possiamo vederla, non sappiamo quale delle due sia realmente. Questa, secondo Einstein è la "conoscenza incompleta" che ci può dare la meccanica quantistica. Comunque, dice Einstein, la carta in questione è di fatto una delle due carte, ad esempio l'asso di denari (variabile nascosta), anche se noi non sappiamo ancora per certo se sia l'una o l'altra (indeterminazione). All'atto della misura noi possiamo finalmente constatare di quale carta si tratti, ma secondo Einstein la carta era quella già prima della misura.
Secondo la meccanica quantistica invece non è così. La carta in precedenza era in uno stato indefinito: "50% asso di denari e 50% re di cuori", e solo all'atto della misura la carta è "diventata" (ad esempio) l'asso di denari. Se si ritorna a quello stesso identico stato fisico e si rieffettua la misura, stavolta la carta potrebbe diventare un re di cuori!

Il principio quantistico di sovrapposizione degli stati e le paradossali conseguenze di una sua applicazione a livello macroscopico sono l’argomento di un esperimento mentale  ideato da Erwin Schrödinger nel 1935 e noto come il paradosso del gatto di Schrödinger.

Vediamolo descritto dalle stesse parole dell’autore.
« Si rinchiuda un gatto in una scatola d’acciaio insieme con la seguente macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto). In un contatore Geiger si trova una minuscola porzione di sostanza radioattiva, in quantità così modesta che nel corso di un’ora uno dei suoi atomi possa disintegrarsi (…). Se ciò accade, allora il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala contenente del cianuro. Dopo avere lasciato indisturbato questo sistema per un’ora (…) la funzione Ψ dell’intero sistema porta ad affermare che in essa il gatto vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso »

Dopo un certo periodo di tempo, quindi, il gatto ha la stessa probabilità di essere morto quanto l'atomo di essere decaduto. Visto che fino al momento dell'osservazione l'atomo esiste nei due stati sovrapposti, il gatto resta sia vivo sia morto fino a quando non si apre la scatola, ossia non si compie un'osservazione.

Il paradosso sta proprio qui. Finché non si compie l'osservazione, il gatto può esser descritto come un ibrido vivo-morto, in quanto è soltanto l'osservazione diretta che, alterando i parametri di base del sistema, attribuirà al gatto (al sistema medesimo) uno stato determinato e "coerente" con la nostra consueta realtà.
Volendo seguire alla lettera le regole quantistiche, se, all’apertura della scatola d’acciaio, lo sperimentatore trova il gatto morto, è necessario ammettere che è stato l’atto di guardare ("osservare") dentro la scatola che ha ucciso il gatto ed è quindi lo sperimentatore il responsabile della sua morte.
Se lo sperimentatore decide di rimandare indefinitamente l’osservazione della scatola, il gatto resta nel suo stato schizofrenico di vita latente fino a quando non gli viene data una dimensione definitiva, in virtù della cortese, ma capricciosa curiosità di uno sperimentatore

 

Paradosso EPR: Entanglement e Nonlocalità

Come abbiamo già avuto modo di dire, Einstein era estremamente critico nei confronti della Meccanica Quantistica (che pur aveva contribuito a fondare).  Pur riconoscendo naturalmente che  la teoria funzionava  perfettamente sul piano sperimentale, sosteneva che si trattava tuttavia di una teoria incompleta e provvisoria, che avrebbe dovuto essere perfezionata col tempo per eliminare alcuni aspetti inaccettabili..
Secondo Einstein una teoria che descriva la realtà fisica deve soddisfare alcune condizioni, riassumibili attraverso i principi di   "realismo", "località" e "completezza".

Il realismo è l'assunzione realistica che tutti gli oggetti debbano oggettivamente possedere dei valori preesistenti per ogni possibile misurazione prima che queste misurazioni vengano effettuate. La realtà oggettiva esiste a prescindere dall’atto di osservarla e misurarla.
Come conseguenza di ciò, la  realtà fisica viene associata all’esistenza di opportune proprietà oggettive (elements of physical reality) e la completezzastrutturale di ogni teoria è espressa dalla corrispondenza tra queste proprietà e gli elementi teorici formali.
A questo proposito è rimasta celebre la sua frase: "Dio non gioca a dadi con il mondo". Meno famosa è la risposta di Bohr: "Non è compito degli scienziati dire a Dio come funziona il mondo, ma solo scoprirlo".

Il principio di località afferma che eventi distanti nello spazio non possono comunicare e quindi influenzarsi istantaneamente, senza alcuna mediazione. Sappiamo infatti che la massima velocità raggiungibile è quella della luce, il che comporta che il minimo ritardo possibile tra una causa ed il suo effetto è il tempo necessario affinché un segnale luminoso percorra lo spazio che li divide.  Un effetto nonlocale è noto come "azione istantanea a distanza" («spooky action at a distance» o «azioni-fantasma») ed è incompatibile con il postulato alla base della relatività ristretta, che considera la velocità della luce la velocità limite alla quale può essere accelerata una massa.

Il realismo locale è la combinazione del principio di località e di realismo.

Einstein tentò più volte di scovare un punto debole all'interno della teoria quantistica. Uno dei suoi attacchi più famosi e che resistette più a lungo dando per molto tempo filo da torcere ai fisici quantistici fu il cosiddetto esperimento mentale EPR, dai nomi di coloro che lo avevano proposto nel 1935: Einstein, Rosen e Podolsky.
Gli autori  intendevano dimostrare che se si accettano gli assunti della fisica quantistica veniva automaticamente violato il principio di località oppure era necessario affermare che la teoria quantistica era incompleta. In quest'ultimo caso sarebbe stato possibile ipotizzare l'esistenza di una teoria subquantica. Esisterebbero cioè delle variabili nascoste, ancora da scoprire, capaci di fornire le informazioni mancanti, permettendo così di cancellare il principio di indeterminazione e di ritornare ad una visione deterministica del mondo.

Naturalmente il gruppo di fisici mirava a dimostrare che la teoria quantistica era incompleta dal momento che il principio di località è uno dei principi fondamentali della fisica.

 

L’esperimento EPR è costruito su di una proprietà dei sistemi quantistici nota come entaglement. La possibilità teorica di questo fenomeno venne ipotizzata da Erwin Schrödinger nel 1926, anche se egli utilizzò per la prima volta il termine entanglement nel 1935 proprio nella recensione dell'articolo di Einstein, Podolsky e Rosen.

 

L'entanglement quantistico (letteralmente intreccio) o correlazione quantistica è un fenomeno che coinvolge due o più particelle generate da uno stesso processo o che si siano trovate in interazione reciproca per un certo periodo. Tali particelle rimangono in qualche modo legate indissolubilmente (entangled), nel senso che quello che accade a una di esse si ripercuote immediatamente anche sull'altra, indipendentemente dalla distanza che le separa. Il termine viene a volte reso in italiano con 'non-separabilità', in quanto uno stato entangled implica la presenza di correlazioni tra le quantità fisiche osservabili dei sistemi coinvolti.


Per esempio, è possibile realizzare un sistema entangled costituito da due particelle il cui stato quantico sia tale che - qualunque sia il valore di una certa proprietà osservabile assunto da una delle due particelle - il corrispondente valore assunto dall'altra particella sarà univocamente definito, nonostante i postulati della meccanica quantistica, secondo cui predire il risultato di queste misure sia impossibile. Di conseguenza in presenza di entanglement la misura effettuata su un sistema sembra influenzare istantaneamente lo stato di un altro sistema..

Vi sono molte versioni alternative ed equivalenti dell’esperimento EPR. In una di queste un sistema costituito di 2 particelle A e B dotate di spin ½ antiparalleli viene «preparato» in uno stato entangled da una breve interazione. Le due particelle sono poi lasciate libere di propagare verso due lontane stazioni di misura: Finchè la misura non viene effettuata ciascuna particella possiede la medesima probabilità di avere spin +½ e -½. (stati sovrapposti).

Si ipotizzi ora di misurare lo spin della particella A e di ottenere il valore + ½. Qui avviene qualcosa di assolutamente straordinario, poiché nello stesso istante la funzione d’onda della particella B subisce la riduzione: (collasso) al valore -½  con velocità  dunque superiore a quella della luce, e questo senza necessità di effettuare materialmente la misura. Naturalmente se la misura dello spin di A fornisse valore -½, lo spin di B assumerebbe istantaneamente il valore +½.

E come se l’informazione ottenuta dalla misura effettuata sulla particella A producesse un’azione istantanea a distanza sulla particella B, costringendola ad assumere un particolare valore. Questo fenomeno sconcertante, sconosciuto al mondo classico, si chiama Nonlocalità Quantistica.

Da questo argomento EPR traggono la seguente conclusione: o il mondo è nonlocale (vi sono azioni in un posto che hanno ripercussioni immediate in un posto lontanissimo) oppure la meccanica quantistica non è completa. Infatti, se pensiamo che le particelle possiedano già un valore di spin ben determinato, ancorché a noi sconosciuto, scompare l’esigenza di invocare azioni a distanza ed il paradosso non è più tale.

 

La disuguaglianza di Bell e l’esperimento di Aspect

Solo nel 1965  John Bell, teorico del CERN, mise a punto un metodo che avrebbe potuto verificare l’esistenza o meno la presenza di effetti nonlocali in meccanica quantistica.  Egli adottò i due assunti basilari di Einstein Podolsky e Rosen - l'inesistenza di segnali più veloci della luce  e l'esistenza di una realtà oggettiva indipendente dalle misurazioni dello sperimentatore - e li utilizzò per costruire una relazione matematica in forma di disuguaglianza tra le misurazioni effettuate sulla particella 1 e le misurazioni effettuate sulla particella 2.
Effettuando un esperienza EPR, la disuguaglianza sarebbe stata soddisfatta nel caso l'impostazione di Einstein fosse stata corretta..

L'esperimento non poté però essere effettuato per tutti gli anni '70, poiché la tecnologia non permetteva di raggiungere i limiti di precisione richiesti.

Infatti per essere certi che due particelle separate non comunichino in modo non convenzionale (cioè istantaneamente), è necessario eseguire le misurazioni su entrambe le particelle entro un intervallo di tempo così breve che in esso nessun segnale che viaggi alla velocità della luce (o a una velocità inferiore) possa essere scambiato tra loro. Per particelle separate tra loro da una distanza di un metro, ciò significa che le misurazioni non devono impiegare più di qualche miliardesimo di secondo.

Solo nel 1982 Alain Aspect riuscì ad ottenere, in un famoso esperimento la precisione richiesta, dimostrando che Einstein aveva torto.

La nonlocalità, un monstrum  scientifico secondo l’esperienza e l’intuizione umana, è ormai una proprietà generalmenteaccettata del mondo quantistico

Nella figura di seguito riportata vediamo una schematizzazione delle apparecchiature utilizzate da Aspect e collaboratori nei loro esperimenti. Al centro si trova un atomo di Calcio il cui decadimento produce una coppia di fotoni correlati che si muovono lungo percorsi opposti. Lungo uno di questi percorsi (nel caso rappresentato in figura, il Percorso A), di tanto in tanto e in maniera del tutto casuale, viene inserito un "filtro" (un Cristallo Birifrangente) il quale, una volta che un fotone interagisce con esso, può, con una probabilità del 50 %, deviarlo oppure lasciarlo proseguire indisturbato per la sua strada. Agli estremi di ogni tragitto previsto per ciascun fotone è posto un rivelatore di fotoni.

Ora, la cosa straordinaria verificata da Aspect con le sue apparecchiature è che nel momento in cui lungo il Percorso A veniva inserito il Cristallo Birifrangente e si produceva una deviazione verso il rivelatore c del fotone 1, anche il fotone 2 (ovvero il fotone del Percorso B; il fotone separato e senza "ostacoli" davanti), "spontaneamente" ed istantaneamente, deviava verso il rivelatore d. Praticamente l’atto di inserire il Cristallo Birifrangente con la conseguente deviazione del fotone 1, produceva un effetto istantaneo a distanza sul fotone 2, inducendolo a deviare.
Tutto ciò può sembrare strano, ma è quello che effettivamente accade quando si eseguono esperimenti su coppie di particelle correlate.

 

Conclusioni

La teoria di Newton, nella forma equivalente ma più elegante che le fu data in seguito da Hamilton, mostra che, se due corpi sono trattati come un sistema in prima approssimazione chiuso, le equazioni complete del moto possono essere dedotte dalla relazione che dà l'energia totale (potenziale + cinetica), in funzione delle masse, delle posizioni e delle quantità di moto.
In base a tale relazione, conoscendo la posizione e la quantità di moto ad un certo momento (condizioni iniziali), è sempre possibile calcolare i valori che tali grandezze assumeranno o hanno assunto in un qualsiasi momento del futuro o del passato. E tutto ciò con una precisione che dipende solamente dalla perfezione degli strumenti di misura.

In tal modo Newton introdusse nel 1687 nei suoi 'Principia Mathematica' il concetto di un sistema chiuso completamente deterministico.
Sotteso ed implicito in ciò vi era naturalmente la ferma convinzione che tale sistema esistesse ed evolvesse in modo perfettamente determinato indipendentemente dal fatto che l'uomo lo osservasse o meno. È l'assunto dell'oggettività del mondo fisico.

Fu poi Laplace a generalizzare questo concetto estendendolo all'intero universo concepito come il sistema chiuso per eccellenza, funzionante come un gigantesco meccanismo d'orologeria.
Nel suo "Theorie analytique des Probabilites" (1820), scrisse

"Un'intelligenza che conosca ad un dato istante tutte le forze agenti in natura assieme alla posizione istantanea di tutti i corpi che costituiscono l'universo è in grado di includere i moti dei maggiori corpi dell'universo e degli atomi più leggeri in una sola formula, ammesso che il suo intelletto sia sufficientemente potente da analizzare tutti i dati; niente è incerto per lui, sia passato, sia futuro sono presenti ai suoi occhi."

La meccanica quantistica ha infranto il sogno di Laplace, dimostrando che l'oggettività è un fantasma prodotto dal mondo macroscopico, ma che nel microcosmo gli oggetti esistono in modo diverso in funzione del tipo di osservazione cui sono sottoposti. Essi non hanno esistenza oggettiva, ma soggettiva, il loro mostrarsi dipende dal soggetto che li osserva.
Anche il sogno di un mondo perfettamente determinato e misurabile si è infranto contro le equazioni quantistiche. La nostra conoscenza della realtà non potrà più pretendere di essere perfetta. Dobbiamo accettare la necessità di una 'naturale’ indeterminazione, dietro la quale si nasconde una  porzione di realtà attualmente per noi inconoscibile.

Nel '700 si fece strada l'idea che il caso potesse costituire l'oggetto di uno studio matematico e Laplace e altri scoprirono le leggi che governano ad esempio il gioco d'azzardo.
La cosa che forse più colpisce è che, sebbene oggi la casualità sia trattata attraverso le leggi della statistica e del calcolo delle probabilità, i matematici non riescono a dare una definizione di casualità.

Il matematico Richard von Mises ha dato una definizione operativa di un processo casuale. Secondo Von Mises, un processo è casuale se è imbattibile. Se cioè in pratica, dopo molti tentativi, qualunque strategia noi adottiamo per prevederne i risultati, i nostri sforzi risultano vani.
Se cerchiamo il caso in natura, scopriamo che il posto migliore dove trovarlo è proprio l'atomo. Non esiste casualità paragonabile a quella quantistica.
Sottoposti a controlli di casualità processi quali i decadimenti radioattivi superano ogni prova.
La casualità quantistica è imbattibile.

Il Dio che gioca a dadi non bara!


Struttura atomica e caratteristiche chimiche

 

Il riempimento degli orbitali

Convenzionalmente ogni orbitale viene rappresentato mediante un quadrato all'interno del quale è possibile disporre fino ad un massimo di due elettroni rappresentabili mediante frecce verticali con verso opposto, ad indicare lo spin antiparallelo.

 

                                                

 

                                                           vuoto            semisaturo         saturo
(elettrone spaiato)  

Ciascun orbitale viene poi indicato con una sigla composta da un numero da 1 a 7 che indica il livello energetico seguito da una lettera (s, p, d, f) che indica il tipo di orbitale. Ad esempio 1s rappresenta l'unico orbitale s del primo livello energetico; 2p indica i tre orbitali p del secondo livello energetico; 6d i cinque orbitali d del sesto livello energetico.

Dato un elemento di numero atomico Z, è possibile distribuire correttamente i suoi Z elettroni nei diversi orbitali seguendo le seguenti tre regole di riempimento (Regole di Aufbau):

 

Principio di minima energia

Gli elettroni si dispongono spontaneamente negli orbitali vuoti meno energetici. Una volta riempiti gli orbitali a minor energia vengono occupati gradualmente gli orbitali ad energia progressivamente maggiore. L'ordine di riempimento ottenuto in tal modo non rispetta però sempre l'ordine di riempimento che ci si attenderebbe in base alla sequenza ordinata dei livelli energetici.
Il contenuto energetico degli orbitali è riportato nello schema seguente, in cui ogni orbitale è rappresentato come un quadrato.

 

Come conseguenza di tale struttura energetica l’ordine di riempimento degli orbitali in funzione del loro contenuto energetico risulta essere quello che si ottiene seguendo le diagonali dello schema seguente.

                                                           
E dunque
1s → 2s → 2p → 3s → 3p → 4s → 3d → 4p → 5s → 4d → 5p → 6s → 4f → 5d → 6p → 7s → 5f → 6d

 

Principio di esclusione di Pauli

Ogni orbitale può contenere al massimo 2 elettroni i quali saturano l’orbitale disponendosi con spin controversi (antiparalleli). Lo spin (momento angolare intrinseco) è una caratteristica vettoriale  degli elettroni (gli elettroni si comportano come minuscole trottole che ruotano attorno al proprio asse e quindi possiedono un momento angolare). Un elettrone può possedere solo due valori di spin (anche lo spin è quantizzato). Gli elettroni negli orbitali vengono rappresentati con delle frecce verticali (che rappresentano il vettore spin).
Rappresentando dunque gli orbitali come quadrati o, come spesso si usa, come linee orizzontali, si possono presentare 3 situazioni

Un orbitale saturo presenta i due elettroni con spin antiparalleli (↑↓)

 

Principio di massima molteplicità di Hund

Gli elettroni si dispongono negli orbitali degeneri uno per orbitale con spin parallelo fino a semisaturarli tutti e, successivamente, li saturano seguendo il principio di esclusione Pauli. Così, se dobbiamo inserire 3 elettroni nei tre orbitali degeneri 2p, otterremo la seguente configurazione


Esatto                                  Errato!!

O, dovendo inserire 7 elettroni nei cinque orbitali degeneri 4d, si otterrà


Esatto                                         Errato!!

Applicando dunque le 3 regole di Aufbau possiamo ottenere la configurazione elettronica dell’Ossigeno (Z = 8). I suoi 8 elettroni si distribuiranno secondo il seguente schema

La configurazione elettronica dell’Ossigeno può essere riassunta in modo sintetico scrivendo gli elettroni ad esponente degli orbitali che li contengono

1s2  2s2  2p4

in cui i numeri ad esponente indicano quanti elettroni sono sistemati in quei particolari orbitali.

 

Configurazioni elettroniche e Strutture di Lewis degli elementi

Se prendiamo in considerazione i diversi elementi a partire dall'idrogeno in ordine di numero atomico crescente possiamo osservare come al crescere di un'unità nel valore del numero atomico venga aggiunto un elettrone alla configurazione elettronica.
Ogniqualvolta una serie di elementi ha sistemato abbastanza elettroni da riempire un livello energetico, gli elementi successivi, che iniziano a riempire il successivo livello energetico, vengono disposti in una riga sottostante, detta periodo, in modo tale che risultino incolonnati con gli elementi che presentano la stessa configurazione elettronica superficiale.

In questo modo si vengono a formare 7 periodi, corrispondenti ai 7 livelli energetici riempibili e quindi al valore del numero quantico principale.

Gli elementi che si incolonnano verticalmente formano i cosiddetti gruppi, composti da elementi che presentano un egual numero di elettroni disposti sullo stesso tipo di orbitali, ma naturalmente su di un diverso livello energetico.

Poiché il comportamento chimico di un elemento dipende essenzialmente proprio dalla sua configurazione elettronica superficiale, elementi appartenenti ad uno stesso gruppo presentano forti analogie e somiglianze chimiche (stesso tipo di reazioni).

Le caratteristiche chimiche variano dunque progressivamente e con continuità mentre ci spostiamo lungo un periodo, mentre rimangono sostanzialmente simili all'interno di un gruppo.

Possiamo inoltre suddividere la tabella periodica in quattro grandi regioni che rappresentano raggruppamenti di elementi che stanno inserendo elettroni in orbitali dello stesso tipo.

 

La prima regione (blocco s) è formata dai gruppi I A e II A dove si riempie l'orbitale s.

La regione all'estrema destra (blocco p), composta dai rimanenti sei gruppi A (l’ottavo gruppo A è spesso indicato come gruppo 0 (zero)) è costituita dagli elementi che distribuiscono i sei elettroni nei tre orbitali p.
La regione centrale (blocco d), costituita da 10 file verticali riunite a formare 8 gruppi B, è formata dai cosiddetti metalli di transizione, elementi che stanno disponendo 10 elettroni nei 5 orbitali d.

Infine la regione in basso (blocco f), formata da due serie orizzontali chiamate rispettivamente serie dei lantanidi e degli attinidi, è costituita da elementi  che stanno distribuendo 14 elettroni nei 7 orbitali f (4f e 5f).

Gli atomi utilizzano prevalentemente gli elettroni del loro livello energetico più esterno (elettroni superficiali o elettroni di valenza) per interagire e legarsi tra loro. Il comportamento chimico di un atomo dipende dunque dal numero e dalla disposizione degli elettroni dell’ultimo livello energetico. Per capire la reattività di un atomo è dunque sufficiente conoscere la sua configurazione elettronica superficiale o configurazione dello strato di valenza.
Scrivendo, ad esempio, le configurazioni elettroniche superficiali degli elementi dei primi tre periodi chimici della tabella periodica, si osserva come gli elementi che si incolonnano in uno stesso gruppo chimico presentano la medesima configurazione elettronica superficiale.
La configurazione elettronica superficiale semplicemente si ripete periodicamente in livelli energetici via via più esterni.
Atomi di elementi diversi che presentino la medesima configurazione elettronica superficiale (il medesimo numero di elettroni sul loro ultimo livello) manifestano caratteristiche chimiche simili.

Così, ad esempio, lo Zolfo, che si trova sotto l’Ossigeno, presenta la medesima configurazione superficiale (ns2 np4) di quest’ultimo, sul terzo livello energetico (n = 3) invece che sul secondo (n = 2). Per questo motivo Zolfo ed Ossigeno hanno caratteristiche chimiche simili.

Dunque le caratteristiche simili degli elementi che appartengono ad uno stesso gruppo chimico dipendono essenzialmente dal numero di elettroni presenti sul livello energetico più superficiale, indipendentemente dal fatto che questo sia il primo, il secondo o l'ultimo.

 

Il numero d'ordine di ciascun gruppo indica quanti elettroni sono presenti nel livello energetico superficiale, dandoci quindi una prima indicazione di massima sul numero di elettroni disponibili per i legami chimici.

Così tutti gli elementi del primo gruppo A presentano configurazione elettronica superficiale ns1, dove n indica evidentemente il numero quantico principale.

Possiamo dunque costruire il seguente schema che ci permette di correlare ciascun gruppo A con la configurazione elettronica superficiale degli elementi appartenenti al gruppo stesso.

                                              


gruppo

configurazione
elettronica
superficiale

numero
di
elettroni

I A

ns1

1

II A

ns2

2

III A

ns2 np1

3

IV A

ns2 np2

4

V A

ns2 np3

5

VI A

ns2 np4

6

VII A

ns2 np5

7

VIII A

ns2 np6

8

                                            


Gli elementi che possiedono 8 elettroni superficiali (configurazione otteziale) risultano particolarmente stabili, inerti, nel senso che manifestano pochissima tendenza a reagire con altri elementi chimici.

Gli altri elementi che possiedono configurazioni elettroniche simili a quella dei gas nobili tendono a perdere o ad acquistare elettroni per raggiungere tale configurazione particolarmente stabile. Molte reazioni chimiche possono essere spiegate proprio in virtù della tendenza di molti elementi ad acquisire la configurazione ad 8 elettroni superficiali dei gas nobili (regola dell'ottetto).

Spesso la configurazione elettronica di un elemento viene scritta in forma sintetica facendo riferimento al gas nobile che lo precede nella tabella periodica, e che presenta tutti  i suoi livelli energetici completi, ed aggiungendo solo la configurazione superficiale dell’elemento.
Ad esempio le configurazioni di Ossigeno e Zolfo possono essere scritte così

Ossigeno  1s2 2s2 2p4 = [He]2s22p4

Zolfo  1s2 2s2 2p6 3s2 3p4 = [Ne]3s23p4

In altre parole, l’Ossigeno presenta la stessa configurazione elettronica dell’Elio più la sua configurazione superficiale, mentre lo Zolfo presenta la medesima configurazione elettronica del Neon più la sua configurazione superficiale.

I gruppi B vengono ordinati in analogia ai gruppi A. Il primo gruppo B che si forma viene detto III B e non I B in quanto la sua configurazione superficiale presenta 3 elettroni, 2 nell'orbitale s e 1 nell'orbitale d, in modo analogo a quanto avviene per gli elementi del gruppo III A.
Tranne alcune eccezioni anche per i gruppi B vale la regola che il numero d'ordine indica il numero di elettroni presenti nello strato più superficiale.

I lantanidi e gli attinidi hanno caratteristiche chimiche simili rispettivamente al lantanio e all'attinio e si suole perciò considerarli appartenenti al gruppo III B.
Nella maggior parte dei casi gli elettroni coinvolti nelle reazioni chimiche sono i 2 + 6 = 8 elettroni contenuti nell’orbitale s e nei tre orbitali p del livello energetico più esterno. Per questo motivo tali elettroni vengono convenzionalmente rappresentati utilizzando un metodo introdotto da Lewis.

Secondo tale metodo i 2 + 6 elettroni degli orbitali s e p del livello più esterno (elettroni di valenza) vengono rappresentati come punti o coppie di punti disposte ai quattro lati del simbolo chimico dell'elemento. Idealmente, ogni lato del simbolo chimico è associato ad un orbitale.

Per maggior chiarezza diamo la configurazione di Lewis o struttura di Lewis degli elementi appartenenti al 2° periodo.

Elemento

Orbitale s

Orbitali p

Configurazione
superficiale

Configurazione
di Lewis

Litio

2s1

Berillio

2s2

Boro

2s22p1

 

Carbonio

2s22p2

Azoto

2s22p3

Ossigeno

2s22p4

Fluoro

2s22p5

Neon

2s22p6

Come si vede, le coppie di elettroni vengono più spesso rappresentate con una barretta.

E’ evidente che tutti gli elementi che appartengono ad un medesimo gruppo chimico, possedendo la medesima configurazione elettronica superficiale, presentano la stessa struttura di Lewis

 

Metalli e non metalli

 

E' possibile tracciare all'interno della tabella periodica una ideale linea obliqua che, passando per il Silicio (Si), l'Arsenico (As) ed il Tellurio (Te),  va dal Boro (B) all'Astato (At) e divide tutti gli elementi in due grandi gruppi: a sinistra i metalli (più numerosi), a destra i non metalli. Le caratteristiche chimiche e fisiche dei metalli sono più accentuate all'inizio della tabella periodica e vanno lentamente sfumando mentre ci avviciniamo alla zona dei non metalli.

Gli elementi chimici che si trovano adiacenti alla linea di separazione presentano quindi caratteristiche intermedie tra quelle dei metalli e quelle dei non metalli e vengono per questo motivo chiamati semi-metalli. I metalli presentano una tendenza a perdere elettroni (si ossidano più o meno facilmente) trasformandosi in ioni positivi o cationi. Dal punto di vista fisico sono lucenti, tenaci (si rompono con difficoltà), duttili ( possono essere tirati in fili sottili), malleabili (possono essere tirati in lamine sottili), buoni conduttori di calore e di elettricità.

I non metalli presentano una tendenza ad acquistare elettroni (si riducono più o meno facilmente) trasformandosi in ioni negativi o anioni. Dal punto di vista fisico non sono lucenti, sono fragili, non presentano né duttilità, né malleabilità, sono cattivi conduttori o addirittura isolanti termici ed elettrici.
Le caratteristiche metalliche aumentano scendendo lungo un gruppo e spostandosi verso sinistra lungo un periodo. In tal modo gli elementi che presentano le caratteristiche metalliche più spiccate sono quelli in basso a sinistra della tabella periodica.
Evidentemente per ragioni opposte gli elementi che presentano le caratteristiche non metalliche più accentuate si trovano in alto a destra nella tabella periodica

Possiamo trovare una semplice spiegazione di tale andamento analizzando come varia il raggio atomico. Osservando la tabella periodica è facile verificare che il raggio atomico, e quindi la distanza degli elettroni più superficiali dal loro nucleo, diminuisce da sinistra verso destra lungo un periodo mentre aumenta dall'alto in basso lungo un gruppo.

Infatti mentre ci spostiamo verso destra lungo un periodo gli elettroni vengono sistemati tutti in uno stesso livello energetico. La distanza di tale livello dal nucleo dovrebbe rimanere approssimativamente la stessa. In realtà poiché contemporaneamente aumenta anche il numero atomico Z, il nucleo esercita una attrazione via via maggiore sui livelli energetici occupati dagli elettroni, costringendoli a contrarsi verso il centro.
Quando invece ci muoviamo verso il basso lungo un gruppo ciascun elemento presenta i suoi elettroni superficiali su livelli energetici nuovi e via via più esterni, facendo in tal modo aumentare di scatto il raggio atomico

Ora è evidente che più distanti gli elettroni superficiali si trovano dal nucleo positivo e minore è la forza attrattiva che il nucleo stesso è in grado di esercitare su di essi. Ciò spiega in definitiva la maggior facilità con cui gli atomi metallici, che possiedono raggi atomici mediamente superiori rispetto ai non metalli, perdono i loro elettroni superficiali.

 

La tendenza a perdere elettroni da parte dei metalli è inoltre esaltata dal fatto che i metalli possiedono in genere pochi elettroni in più rispetto al gas nobile che li precede ed è per loro energeticamente più conveniente perderli piuttosto che acquistare un gran numero di elettroni per raggiungere la configurazione stabile del gas nobile che li segue nella tabella periodica.
Per ragioni opposte per i non metalli, che presentano in genere pochi elettroni in meno rispetto al gas nobile che li segue, è energeticamente più favorevole acquistarli piuttosto che perderne un gran numero.

La tendenza a perdere o ad acquistare elettroni da parte degli elementi chimici è misurata da due parametri fondamentali, l'energia di I ionizzazione e l'affinità elettronica, i cui valori si trovano tabulati nella tabella periodica.

 

Energia di prima ionizzazione

Viene definita come l'energia, espressa in Kcal/mol (o KJ/mol), che è necessario fornire ad una mole di atomi allo stato gassoso per trasformarla in una mole di cationi monovalenti.
X(g) + EI ion (kJ/mol)  → X+(g) + e-
L'andamento del valore di tale parametro nella tabella periodica ci conferma quanto abbiamo detto sulla maggior facilità con la quale i metalli perdono i loro elettroni.
L'energia di ionizzazione diminuisce infatti scendendo verso il basso lungo un gruppo, mentre cresce se ci spostiamo verso destra lungo un periodo.

Energia di Prima Ionizzazione (kJ mol-1)

1

H
1312

 

He
2372

2

Li
520

Be
900

 

B
801

C
1086

N
1402

O
1314

F
1681

Ne
2081

3

Na
496

Mg
738

 

Al
578

Si
786

P
1012

S
1000

Cl
1251

Ar
1521

4

K
419

Ca
590

Sc
631

Ti
658

V
650

Cr
653

Mn
717 

Fe
759

Co
758

Ni
737

Cu
745

Zn
906

Ga
579

Ge
762

As
947

Se
941

Br
1140

Kr
1351

5

Rb
403

Sr
549 

Y
616

Zr
660

Nb
664

Mo
685

Tc
702

Ru
711

Rh
720

Pd
805

Ag
731

Cd
868

In
558

Sn
709

Sb
834

Te
869

I
1008

Xe
1170

6

Cs
356

Ba
503 

La
 538

Hf
 680

Ta
761

W
770

Re
760

Os
840

Ir
880

Pt
870

Au
890

Hg
1007

Tl
589

Pb
716

Bi
703

Po
812

At
890

Rn
1037

7

Fr
384

Ra
509 

Ac
499 

Rf
 

Db
 

Sg
 

Bh
 

Hs
 

Mt
 

Ds
 

Rg
 

Uub
 

Uut
 

Uuq
 

Uup
 

Uuh
 

Uus
 

Uuo
 

 


Ce
527

Pr
523 

Nd
530 

Pm
536 

Sm
 543

Eu
 547

Gd
593 

Tb
565 

Dy
572 

Ho
 581

Er
589 

Tm
 597

Yb
 603

Lu
 524

Th
587

Pa
568

U
584

Np
597 

Pu
 585

Am
 578

Cm
 581

Bk
 601

Cf
 608

Es
 619

Fm
 627

Md
635 

No
642 

Lr
 473

 

Affinità elettronica

Viene definita come l'energia liberata da una mole di atomi neutri allo stato gassoso quando si trasforma in una mole di anioni monovalenti.
X(g) +  e- → X-(g) + AE (kJ/mol) 

Tale definizione è  contraria alla convenzione secondo la quale l’energia liberata durante una reazione ha segno negativo, generando spesso non poca confusione. Per questo motivo a volte si preferisce definire l’affinità elettronica come l’energia di ionizzazione degli ioni negativi, cioè come l’energia che deve essere fornita (quindi con segno positivo) ad uno ione negativo per strappargli il suo elettrone

X-(g) + EAE (kJ/mol) → X(g) +  e-

L'andamento dei valori dell'affinità elettronica è analogo a quello del potenziale di Ia ionizzazione. Cresce lungo un periodo e decresce lungo un gruppo.

Affinità Elettronica (kJ mol-1)

1

H
73

 

He

2

Li
60

Be

 

B
27

C
122

N
7

O
141

F
328

Ne

3

Na
53

Mg

 

Al
42

Si
134

P
72

S
200

Cl
349

Ar

4

K
48

Ca
2

Sc
18

Ti
8

V
51

Cr
65

Mn
 

Fe
15

Co
64

Ni
112

Cu
119

Zn

Ga
41

Ge
119

As
79

Se
195

Br
353

Kr

5

Rb
47

Sr

Y
30

Zr
41

Nb
86

Mo
72

Tc
53

Ru
101

Rh
110

Pd
54

Ag
126

Cd

In
39

Sn
107

Sb
101

Te
190

I
295

Xe

6

Cs
45

Ba
14 

La
 45

Hf
 

Ta
31

W
79

Re
14

Os
104

Ir
151

Pt
205

Au
223

Hg

Tl
36

Pb
35

Bi
91

Po
183

At
270

Rn

7

Fr

Ra
 

Ac
 

Rf
 

Db
 

Sg
 

Bh
 

Hs
 

Mt
 

Ds
 

Rg
 

Uub
 

Uut
 

Uuq
 

Uup
 

Uuh
 

Uus
 

Uuo
 

Altre informazioni utili nella tabella periodica

 

- numero atomico Z = numero di protoni presenti nel nucleo
- configurazione elettronica
- peso atomico relativo espresso in uma (o dalton) = rapporto tra il peso di un elemento (miscela dei suoi isotopi) ed 1/12 della massa del carbonio 12. Ricordiamo inoltre che il peso atomico relativo è numericamente pari al peso molare (PM) dell'elemento stesso.

Altre informazioni utili ottenibili dalla consultazione della tabella sono quelle relative al numero di ossidazione e all'elettronegatività degli elementi, di cui parleremo in seguito.

 


I legami chimici

Gli atomi tendono a raggiungere delle configurazioni energeticamente più favorevoli e stabili legandosi in raggruppamenti (molecole, reticolati ionici, reticolati metallici). In altre parole gli atomi si legano perché il composto che ne deriva è più stabile degli atomi separati.
La teoria del legame chimico si fonda, nella sua formulazione più semplice, sulla legge di Coulomb.

dove q sono le cariche elettriche, r la distanza che le separa ed F la forza (attrattiva per cariche opposte, repulsiva per cariche concordi) che si esercita su di esse.
Quando due atomi vengono avvicinati le nuvole elettroniche ed i nuclei interagiscono tra loro. Il legame è il risultato di un bilanciamento tra forze coulombiane attrattive (elettroni-nuclei) e repulsive (elettroni-elettroni e nuclei-nuclei).

Tuttavia tali forze risultano essere di intensità diversa per i diversi atomi e ciò porta alla formazione di legami con modalità differenti. Esistono tre modelli di legame (covalente, ionico, metallico) le cui caratteristiche dipendono essenzialmente dalla tendenza relativa che manifestano gli atomi coinvolti nel legame ad acquistare (affinità elettronica) o perdere elettroni (energia di ionizzazione).

Il legame covalente si presenta tipicamente tra atomi con elevata affinità elettronica (atomi di elementi non metallici)
Il legame ionico si presenta tipicamente tra atomi con elevata affinità elettronica (non metalli) ed atomi a bassa energia di ionizzazione (metalli)
Il legame metallico si presenta tipicamente tra atomi di elementi con bassa energia di ionizzazione (metalli)

Poiché, come abbiamo già detto, gli elettroni coinvolti nei legami chimici sono quelli che occupano il livello energetico più superficiale (elettroni di valenza), introduciamo un metodo semplice per rappresentarli, noto come configurazione di Lewis degli elementi. 

 

 

 

Il legame covalente: Teoria di Lewis

 

Il legame covalente si forma tra atomi che presentano alta affinità elettronica e quindi tipicamente tra atomi non metallici.
Se il legame unisce atomi di un medesimo elemento, il legame si definisce covalente puro o covalente omeopolare.
Se il legame unisce atomi di elementi diversi, il legame si definisce covalente polare o covalente eteropolare.

La natura del legame covalente venne suggerita per la prima volta da G. Lewis, dell'università della California nel 1916.

Lewis attribuì l'inerzia chimica dei gas nobili al fatto di possedere 8 elettroni superficiali e avanzò quindi l'ipotesi che gli elementi che non presentavano la stessa configurazione elettronica esterna, tendessero a raggiungerla mediante la condivisione dei loro elettroni superficiali spaiati, al fine di raggiungere in tal modo una configurazione più stabile (regola dell’ottetto).

Prendiamo ad esempio due atomi di cloro, rappresentandoli mediante le loro strutture di Lewis. Essi hanno entrambi una configurazione  3s2 3p5, con un elettrone spaiato sull'ultimo orbitale p ed una forte tendenza ad acquistare un ulteriore elettrone (elevata affinità elettronica) per raggiungere la configurazione stabile del gas nobile successivo ( l'argon).
Possiamo pensare che entrambi i nuclei attirino fortemente l'elettrone spaiato dell'altro atomo senza peraltro riuscire a strapparlo.
Il risultato di questa intensa attrazione incrociata è che i due elettroni spaiati vengono alla fine condivisi da entrambi gli atomi ed il doppietto elettronico funge da legame, finendo per appartenere ad entrambi gli atomi.
I due atomi di Cloro “condividono” una coppia di elettroni e tale “condivisione” costituisce il legame covalente. In questo modo ora i due elettroni non appartengono più all'uno o all'altro atomo, ma ruotano entrambi intorno all'intera struttura molecolare biatomica.
Si dice che i due elettroni sono stati messi in comune o in compartecipazione.


Ciascun nucleo "vede" ora intorno a sè i 6 elettroni non condivisi più i 2 elettroni condivisi per un totale di 8 elettroni. La condivisione di una coppia di elettroni permette a ciascun atomo di Cloro di raggiungere la configurazione stabile dell’ottetto.
Il legame che si forma per condivisione di una coppia di elettroni è detto legame covalente semplice o singolo e può essere rappresentato mediante una barretta che unisce i due simboli chimici. Gli atomi che formano la molecola di Cl2 sono quindi tenuti insieme da un legame covalente semplice
Cl - Cl

Le coppie di elettroni superficiali che non vengono condivise sono dette coppie (o doppietti) di non-legame o coppie solitarie (Lone Pairs).

Come abbiamo già detto, durante il processo di formazione del legame si esercitano tra i due atomi sia forze attrattive (elettroni-nuclei) che forze repulsive (tra i nuclei, ma soprattutto tra i gusci elettronici). Le forze attrattive prevalgono a distanze maggiori, consentendo in questo modo ai due atomi di avvicinarsi e legarsi, mentre le forze repulsive diventano importanti e significative a corto raggio.  L’energia potenziale del sistema (convenzionalmente posta uguale a zero quando i due atomi si trovano idealmente a distanza infinita) diminuisce man mano che le forze attrattive costringono i due atomi ad avvicinarsi.
Via via che i due atomi si avvicinano sia le forze attrattive che quelle repulsive diventano progressivamente più intense. Tuttavia, poiché le forze repulsive aumentano più rapidamente di quelle attrattive, si arriverà ad una distanza critica 8distanza di legame) in corrispondenza della quale le due forze risulteranno perfettamente uguali, l’energia potenziale raggiungerà il suo valore minimo ed il sistema sarà in equilibrio. Ogni ulteriore avvicinamento degli atomi causerà un aumento delle forze repulsive maggiore di quelle attrattive con conseguente tendenza del sistema a ritornare alla distanza di equilibrio.
Si tenga presente che la pendenza della curva dell’energia potenziale, rappresenta la forza netta (attrattiva + repulsiva) che agisce sugli atomi.


A grandi distanze (punto 1 del grafico) la curva dell’energia potenziale presenta piccole pendenze positive che corrispondono a deboli forze nette attrattive. Via via che gli atomi si avvicinano la pendenza della curva aumenta fino a raggiungere un valore massimo (punto 2 del grafico)  in corrispondenza del quale le forze repulsive iniziano a crescere più rapidamente di quelle attrattive e la forza netta di attrazione inizia a diminuire. Alla distanza di legame (punto 3 del grafico) l’energia potenziale raggiunge il suo valore minimo e la forza netta è pari a zero (pendenza nulla e forze attrattive pari a quelle repulsive). A distanze inferiori (punto 4 del grafico) la curva dell’energia potenziale presenta pendenze negative crescenti che corrispondono ad  intense forze repulsive nette.

 

Si può dunque dimostrare che, quando due atomi si avvicinano in risposta all'attrazione che ciascun nucleo esercita sull'elettrone spaiato dell'altro atomo, esiste una distanza critica in corrispondenza della quale la forza di attrazione viene esattamente bilanciata dalla repulsione che si produce tra i gusci elettronici negativi. Per distanze inferiori prevale la repulsione, per distanze maggiori prevale l'attrazione. Un modello semplice ed intuitivo, che descrive il fenomeno, rappresenta il legame  come una molla che unisce i due atomi. Se si cerca di separarli la molla li richiama, se si cerca di avvicinarli troppo la molla li respinge, alla distanza di legame la molla non è in tensione.

 

In corrispondenza della distanza di equilibrio viene quindi resa minima l'energia potenziale del sistema. Tale distanza corrisponde alla lunghezza di legame, parametro solitamente misurato in Ǻngström (1Ǻ = 10-10 m) o in picometri (1 pm = 10-12 m).
L'energia di legame,  misurata in Kcal/mol (o in kJ/mol), è l’energia che si libera quando due atomi allo stato gassoso passano da distanza infinita alla distanza di legame ed ovviamente coincide con l'energia che è necessario fornire al sistema (allo stato gassoso) per rompere il legame, portando i due atomi a distanza infinita.

X-X(g)  + Eleg (kcal/mol)  →  X•(g) + X•(g)

L’energia di legame è una misura della “forza” di un legame chimico (maggiore è l’energia di legame, più “forte” è un legame) e per questo motivo viene a volte impropriamente detta forza di legame.
Si consideri ad esempio la formazione del legame covalente in una molecola di H2.

Due atomi di idrogeno condividono il loro unico elettrone per raggiungere la configurazione stabile dell’Elio.

Nello schema  successivo è rappresentato l’andamento dell’energia potenziale durante la formazione del legame.

 

 

Energia E (in kJ/mol) e Lunghezza L (in pm) di legame

 

E

L

 

 

E

L

 

 

E

L

 

 

E

L

 

 

E

L

H-H

432

74

N-Cl

313

175

C-Pb

130

230

Ge-Ge

188

241

S-S (S8)

226

205

H-B

389

119

P-P

201

221

C-N

305

147

Ge-N

257

 

S=S

425

149

H-C

411

109

P-O

335

163

C=N

615

129

Ge-F

470

168

S-F

284

156

H-Si

318

148

P=O

544

150

CN

887

116

Ge-Cl

349

210

S-Cl

255

207

H-Ge

288

153

P=S

335

186

C-P

264

184

Ge-Br

276

230

Se-Se

172

 

H-Sn

251

170

P-F

490

154

C-O

358

143

Ge-I

212

 

Se=Se

272

215

H-N

386

101

P-Cl

326

203

C=O

799

120

Sn-F

414

 

F-F

155

142

H-P

322

144

P-Br

264

 

CO

1072

113

Sn-Cl

323

233

Cl-Cl

240

199

H-As

247

152

P-I

184

 

C-B

356

 

Sn-Br

273

250

Br-Br

190

228

H-O

459

96

As-As

146

243

C-S

272

182

Sn-I

205

270

I-I

148

267

H-S

363

134

As-O

301

178

C=S

573

160

Pb-F

331

 

At-At

116

 

H-Se

276

146

As-F

484

171

C-F

485

135

Pb-Cl

243

242

I-O

201

 

H-Te

238

170

As-Cl

322

216

C-Cl

327

177

Pb-Br

201

 

I-F

273

191

H-F

565

92

As-Br

458

233

C-Br

285

194

Pb-I

142

279

I-Cl

208

232

H-Cl

428

127

As-I

200

254

C-I

213

214

B-B

293

 

I-Br

175

 

H-Br

362

141

Sb-Sb

121

 

Si-Si

222

233

B-O

536

 

Xe-O

84

175

H-I

295

161

Sb-F

440

 

Si-N

355

 

B-F

613

 

Xe-F

130

195

N-N

167

145

C-C

346

154

Si-O

452

163

B-Cl

456

175

 

 

 

N=N

418

125

C=C

602

134

Si-S

293

200

B-Br

377

 

 

 

 

NN

942

110

CC

835

120

Si-F

565

160

O-O

142

148

 

 

 

N-O

201

140

C-Si

318

185

Si-Cl

381

202

O=O

494

121

 

 

 

N=O

607

121

C-Ge

238

195

Si-Br

310

215

O-F

190

142

 

 

 

N-F

283

136

C-Sn

192

216

Si-I

234

243

S=O

522

143

 

 

 

Nella formazione di un legame covalente possono essere condivise anche più di una coppia di elettroni.  E' il caso ad esempio delle molecole dell'ossigeno e dell'azoto.

L'ossigeno presenta 6 elettroni nell'ultimo livello con una configurazione elettronica superficiale 2s2 2p4, con due elettroni spaiati su due orbitali p. Per completare l'ottetto ciascun atomo di ossigeno  condivide  dunque 2 elettroni. Ciascun atomo di ossigeno ora "vede" intorno a sè 8 elettroni nel suo livello energetico più superficiale.

 

La molecola di O2 è quindi tenuta insieme da un legame covalente doppio. che può essere rappresentato con due trattini posti tra i simboli chimici dei due atomi (O = O)

Un legame doppio è più corto e più forte di un legame semplice.

Nel caso dell'azoto la configurazione elettronica superficiale è del tipo  2s2 2p3, con tre elettroni spaiati su due orbitali p. Per completare l'ottetto ciascun atomo di Azoto  deve dunque condividere 3 elettroni

Il legame che si forma e che tiene uniti gli atomi di Azoto in N2 è un legame covalente triplo che può essere rappresentato con tre trattini posti tra i simboli chimici dei due atomi (N ºN).

Un legame triplo è più corto e più forte di un legame doppio.

Riassumendo

Il numero di doppietti elettronici condivisi che tiene uniti due atomi è detto ordine di legame. Un legame singolo presenta ordine = 1, un legame doppio ordine = 2, un legame triplo ordine = 3.
La lunghezza del legame decresce all’aumentare dell’ordine di legame (un legame doppio è più corto di uno semplice ed uno triplo è più corto di uno doppio).
L’energia di legame aumenta all’aumentare dell’ordine di legame (un legame doppio è più forte di un legame semplice ed un legame triplo è più forte di un legame doppio).

Mentre i legami semplici permettono la libera rotazione degli atomi intorno all'asse di legame, i legami doppi e tripli non permettono rotazioni.

 

Raggio covalente

 

La lunghezza dei legami covalenti è correlabile al raggio covalente degli elementi.
Si definisce raggio covalente di un elemento la metà della lunghezza del legame covalente singolo che tiene uniti due atomi del medesimo elemento in una molecola neutra. In realtà tale definizione non si può applicare a tutti gli elementi.

L’ossigeno, ad esempio, forma una molecola O2 in cui i due atomi sono uniti da un legame di ordine = 2 (covalente doppio e non singolo). In questo caso si stima il raggio covalente analizzando molecole che contengano il gruppo -O-O-.

In altri casi si misura la lunghezza del legame A-X che un elemento X presenta con l’elemento A di cui è noto il raggio covalente e si stima il suo raggio covalente per differenza con il raggio covalente noto di A. Spesso si usa il Carbonio che si lega facilmente con molti elementi chimici e di cui è noto il raggio covalente.
Nel caso di elementi metallici, i cui atomi sono tenuti insieme da un legame metallico, si parla più propriamente di raggio metallico. Più in generale si parla di raggio atomico, covalente o metallico, in relazione al tipo di legame che tiene uniti gli atomi.

Raggio atomico (covalente e metallico) (in pm)

H
37

 

He
32

Li
134

Be
90

 

B
82

C
77

N
75

O
73

F
71

Ne
69

Na
154

Mg
130

 

Al
118

Si
111

P
106

S
102

Cl
99

Ar
97

K
196

Ca
174

Sc
144

Ti
136

V
125

Cr
127

Mn
 139

Fe
125

Co
126

Ni
121

Cu
138

Zn
131

Ga
126

Ge
122

As
119

Se
116

Br
114

Kr
110

Rb
211

Sr
192 

Y
162

Zr
148

Nb
137

Mo
145

Tc
156

Ru
126

Rh
135

Pd
131

Ag
153

Cd
148

In
144

Sn
141

Sb
138

Te
135

I
133

Xe
130

Cs
225

Ba
198 

La
 169

Hf
 150

Ta
138

W
146

Re
159

Os
128

Ir
137

Pt
128

Au
144

Hg
149

Tl
148

Pb
147

Bi
146

Po

At

Rn
145

Fr

Ra
 

Ac
 

Rf
 

Db
 

Sg
 

Bh
 

Hs
 

Mt
 

Ds
 

Rg
 

Uub
 

Uut
 

Uuq
 

Uup
 

Uuh
 

Uus
 

Uuo
 

 

Legame dativo e promozione elettronica

 

Da quanto abbiamo fin qui visto ci si potrebbe attendere che il numero di legami covalenti che un atomo può formare non possa mai essere superiore al numero di elettroni spaiati che deve condividere al fine di completare l'ottetto. In realtà ciò è vero nella maggior parte dei casi, ma non in tutti.
In alcuni casi gli atomi riescono infatti a formare più legami di quanti apparentemente sembra loro consentito sulla base della loro configurazione elettronica superficiale. E' necessario tener presente che ogni legame in più che si forma produce un ulteriore aumento di stabilità della molecola e dunque gli atomi tendono a massimizzare il numero di legami formati.
La formazione di legami di tipo “dativo” ed i processi di “promozione elettronica” sono stati introdotti per giustificare la formazione di ulteriori legami rispetto al numero di elettroni spaiati di un atomo.  

Legame dativo
Un legame covalente si può formare a partire da un doppietto elettronico messo a disposizione da un atomo donatore (o datore) e da un orbitale vuoto messo a disposizione da un atomo accettore.
Tale legame è detto legame covalente dativo ed una volta formatosi è indistinguibile da un normale legame covalente.
Il legame dativo può essere rappresentato come una freccia che va dal doppietto solitario dell’atomo datore D all’atomo accettore A.

D:→A

 

Si consideri ad esempio lo Zolfo e l'Ossigeno, entrambi appartenenti al VI gruppo A, aventi configurazione superficiale s2p4, con due doppietti, due elettroni spaiati e due elettroni mancanti per raggiungere la configurazione dell'ottetto.

Sulla base delle configurazioni superficiali dei due elementi ci potremmo attendere la formazione di un composto del tipo S=O,  con formazione di un legame covalente doppio a seguito della condivisione di entrambi gli elettroni spaiati di ciascun elemento. In questo modo ciascun atomo completa infatti l’ottetto.

In realtà quando lo Zolfo reagisce con l’Ossigeno genera SO2 (anidride solforosa) ed SO3 (anidride solforica), riuscendo in tal modo a legare fino ad altri due atomi di ossigeno in più rispetto a quanto previsto.

Per giustificare la formazione di questi legami si ammette dunque che lo zolfo possa utilizzare per legarsi non solo gli elettroni spaiati, ma anche i doppietti solitari. Tuttavia l’Ossigeno non ha orbitali superficiali vuoti da poter utilizzare.
Si ammette quindi che l'Ossigeno possa subire una transizione dalla configurazione più stabile, prevista dalla regola di Hund ad una configurazione, meno stabile nella quale un elettrone viene spostato da un orbitale p semisaturo, generando un orbitale vuoto, all’altro orbitale p semisaturo.

In questo modo l'ossigeno possiede ora un orbitale p vuoto che può utilizzare come accettore di un doppietto elettronico per formare un ulteriore legame chimico con lo zolfo di tipo dativo, per dare l’anidride solforosa SO2.  Il passaggio dell’ossigeno ad una configurazione meno stabile richiede ovviamente energia, ma questa viene più che compensata dall’aumento di stabilità che si ottiene con la formazione di un ulteriore legame.

Nel caso lo Zolfo utilizzi entrambi i suoi doppietti solitari per formare due legami dativi con altrettanti atomi di ossigeno si forma l'anidride solforica SO3.

Il legame dativo ci permette di giustificare la capacità che hanno molti elementi ( in particolare gli elementi alla fine di un periodo) di formare un numero variabile di legami con l'ossigeno (valenza variabile) legandosi con esso in diverse proporzioni (legge delle proporzioni multiple di Dalton).

Il cloro, ad esempio, che possiede una configurazione superficiale s2 p5, presenta un elettrone spaiato e ben tre doppietti non condivisi disponibili per legami dativi. Si giustificano in tal modo l'esistenza di ben quattro composti ossigenati del cloro: l'anidride ipoclorosa Cl2O, l'anidride clorosa Cl2O3, l'anidride clorica Cl2O5 e l'anidride perclorica Cl2O7.

Non è necessario che un atomo liberi un orbitale per poter effettuare un legame dativo. In molti casi esistono già orbitali naturalmente liberi.

Un esempio si ha nella reazione di dissociazione ionica dell’acqua in ioni H+ e ioni OH-. In realtà in soluzione non esistono ioni H+ liberi poiché essi usano il loro orbitale 1s vuoto per legarsi, tramite legame dativo, ad uno dei due doppietti solitari dell’ossigeno di una molecola d’acqua, con formazione di ioni ossonio (o idronio) H3O+.

   H2Ōı→H+  =  H3O+

Una volta che lo ione ossonio si è formato, i 3 atomi di idrogeno sono perfettamente equivalenti ed i tre legami covalenti che li legano all’ossigeno risultano indistinguibili.


Ione ossonio

 

fonte: http://www.pianetachimica.it/didattica/documenti/Chimica_Generale.doc

 

Chimica generale 3

 

 

Visita la nostra pagina principale

 

Chimica generale 3

 

Termini d' uso e privacy

 

 

 

Chimica generale 3