|
|
|
[ Partners ]
- ENKEY.iT
- DEVA.iT
- Enkey WebSite
- Skuole.net
- Motore di Ricerca
- Carbonia
- ICDweb
- Universo Facile
- Carbonia.net
- Recensioni Giochi
|
|
1. Introduzione
La Fisica è la scienza che studia i molteplici fenomeni che si manifestano in natura, con lo scopo di formulare delle leggi generali entro le quali questi possano essere inquadrati.
2. Il Ruolo della Fisica
In origine la fisica era una disciplina molto vasta e del tutto generale, nata in risposta all'esigenza umana di dare una spiegazione razionale dei fenomeni naturali. Nell'antichità, infatti, la figura del fisico, del matematico, del filosofo e del biologo erano riunite nella suggestiva immagine dell'uomo di scienza, che si affermava in ugual misura in molti campi del sapere. Con il progresso della conoscenza, tuttavia, si delinearono i confini delle singole discipline scientifiche e ciascuna di esse, benché strettamente legata alle altre, si impose con campo e metodi di indagine propri. La fisica, ad esempio, si distinse gradualmente dalla chimica, che si occupa più specificamente, e con metodi diversi, dello studio dei processi che coinvolgono trasformazioni della natura intima di corpi e sostanze.
Ai nostri giorni, il grado di sviluppo raggiunto nelle scienze impone un'ulteriore specializzazione anche nell'ambito di una sola disciplina: così, pur restando nell'ambito della fisica, la meccanica, che studia le leggi che regolano il moto dei corpi, viene distinta dalla termologia, che si occupa delle modalità di propagazione del calore, o dall'elettromagnetismo, che ha per oggetto lo studio dei fenomeni legati alla presenza di cariche elettriche o di campi magnetici. Tuttavia, poiché i fenomeni che si manifestano in natura, così come le cause che li determinano, non possono essere classificati secondo una struttura rigida e schematica, le linee di demarcazione tra i vari settori della scienza non sono assolutamente nette e le singole discipline si sviluppano parallelamente, avvalendosi dei risultati ottenuti in ambiti solo apparentemente disparati. Con il progresso scientifico, inoltre, si sono sviluppati campi di studio interdisciplinari che applicano i principi della fisica all'analisi di fenomeni particolari; ne sono esempi la geofisica, che indaga sui fenomeni fisici che riguardano la Terra, l'astrofisica, che studia l'evoluzione delle stelle e le proprietà dello spazio interstellare, o la biofisica che studia i fenomeni biologici sulla base dei principi fisici che li determinano. ag-guys.com
3. Le Origini
Sebbene la fisica abbia iniziato a definirsi come scienza autonoma non prima del XVII secolo, i primi studi e le prime osservazioni dei fenomeni naturali risalgono all'antichità.
Sulla base di attente osservazioni del cielo, i cinesi, i babilonesi, gli egizi e alcune popolazioni precolombiane erano in grado di calcolare la durata del giorno e della notte, di stilare semplici calendari e di prevedere il verificarsi delle eclissi; si trattava comunque di osservazioni di carattere empirico, dettate da esigenze pratiche piuttosto che dalla curiosità dell'uomo per i fenomeni che lo circondano. Questo atteggiamento mutò nel corso del tempo, e con la nascita della filosofia greca si rintracciano i primi tentativi di descrivere e di spiegare razionalmente i fenomeni naturali. Le speculazioni dei filosofi greci sfociarono in due diverse linee di pensiero circa i costituenti fondamentali dell'universo: l'atomismo, promosso da Leucippo e da Democrito nel V secolo a.C., e la teoria degli elementi, proposta da Empedocle e sviluppata in seguito da Aristotele.
Secondo la dottrina aristotelica, nell'universo si distinguono due categorie di corpi: i corpi celesti, costituiti da una sostanza perfetta e immateriale denominata quinta essenza, e i corpi terrestri (o sublunari), mutevoli e corruttibili, composti in misura diversa dai quattro elementi già introdotti nella filosofia di Empedocle: aria, acqua, terra e fuoco. Ciascuno di questi elementi è caratterizzato da un proprio luogo naturale, che spontaneamente tende a raggiungere nel corso del movimento: nel punto più basso dell'universo è collocato il luogo naturale della terra, mentre salendo si incontrano su diversi livelli i luoghi naturali dell'acqua, dell'aria e del fuoco; così il fuoco e l'aria salgono verso l'alto, l'acqua cade dal cielo e scorre lungo i fiumi verso il mare, mentre i corpi solidi, composti in prevalenza dall'elemento terra, cadono verso il basso, con velocità tanto più grande quanto maggiore è la quantità di terra che essi contengono, cioè quanto più elevato è il loro peso. La teoria di Aristotele offriva in questo modo una spiegazione del moto di caduta libera dei gravi, che oggi sappiamo non essere corretta, ma che comunque provava a utilizzare l'osservazione diretta del mondo sensibile. Una delle più importanti eredità della filosofia naturale aristotelica, infatti, risiede nel fondamento di un metodo scientifico che si proponeva non solo di descrivere i fenomeni naturali, ma anche di darne una spiegazione razionale nell'ambito della dottrina, assegnando all'esperienza e all'osservazione empirica un ruolo fondamentale nello sviluppo della conoscenza.
Durante l'età ellenistica i maggiori contributi al progresso della scienza provennero da pochi uomini d'ingegno: Archimede definì le condizioni di equilibrio dei corpi immersi, pose le basi dell'idrostatica e costruì le prime macchine semplici; Eratostene determinò la lunghezza del raggio terrestre e compilò un catalogo delle stelle conosciute; Ipparco scoprì il fenomeno della precessione degli equinozi e Aristarco di Samo misurò le distanze relative del Sole e della Luna dalla Terra, e fu uno dei primi sostenitori della teoria eliocentrica, ripresa nel XVI secolo da Niccolò Copernico, dopo il lungo dominio del sistema geocentrico elaborato nel II secolo d.C. dall'astronomo alessandrino Tolomeo.
Le basi per una grande rinascita culturale furono tuttavia poste nel corso del Medioevo: numerosi trattati greci furono infatti conservati, tradotti e commentati da studiosi arabi, quali Averroè e Al-Farabi, e in tutta Europa, a partire dall'XI secolo, si assistette alla fondazione delle grandi università. In campo filosofico, Ruggero Bacone invocò il metodo sperimentale come fondamento del sapere scientifico, distaccandosi dal carattere speculativo che aveva contraddistinto la filosofia naturale.
4. Fisica Classica
È d'uso dividere la storia della fisica in due grandi periodi: la fisica classica e la fisica moderna. Si può collocare la nascita della fisica moderna nel periodo compreso tra la fine del XIX e l'inizio del XX secolo, quando le osservazioni sperimentali iniziarono a mettere in crisi le teorie della fisica classica, fondata sulla meccanica newtoniana e sull'elettromagnetismo di Maxwell. Successivamente, i primi decenni del 1900 vedono la formulazione della teoria della relatività e della meccanica quantistica, che ancora oggi costituiscono l'ossatura su cui poggia l'intera disciplina.
Meccanica e astronomia
Il XVI e il XVII secolo videro le premesse della grande rivoluzione scientifica che culminò nell'opera di Galileo Galiei e di Isaac Newton, coinvolgendo in ugual misura la meccanica e l'astronomia e segnando la nascita della fisica come disciplina autonoma. Con un trattato concepito fra il 1507 e il 1515, Niccolò Copernico propose un complesso sistema eliocentrico che faceva ancora largo uso degli epicicli di Tolomeo, ma assumeva il moto di rotazione della Terra intorno al proprio asse e il moto di rivoluzione intorno al Sole, fisso al centro dell'universo. L'ipotesi copernicana forniva una spiegazione del moto apparente della sfera celeste nel corso del giorno, del moto del Sole lungo l'eclittica nel corso dell'anno e del moto retrogrado dei pianeti, ma era in netto contrasto con la filosofia naturale di matrice aristotelica, al tempo universalmente accettata nell'ambiente scientifico ed ecclesiastico; alla pubblicazione del trattato di Copernico, circa vent'anni dopo la sua formulazione, la nuova teoria ebbe infatti pochi sostenitori. Tra questi ultimi vi erano tuttavia Giovanni Keplero che, sulla base delle misure effettuate da Tycho Brahe, enunciò le leggi che regolano il moto planetario e, soprattutto, Galileo Galiei.
L'opera di Galileo
Considerato il fondatore del metodo scientifico, analitico, sperimentale e quantitativo, Galileo si avvicinò alla meccanica e all'astronomia muovendo da una produttiva critica alla filosofia naturale aristotelica, ma assumendo da quest'ultima il valore dell'esperienza e dell'osservazione diretta nel percorso verso la conoscenza. Le indagini sui corpi in movimento lo portarono a precisare il concetto di velocità e a concludere che in assenza di attrito non esiste alcuna differenza qualitativa tra lo stato di quiete e di moto, mentre i risultati degli esperimenti condotti con piani inclinati, pendoli e orologi ad acqua lo condussero a enunciare la legge del moto di caduta dei gravi. Grazie all'uso del telescopio, strumento inventato in quegli anni da un fabbricante di lenti olandese, Galileo scoprì le fasi del pianeta Venere, che portò a prova indiretta della validità dell’ipotesi eliocentrica, osservò le irregolarità della superficie lunare, i quattro satelliti più luminosi di Giove, le macchie solari, molte stelle della Via Lattea, e una struttura anomala nel pianeta Saturno, ora riconosciuta come il caratteristico sistema di anelli.
La rivoluzione di Newton
L'ipotesi copernicana, le leggi di Keplero e l'opera di Galileo segnarono la crisi della cosmologia aristotelica e offrirono una descrizione del moto dei pianeti che si accordava con l'esperienza diretta; restavano tuttavia da individuare le cause del moto dei gravi e di quello dei pianeti ed è in questo contesto che si inserisce la vastissima attività scientifica di Isaac Newton. Sulla base delle ricerche effettuate da Galileo, Newton formulò i tre principi della dinamica, noti anche come leggi di Newton, ed enunciò la legge di gravitazione universale; riconobbe inoltre che la luce bianca è il risultato della sovrapposizione di tutti i colori dello spettro, propose una teoria per la propagazione della luce, introdusse il calcolo differenziale e quello integrale e spiegò il fenomeno delle maree e la precessione degli equinozi.
La legge di gravitazione universale, secondo la quale due corpi si attraggono con una forza direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza, ha implicazioni vastissime: è ad esempio responsabile del fenomeno del collasso gravitazionale che costituisce lo stadio finale del ciclo di una stella massiva, ma soprattutto individua una causa comune del moto dei gravi e di quello dei pianeti, facendo cadere definitivamente la distinzione aristotelica tra fenomeni terrestri e fenomeni celesti. Le leggi di Keplero sul moto planetario e la teoria di Galileo sulla caduta dei gravi vennero entrambe confermate e riconosciute come conseguenze del secondo principio della dinamica di Newton e della sua legge di gravitazione universale.
Nel 1771 Henry Cavendish fornì una conferma sperimentale di questa importante legge; avvicinando grosse sfere di piombo a piccole masse fissate agli estremi dell'asta di un pendolo di torsione e misurando l'angolo di torsione dell'asta, egli poté verificare la dipendenza della forza di attrazione gravitazionale dal prodotto delle masse dei corpi e dall'inverso del quadrato della loro distanza; da queste misure stimò il valore della massa e della densità media della Terra.
Nei due secoli che seguirono gli studi di Newton, le leggi della meccanica furono analizzate, ampliate e applicate a sistemi complessi. Eulero formulò per primo le equazioni del moto per i corpi rigidi, generalizzando gli studi compiuti da Newton su sistemi ai quali si poteva applicare l'approssimazione di corpi puntiformi. Alcuni fisici matematici, tra i quali Giuseppe Luigi Lagrange e William Hamilton, pervennero all'enunciato del principio di minima azione, dal quale la seconda legge di Newton può essere dedotta in modo sofisticato ed elegante applicando i metodi propri del calcolo variazionale. Nello stesso periodo Daniel Bernoulli estese la meccanica newtoniana giungendo alla formulazione della meccanica dei fluidi.
Elettricità e magnetismo
Sebbene già nell'antica Grecia si conoscessero le proprietà elettrostatiche dell'ambra e i cinesi fin dal 2700 a.C. ricavassero rudimentali calamite da un minerale oggi noto come magnetite, lo studio sistematico dei fenomeni elettrici e magnetici fu affrontato solo all'inizio del XVII secolo. Nella sua opera De Magnete, William Gilbert, medico di corte della regina Elisabetta I d'Inghilterra, ipotizzò che le particolari proprietà elettriche osservate nell'ambra e in altre sostanze fossero dovute alla presenza di un fluido, che egli chiamò elettricità, dal termine greco electron che significa ambra. Verso la fine del secolo, Otto von Guericke realizzò la prima macchina elettrostatica, costituita da una sfera di zolfo in rotazione che si elettrizzava per strofinio contro un panno di lana, inaugurando l'era dei grandi esperimenti sull'interazione tra cariche. Nell'arco di pochi anni, fu precisata la differenza tra materiali conduttori e isolanti, si ammise l'esistenza di due tipi di carica elettrica, e si riconobbe che il fenomeno dell'elettrizzazione è dovuto al flusso di cariche negative tra un corpo e un altro. Nel 1785 Charles-Augustin de Coulomb verificò sperimentalmente che la forza di interazione fra due cariche elettriche puntiformi è direttamente proporzionale al prodotto delle cariche e inversamente proporzionale al quadrato della loro distanza, e dopo pochi anni i matematici Siméon Denis Poisson e Carl Friedrich Gauss formularono una teoria applicabile a qualunque distribuzione statica di cariche.
Con la pila elettrochimica, inventata nel 1800 da Alessandro Volta, fu possibile mantenere il moto di cariche elettriche in un conduttore e ciò permise di realizzare i primi circuiti elettrici e di iniziare le ricerche sul comportamento dei diversi materiali percorsi da corrente elettrica.
Nel 1829 Hans Christian Oersted scoprì che un ago magnetico si orienta per effetto di una corrente elettrica, e poco tempo dopo André-Marie Ampère dimostrò che due fili percorsi da corrente si attraggono o si respingono come i poli di una calamita. Nel 1831 Michael Faraday osservò che per generare corrente all'interno di un filo conduttore è sufficiente muovere una calamita o mantenere una corrente variabile nelle sue vicinanze, definendo così le modalità con cui si manifesta l'induzione elettromagnetica e mostrando che sussiste un legame tra fenomeni elettrici e magnetici.
La stretta relazione tra elettricità e magnetismo fu formalizzata sul piano matematico dal fisico britannico James Clerk Maxwell: le equazioni differenziali che portano il suo nome stabiliscono infatti la relazione che sussiste tra le variazioni spaziali e temporali del campo elettrico e del campo magnetico, determinandone la dipendenza dall'esistenza e dalla relativa variazione di cariche e correnti. Con le equazioni di Maxwell, il campo elettrico e magnetico vengono unificati nel concetto di onda elettromagnetica, un ente fisico immateriale, la cui esistenza venne confermata sperimentalmente da Heinrich Hertz nel 1887. Maxwell inoltre ipotizzò che responsabile dei fenomeni luminosi fosse un'onda elettromagnetica di frequenza particolare. Nella comprensione del carattere ondulatorio del campo elettromagnetico, determinante per specificarne le modalità di trasmissione da un punto all'altro dello spazio, risiede il fondamento che ha reso possibile lo sviluppo della radio, del radar, della televisione e di tutte le altre forme di telecomunicazione.
Ottica
Il tentativo di comprensione dei fenomeni ottici è uno dei quesiti che ha impegnato da sempre le menti di filosofi e scienziati. I greci spiegavano l'osservazione che la luce si propaga in linea retta credendo che fosse costituita di un fascio di corpuscoli, i quali partivano dall'occhio o erano emanati dall'oggetto osservato. Per quanto cercassero di fornire un'interpretazione del processo percettivo della visione, queste teorie erano ben lontane dal precisare la natura dei fenomeni luminosi e non potevano spiegare né il meccanismo per cui un fascio luminoso si genera e scompare, né i cambiamenti di velocità e direzione nel passaggio da un mezzo a un altro. I primi progressi significativi nello studio sulla natura della luce furono compiuti nel XVII secolo, quando Keplero spiegò il funzionamento dell'occhio e precisò il meccanismo di formazione delle immagini all'interno di esso; un tale risultato permise di superare le difficoltà che insorgevano dalla confusione fra luce e visione e aprì un lungo dibattito sulla vera natura della luce. Poli estremi della discussione erano la teoria corpuscolare, proposta da Isaac Newton, e la teoria ondulatoria, sostenuta da Robert Hooke e da Christiaan Huygens. L'ipotesi di Newton, secondo cui un fascio luminoso è composto da un insieme di minuscole particelle soggette alla forza gravitazionale, poteva spiegare la propagazione rettilinea della luce e i fenomeni della riflessione e rifrazione, ma portava a risultati errati per quanto riguarda il fenomeno della dispersione. La teoria di Huygens, d'altro canto, spiegava altrettanto bene la riflessione e la rifrazione ma richiedeva un complesso modello matematico per giustificare la propagazione rettilinea della luce e, inoltre, postulava l'esistenza di un mezzo materiale, denominato etere, che faceva da supporto alla propagazione delle onde luminose, a quell'epoca intese come onde meccaniche, alla stregua delle onde elastiche e delle onde sonore. Fino al XIX secolo non fu approntato nessun esperimento che potesse dar credito all'una o all'altra interpretazione, ma intorno al 1800 Thomas Young osservò il fenomeno dell'interferenza, caratteristico del moto ondulatorio, facendo crollare l'edificio dell'ottica newtoniana.
Gli esperimenti per determinare la natura della luce procedevano parallelamente a quelli volti a determinare la sua velocità di propagazione. Il primo tentativo in questa direzione probabilmente venne da Galileo, ma la prima misura della velocità della luce fu effettuata nel 1676 dall'astronomo danese Olaus Roemer. Egli notò apparenti variazioni nella durata dell'intervallo di tempo che separa due eclissi successive dei satelliti di Giove e le interpretò correttamente come conseguenze della variazione della distanza percorsa dalla luce tra la Terra e il pianeta gigante, dovuta al moto relativo dei due corpi celesti. Le misure di Roemer si rivelarono in buon accordo sia con le osservazioni effettuate nel XIX secolo da Fizeau e Foucault, sia con i risultati ottenuti agli inizi del XX secolo da Albert Abraham Michelson.
Gli esperimenti di Fizeau e di Foucault mostrarono che il valore della velocità della luce nel vuoto era uguale a quello previsto per la velocità di propagazione delle onde elettromagnetiche: fu proprio sulla base di questo risultato che Maxwell interpretò i fenomeni luminosi come una forma di radiazione elettromagnetica. Questa audace ipotesi, avvalorata dai successivi esperimenti di Hertz, realizzava una grandiosa sintesi tra ottica ed elettromagnetismo, ma richiedeva nuovamente di postulare l'esistenza di un mezzo che costituisse il supporto per la propagazione delle onde elettromagnetiche, riaprendo pertanto la controversa questione dell'etere cosmico.
Fu il famoso esperimento di Michelson-Morley, realizzato per la prima volta nel 1887 e volto a determinare la velocità della Terra rispetto all'etere, che permise di negare inconfutabilmente l'esistenza di questo mezzo. Posto che il nostro pianeta viaggiasse attraverso un ipotetico etere stazionario, l'esperimento avrebbe dovuto rivelare una dipendenza della velocità della luce dalla direzione di propagazione, ma diede invece risultato negativo, ponendo seri dubbi sulla validità della teoria elettromagnetica di Maxwell. La fisica si trovò in una situazione stagnante, fino a quando, nel 1905, Albert Einstein formulò la teoria della relatività.
Termodinamica
Oltre ai risultati raggiunti nell'ambito dell'elettromagnetismo, nel corso del XIX secolo si ebbero notevoli progressi nello studio della termodinamica: furono ridefiniti in modo rigoroso i concetti di calore e di temperatura, che vennero messi in relazione con grandezze puramente meccaniche quali il lavoro e l'energia.
L'equivalenza tra calore e lavoro, specificata sul piano teorico da Hermann Ludwig Ferdinand von Helmholtz e da William Thomson Kelvin, fu provata dalla serie di esperimenti condotti tra il 1840 e il 1849 da James Prescott Joule e formalizzata nell'enunciato del primo principio della termodinamica; le modalità con cui avvengono le trasformazioni termodinamiche tra un sistema fisico e l'ambiente che lo circonda furono invece oggetto delle ricerche di Nicolas-Léonard Sadi Carnot e precisate con rigore nel secondo principio della termodinamica, enunciato in forme equivalenti da Rudolf Julius Emanuel Clausius e dallo stesso Kelvin.
5. Fisica Moderna
Intorno al 1880 l'edificio della fisica classica sembrava consolidato: la maggior parte dei fenomeni trovava spiegazione nella meccanica newtoniana, nella teoria elettromagnetica di Maxwell, nella termodinamica o nella meccanica statistica di Ludwig Boltzmann, ma rimanevano alcuni problemi irrisolti, quali la determinazione delle proprietà dell'etere e la spiegazione degli spettri di radiazione emessi dai corpi solidi. L'esigenza di spiegare questi fenomeni, tuttavia, spinse gli scienziati a intraprendere studi ed esperimenti che sconvolsero profondamente le radici su cui posava la fisica classica: nel primo trentennio del XX secolo Albert Einstein formulò la teoria della relatività, con cui si imponeva la rinuncia ai concetti di spazio e tempo assoluti, interpretando la meccanica newtoniana come una teoria di validità limitata al moto di corpi macroscopici, dotati di velocità piccole rispetto a quella della luce; contemporaneamente diversi fisici, tra i quali Max Planck e lo stesso Einstein, cercando di interpretare alcuni aspetti poco chiari dell'interazione fra radiazione e materia, ponevano le basi per lo sviluppo della moderna teoria quantistica e per la conseguente comprensione delle leggi che governano il mondo microscopico.
La relatività
Come già accennato, alla fine del XIX secolo la meccanica newtoniana e l'elettromagnetismo sembravano poter descrivere tutti i fenomeni naturali: le due teorie, grazie anche all'accordo tra previsioni e risultati sperimentali, erano accettate universalmente nel mondo scientifico. L'ipotesi dell'esistenza dell'etere, ovvero di un mezzo materiale che costituisse il supporto per la propagazione delle onde elettromagnetiche, faceva intravedere una possibile sintesi tra meccanica ed elettromagnetismo, realizzata attraverso una descrizione delle modalità di propagazione della radiazione basata sulle proprietà meccaniche (come densità e rigidità) dell'etere stesso. All'inizio del XX secolo, tuttavia, la mancanza di prove a favore dell'esistenza dell'etere e la scoperta che le equazioni di Maxwell, contrariamente alle leggi di Newton, non assumevano la stessa forma in sistemi di riferimento inerziali, mostrarono che l'elettromagnetismo non era conciliabile con la meccanica newtoniana. Ciò indusse Albert Einstein a sostituire il principio di relatività galileiano, da cui discendeva l'impossibilità di distinguere due sistemi di riferimento inerziali, con il principio di costanza della velocità della luce; analogamente le trasformazioni galileiane, che fornivano le coordinate di un punto in due sistemi in moto rettilineo uniforme l'uno rispetto all'altro, furono sostituite con un nuovo insieme di relazioni, introdotte da Hendrik Antoon Lorentz sulla base di considerazioni matematiche.
Le trasformazioni di Lorentz, che costituiscono il nocciolo della teoria della relatività, implicano una completa revisione dei concetti classici di spazio e tempo; negando l'esistenza di uno spazio e di un tempo assoluto, fondamento della meccanica classica, esse richiedono infatti una nuova definizione del significato di distanza e di contemporaneità: due orologi che risultino sincroni quando sono in quiete l'uno rispetto all'altro, funzionano a velocità diverse se si muovono di moto relativo uniforme; analogamente due barre di identica lunghezza a riposo sono diverse quando una di esse si muove rispetto all'altra. Nella teoria della relatività lo spazio e il tempo diventano le quattro coordinate (tre spaziali e una temporale) necessarie per identificare ciascun punto di un iperspazio quadridimensionale, in cui avvengono tutti i fenomeni fisici.
Nel 1915 Einstein generalizzò la teoria della relatività a sistemi di riferimento in moto accelerato, formulando la relatività generale. Nella nuova teoria la gravitazione risulta come conseguenza della curvatura dello spazio-tempo, che si può descrivere solo in termini di una complessa geometria non euclidea, e la meccanica di Newton viene espressa in una forma più generale. Nel 1919 fu osservata per la prima volta la curvatura dei raggi luminosi in prossimità di corpo molto massivo; l'evidenza di questo fenomeno, previsto dalla relatività generale, rappresentò una prova indiretta della validità della teoria, che ebbe e continua ad avere un ruolo fondamentale nella comprensione dell'universo e della sua evoluzione.
Teoria dei quanti
La teoria quantistica, destinata a modificare profondamente la concezione della realtà, prese le prime mosse dagli studi sui fenomeni di emissione e assorbimento di radiazione da parte della materia. Alla fine del XIX secolo, diversi scienziati si impegnarono nella comprensione delle leggi che regolano l'emissione di luce e calore da parte di un corpo nero, un corpo caratterizzato dal fatto di assorbire tutta la radiazione incidente sulla sua superficie. In particolare si devono a Robert Kirchhoff e a Wilhelm Wien le leggi teoriche che descrivono il fenomeno. Tuttavia la forma della curva sperimentale di emissione dello spettro di corpo nero, in accordo con la curva teorica per piccoli valori della frequenza, se ne distaccava sensibilmente al crescere di quest'ultima. Secondo la fisica classica, le molecole di un solido oscillano intorno alle posizioni di equilibrio compiendo vibrazioni che si verificano a tutte le frequenze e con ampiezza direttamente proporzionale alla temperatura del corpo; l'energia termica del solido verrebbe quindi convertita continuamente in radiazione elettromagnetica e la curva di emissione tenderebbe a infinito per grandi valori della frequenza, dando luogo a un fenomeno noto come "catastrofe ultravioletta", che però non era mai stato osservato sperimentalmente. Il problema trovò soluzione solo nel 1899, a opera di Max Planck, il quale reinterpretò il modello di emissione postulando che l'interazione tra radiazione e materia, ossia l'irraggiamento da parte di un corpo (ad esempio un solido incandescente) avvenisse per emissione di quantità discrete di energia, dette quanti, ciascuna con energia E = h u, dove u è la frequenza dell'onda elettromagnetica emessa.
Effetto fotoelettrico
L'ipotesi di Planck non metteva ancora in crisi la concezione ondulatoria della radiazione, ma proponeva un modello per descrivere l'interazione tra luce e materia che non trovava giustificazione in base ad alcuna legge classica: per spiegare lo spettro del corpo nero richiedeva l'abbandono dell'elettrodinamica classica, ponendosi in netto contrasto con la teoria dell'elettromagnetismo formulata da Maxwell e Fresnel. Come conseguenza di ciò venne accolta con una certa diffidenza, e fu considerata dalla comunità scientifica un caso isolato, non integrabile nel complesso della fisica del tempo, o un modello matematico che accidentalmente forniva risultati corretti. Questa situazione perdurò fino al 1905, anno in cui Albert Einstein riprese il concetto di "quanto di energia" per spiegare l'effetto fotoelettrico, un fenomeno che manifestava caratteristiche non giustificabili nell'ambito della teoria classica di Maxwell. Sviluppando la teoria di Planck, Einstein ipotizzò che la radiazione fosse quantizzata non solo all'atto dell'interazione con la materia, ma anche nel vuoto; in altre parole egli concepì la radiazione elettromagnetica come un fascio di quanti, poi denominati fotoni, che viaggiando alla velocità della luce, trasportavano ciascuno un'energia E = h u, dove la costante h assumeva lo stesso valore della costante di Planck. Con questo presupposto, la descrizione dell'effetto fotoelettrico diveniva molto semplice, ma si riapriva il secolare dibattito sulla natura corpuscolare o ondulatoria della luce; solo con la scoperta dell'effetto Compton, nel 1924, l'ipotesi dei fotoni venne definitivamente accettata.
Fisica dell'elettrone
Nel XIX secolo si riteneva già che la carica elettrica fosse trasportata in quantità ben definite e costanti da particelle elementari. Gli esperimenti sulla conduzione dell'elettricità attraverso i gas a bassa pressione portarono a due importanti scoperte: i raggi catodici, che vengono emessi dall'elettrodo negativo di un tubo a scarica, e i raggi canale, emessi dall'elettrodo positivo. L'esperimento condotto nel 1895 da Joseph J. Thomson permise di misurare il rapporto tra la carica q e la massa m delle particelle che costituiscono i raggi catodici, e nel 1899 Philipp Lenard confermò che il medesimo rapporto caratterizzava anche le emissioni di origine fotoelettrica. Nel 1883 era stato osservato da Thomas Alva Edison che fili conduttori incandescenti emettono particelle cariche (effetto Edison), e nel 1899 lo stesso Thomson mostrò che anche per questa forma di emissione valeva il medesimo rapporto di q su m individuato nei due casi già citati. Intorno al 1911 Millikan scoprì infine che la carica elettrica esiste in multipli interi di un'unità fondamentale: e = 1,602 × 10-19 C. Dal valore di e/m si ottenne poi la massa, che risultò pari a 9,109 × 10-31 kg, della nuova particella che venne chiamata elettrone e fu ben presto riconosciuta come uno dei costituenti dell'atomo.
Modelli atomici
La scoperta della radiazione alfa, avvenuta alla fine dell'Ottocento e confermata da Ernest Rutherford nel 1909, permise allo stesso Rutherford, nel 1913, di confutare sperimentalmente il modello atomico di Thomson, secondo cui l'atomo era costituito da una distribuzione omogenea di cariche positive e negative. Osservando che le particelle alfa emesse da nuclei radioattivi subivano una netta deviazione al loro passaggio attraverso uno strato di materia anche sottilissimo, Rutherford concluse che nell'atomo la carica positiva dovesse essere separata da quella negativa e concentrata in un nucleo pesante, attorno al quale orbitavano gli elettroni. Questo modello di atomo, di tipo "planetario", poneva tuttavia dei problemi, poiché secondo la teoria di Maxwell una carica che si muove di moto accelerato emette energia sotto forma di onde elettromagnetiche. L'atomo di Rutherford perciò avrebbe dovuto essere un sistema instabile, dal momento che gli elettroni, a causa del loro moto orbitale, avrebbero dovuto irraggiare onde elettromagnetiche, perdendo progressivamente energia fino a collassare sul nucleo.
Un nuovo modello atomico, ispirato alla teoria dei quanti, fu proposto dal fisico danese Niels Bohr, il quale postulò che gli elettroni all'interno dell'atomo si muovessero senza irraggiare lungo orbite fisse e stabili, ciascuna corrispondente a un determinato valore dell'energia. Le orbite, denominate stati stazionari, erano individuate in base alla condizione che il momento angolare J dell'elettrone fosse un multiplo intero positivo della costante di Planck divisa per 2p, ossia J = nh/2p, dove il numero quantico n poteva assumere solo valori interi positivi. Il meccanismo di emissione era poi molto semplice: l'elettrone, sollecitato da una perturbazione esterna sufficientemente intensa, poteva compiere una transizione dall'orbita di energia minima (stato fondamentale) a un'orbita più esterna e più energetica; il modello prevedeva che, ritornando allo stato fondamentale, l'elettrone emettesse un singolo fotone di energia E = h u, dove E è la differenza in energia tra il livello finale e quello iniziale. A ogni transizione tra i livelli quantici corrisponde un fotone di frequenza e lunghezza d'onda definite.
Il modello avanzato da Bohr spiegava con grande accuratezza lo spettro atomico più semplice, ossia quello dell'idrogeno, e tale risultato indusse molti fisici a tentare di fornire una giustificazione teorica anche degli spettri di atomi più complessi. Nel corso di queste ricerche, tuttavia, si incontrarono difficoltà insuperabili che mostrarono la necessità di affrontare la dinamica del mondo microscopico con un nuovo formalismo, e che vennero risolte quando si comprese che in realtà esistevano anche altre, più complesse, condizioni di quantizzazione, che selezionavano le transizioni possibili fra i diversi stati di energia.
Meccanica quantistica
Nell'arco di pochi anni, tra il 1924 e il 1930 circa, si sviluppò infatti un approccio teorico completamente nuovo alla dinamica su scala subatomica: la meccanica quantistica. Il modello atomico di Bohr, in seguito ampliato e definito da Arnold Johannes Wilhelm Sommerfeld, non poteva infatti essere considerato completamente soddisfacente dal momento che faceva uso di alcuni concetti propri della meccanica classica (ad esempio le orbite erano descritte mediante grandezze classiche come il momento angolare), ma al contempo era in aperto contrasto con altri principi classici, in particolare con quelli dell'elettrodinamica: ad esempio la richiesta che gli elettroni ruotassero senza irraggiare e che solo determinate orbite, corrispondenti a precisi valori di energia, fossero permesse. Come conseguenza di ciò, i postulati introdotti da Bohr non furono mai considerati l'espressione di una teoria vera e propria, ma piuttosto un insieme di correzioni da apportare alla meccanica classica perché essa divenisse applicabile allo studio di fenomeni microscopici, oppure come l'espressione della transizione tra la fisica classica – ormai messa in dubbio da molti esperimenti – e una nuova teoria, ancora da formulare.
Questo era il quadro delle conoscenze di fisica quando, nel 1924, il fisico francese Louis De Broglie suggerì che la materia avesse una duplice natura, corpuscolare e ondulatoria, come era già stato osservato per la radiazione elettromagnetica. A ogni particella venne quindi associata un'onda, di lunghezza λ = h/mv, dove m è la massa della particella e v la sua velocità. Queste onde, dette onde di materia, dovevano essere concepite come una sorta di guida per il moto della particella cui erano associate. Nel 1927, con una serie di esperimenti di diffrazione di elettroni su cristalli, i fisici statunitensi Clinton Joseph Davisson e Lester Halbert Germer mostrarono il carattere ondulatorio della materia e fornirono quindi la prima conferma sperimentale dell'audace ipotesi di De Broglie. Poco prima, tuttavia, il fisico austriaco Erwin Schrödinger, aveva ricavato l'equazione matematica in grado di descrivere la propagazione delle onde di materia e, applicandola agli elettroni dell'atomo di idrogeno, aveva confermato i risultati già ottenuti da Bohr e Sommerfeld, facendoli scaturire da una teoria completa, in cui la quantizzazione non era postulata, ma discendeva in modo naturale dall'ipotesi ondulatoria.
Al postulato di De Broglie, che sancisce il dualismo onda-particella, si sono aggiunti nel corso degli anni nuovi e fondamentali concetti. Tra i più importanti, è il fatto che gli elettroni e quasi tutte le particelle elementari abbiano la proprietà di possedere un momento angolare intrinseco, o spin. Nel 1925 il fisico austriaco Wolfgang Pauli enunciò il principio di esclusione che, stabilendo un limite per il numero di elettroni che possono occupare un determinato livello energetico, giustificava le diverse proprietà degli elementi chimici e si rivelava fondamentale per comprendere la struttura della tavola periodica. Nel 1927 Werner Heisenberg formulò il principio di indeterminazione, che stabilisce l'esistenza di un limite naturale alla precisione con cui si possono misurare simultaneamente alcune coppie di grandezze fisiche, riconosciute come "grandezze coniugate", quali ad esempio posizione e momento o energia e tempo. L'anno seguente, nel tentativo di conciliare meccanica quantistica e relatività, Paul-Adrien-Maurice Dirac elaborò la cosiddetta meccanica quantistica relativistica, che estendeva la meccanica quantistica a particelle in moto con velocità prossima a quella della luce; dalle equazioni di Dirac scaturiva naturalmente la necessità dell'esistenza di antimateria, che fu poi effettivamente rivelata sperimentalmente nel 1932 da Carl David Anderson con la scoperta del positrone, antiparticella dell'elettrone. La teoria di Dirac inoltre conteneva il concetto fondamentale di "campo" associato a una particella, su cui si basa la moderna teoria quantistica dei campi.
È importante sottolineare come nell'ambito della fisica moderna le relazioni di causa-effetto della meccanica newtoniana siano soppiantate da previsioni degli eventi in termini di probabilità statistica, e in questo quadro le proprietà ondulatorie della materia vengano a rappresentare, in accordo col principio di indeterminazione, l'impossibilità di prevedere il moto delle particelle con assoluta precisione, anche conoscendo perfettamente le forze in gioco. Pur non essendo significativo per i moti macroscopici, questo aspetto statistico è dominante su scala molecolare, atomica e subatomica, anche se induce apparenti paradossi, che sono stati e sono tuttora argomento di animati dibattiti fra i fisici sulla effettiva completezza della meccanica quantistica.
Fisica nucleare
Lo studio del nucleo atomico e delle reazioni che avvengono al suo interno, oggetto della fisica nucleare, ebbe inizio alla fine del XIX secolo, prima ancora che la meccanica quantistica fornisse una descrizione soddisfacente della struttura dell'atomo e in generale dei sistemi fisici di dimensioni microscopiche: la scoperta della radioattività, avvenuta nel 1896 per merito del fisico francese Antoine-Henri Becquerel, infatti, fornì il primo indizio dell'esistenza del nucleo e avviò un campo di studio fino ad allora completamente insondato. Dall'analisi della radiazione emessa dall'uranio e da altre sostanze radioattive, come il radio e il polonio, scoperti nel 1898 dai coniugi Marie e Pierre Curie, scaturirono nell'arco di pochi anni risultati insperati: gli esperimenti sulla diffusione di particelle alfa da parte della materia condussero Ernest Rutherford a ipotizzare l'esistenza del nucleo, nell'ambito del modello atomico cui abbiamo già fatto riferimento; intorno al 1903 lo stesso Rutherford e Frederick Soddy mostrarono che l'emissione di raggi alfa o beta comportava la trasformazione di un atomo instabile in una specie atomica diversa; nel 1910 Soddy avanzò l'ipotesi dell'isotopia, successivamente confermata da Thomson, e nel 1919 Rutherford bombardò con particelle alfa un bersaglio di azoto, realizzando la prima trasmutazione artificiale. Gli esperimenti di Rutherford provarono che i nuclei degli atomi sono composti da protoni, un'ipotesi avanzata già all'inizio del XIX secolo dal fisico inglese William Prout ma da tempo dimenticata; per trovare un accordo con i dati ottenuti nelle misurazioni delle masse atomiche, si dovette allora ammettere l'esistenza di una particella neutra in tutti i nuclei a eccezione dell'idrogeno. Nel 1932, nel tentativo di interpretare i risultati degli esperimenti condotti da Irène e Fédéric Joliot Curie, James Chadwick scoprì il neutrone, una particella elettricamente neutra, con massa pari a 1,675 × 10-27 kg, poco maggiore di quella del protone. Con questa scoperta, che permise di eliminare ogni ambiguità sulla struttura del nucleo atomico, restavano da comprendere solo le cause del decadimento radioattivo.
La forza di repulsione elettrostatica tra cariche elettriche dello stesso segno tende ad allontanare i protoni di un nucleo: per giustificare la stabilità dell'atomo fu necessario perciò ipotizzare l'azione di una forza attrattiva molto intensa, che agisse su una distanza dell'ordine delle dimensioni del nucleo, cioè a corto raggio d'azione, tenendo strettamente legati tutti i nucleoni (come vengono chiamati indistintamente protoni e neutroni). Le prime indicazioni sulle caratteristiche di questa forza vennero fornite dall'osservazione del fatto che le masse dei diversi nuclei, ottenute sperimentalmente, risultavano sempre minori della somma delle masse dei protoni e dei neutroni che li costituivano. Questa quantità di massa mancante, detta difetto di massa, venne correttamente interpretata, ricorrendo alla formula di Einstein, E = mc2: essa corrisponde infatti all'energia di legame del nucleo, ossia all'energia che è necessario somministrare al nucleo per separare le particelle che lo costituiscono. Dall'analisi dell'andamento dell'energia di legame per nucleone, ottenuta dal rapporto tra l'energia di legame di ogni singolo nucleo e il numero dei nucleoni che lo compongono, si comprese come l'emissione di una particella alfa, costituita da due protoni e due neutroni, da parte di un nucleo radioattivo corrispondesse a un processo di stabilizzazione del nucleo stesso; il meccanismo del decadimento fu precisato nel 1928 dai fisici Edward Condon, George Gamow e Ronald Wilfred Gurney, i quali mostrarono che la natura statistica dei processi quantistici permette alle particelle alfa di superare la barriera energetica del nucleo radioattivo. Il decadimento beta fu invece interpretato come risultato della trasformazione di un neutrone in un protone, accompagnata dall'emissione di un elettrone e di energia sotto forma di raggi gamma; una teoria completa e soddisfacente del decadimento beta, tuttavia, venne sviluppata pochi anni dopo, per opera di Wolfang Pauli e di Enrico Fermi.
Scoperta del muone
Nel 1935 il fisico giapponese Hideki Yukawa elaborò un modello del meccanismo d'azione dell'interazione forte, che si rivelò capace di giustificare l'andamento della forza che si manifesta tra due nucleoni, in funzione della loro distanza. La nuova teoria, basata sui concetti della teoria quantistica dei campi, prevedeva l'esistenza di una particella di massa intermedia tra quella dell'elettrone e quella del protone, che svolgesse lo stesso ruolo del fotone nell'interazione elettromagnetica; in altre parole, essa prevedeva che l'interazione forte tra nucleoni avvenisse per scambio di una particella virtuale che trasportasse energia e quantità di moto. Nel 1936 Carl David Anderson e i suoi collaboratori osservarono nei raggi cosmici una nuova particella, oggi nota come muone, di massa pari a 207 volte quella dell'elettrone. Questo risultato fu inizialmente interpretato come la conferma sperimentale della teoria di Yukawa, ma presto si scoprì che il muone non risentiva dell'interazione forte e pertanto non poteva essere la particella che regolava l'interazione tra nucleoni. Esperimenti successivi, condotti da Cecil Frank Powell e Giuseppe Occhialini, portarono tuttavia alla scoperta di un'altra particella, di massa poco maggiore di 270 volte la massa dell'elettrone, il mesone p, o pione, che fu a sua volta identificato come l'anello mancante della teoria di Yukawa. Con la scoperta di numerose altre particelle simili al pione, però, è stato chiaro che la teoria di Hukawa non individuava la vera natura della forza che tiene unito il nucleo e che stabilisce l'interazione fra nucleoni: la comprensione di queste interazioni si avrà solo negli anni Sessanta, con il modello a quark proposto da Gell-Mann e Zweig.
L'ipotesi del neutrino
Come già accennato, il decadimento beta di un nucleo radioattivo era stato interpretato come il risultato di una reazione nucleare durante la quale un neutrone si trasforma in una coppia costituita da un protone e da un elettrone; il protone resta vincolato all'interno del nucleo a causa dell'interazione forte, mentre l'elettrone viene espulso sotto forma di particella beta. L'analisi dei dati sperimentali, tuttavia, mostrava che le particelle beta emesse da un campione di materiale radioattivo potevano assumere tutti i valori dell'energia compresi tra zero e un valore massimo, indipendentemente dal valore dell'energia interna dei nuclei del campione dopo l'emissione; nell'ipotesi che il protone e l'elettrone fossero gli unici prodotti del decadimento, questa situazione mostrava una palese violazione del principio di conservazione dell’energia; inoltre, dal confronto tra le traiettorie degli elettroni e quelle dei nuclei che li avevano emessi, soggetti all'effetto di rinculo, risultava anche una violazione del principio di conservazione della quantità di moto. Per risolvere questa contraddizione, nel 1933 Pauli suggerì che, oltre al protone e all'elettrone, nel corso del decadimento venisse emessa una terza particella, priva di carica e con massa piccolissima o addirittura nulla, che avrebbe dovuto trasportare energia e quantità di moto. Questa ipotesi venne successivamente sviluppata da Enrico Fermi, il quale elaborò una teoria completa del decadimento beta, che fu avvalorata alcuni anni dopo dalla scoperta del neutrino, la particella ipotizzata da Pauli. Secondo il modello di Fermi, il decadimento beta è regolato dall'interazione neutrone-neutrino, detta interazione debole; quest'ultima, come nel caso dell'interazione forte e di quella elettromagnetica, avviene per scambio di particelle virtuali, i cosiddetti bosoni vettoriali intermedi, denominate W+, W-.
Particelle elementari
Negli anni successivi, l'analisi della radiazione cosmica di fondo e l'uso di acceleratori sempre più potenti, capaci di produrre fasci di particelle ad alta energia e di elevata intensità, portarono alla scoperta di molte particelle elementari. Per introdurre un ordine nel complesso insieme delle particelle elementari, si stabilì una prima forma di classificazione in base al tipo di interazione; i leptoni, soggetti all'interazione debole, vennero quindi distinti dagli adroni, che interagiscono per via forte, e questi ultimi vennero a loro volta suddivisi in base al valore della massa in mesoni, più leggeri, e barioni, più pesanti. L'analisi delle reazioni di decadimento delle particelle elementari, ossia dei processi durante i quali una determinata particella si trasforma in particelle più leggere, mostrò che tali reazioni rispettano i principi di conservazione dell'energia, della quantità di moto, della carica e del momento angolare. Tuttavia, per giustificare la stabilità di alcune particelle fu necessario introdurre nuovi principi di conservazione, quali la legge di conservazione del numero barionico e del numero leptonico, secondo cui durante qualsiasi reazione il numero totale dei barioni e delle particelle appartenenti alla famiglia dei leptoni resta invariato.
Quark
Gli adroni scoperti a partire dagli anni Venti fino a oggi sono alcune centinaia: essi sono comunemente riferiti come "particelle elementari", benché il termine sia improprio dal momento che posseggono una struttura interna piuttosto complessa. La teoria oggi universalmente accettata è che il costituente fondamentale degli adroni sia il quark, una "vera" particella elementare, dotata di carica frazionaria: in questa formulazione un protone, ad esempio, è costituito da tre quark. Secondo la teoria proposta nel 1964 indipendentemente dai fisici statunitensi Murray Gell-Mann e George Zweig, i barioni, fra i quali si collocano i nucleoni, sarebbero costituiti da tripletti di quark, mentre i mesoni da una coppia quark anti-quark. La teoria originariamente postulava l'esistenza di tre soli tipi di quark chiamati up, down e strange (u, d, s), ma la scoperta della particella J/Ψ (contenente un nuovo tipo di quark, il charm), effettuata indipendentemente dai fisici statunitensi Samuel Ting e Burton Richter, impose di elevare a quattro il numero totale di queste particelle. In seguito, la somiglianza fra le due coppie di quark così venutesi a formare e le prime due coppie di particelle della famiglia dei leptoni (elettrone e muone con i rispettivi neutrini) suggerì l’ipotesi che, così come nella famiglia dei leptoni esiste una terza coppia formata dal tau (t) e dal suo neutrino, esistesse una terza coppia di quark, i cui componenti furono chiamati top (t) e bottom (b). L'evidenza sperimentale per l'esistenza del b si è avuta a metà degli anni Settanta, mentre è dell'aprile 1994 la conferma sperimentale dell'esistenza del quark top.
Teorie di campo unificate
Le teorie più accreditate delle interazioni tra particelle elementari sono dette teorie di gauge e assumono come principio guida la conservazione di una simmetria (la simmetria di gauge) in un determinato tipo di trasformazione dello spazio e del tempo che caratterizza la teoria. Una simmetria nel gruppo di trasformazioni implica sempre un principio di conservazione: la teoria di gauge proposta indipendentemente dal fisico statunitense Steven Weinberg e dal fisico pakistano Abdus Salam, verso la fine degli anni Sessanta, collegava i bosoni vettoriali intermedi con il fotone, unificando l'interazione elettromagnetica a quella debole, e definendo la conservazione della carica elettrica nelle interazioni elettrodeboli. In seguito, gli studi di Sheldon Glashow mostrarono come la stessa formulazione fosse applicabile anche agli adroni.
Le teorie di gauge, in linea di principio, possono essere applicate a ogni campo di forza: ciò suggerisce la possibilità di inquadrare tutte le interazioni fondamentali in un’unica teoria unificata, che naturalmente deve essere una teoria di gauge, e ammettere una simmetria valida per tutte le particelle note. Le simmetrie di gauge, che nel concetto di campo – una funzione dello spazio-tempo – unificano la descrizione di particella e di interazione, pur essendo matematicamente eleganti, non riescono a spiegare la natura materiale delle particelle. Questo problema sembra risolversi naturalmente nella cosiddetta supersimmetria, una teoria che stabilisce una relazione diretta tra fermioni e bosoni, le due grandi classi in cui le particelle sono distinguibili in base alle loro proprietà di spin. Ammettendo che ciascuna particella di una classe abbia una particella "gemella" appartenente all'altra (il suo superpartner), la supersimmetria introduce naturalmente un bosone, chiamato bosone di Higgs che, interagendo con tutte le particelle, le renderebbe massive.
Recentemente si è sollevato grande interesse anche intorno a un'altra teoria, che riuscirebbe a inquadrare nella manifestazione di un unico fenomeno la nascita dell'universo e le interazioni fino a oggi osservate. È la teoria delle superstringhe, secondo la quale le entità fondamentali di tutte le manifestazioni naturali sarebbero delle "stringhe" monodimensionali, di lunghezza non superiore a 10-35 m. Questa teoria risolverebbe gran parte delle incongruenze con cui i fisici, impegnati nello studio delle teorie unificate dei campi, si devono confrontare, ma per ora rimane solo un'ardita congettura.
Astrofisica e cosmologia
Nella seconda metà del XX secolo sono stati ottenuti importanti risultati nell'ambito dell'astrofisica e della cosmologia. Scoperte come i quasar, le pulsar e la radiazione cosmica di fondo hanno sfidato le capacità esplicative della fisica e stimolato indirettamente lo sviluppo di una teoria della gravitazione e della fisica delle particelle elementari. Attualmente si ritiene che tutta la materia accessibile alle nostre osservazioni fosse originariamente concentrata in un unico punto dello spazio, di dimensioni infinitesime, sotto forma di energia, e che si sia creata, tra i 10 e i 20 miliardi di anni fa, nel corso di un evento violento, che comunemente viene indicato come Big Bang. Questo evento, la cui spiegazione è molto più complessa che una "esplosione", ha generato un universo tuttora in espansione. La teoria lascia tuttavia alcune questioni irrisolte: ad esempio non spiega perché le galassie, invece di essersi disposte uniformemente come ci si aspetterebbe dopo un'esplosione, si siano raccolte in raggruppamenti ai confini di ampie regioni di vuoto, come è stato osservato sperimentalmente. Inoltre la teoria prevede una "densità di materia" nell'universo molto superiore a quella che è stata stimata dalle misurazioni astronomiche. A queste domande i fisici cercano di rispondere formulando nuove ipotesi: nel primo caso con la teoria dell'inflazione, nel secondo supponendo l'esistenza di abbondanti quantità di una specie di materia non visibile, diversa da quella a noi nota, definita materia oscura.
|