Fisica
E la
scienza che indaga i molteplici fenomeni che si manifestano in
natura,
con lo scopo di darne una spiegazione razionale.
La fisica studia i costituenti fondamentali dell'universo,
le forze che essi esercitano l'uno sull'altro e gli effetti
prodotti
dall'azione di queste forze.
Scopo della
Fisica
La fisica è
strettamente legata a tutte le altre scienze naturali. Viene
distinta dalla chimica, il cui campo di indagine è limitato ai processi
che coinvolgono trasformazioni della natura intima di corpi e
sostanze, benché questa distinzione sia caduta, almeno in parte,
con lo sviluppo della fisica moderna, e quindi della meccanica quantistica, che ha permesso l'interpretazione teorica
degli aspetti che riguardano la struttura della materia (ad
esempio le condizioni di equilibrio all'interno degli atomi e la formazione delle molecole).
Con il progresso scientifico si sono sviluppati campi di studio interdisciplinari che si avvalgono dei principi della fisica: la geofisica (vedere Ere Geologiche Terremoti Vulcani Atmosfera Oceani ) indaga sui fenomeni fisici che riguardano la Terra; l'astrofisica studia l'evoluzione delle stelle e le proprietà dello spazio interstellare; la biofisica (vedere Evoluzione Biologia Molecolare Cellula Microbi Biodiversità Genetica Genoma Umano Etologia ) studia i fenomeni biologici sulla base dei principi fisici che li determinano.
Storia
della fisica
Sebbene la fisica sia nata
come scienza autonoma non prima del XIX secolo, si possono
rintracciare i primi studi e le prime osservazioni scientifiche
di competenza della fisica fin dai tempi antichi.
Antichità
I cinesi, i babilonesi,
gli egizi e alcune popolazioni precolombiane osservavano i
movimenti dei pianeti ed erano in grado di prevedere le eclissi; tuttavia nessun popolo seppe collocare i
fenomeni osservati entro un quadro teorico esplicativo e
sistematico.
Le speculazioni dei filosofi greci introdussero due diverse linee di pensiero circa i costituenti fondamentali dell'universo: l'atomismo, teorizzato da Leucippo nel V secolo a.C., e la teoria degli elementi. Alessandria, culla della cultura occidentale durante l'Età ellenistica, impresse un notevole impulso allo sviluppo della scienza.
Ad Alessandria si svolse l'attività di Archimede, che studiò le condizioni di equilibrio dei corpi immersi, pose le basi dell'idrostatica e costruì le prime leve.
Altri importanti scienziati greci di questo periodo furono Aristarco di Samo, che misurò le distanze relative del Sole e della Luna dalla Terra; Eratostene, che determinò la lunghezza del raggio terrestre e compilò un catalogo delle stelle conosciute; Ipparco, che scoprì il fenomeno della precessione degli equinozi.
Nel II secolo d.C. Tolomeo elaborò un sistema di interpretazione dell'universo e dei moti planetari, secondo il quale la Terra è ferma al centro dell'universo, mentre la Luna, i pianeti e le stelle ruotano intorno a essa con moto circolare.
Medioevo
Nel corso del Medioevo
numerosi trattati greci furono conservati, tradotti e commentati
da alcuni studiosi arabi, quali Averroè e Al-Farabi.
La fondazione delle grandi università in tutta Europa, a partire
dall'XI secolo, pose le basi di una grande rinascita culturale.
In campo filosofico fu Ruggero Bacone a invocare il metodo sperimentale come fondamento
del sapere scientifico.
Secoli
XVI e XVII
Nel corso dei secoli XVI e
XVII numerosi studiosi cercarono di interpretare il comportamento dei corpi
celesti sulla base di
nuovi modelli teorici, al fine di eliminare i difetti del sistema
tolemaico.
Fu Niccolò Copernico a elaborare un complesso sistema eliocentrico, nel quale la Terra e i pianeti orbitano intorno al Sole, immobile al centro dell'universo.
Giovanni Keplero enunciò le leggi che regolano il moto planetario, sulla base delle misure effettuate da Tycho Brahe.
A partire dal 1609 Galileo Galilei compì sistematiche osservazioni del
cielo; per mezzo del telescopio,
scoprì le fasi del pianeta Venere, che portò a prova indiretta della
validità del sistema eliocentrico, osservò le irregolarità
della superficie
lunare, i quattro satelliti
più luminosi di
Giove, le macchie solari e molte stelle della Via Lattea.
Le scoperte astronomiche di Galileo e i suoi studi di meccanica
aprirono la strada alle ricerche di Isaac Newton.
Newton e la
meccanica
Newton formulò i tre
principi della dinamica e la legge di gravitazione universale, riconobbe che la luce bianca è il risultato della sovrapposizione di
tutti i colori dello spettro, propose una teoria per la propagazione della luce e introdusse il calcolo differenziale e
integrale, contribuendo in
modo decisivo allo sviluppo di disparati campi del sapere.
Le leggi di Keplero sul moto planetario e la teoria di Galileo sulla caduta dei gravi vennero entrambe confermate e riconosciute come conseguenze del secondo principio della dinamica di Newton e della sua legge di gravitazione universale.
A lui si deve anche la comprensione del fenomeno delle maree e della precessione degli equinozi.
Lo sviluppo
della meccanica
Le leggi del moto di
Newton sono tuttora alla base della meccanica classica. La seconda legge, affermando che l'accelerazione di un corpo è direttamente proporzionale alla
forza applicata, permette
da un lato di calcolare istante per istante la posizione e la
velocità del corpo quando siano note le condizioni iniziali del
moto, dall'altro la definizione di uno dei più importanti
concetti della fisica, la massa inerziale.
Gravità
Il più specifico
contributo di Newton alla descrizione delle forze della natura venne dalla legge di gravitazione
universale.
Questa legge, che afferma semplicemente che due corpi si attraggono con una forza direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza, ha implicazioni vastissime:
introduce il concetto di massa gravitazionale, spiega il moto dei pianeti intorno al Sole e degli oggetti all'interno del campo gravitazionale terrestre, ma è anche responsabile del fenomeno del collasso gravitazionale, che costituisce lo stadio finale del ciclo evolutivo di una stella massiva.
La legge di gravitazione universale venne dedotta dall'osservazione del comportamento dei pianeti, ma solo nel 1771 Henry Cavendish ne fornì una conferma sperimentale. Nei due secoli che seguirono gli studi di Newton, le leggi della meccanica furono analizzate, ampliate e applicate a sistemi complessi. Eulero formulò per primo le equazioni del moto per i corpi rigidi, generalizzando gli studi compiuti da Newton su sistemi ai quali si poteva applicare l'approssimazione di corpi puntiformi.
Alcuni fisici matematici, tra i quali Giuseppe Luigi Lagrange e William Hamilton, riformularono la seconda legge di Newton. Nello stesso periodo Daniel Bernoulli estese la meccanica newtoniana giungendo alla formulazione della meccanica dei fluidi.
Elettricità
e magnetismo
Sebbene già
nell'antica Grecia si conoscessero le proprietà elettrostatiche dell'ambra, e i cinesi
fin dal 2700 a.C. ricavassero la calamita dalla magnetite, lo
studio sistematico dei fenomeni elettrici e magnetici fu affrontato solo alla fine del XVIII
secolo.
Nel 1785 Charles-Augustin de Coulomb verificò sperimentalmente che le forze di interazione fra due cariche elettriche puntiformi sono inversamente proporzionali al quadrato della distanza. In seguito fu sviluppata da due matematici, il francese Siméon-Denis Poisson e il tedesco Carl Friedrich Gauss, una teoria che permette di calcolare con semplicità l'effetto di qualunque distribuzione di cariche.
Con la pila elettrochimica, inventata nel 1800 da Alessandro Volta, fu possibile mantenere il moto di cariche elettriche in un mezzo.
Vennero quindi realizzati i primi circuiti elettrici e furono compiute le prime ricerche sul comportamento dei diversi materiali percorsi da corrente elettrica. Le prime ricerche sul magnetismo risalgono al XVII secolo, tuttavia per lungo tempo i fenomeni elettrici e magnetici furono studiati separatamente e questo celò la loro stretta relazione.
La situazione mutò nel 1829 quando lo scienziato danese Hans Christian Oersted scoprì che un ago magnetico si orienta per effetto di una corrente elettrica.
Dopo breve tempo André-Marie Ampère dimostrò che due fili percorsi da corrente si attraggono o si respingono come i poli di una calamita. Nel 1831 il britannico Michael Faraday scoprì che per generare corrente all'interno di un filo conduttore è sufficiente muovere una calamita o mantenere una corrente variabile nelle sue vicinanze.
Questi risultati furono formalizzati sul piano matematico dal fisico britannico James Clerk Maxwell che, nelle equazioni differenziali che portano il suo nome, mise in relazione le variazioni nello spazio e nel tempo dei campi elettrico e magnetico in un punto con le cariche e le correnti presenti in quello stesso punto.
In teoria, fu quindi possibile calcolare il valore del campo elettrico e magnetico solo conoscendo la distribuzione di cariche e correnti nello spazio. Il risultato inaspettato che scaturì dalla soluzione di queste equazioni fu la scoperta delle onde elettromagnetiche, prodotte da cariche in accelerazione.
Nel 1887 il fisico tedesco Heinrich Hertz riuscì a generare queste onde, ponendo le basi per lo sviluppo della radio, del radar, della televisione e di tutte le altre forme di telecomunicazione.
Termodinamica
Nel corso del XIX
secolo lo studio della termodinamica ricevette un notevole impulso: furono
ridefiniti in modo rigoroso i concetti di calore e di temperatura,
che vennero messi in relazione con grandezze puramente meccaniche
quali il lavoro e l'energia.
Il primo
principio della termodinamica
L'equivalenza
tra calore e lavoro fu
spiegata dal fisico tedesco Hermann Ludwig Ferdinand von Helmholtz e dal fisico britannico William Thomson Kelvin verso la metà del XIX secolo.
Nello stesso ambito deve essere inquadrata la serie di esperimenti condotti tra il 1840 e il 1849 da James Prescott Joule.
Il risultato di questi studi fu l'enunciato del primo principio della termodinamica: compiendo un lavoro su un sistema si aumenta la quantità di energia interna, e quindi la temperatura; se non si riscontra alcuna variazione dell'energia interna, la quantità di lavoro compiuto deve essere uguale al calore dissipato.
Con lo sviluppo della teoria cinetica fu possibile mettere in relazione l'energia interna con l'energia cinetica delle particelle che costituiscono il sistema.
Il secondo
principio della termodinamica
Il primo principio
afferma che l'energia
totale si conserva in ogni trasformazione in cui il sistema interagisce con
l'ambiente circostante, ma non fornisce alcuna indicazione sulle
modalità con cui avvengono queste trasformazioni.
Che i trasferimenti di energia possano avvenire in una sola direzione fu messo in evidenza da Nicolas-Leonard Sadi Carnot, il quale scoprì nel 1824 che una macchina termica (un dispositivo capace di compiere lavoro continuativamente attingendo calore dall'ambiente) ha bisogno, per funzionare, di due sorgenti: una a temperatura più alta, da cui attingere calore, e l'altra più fredda, che assorba il calore prodotto.
Quando la macchina compie lavoro, il calore passa dal corpo più caldo a quello più freddo; perché avvenga il contrario deve essere speso lavoro meccanico (o elettrico).
Le idee di Carnot furono riformulate con rigore nel secondo principio della termodinamica, enunciato in forme equivalenti da Rudolf Julius Emanuel Clausius e da William Thomson Kelvin. Dalla formulazione del secondo principio in poi, la termodinamica ha conosciuto ulteriori sviluppi e un gran numero di applicazioni in fisica, chimica e ingegneria.
L'ingegneria chimica, l'ingegneria degli impianti per la produzione di energia, la tecnologia del condizionamento dell'aria e la fisica delle basse temperature sono solo alcuni dei campi che devono il loro fondamento teorico alla termodinamica e ai contributi di scienziati quali Maxwell, Willard Gibbs, Walther Hermann Nernst e Lars Onsager.
Energia
cinetica e meccanica statistica
La relazione tra il
comportamento degli atomi e delle molecole di un gas, sul
piano microscopico, e i fenomeni che si manifestano a livello
macroscopico è specificata dalla teoria cinetica dei gas, alla quale contribuirono sia Maxwell sia Ludwig Boltzmann.
Poiché è impossibile seguire singolarmente l'evoluzione di ogni particella di un fluido, si ricorre a un approccio statistico: la teoria cinetica dei gas consiste infatti nell'applicazione dei principi della statistica allo studio della meccanica classica.
Un tipico problema affrontato dalla teoria cinetica è la determinazione della distribuzione delle velocità tra le molecole di un gas e dell'energia cinetica media di ogni particella.
Il crollo
della fisica classica
Era dal 1880 che la
fisica poteva dirsi assestata: la maggior parte dei fenomeni
trovava spiegazione nella meccanica newtoniana, nella teoria
elettromagnetica di Maxwell, nella termodinamica o nella
meccanica statistica di Boltzmann.
Sembrava che pochi problemi, quali la determinazione delle proprietà dell'etere e la spiegazione dello spettro di radiazione emesso dai corpi solidi, rimanessero irrisolti. La comprensione di questi pochi fenomeni scatenò tuttavia la rivoluzione che investì la fisica.
Al crollo della fisica classica contribuì anche una serie di importanti scoperte della fine del XIX secolo: i raggi X da parte di Wilhelm Conrad Röntgen nel 1895; l'elettrone per merito di J.J. Thomson nel 1895; la radioattività di Antoine-Henri Becquerel nel 1896; l'effetto fotoelettrico durante il periodo tra il 1887 e il 1899.
I risultati degli esperimenti condotti in quegli anni, tra cui la scoperta dei raggi catodici, prescindevano da ogni possibile spiegazione teorica entro il quadro della fisica classica.
La
fisica moderna
Nel primo trentennio del
XX secolo vennero sviluppate la teoria quantistica e la teoria della relatività, che segnarono la nascita della fisica
moderna.
Relatività
La scoperta che le
equazioni di Maxwell, che descrivono tutti i fenomeni di natura
elettromagnetica, non sono invarianti per trasformazioni di
Galileo, indusse Albert Einstein a sostituire le leggi galileiane con un nuovo
insieme di relazioni, introdotte da Lorentz
in base a considerazioni matematiche.
Fu il punto di partenza per la formulazione della teoria della relatività. Le trasformazioni di Lorentz implicavano una completa revisione dei concetti classici di spazio e tempo; negando l'esistenza di uno spazio e di un tempo assoluto, che erano a fondamento della meccanica classica, esse infatti richiedevano una nuova definizione del significato di distanza e di contemporaneità.
Due orologi che risultano sincroni quando sono in quiete l'uno rispetto all'altro funzionano a velocità diverse se si muovono di moto relativo; analogamente due barre di identica lunghezza a riposo risultano diverse quando una di esse si muove rispetto all'altra.
Lo spazio e il tempo divennero così le quattro coordinate (tre spaziali e una temporale) dello spazio-tempo a quattro dimensioni in cui si collocano tutti i fenomeni fisici. Conseguenze importanti della relatività di Einstein sono l'equivalenza tra massa ed energia e l'esistenza di un limite superiore per la velocità dei corpi, dato dal valore della velocità della luce, c.
La meccanica relativistica, che può spiegare il moto di corpi dotati di velocità prossima a quella della luce, si riduce alla meccanica newtoniana per la descrizione dei fenomeni che avvengono a velocità trascurabili rispetto a c.
Nel 1915 Einstein generalizzò la teoria della relatività a sistemi di riferimento in moto relativo accelerato, dando così origine alla teoria della relatività generale. In quest'ambito la gravitazione risulta una conseguenza della geometria dello spazio-tempo, e viene prevista la curvatura dei raggi luminosi quando un fascio di luce passa vicino a un corpo molto massivo quale una stella; questo fenomeno venne osservato per la prima volta nel 1919.
La teoria della relatività generale ha avuto un ruolo fondamentale nella comprensione della struttura dell'universo e della sua evoluzione.
Teoria
quantistica
I risultati
dell'analisi sperimentale dello spettro del corpo nero, che non trovavano accordo con i principi
della fisica classica, furono giustificati sul piano teorico dal
fisico tedesco Max Planck.
Secondo la fisica classica, le molecole di un solido vibrano, con ampiezza di vibrazione direttamente proporzionale alla temperatura del corpo, a tutte le frequenze; l'energia termica del corpo verrebbe quindi convertita continuamente in radiazione elettromagnetica.
Planck reinterpretò il fenomeno postulando che l'emissione di energia avvenisse per quantità discrete, dette quanti, o fotoni.
Meccanica
quantistica
Nell'arco di pochi
anni, tra il 1924 e il 1930 circa, fu sviluppato un approccio
teorico completamente nuovo alla dinamica su scala subatomica, la
meccanica quantistica.
Nel 1924 il francese Louis De Broglie suggerì che la materia avesse la duplice natura (corpuscolare e ondulatoria) già osservata per la radiazione elettromagnetica.
A ogni particella veniva quindi associata un'onda, detta onda di materia, di lunghezza d'onda l = h/mv, dove m è la massa della particella, v la sua velocità e h la costante di Planck.
Queste onde dovevano essere concepite come una sorta di guida per il moto della particella associata. L'ipotesi di De Broglie venne confermata nel 1927 dai risultati di una serie di esperimenti di interazione elettrone-cristallo condotti dai fisici statunitensi Clinton Joseph Davisson e Lester Halbert Germer, e dal fisico britannico George Paget Thomson.
In seguito i tedeschi Max Born, Werner Heisenberg, Ernst Pascual Jordan e il fisico austriaco Erwin Schrödinger svilupparono l'idea di De Broglie in una forma matematica capace di risolvere problemi che non potevano essere spiegati nell'ambito della fisica classica.
Oltre a confermare il postulato di Bohr della quantizzazione dei livelli energetici dell'atomo, la meccanica quantistica fornisce una spiegazione degli atomi più complessi e costituisce il fondamento teorico della fisica nucleare.
Inoltre, alcune proprietà dei solidi cristallini trovano un'interpretazione soddisfacente solo nei principi della teoria quantistica. Al postulato di De Broglie, che sancisce il dualismo onda-particella della materia, si sono aggiunti nel corso degli anni altri importanti concetti.
Tra i più importanti, vi è il fatto che gli elettroni e quasi tutte le particelle elementari abbiano la proprietà di possedere un momento angolare intrinseco, o spin.
Nel 1925 il fisico austriaco Wolfgang Pauli enunciò il principio di esclusione che, stabilendo un limite per il numero di elettroni che possono occupare un determinato livello energetico, giustificava le diverse proprietà dei singoli elementi chimici rivelandosi fondamentale per comprendere la struttura della tavola periodica.
Nel 1927 Heisenberg formulò il principio di indeterminazione, con il quale viene riconosciuta l'esistenza di un limite naturale alla precisione con cui si possono misurare simultaneamente alcune coppie di grandezze fisiche, quali ad esempio posizione e quantità di moto, energia e tempo.
Nel 1928 Dirac giunse a una sintesi della meccanica quantistica e della relatività, grazie alla quale si previde l'esistenza del positrone e più in generale dell'antimateria.
Fisica
nucleare
Alla comprensione
della struttura dell'atomo contribuì nel 1896 la scoperta della radioattività dei minerali di uranio da parte di Antoine-Henry Becquerel.
In pochi anni si seppe che la radiazione emessa dalle sostanze radioattive poteva essere di tre tipi: radiazione alfa, costituita da atomi di elio ionizzati; radiazione beta, composta da elettroni veloci; raggi gamma, in seguito identificati come radiazione elettromagnetica di lunghezza d'onda molto corta.
Nel 1898 i fisici francesi Marie e Pierre Curie separarono da un minerale di uranio due nuovi elementi radioattivi, radio e polonio. Intorno al 1903 Rutherford e Frederick Soddy mostrarono che l'emissione di raggi alfa o beta comportava la trasformazione dell'atomo radioattivo in una specie atomica diversa.
Si trovò in seguito che gli eventi radioattivi avvengono in modo statistico; non esiste quindi alcun modo di sapere quale atomo all'interno di un materiale radioattivo debba decadere in un certo istante.
Nel 1919 Rutherford bombardò con particelle alfa un bersaglio di azoto; l'elemento si dissociò in idrogeno e ossigeno, dando luogo alla prima trasmutazione artificiale. Nel 1932 il fisico britannico James Chadwick scoprì il neutrone, una particella elettricamente neutra di massa pari a 1,675 × 10-27 kg, poco maggiore di quella del protone. La nuova particella fu presto riconosciuta come un costituente fondamentale del nucleo atomico.
Lo sviluppo
della fisica dal 1930 in poi
Le importanti
conquiste del primo trentennio del XX secolo, insieme ai
progressi tecnologici nel campo dei computer, dell'elettronica, delle applicazioni di fisica
nucleare e degli acceleratori di particelle, resero possibile una
rapida crescita delle conoscenze scientifiche.
Particelle
elementari
L'elettrone, il
protone, il neutrone, il fotone e tutte le particelle scoperte a partire dal 1932 sono dette
complessivamente particelle elementari, benché il termine sia improprio, dal momento che
la maggior parte di esse possiede una struttura interna molto
complicata.
La teoria universalmente accettata è quella dei quark, subparticelle dotate di carica frazionaria; un protone, ad esempio, sarebbe costituito da tre quark.
Secondo la teoria proposta nel
1964 dai fisici statunitensi Murray Gell-Mann
e George
Zweig, i nucleoni
sarebbero costituiti da tripletti di quark, mentre i mesoni da
coppie di quark. Attualmente non esiste nessun processo
nell'universo che sia in grado di liberare quark isolati.
La teoria originariamente aveva postulato l'esistenza di tre soli
tipi di quark, ma successivi esperimenti, in particolare la
scoperta della particella J/psi nel 1974 da parte dei fisici
statunitensi Samuel Ting e Burton Richter, imposero che si
ammettesse l'esistenza di altri tre tipi di quark.
Teorie dei
campi unificati
Le teorie più
accreditate sulle interazioni tra particelle elementari sono
dette teorie
di Gauge e assumono come
principio guida la conservazione della simmetria nelle interazioni tra due tipi di particelle.
La prima delle teorie di Gauge si applica alle interazioni elettriche e magnetiche tra particelle cariche.
Una seconda teoria molto complessa fu proposta indipendentemente dal fisico statunitense Steven Weinberg e dal fisico pakistano Abdus Salam verso la fine degli anni Sessanta. Il modello collegava i bosoni vettoriali intermedi con il fotone, unificando così l'interazione elettromagnetica con quella debole.
In seguito, gli studi di Glashow, Iliopolis e Maiani mostrarono come lo stesso modello fosse applicabile anche agli adroni (le particelle che interagiscono per mezzo della forza nucleare "forte").
Le teorie di Gauge, in linea di principio, possono essere applicate a ogni campo di forze, e ciò suggerisce la possibilità di unificare tutte le interazioni fondamentali in un'unica teoria dei campi unificati, che naturalmente comprenda il concetto di simmetria.
Le simmetrie generalizzate si estendono a scambi di particelle che variano da punto a punto nello spazio e nel tempo. Tuttavia queste simmetrie, anche se matematicamente eleganti, non spiegano la natura elementare della materia. Per questo motivo molti fisici stanno esplorando la possibilità di ricorrere alle cosiddette teorie della supersimmetria, che stabilirebbero una relazione diretta tra fermioni e bosoni attraverso ipotetiche particelle "gemelle" di quelle attualmente conosciute.
Esistono molti dubbi in proposito, mentre suscita grande interesse la teoria delle superstringhe. Secondo quest'ipotesi le particelle fondamentali sarebbero "stringhe" monodimensionali, lunghe non più di 10-35 m.
Questa teoria risolverebbe gran parte dei problemi dei fisici che stanno lavorando alle teorie unificate dei campi, ma per ora rimane solo una congettura.
Sviluppi
della fisica nucleare
Fermi e i suoi numerosi collaboratori eseguirono
con successo una serie di esperimenti volti a sintetizzare
elementi più pesanti dell'uranio. Bombardando quest'ultimo con
neutroni, sono stati prodotti almeno una dozzina di elementi transuranici.
Gran parte delle ricerche attuali mirano a ottenere un
dispositivo che produca reazioni di fusione controllate, piuttosto che esplosive.
Un reattore a fusione avrebbe il vantaggio di essere meno radioattivo di un reattore a fissione, e costituirebbe una fonte pressoché illimitata di energia.
Nel dicembre del 1993 furono compiuti progressi significativi in questa direzione: alcuni ricercatori dell'Università di Princeton produssero, in un reattore a fusione Tokamak, una reazione di fusione controllata che sviluppò una potenza di 5,6 MW.
Sembra però ancora molto lontano il giorno in cui l'energia prodotta da un reattore a fusione sarà maggiore di quella spesa per raggiungere le condizioni di temperatura e pressione necessarie alla reazione.