I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore
Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).
44 domande e risposte sulla fisica moderna
Paolo Rossi
(Università di Pisa)
Abstract
A list of 44 answers to selected questions in modern physics is aimed to simplify the approach of the young students to such topics.
La teoria della relatività prevede che nessun segnale possa propagarsi a una velocità superiore a quella della luce. Sappiamo che le modificazioni del campo elettrico dovute al moto delle cariche viaggiano alla velocità della luce e si comportano come onde (elettromagnetiche). Analogamente nella teoria di Einstein le modificazioni del campo gravitazionale dovute al moto delle masse viaggiano alla velocità della luce e si comportano come onde (gravitazionali).
La teoria della relatività generale interpreta il campo gravitazionale come una vera e propria deformazione dello spazio (e del tempo) dovuta alla presenza delle masse, per cui quelli che a noi appaiono come percorsi curvilinei (orbite) sono in realtà i percorsi più brevi possibili (geodetiche) attraverso lo spaziotempo deformato dalle masse gravitazionali. Riprendendo l’analogia con l’elettromagnetismo, così come cariche ferme producono campi statici (elettrostatica) mentre cariche in movimento producono campi variabili e onde (elettrodinamica), in relatività generale masse ferme producono campi statici (gravitostatica) mentre masse in movimento producono campi gravitazionali variabili (con effetti analoghi all’effetto Faraday) e onde gravitazionali (gravitodinamica).
La teoria della relatività ristretta prevede una stretta equivalenza tra massa ed energia E = m c², e poiché i fotoni sono dotati di energia essi posseggono anche una massa (relativistica) pari alla loro energia divisa per il quadrato della velocità della luce. La massa a riposo invece è nulla, coerentemente con il fatto che i fotoni non possono essere a riposo, perché viaggiano sempre alla velocità della luce. Ci sono molte evidenze sperimentali del fatto che la luce subisce gli effetti della gravità, tra cui l’effetto lente (quando la luce di stelle lontane passa in prossimità di stelle più vicine a noi) e il cambio di frequenza (e quindi di energia, per la relazione di Einstein E = h ν) della luce che “cade” nel campo gravitazionale terrestre (esperimento di Pound e Rebka)
Come spiegato al punto precedente, la luce è deviata dalle grandi masse, quindi nel corso delle eclissi, quando è possibile vedere stelle che si trovano in direzioni prossime a quella del Sole, le loro posizioni dovrebbero apparire lievemente spostate rispetto a quella in cui si vedrebbero ordinariamente. Questo fenomeno fu osservato per la prima volta da Eddington nel corso dell’eclissi solare del 1919, e fu la prima evidenza della correttezza della teoria di Einstein della gravitazione.
Le prime evidenze della natura ondulatoria della luce risalgono all’osservazione dei fenomeni di diffrazione e di interferenza (registrati per la prima volta da Grimaldi nel 1665), che sono agevolmente spiegati dal modello ondulatorio mentre non sono spiegabili con un modello puramente corpuscolare.
l fenomeno della rifrazione può essere spiegato sia dalla teoria ondulatoria (Huygens) sia dalla teoria corpuscolare della luce (Newton). In entrambi i casi la spiegazione si riconduce a una variazione della componente della velocità perpendicolare alla superficie di separazione tra due mezzi, mentre la componente parallela alla superficie resta immutata, ma nel caso corpuscolare, contrariamente a ciò che accade nel caso ondulatorio, la luce dovrebbe viaggiare più velocemente passando dal vuoto a un mezzo solido, contro ogni intuizione (e contro la relatività).
La teoria della relatività ristretta prevede una relazione precisa tra energia, massa a riposo e velocità: E = m°c²/√ (1-v²/c²), dalla quale consegue che se v=c per mantenere finita l’energia la massa a riposo deve essere nulla, mentre è tanto più facile, a parità di energia, raggiungere velocità prossime a quella della luce quanto minore è la massa a riposo. Quindi i neutrini, che hanno energia finita e massa piccolissima, possono viaggiare a velocità molto prossime a quella della luce: v/c = √(1-m²/c²)
Perché in un qualunque modello meccanico compatibile con l’esistenza di vibrazioni trasversali (come le onde elettromagnetiche previste da Maxwell e osservate da Hertz) la maggior velocità di propagazione è legata alla maggior rigidità del mezzo, e per arrivare alla velocità della luce occorrerebbe una rigidità elevatissima.
Le onde gravitazionali sono state scoperte utilizzando grandi interferometri per confrontare le distanze percorse dalla luce lungo due cammini tra loro perpendicolari. Il passaggio di un’onda gravitazionale ha la proprietà di accorciare il cammino in una direzione mentre lo allunga in quella perpendicolare. Di conseguenza si ha un fenomeno d’interferenza che può essere amplificato facendo percorrere alla luce lo stesso cammino molte volte. Se questa interferenza è osservata allo stesso momento da due interferometri molto lontani tra loro possiamo escludere effetti locali (sismici o meccanici) e l’unica spiegazione possibile è il passaggio di un’onda gravitazionale. Questo è ciò che è accaduto nei due interferometri di LIGO, posti a oltre 3.000 Km di distanza l’uno dall’altro, e la forma del segnale osservato era compatibile con quanto previsto dalla relatività generale per un particolare fenomeno cosmico (collasso gravitazionale di due grandi buchi neri) avvenuto più di un miliardo di anni fa.
La relazione d’indeterminazione tra tempo ed energia comporta l’impossibilità di osservare in un tempo finito stati con energia perfettamente definita (e quindi è impossibille produrre onde perfettamente monocromatiche, ma ogni onda comprenderà un intervallo di frequenze compatibile con la sua durata nel tempo.
La diffrazione della luce è dovuta alla sua natura ondulatoria, per cui il concetto di traiettoria di un raggio di luce, che sta alla base dell’ottica geometrica, è soltanto un’approssimazione, mentre in realtà ogni fascio di luce può percorrere simultaneamente differenti cammini ottici, la cui interferenza produce le figure di diffrazione, dovute al fatto che a seconda della fase con cui giungono nello stesso punto le ampiezze delle onde possono sommarsi o sottrarsi. Questa proprietà delle onde può essere formulata come un principio di indeterminazione, in quanto la larghezza Δx della distribuzione spaziale dell’onda e la larghezza Δk della distribuzione dei vettori d’onda (legati alla frequenza e alla direzione dell’onda) sono legate dalla relazione ΔxΔk> ½
I processi d’interazione tra le particelle elementari possono essere descritti come scambio di altre particelle. Ad esempio le interazioni elettromagnetiche possono essere viste come scambio di fotoni tra particelle cariche. Altre particelle “portatrici” dell’interazione sono i mesoni vettoriali W e Z, mediatori delle interazioni deboli, e i gluoni, mediatori delle interazioni forti. Tutte queste particelle non sono però di solito osservabili nel corso dell’interazione (particelle virtuali) in quanto le loro energie non sono compatibili con la relazione massa-energia fissata dalla relatività ristretta. Questo è possibile in quanto la “durata” Δt dell’interazione è talmente breve da risultare compatibile con la
relazione d’indeterminazione tra energia e tempo ΔEΔt = ħ. Di conseguenza quanto maggiore è l’energia trasferita tanto minore è il tempo di “vita” della particella virtuale e quindi anche lo spazio percorso, che non può essere maggiore di cΔt. Ciò significa che le interazioni ad altissima energia sono anche interazioni a piccolissima distanza.
I bosoni vettoriali W (carichi) e Z (neutro) sono le particelle che (insieme al fotone) trasmettono l’interazione elettrodebole, responsabile dei processi di decadimento radioattivo. Le masse dei bosoni W e Z sono rispettivamente pari a 80 e 91 GeV, ovvero un centinaio di volte la massa del protone. Le loro vite medie sono brevissime, circa 3 x 10^-25 s.
I gluoni sono le particelle che trasmettono l’interazione forte tra i quark, che a loro volta sono i costituenti dei protoni e dei neutroni. L’intensità dell’interazione forte è talmente elevata che non è possibile osservare quark liberi, ma soltanto combinazioni di tre quark, tenute insieme dai gluoni. Tuttavia l'interazione tra i quark è forte soltanto quando essi cercano di allontanarsi l’uno dall’altro, mentre decresce man mano che si avvicinano, e a piccolissime distanze l’uno dall’altro i quark si comportano come se fossero quasi liberi (libertà asintotica).
La forza di un’interazione è esprimibile, a livello fondamentale, mediante un numero che non dipende dalle unità di misura utilizzate (numero puro). Ad esempio per l’interazione elettromagnetica questo numero (α = e²/ħc, dove e è la carica dell’elettrone) vale circa 1/137. Le costanti d’accoppiamento elettrodeboli g e g’ sono legate a e dalle relazioni e = g sin θ = g’ cos θ, dove θ è l’angolo di Weinberg e il suo coseno è uguale al
rapporto tra le masse di W e Z. Se definiamo per le interazioni deboli e forti quantità analoghe ad α = 0,008, i loro rispettivi valori sono 0,03 per le interazioni deboli e 0,2 per le interazioni forti.
Il potenziale di Yukawa fu introdotto per rappresentare fenomenologicamente le interazioni forti quando di pensava che i mediatori dell’interazione fossero i pioni, scambiati tra protoni e neutroni. Matematicamente corrisponde al potenziale generato dallo scambio di una particella dotata di massa, e l’intensità della forza decresce esponenzialmente con la distanza, su una scala inversamente proporzionale alla massa della particella mediatrice. Nel limite in cui la massa è nulla il potenziale si riduce alla funzione 1/r (potenziale coulombiano, o newtoniano) come ci si aspetta per una teoria mediata da fotoni (o gravitoni) 18b. Descrivere il contributo di Carlo Rubbia alla Fisica.
Il principale contributo di Carlo Rubbia alla Fisica è stato la progettazione e la realizzazione dell’apparato sperimentale che gli ha consentito nel 1983 la prima osservazione delle particelle W e Z mediatrici delle interazioni elettrodeboli, la cui esistenza era stata fino a quel momento soltanto ipotizzata sulla base del modello di Weinberg e Salam. Ricevette il premio Nobel nel 1984.
La disintegrazione beta è il fenomeno responsabile del decadimento del neutrone, che quando è libero (ossia non è legato all’interno di un nucleo o di una stella a neutroni) ha una vita media di circa 900 secondi. Il decadimento beta consiste nella scomparsa del neutrone con la creazione di tre particelle: un protone, un elettrone e un neutrino. Nel processo si conservano la carica elettrica, l’energia, la quantità di moto e il momento angolare, ma poiché la somma delle masse delle tre particelle è minore della massa del neutrone si rende disponibile molta energia cinetica e quindi le particelle prodotte si muovono
velocemente anche se il neutrone era fermo. La prima teoria del decadimento beta fu formulata da Fermi nella forma di un’interazione tra correnti (la corrente neutrone-protone e la corrente elettrone-neutrino) che costituì il primo modello per le interazioni deboli. In seguito tale modello fu ricondotto a una teoria di campo introducendo le partticelle W e Z come mediatori dell’interazione tra le correnti “deboli”.
La fusione nucleare è il processo fisico per il quale nuclei di atomi leggeri possono unirsi formando il nucleo di un atomo più pesante, quando la massa del nucleo pesante è minore della somma delle masse dei nuclei leggeri per cui il processo può avvenire con liberazione di energia. La più semplice reazione di fusione è quella per cui due protoni si uniscono a formare un nucleo di deuterio (un protone più un neutrone) con l’emissione di un positrone e di un neutrino che assicurano la conservazione della carica e del momento angolare. Nel Sole e nelle stelle questo processo è seguito dalla reazione in cui il deuterio si fonde con un altro protone producendo un nucleo di Elio3. Due nuclei di Elio3 possono poi fondersi producendo un nucleo di Elio4 (stabile) con la liberazione di due protoni. L’intero processo è esoenergetico, ovvero avviene con produzione di energia. La teoria di Alpher, Bethe e Gamow rende conto dell’abbondanza relativa di Idrogeno ed Elio nell’universo sulla base di un modello della nucleosintesi primordiale (immediatamente dopo il Big Bang).
La fissione nucleare è il processo fisico per il quale un nucleo pesante si spacca in due nuclei più leggeri liberando energia. La fissione può avvenire spontaneamente o per effetto del bombardamento del nucleo mediante neutroni. Poiché la fissione usualmente libera neutroni può quindi instaurarsi una reazione a catena, nella quale a partire da una fissione indotta da una causa
esterna avvengono numerose altre fissioni per effetto della collisione dei neutroni liberati con gli altri nuclei di materiale fissile presenti. Perché la reazione possa continuare occorre che il numero di neutroni che danno luogo a nuove fissioni sia mediamente maggiore di uno, e perché questo avvenga occorre una concentrazione di atomi di materiale fissile superiore alla cosiddetta “massa critica”, che corrisponde al caso in cui il numero di neutroni attivi prodotti in media è esattamente uno.
Una proprietà fondamentale degli stati fisici microscopici spiegata dalla meccanica quantistica è la discontinuità dei livelli energetici negli stati legati (quantizzazione), che si verifica ad esempio per gli stati degli elettroni negli atomi, ma anche per i nuclei atomici. La differenza di energia tra due differenti livelli è legata al valore delle masse in gioco e alla forza delle interazioni, e per questo motivo è molto più elevata nei nuclei (che sono stati legati di protoni e neutroni tenuti insieme da interazioni forti) che negli atomi (in cui gli elettroni sono trattenuti da forze elettromagnetiche). Un MeV è pari a 10^6 eV, l’ eV (1,6 x 10^-19 J) è la scala tipica dei livelli atomici. Per questo motivo quando tra due livelli nucleari avviene una transizione di tipo elettromagnetico la radiazione emessa (raggi X) ha una frequenza molto più elevata che per le transizioni ottiche negli atomi.
La massa di riposo del protone (circa 1 Gev = 1000 MeV) è circa 2000 volte maggiore di quella dell’elettrone, che vale soltanto 0,5 MeV, ovvero 500 mila eV.
L’esplosione di 16 Kg di Uranio 235 coinvolgerebbe 16000:235 = 68 moli di Uranio, e poiché una mole corrisponde a 6 x 10^23 atomi si tratterebbe di circa 4 x 10^25 atomi. L’energia liberata da ogni
singola fissione è di circa 200 MeV, e di conseguenza l’esplosione libererebbe circa 8 x 10^33 eV, che corrispondono a circa 10^15 J. Per confronto, il fabbisogno energetico mondiale giornaliero è pari a circa 10^18 Joule e quello italiano è pari a 2 x 10^16 Joule.
La reazione che avviene in una bomba all’idrogeno deriva dalla fusione termonucleare tra i nuclei di isotopi diversi dell’idrogeno. In particolare la fusione tra deuterio (H2) e trizio (H3) produce un nucleo di elio (He4) liberando un neutrone che avvia la reazione a catena. Il trizio, inizialmente assente, viene prodotto dalla reazione dei neutroni con nuclei di deuterio e di litio (Li6); nel secondo caso oltre al trizio è prodotto elio (He4). Non è necessaria una massa critica, ma per avviare il processo occorrono temperatura e pressione elevatissime, innescate da una bomba a fissione.
Il processo di fusione nucleare che avviene nel Sole non è di tipo esplosivo a causa della lentezza con cui avvengono le razioni all’interno del nucleo solare: la fusione di due protoni avviene in media ogni 1000 anni e il singolo processo si conclude con la produzione di Elio in un milione di anni. Il Sole resta “acceso” soltanto a causa dell’elevatissimo numero di protoni presenti.
Le reazioni di fusione sono esoenergetiche soltanto nel caso dei nuclei più leggeri, perché l’energia di legame per nucleone è crescente soltanto fino al numero atomico del ferro, poi diventa decrescente, per cui solo i processi di fissione sono esoenergetici. Il ferro (numero atomico 26) e il nichel (numero atomico 28) sono gli elementi chimici più pesanti che possono essere normalmente prodotti nella nucleosintesi stellare. Il Ferro 56 è uno degli isotopi più stabili dell’Universo. Elementi più pesanti possono essere prodotti solo nelle supernovae.
L’energia di legame per nucleone cresce, prima rapidamente poi più lentamente, fino al peso atomico 56 (picco del Ferro), quando vale poco meno di 9 MeV per nucleone. In seguito decresce lentamente e nel caso dell’Uranio vale circa 7,5 MeV per nucleone. La formula semiempirica di Weizsacker per le masse dei nuclei, che descrive l’andamento dell’energia di legame, è basata sul modello di Fermi dei nuclei, che tratta i nucleoni come un “gas” di particelle (“fermioni”) che occupano una buca di potenziale rispettando il principio di esclusione di Pauli per cui due fermioni non possono mai avere gli stessi “numeri quantici”.
Quando il LEP entrò in funzione l’energia totale nel centro di massa era di circa 90 GeV, poi l’energia fu aumentata fino a raggiungere un massimo di poco superiore a 200 GeV. Il LHC, accelerando particelle di massa molto maggiore, è ora prossimo al limite teorico di 14 TeV nel centro di massa. Si tratta quindi di energie circa cento volte maggiori di quelle realizzate nel LEP.
Le particelle cariche possono essere mantenute in orbita grazie ai potenti campi magnetici generati dai magneti superconduttori disposti lungo il percorso. Infatti il campo magnetico ha la proprietà di curvare la traiettoria di una carica elettrica in movimento per effetto della forza di Lorentz, e per un opportuno valore del campo è possibile ottenere la traiettoria desiderata.
Nella collisione di una particella con un’antiparticella , quando le velocità sono uguali e opposte, tutta l’energia posseduta dalle particelle può esse convertita nella massa di una particella neutra più pesante quando il valore dell’energia totale (nel centro di massa) coincide con quella associata alla massa a riposo della particella pesante dalla relazione E = m c². Nel caso del bosone di Higgs la massa corrisponde appunto a un’energia totale di 125 GeV, che significa che protone e antiprotone posseggono entrambi un’energia di 62,5 GeV.
Bisogna ricordare che grazie all’equazione E = 3/2 kT possiamo convertire le energie in temperature, e in particolare 1 eV =
12.000 gradi Kelvin. Risulta pertanto che 125 GeV corrispondono a circa 10^15 Kelvin. La differenza di massa tra protone e neutrone vale circa 1,3 MeV e quindi corrisponde a circa 10^10 Kelvin. A quella temperatura protoni e neutroni sono in equilibrio perché le fluttuazioni termiche possono compensare la differenza di massa.
La matrice di Cabibbo-Kobayashi-Maskawa (CKM) è una matrice 3x3 che applicata al “vettore” degli stati dei quark genera le combinazioni lineari di tali stati che compaiono nei processi tipici delle interazioni deboli. Per effetto di questo mescolamento degli stati di quark, nei decadimenti deboli degli adroni quark appartenenti a differenti “famiglie” si accoppiano alla stessa corrente leptonica (costituita da un leptone e dal corrispondente neutrino) e quindi in uno stesso processo (che sarà una generalizzazione del decadimento beta) possono essere prodotti leptoni e neutrini delle diverse famiglie (processi “flavorchanging”).
Nei primi esperimenti di disintegrazione beta si potevano osservare soltanto le particelle cariche (elettroni e protoni), ma presto si riconobbe che apparentemente in questi processi non si conservavano energia, quantità di moto e momento angolare. Pauli ipotizzò che le leggi di conservazione continuassero a valere, e che le quantità mancanti fossero associate a una nuova particella, necessariamente neutra e dotata di spin ½, presumibilmente priva di massa o comunque molto leggera.
Il neutrone fu inizialmente ipotizzato da Rutherrford nel 1920 , supponendo che i nuclei fossero formati da protoni ed elettroni ma che all’interno dei nuclei un cero numero di coppie protone- elettrone formasse stati legati abbastanza stabili. Questo modello non poteva sopravvivere a un’analisi basata sulla meccanica quantistica in quanto il principio di indeterminazione non consentiva a una particella leggera come l’elettrone di restare
confinata all’interno di un nucleo. Inoltre un qualunque stato legato di protone ed elettrone avrebbe dovuto avere uno spin (momento angolare intrinseco) intero, e quindi un nucleo con carica dispari avrebbe dovuto avere spin semiintero, mentre c’era evidenza di nuclei, come N14, con carica dispari e spin intero (paradosso di Klein). Dopo l’osservazione del neutrone da parte di Chadwick nel 1932 fu Majorana a elaborare la teoria delle forze di scambio tra neutroni e protoni all’interno del nucleo.
L’esperimento di Michelson e Morley consiste nel far viaggiare uno stesso raggio di luce lungo due percorsi differenti, tra loro perpendicolari, grazie a un sistema di specchi semiriflettenti (per dividere il raggio) e riflettenti (per riportarlo nello stesso punto), Quando il raggio si ricongiunge la differente lunghezza dei cammini e l’eventuale differente velocità della luce nelle due direzioni producono fenomeni di interferenza. Se, come prediceva la teoria dell’etere, a causa del moto della Terra la luce avesse viaggiato con velocità diverse in direzioni tra loro ortogonali, ruotando l’apparato di 90 gradi si sarebbe visto un cambiamento nelle figure d’interferenza. Poiché questo non avveniva, non volendo postulare che la Terra stesse ferma rispetto all’etere si dovette ammettere che la velocità della luce in un riferimento inerziale fosse comunque la stessa in tutte le direzioni, indipendentemente dal moto relativo tra i riferimenti stessi. Questo principio fu poi posto da Einstein alla base della teoria della relatività ristretta.
piccola quantità, 43” per secolo, che però la teoria della Relatività Generale di Einstein permise di calcolare con precisione. Le Verrier e Newcomb avevano ricercato un pianeta interno a Mercurio, Vulcano, che avrebbe determinato quella precessione.
Per il principio di indeterminazione esiste un vincolo tra la
precisione con cui può essere nota la posizione di una particella e quella con cui è nota la sua quantità di moto ΔxΔp> ½ħ. Di conseguenza per esplorare distanze sempre più piccole all’interno di un sistema microscopico è necessario variare la sua quantità di moto in misura sempre più grande, e ciò si ottiene bersagliando il sistema con “proiettili” (che sono altre particelle) dotati di energia sempre maggiore e quindi in grado di scambiare grandi quantità di moto con il sistema che si vuole esaminare.
Pur ammettendo in genere l’esistenza dei gravitoni, i fisici sono consapevoli dell’enorme difficoltà di osservarli, in quanto la costante d’accoppiamento dei campi gravitazionali con la materia è piccolissima. E soltanto l’enorme quantità di materia esistente nell’Universo rende osservabili i fenomeni gravitazionali, mentre a livello microscopico (che è il livello nel quale i fenomeni quantistici diventano osservabili) l’effetto della gravità à oscurato da tutte le altre e ben più potenti interazioni.
La teoria Lambda-Phi^4 è una teoria di campo quantistica che è stata introdotta nel Modello Standard per rendere dinamicamente possibile il fenomeno della rottura spontanea della simmetria, che sta alla base del meccanismo di Higgs grazie al quale l’esistenza del bosone di Higgs (campo quantistico associato alla teoria Phi^4) rende possibile la generazione di massa per tutte le altre particelle che altrimenti per motivi teorici senza rottura di simmetria resterebbero a massa nulla, come il fotone.
Fonte: http://www.df.unipi.it/~rossi/Gerb-9-2015-Rossi-44.pdf
Sito web da visitare: http://www.df.unipi.it
Autore del testo: indicato nel documento di origine
Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.
I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore
Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).
"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco
www.riassuntini.com dove ritrovare l'informazione quando questa serve