Filosofia della scienza appunti

Filosofia della scienza appunti

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Filosofia della scienza appunti

 

 

Appunti di Filosofia della scienza

Vincenzo Crupi

 

Alcune questioni preliminari

Nel seguito, useremo il termine “scienza” per riferirci prevalentemente all’insieme delle teorie scientifiche.

Dal nostro punto di vista (che è piuttosto diffuso in filosofia della scienza) una teoria in generale, e una teoria scientifica in particolare, può essere considerata come un oggetto linguistico e, più precisamente, con un insieme di proposizioni.

Glossario:

    • Un’espressione è una qualunque successione di simboli (appartenenti a un linguaggio).
    • Un enunciato è una successione di simboli formata correttamente rispetto alle regole di un linguaggio e di cui è sensato dire che è vera o falsa.

L’espressione della lingua italiana “Massimo Moratti è il presidente dell’Inter” è un enunciato; “oh, mio Dio!” non lo è, perché non può essere vera o falsa; “ponte il è forse di” non lo è, perché non è ben formata (in base alla grammatica italiana).

    • Una proposizione può essere intesa come il significato di un’enunciato.

Preferiamo definire una teoria parlando di proposizioni piuttosto che di enunciati perché è possibile che enunciati diversi esprimano la stessa proposizione: un esempio di questo tipo può essere quello di enunciati appartenenti a lingue diverse, come “piove” e “it rains”; uno ancora più chiaro è quello di due formule che esprimono una stessa relazione matematica in due modi equivalenti come, ad es., “PV = kT” e “PV/T = k” (in questo caso la proposizione che essi esprimono è la legge di Boyle per i gas ideali, che stabilisce la relazione fra pressione, volume, temperatura e una costante k).

Le questioni di cui parleremo riguardano prevalentemente le seguenti due domande:

  • Che cos’è la scienza?

Per quello che si è detto in precedenza, questa domanda può essere riformulata come: quali sono (se ci sono) le condizioni generali che definiscono una certa teoria come scientifica?

  • Come funziona la scienza?

…che, per quel che si è detto, significa essenzialmente chiedersi

    • se e, se sì, come una teoria scientifica può essere scoperta/costruita;
    • se e, se sì, come può essere valutata (cioè in quali condizioni deve essere accettata o respinta);
    • se e, se sì, come in una certa area di studi teorie differenti competono (problema della scelta fra teorie) e si avvicendano (semplice mutamento vs. progresso).

 

 

 

Un po’ di logica

Una teoria logica è una scienza che studia gli argomenti e che, in base a princìpi generali, li classifica in validi e invalidi.

Un argomento è costituito da un insieme di premesse e da una conclusione (nel nostro discorso assumeremo che a fungere da premesse e conclusioni siano delle proposizioni). Se un argomento è valido, si dice che la conclusione consegue dalle premesse, altrimenti che non consegue.

Le teorie logiche migliori che abbiamo appartengono tutte alla logica deduttiva, nella quale sono validi soltanto gli argomenti deduttivi o deduzioni e sono invalidi tutti gli altri. Informalmente, una deduzione è un argomento che “trasmette la verità dalle premesse alla conclusione, cioè tale che non è possibile che le premesse siano tutte vere e la conclusione falsa. Un altro modo per dire la stessa cosa è che in una deduzione le conclusioni non contengono nessuna informazione aggiuntiva rispetto alle premesse (la deduzione è un inferenza non-ampliativa).

Esempi:

  • Modus ponens – Sono validi tutti gli argomenti che hanno questa forma (e sono considerati esempi o applicazioni di una regola logica nota come modus ponens):

 

 

se A, allora B
A
----------------
quindi: B

per esempio:

se piove, allora la strada è bagnata
piove
---------------------------
quindi: la strada è bagnata

  • Modus tollens

 

 

 

se A, allora B
non-B
----------------
quindi: non-A

per esempio:

se piove, allora la strada è bagnata
la strada non è bagnata
---------------------------
quindi: non piove

  • ma sono invalidi tutti gli argomenti della forma:

 

 

 

se A, allora B
B
----------------
quindi: A

per esempio:

se piove, allora la strada è bagnata
la strada è bagnata
---------------------------
quindi: piove

È facile immaginare come tutte le premesse possano essere vere e la conclusione falsa. La strada potrebbe, per esempio, essere stata appena lavata.

  • Un altro semplice esempio di argomento deduttivo valido è il sillogismo:

 

 

 

tutti gli F sono G
a è F
----------------
quindi: a è G

per esempio:

tutti i critici d’arte amano van Gogh
Sgarbi è un critico d’arte
---------------------------
quindi: Sgarbi ama van Gogh

 

Quando conta sapere che cosa la scienza sia e come funzioni: quattro casi

Due citazioni che costituiscono un utile punto di partenza:

“I legittimi poteri di governo si estendono solo a quegli atti che recano offesa agli altri. Ma non ci reca offesa il fatto che il nostro vicino sostenga che ci sono venti dèi o che non ce n’è nessuno”
(Thomas Jefferson, terzo presidente degli Stati Uniti, Notes on the State of Virginia, Question XVII. Religion)

“La tolleranza jeffersoniana ha il suo nucleo nell’idea che non dovremmo turbarci nemmeno se ‘un nostro vicino’ sostenesse, per esempio, che ‘l’azione istantanea a distanza è possibile’ o che ‘l’indeterminismo di superficie della meccanica quantistica va spiegatao mediante il determinismo profondo di una teoria delle variabili nascoste’ o, magari, che ‘la medicina tradizionale cinese è altrettanto buona di quella occidentale’, ecc.”
(Giulio Giorello, La filosofia della scienza nel XX secolo)

…ma la faccenda non è affatto semplice, specie (forse) nel mondo contemporaneo nel quale i rapporti fra scienza e società, per molti motivi, risultano essere stretti e complessi.
Ecco quattro esempi (a parte il primo, per ragioni che risulteranno abbastanza ovvie, tutti hanno avuto una considerevole eco nei mezzi di informazione a vari livelli):

  • 1936-1948: Lysenko e la agrobiologia sovietica

Mentre è in corso la decisiva riformulazione della teoria darwiniana dell’evoluzione alla luce della riscoperta dei contributi di Mendel alla teoria dell’ereditarietà, fra gli anni ’30 e l’inizio degli anni ’50 si sviluppa una profonda polemica nella comunità dei biologi russi. Da una parte si colloca un gruppo di studiosi, il cui più autorevole esponente è N.I. Vavilov, che difendono la nascente teoria genetica, dall’altra T.D. Lysenko e i suoi collaboratori che, muovendo dallo sviluppo di alcune tecniche nel campo dell’agricoltura, propongono una versione antigenetica e lamarckiana dell’evoluzione biologica. Negli anni dello stalinismo le teorie di Lysenko guadagnano sempre maggior credito fino a che, nel 1948, lo stesso Comitato centrale del Partito comunista sovietico si pronuncia sulle virtù delle due teorie rivali e abbraccia ufficialmente quella di Lysenko sulla base della sua “forza e vitalità dialettica”. A partire dal 1937 molti ricercatori avversi alle teorie di Lysenko, fra cui lo stesso Vavilov, erano stati rimossi dai loro incarichi, arrestati, imprigionati e uccisi.

  • 1969-1972: Il dibattito su quoziente intellettivo e razzismo

Alcuni autorevoli scienziati (fra cui, per es., A.R. Jensen, W. Shockley, H.J. Eysenck) elaborano, sulla base di risultati sperimentali ottenuti attraverso il test per il quoziente intellettivo (IQ) una teoria per la quale esisterebbe una inferiorità genetica dei neri rispetto all’intelligenza. Comprensibilmente, infuria la polemica. Fra le molte reazioni, l’American Anthropological Association e l’American Philosophical Association sottoscrivono documenti di condanna. Nel secondo dei due (originariamente redatto da Hilary Putnam, professore di filosofia ad Harvard) si definiscono le posizioni in questione “pericolose e non scientifiche” e si legge: “non si tratta, in questo caso, di non scienziati che si intromettono in una controversia scientifica, ma piuttosto di un’ideologia priva di meriti scientifici che sta cercando di spacciarsi per scienza. Condanniamo quindi l’irresponsabile sostegno dato a tali infondate conclusioni dall’Atlantic Monthly e dal New York Times, la pubblicazione delle quali invita alla riflessione specialmente in vista degli usi politici deleteri di queste teorie…”

  • 1981: Creazionismo

Nel 1981 lo stato dell’Arkansas approva una disposizione legislativa chiamata Balanced Treatment for Creation-Science and Evolution-Science Act (Act 590). La “scienza della creazione” cui si fa riferimento nel provvedimento è una teoria, sostenuta da diverse istituzioni e studiosi abbastanza influenti specie in alcune zone degli Stati Uniti, secondo la quale, tra l’altro, l’universo ha poche migliaia di anni di vita ed è stato creato dal nulla da un ente supremo e intelligente e le attuali specie viventi sono dirette discendenti di quelle sopravvissute a un cataclisma di dimensioni planetarie di cui è rimasta traccia, per es., nel racconto biblico del Diluvio Universale. L’Act 590 prescrive che nell’insegnamento pubblico venga dato uguale spazio alla dottrina creazionista e alla biologia evoluzionistica darwiniana. L’approvazione della legge solleva molte polemiche e, ben presto, si finisce in tribunale per stabilirne la costituzionalità. All’inizio di gennaio del 1982 il giudice competente (W.R. Overton) dichiara la legge incostituzionale. In un passaggio decisivo della motivazione della sentenza argomenta che “la ‘scienza della creazione’ semplicemente non è una scienza” per il fatto che 1) non è “guidata dalle leggi di natura”, 2) non svolge una funzione esplicativa mediante il riferimento alle leggi di natura, 3) non può essere controllata a fronte dell’esperienza, 4) le sue conclusioni non sono “tentative” e infine 5) non è falsificabile. I creazionisti hanno ribattuto che “la scienza della creazione è altrettanto esplicativa, controllabile, tentativa e falsificabile della teoria dell’evoluzione”.
(Si tratta, in effetti, di un solo episodio di una battaglia culturale fra sostenitori e oppositori del darwinismo che in alcune stati Usa è continuata per tutto il Novecento e non è ancora affatto conclusa.)

  • 2000: Durban Declaration

La teoria per la quale l’Hiv è la causa dell’Aids sorge e viene articolata a partire dalla prima metà degli anni ’80. A cavallo degli anni ’90 alcuni autorevoli e affermati studiosi mettono in discussione la teoria dominante e propongono delle ipotesi alternative. Il più agguerrito è un virologo americano di nome Peter Duesberg. Le obiezioni vengono discusse per qualche tempo e poi decisamente accantonate dalla comunità dei ricercatori. Agli argomenti scientifici si accompagna l’allarme per la potenziale pericolosità delle tesi dei dissidenti. Verso la fine degli anni ’90 Duesberg chiude il suo laboratorio perché le sue richieste di finanziamento vengono sistematicamente bocciate. Nel 2000 a Durban in Sud Africa si tiene la XIII Conferenza mondiale sull’Aids. Nei mesi precedenti e successivi alla conferenza il capo del governo sudafricano Tabo Mbeki, successore ed erede politico di Nelson Mandela, assume posizioni di apertura nei confronti dei critici della teoria dominante e convoca una commissione di 33 esperti per l’elaborazione di una “via africana” alla lotta all’Aids: una decina di loro (fra cui Duesberg) sono noti per le loro teorie “eretiche”. Poco prima dell’inizio della conferenza Nature pubblica un duro documento, la cosiddetta “Durban Declaration”, firmato da circa 5000 ricercatori di tutto il mondo nel quale si legge: “l’evidenza che l’Aids è causato dall’Hiv è chiara, esaustiva, priva di ambiguità e conforme ai più elevati standard scientifici”, “è una disgrazia (unfortunate) che alcune persone continuino a negare apertamente l’evidenza. Queste prese di posizioni costeranno innumerevoli vittime”.

 

 

Le origini storiche della filosofia della scienza contemporanea:
 il neopositivismo logico e la “standard view”

[per questo argomento, si faccia riferimento al capitolo II del testo di Bechtel, alle slide e agli eventuali appunti presi a lezione]

 

Popper, l’induzione e la falsificazione

Molte forme di induttivismo rispondono alla domanda “che cos’è la scienza?” nel modo seguente: una teoria è scientifica se e solo se i dati che abbiamo a disposizione le forniscono sostegno empirico in base ad argomenti induttivi.

Una versione (la più semplice) di induttivismo prevede che le leggi scientifiche siano essenzialmente generalizzazioni a partire dall’osservazione” secondo uno schema di questo tipo:

a1 ha la proprietà P
a2 ha la proprietà P
a3 ha la proprietà P

-----------------------
dunque: tutti gli a hanno la proprietà P

 

Ecco, per esempio, il “principio d’induzione” secondo B. Russell:

“Questo principio si potrebbe chiamare di induzione, e i due punti di cui consta si potrebbero esprimere così:

    • quando una cosa di tipo A si presenta insieme a una cosa di altro tipo B, e non si è mai presentata separatamente da una cosa del tipo B, quanto più grande è il numero dei casi in cui A e B si sono presentate assieme, tanto maggiore è la probabilità che si presenteranno assieme in un nuovo caso in cui si sa che A è presente;
    • in circostanze uguali, un numero sufficiente di casi in cui due fenomeni si siano presentati assieme farà della probabilità che si presentino ancora assieme quasi una certezza, e farà sì che questa probabilità si avvicini illimitatamente alla certezza”

(I problemi della filosofia, 1912)

…ed ecco Popper sull’induzione e su come si arriva a formulare una teoria:

  •  “L’induzione, cioè l’inferenza fondata su numerose osservazioni, è un mito. Non è né un fatto psicologico, né un fatto della vita quotidiana, e nemmeno una procedura scientifica” (Congetture e confutazioni, 1963)

 

Per articolare il suo punto di vista, Popper insiste sulla asimmetria logica di verificazione e falsificazione.

Prendiamo una proposizione come “tutti i cigni sono bianchi”. Se osserviamo un cigno nero, cioè se abbiamo ragione di ritenere vera, per es., “a è un cigno, ma è nero”, allora, per la regola logica di modus tollens, possiamo dedurre che “non tutti i cigni sono neri”, cioè che la nostra ipotesi è falsa. Ma, per quanti possano essere i cigni bianchi che abbiamo già osservato, non potremo mai inferire con certezza che l’ipotesi è vera (es.: il “tacchino induttivista”…).

Popper trae la conclusione che ciò che è essenziale per la conoscenza è l’evidenza negativa o falsificante, che ci permette di correggere i nostri errori e migliorare le nostre teorie, cioè di mettere da parte le teorie falsificate e sostituirle con nuove ipotesi, da mettere a loro volta alla prova.

Dunque per Popper:

  • Che cos’è la scienza? Beh, una teoria è scientifica se e solo se è falsificabile, cioè se è logicamente incompatibile con certe proposizioni che descrivono fatti “osservabili” e dunque può essere da esse falsificata (nel caso che tali fatti si verifichino).

(Si noti che, su queste basi, “esistono gli Ufo” non è un’ipotesi scientifica: come potrebbe essere falsificata?)

  • Come funziona la scienza? L’evoluzione della conoscenza scientifica è una successione di congetture e confutazioni. Certe ipotesi scientifiche vengono avanzate (liberamente) per spiegare un certo ambito di fenomeni e vengono assunte provvisoriamente. A questo punto, ciò che conta è controllarle.

 

Per Popper il controllo di una teoria non è altro che un tentativo di falsificazione, e deve trattarsi di un tentativo serio: la predizione deve essere il più possibile accurata e rischiosa. Tanto più lo è, tanto più il controllo è severo. (Per es., per Popper l’astrologia non è una scienza, perché gli oroscopi sono vaghi…) Se una teoria è confutata dai controlli severi a cui la sottoponiamo, viene accantonata e sostituita con una nuova ingegnosa congettura. Se supera i controlli severi, allora viene conservata (ma sempre provvisoriamente, fino a che non si presenta altra eventuale evidenza falsificante!). In questo modo, secondo Popper, la scienza progredisce, perché gli errori vengono corretti, cioè le teorie coraggiose e ingegnose, ma che si rivelano false, vengono eliminate.

 

Falsificazionismo vs. induttivismo: alcuni casi

1) La scoperta della prima legge di Keplero (Astronomia nova, 1609)

Prima legge di Keplero: i pianeti descrivono orbite ellittiche, con il Sole in uno dei fuochi.

Tra il 1576 e il 1579 Tycho Brahe, un astronomo danese, esegue una lunga serie di osservazioni astronomiche, la maggior parte delle quali relative al moto dei pianeti. Il telescopio non è ancora stato inventato e le osservazioni di Tycho sono le più accurate mai compiute a occhio nudo. Nel 1597 Brahe lascia la Danimarca per assumere l’incarico di Matematico imperiale alla corte dell’imperatore Rodolfo II, a Praga. Qui, nel 1600, prende il giovane ceco Johannes Kepler come assistente.
Keplero partì dai dati di Tycho e si ripropose per prima cosa di descrivere l’orbita del pianeta Marte.

            la posizione x1 di Marte giace su un’ellisse con il Sole nel fuoco f1
la posizione x2 di Marte giace su un’ellisse con il Sole nel fuoco f1
la posizione x3 di Marte giace su un’ellisse con il Sole nel fuoco f1

-----------------------------------------------------
tutte le posizioni di Marte giacciono su un’ellisse con il Sole in un certo fuoco

L’idea che il lavoro di Keplero possa essere descritto in modo plausibile come una generalizzazione induttiva a partire dall’osservazione di questo tipo non regge.

  • Le premesse di un argomento del genere hanno senso solo se si decide di descrivere le posizioni di Marte in un sistema di riferimento eliostatico (copernicano). Keplero era già un copernicano convinto, ma Tycho no, e la scelta del sistema di riferimento non era affatto contenuta nell’“informazione osservativa” che il secondo lasciava al primo, ma senza questa scelta la scoperta della legge sarebbe stata impossibile.
  • Anche tralasciando questo, c’è il problema dell’“adeguamento della curva” o curve-fitting problem, che non è altro che una versione del problema dell’induzione: per quante siano le posizioni osservate, le orbite sulle quali esse giacciono sono certamente moltissime, in che modo Keplero può essere giunto proprio all’ellisse?

(In particolare, si può dimostrare che Keplero avrebbe potuto accomodare i suoi dati utilizzando una strategia del tutto comune nella tradizione astronomica: descrivere l’orbita come la combinazione di diverse circonferenze – un deferente e diversi epicicli.)

…ma allora: come sono andate le cose?

  • Keplero forse già sapeva, o capì molto in fretta, che i dati di Tycho contraddicevano una prima ipotesi molto naturale: un’orbita circolare con il Sole nel centro;
  • …ne elaborò allora un’altra: orbita circolare con il Sole decentrato. Riempì più di 900 (!) fogli di calcoli per dedurre a partire da questa ipotesi “previsioni” da confrontare con i dati di Thyco: alcune risultarono in accordo con essi, altre no.

 

  • Altra ipotesi: un sistema deferente-epiciclo che generava una specie di curva “a uovo”. Ma anche questa ipotesi non si accordava con i dati.
  • Infine, Keplero considerò l’ipotesi dell’ellisse, che i dati a sua disposizione non smentirono.

 

Þ congetture e confutazioni!

 

2) La curiosa storia della leggedi Titius-Bode

  • Verso la fine del Settecento J.D. Titius e J.E. Bode formulano una “legge” che tutti i pianeti allora noti soddisfano:

 

            D = 0,4 + k×0,3×2n-2

D è la distanza media del pianeta dal Sole in unità astronomiche (una unità astronomica è la distanza media dal Sole della Terra), n è il numero ordinale del pianeta (Mercurio = 1, Venere = 2, ecc.), k = 0 per Mercurio e k = 1 per tutti gli altri.

  • Al momento in cui viene formulata non è chiaro agli astronomi che cosa farsene: tutti i pianeti noti (Mercurio, Venere, Terra, Marte, Giove e Saturno) la rispettano, ma solo ipotizzando che ci sia una “lacuna” per n = 5.

 

  • Nel 1781, però, viene scoperto Urano. Se la formula di Titius-Bode è un’autentica legge scientifica, allora è naturale aspettarsi che il nuovo pianeta la soddisfi. Si fanno i calcoli e si stabilisce che è proprio così! Si tratta di una importante falsificazione mancata.

 

Pianeta

 

n

 

Formula TB

 

Distanza media

 

Scoperta

Mercurio

1

0,4

0,39

precedente

Venere

2

0,7

0,72

precedente

Terra

3

1,0

1,00

precedente

Marte

4

1,6

1,52

precedente

Cerere (e Asteroidi)

5

2,8

2,8

  1801

Giove

6

5,2

5,20

precedente

Saturno

7

10,0

9,52

precedente

Urano

8

19,6

19,16

  1781

Nettuno

9

38,8

29,99

  1846

Plutone

10

77,2

39,37

  1930

  • A questo punto, Bode insiste perché si dia la caccia al “pianeta mancante”, il numero 5. Se non si dovesse trovare nulla, ancora una volta si potrebbe concludere che le legge è falsa.

 

  • Nel 1801 si scopre Cerere, il primo e il più grande di un fascio di asteroidi la cui orbita è compresa fra Marte e Giove alla distanza dal Sole che la formula di Titius-Bode prevede!
  • Ma la legge di Titius-Bode ha meno di cinquant’anni di celebrità: Nettuno (scoperto nel 1846) e Plutone (1930) la falsificano.

 

Þ congetture e confutazioni!

3) Semmelweiss e la febbre puerperale

Ignaz Semmelweiss (1818-65) era ungherese. Va a studiare medicina a Vienna e negli anni ’40 dell’Ottocento comincia a lavorare nel grande Allgemeines Krankenhaus (Ospedale Generale).

L’ospedale aveva un reparto maternità che per i tempi era enorme. Quando Semmelweis comincia la sua carriera, uno dei rischi piú pericolosi del parto è una malattia spesso mortale nota come “febbre puerperale”, perché, generalmente, colpisce durante il puerperium, il periodo di circa 6 settimane dopo il parto quando l’utero ritorna alla grandezza e alla forma normale.

Le strutture che l’ospedale offre alle partorienti sono due distinte cliniche di ostetricia. Fino al 1940 entrambe le cliniche vengono utilizzate per la formazione di studenti di medicina e levatrici (ostetriche), ma a partire dal 1941 i futuri medici fanno le loro esercitazioni solo nella prima clinica e le apprendiste levatrici solo nella seconda. Fino al 1940 la mortalità per febbre puerperale nelle due cliniche è comparabile, ma a partire dall’anno successivo è di quasi tre volte maggiore nella prima che nella seconda. Semmelweiss è perplesso e si interroga sulle cause di questa impressionante differenza.

Si produsse una considerevole serie di congetture:

La febbre puerperale è causata fattori “atmosferici, cosmici, tellurici”.
Si tratta di una versione della cosiddetta “teoria miasmatica” delle malattie, molto popolare all’epoca, secondo la quale le malattie sono dovute a un’atmosfera putrida o “miasma”. (La teoria è sostenuta da quella che gli studiosi dell’epoca considerano una notevole quantità di evidenza favorevole: la malaria, per esempio, si manifesta spesso in zone paludose, e malattie di ogni tipo sembravano piú comuni nei bassifondi, nelle caserme, nelle navi, e negli ospizi di mendicità, tutti sovraffollati, dove l’atmosfera è spesso malsana.)
Ma: le due cliniche si trovano nello stesso edificio e hanno persino un’anticamera in comune.

La febbre puerperale è causata dal sovraffollamento.
Ma: la seconda clinica, nella quale le morti erano meno frequenti è di norma più affollata dalla prima (la quale, comprensibilmente, si guadagna ben presto una fama nefasta e che i pazienti tendevano il più possibile a evitare…).

La pratica clinica degli studenti di medicina (specialmente quelli stranieri) è meno accurata delle studentesse di ostetricia (elaborata da una commissione riunita apposta).
Il numero degli studenti viene ridotto drasticamente, gli stranieri vengono quasi completamente esclusi, le loro attività con i pazienti ridotte al minimo.
Ma: la proporzione fra i tassi di mortalità resta alta.

La febbre puerperale è l’effetto dell’apparizione di un prete che somministra l’estrema unzione a una paziente morente.
Infatti, la sistemazione delle stanze richiede che, nella prima clinica, per raggiungere la paziente il sacerdote debba attraversare diversi locali di ricovero, mentre nella seconda egli poteva accedere direttamente alla stanza dell’interessata. L’ipotesi è dunque che l’effetto psicologico terrificante dell’apparizione del sacerdote debiliti le pazienti della prima clinica, rendendole piú soggette alla febbre puerperale.
“Durante il mio primo periodo come assistente feci appello al senso di umanità del servitore di Dio, e senza difficoltà fu stabilito che, per il futuro, i preti avrebbero seguito una strada indiretta per raggiungere la camera dell’inferma in silenzio e senza essere osservati. Le due cliniche furono cosí rese simili in questo rispetto, ma la differenza nella loro mortalità rimase ancora.” (Semmelweiss)

 

Come si vede, la situazione è molto popperiana. Chiamiano A la proposizione che descrive la differenza dei tassi di mortalità fra la clinica 1 e la clinica 2. Semmelweiss elabora delle ipotesi dalle quali si possa dedurre la proposizione A. Dopodiché deduce da queste ipotesi altre previsioni (in particolare, la previsione che, una volta eliminato il fattore di volta in volta incriminato, la differenza fra la clinica 1 e la clinica 2 sparisca) e controlla se tali previsioni sono o meno corrette. Con questo procedimento numerose ipotesi vengono formulate, controllate e confutate.

 

Nel 1847 un professore di medicina che Semmelweiss conosce bene muore a seguito del manifestarsi di sintomi simili a quelli della febbre pueperale poco dopo essere stato accidentalmente ferito a un dito nel corso di un’autopsia.
Semmelweiss considerò che gli studenti di medicina (ma non le studentesse di ostetricia) alternavano le visite alle pazienti con esercitazioni che spesso consistono nella sezione di cadaveri lavandosi semplicemente le mani con acqua e sapone. Formula così l’ipotesi che la febbre puerperale sia dovuta alla trasmissione di particelle cadaveriche (che resistono al lavaggio con acqua e sapone) alle partorienti da parte del personale medico che le visita.
Per controllare l’ipotesi (tentare una sua falsificazione) Semmelweiss dispone che gli studenti di medicina si lavino con una sostanza disinfettante.
Il risultato è clamoroso: nel 1948 i tassi di mortalità nella prima e nella seconda clinica sono praticamente identici.

La scoperta di Semmelweiss può risultare ovvia ai nostri occhi, ma fu ferocemente osteggiata dalla comunità dei medici del suo tempo. La sua teoria fu respinta e dimenticata, gli fu impedito di continuare a esercitare la sua professione, morì ancora giovane e folle.

 

Problemi del falsificazionismo

 

In un certo senso, sembra chiaro che moltissime teorie scientifiche (comprese teorie
di grande importanza e di grande successo) vengono confutate ma non abbandonate. Molte, addirittura nascono già confutate e restano tali!!

  

 

 

 


alcuni esempi:

  • Fumo e tumore al polmone nei due sessi

[verrà probabilmente trattato a lezione con l’ausilio di grafici]

  • Hiv e Aids: alcuni problemi epidemiologici

Ecco alcune delle difficoltà in cui si sono imbattuti gli esponenti della teoria per cui l’Hiv è la causa dell’Aids e che sono state utilizzate dai loro critici.
Fra il 1985 e il 1986 la stima del numero di persone sieroposive negli Usa oscillava fra il mezzo milione e il milione e mezzo e si prevedeva che nel giro di dieci anni si sarebbe arrivati a una cifra fra i 3 e i 5 milioni. Tuttavia, la stima del numero di persone seriopositive negli Usa non è mai cresciuta a partire dalla metà degli anni ’80, quando queste previsioni vennero elaborate: nel 1990 la stima era di un milione e nel 2000 era ancora compresa fra 800.000 e 900.000.
Proiezioni sull’incidenza dell’Aids negli Usa elaborate nel 1986 prevedevano 270.000 casi cumulativi per il 1991. In base alla definizione della malattia utilizzata al momento di queste proiezioni i casi reali risultarono essere 167.000, il 38% in meno. (La situazione è del tutto analoga in Italia: nel 1988 l’Istituto superiore della sanità prevedeva 26.000 casi di Aids in Italia per il 1990; furono 9.000.)
È stata per questo abbandonata la teoria virale dell’Aids? NO.
I ricercatori hanno reagito sostenendo che: 1) le stime sulla diffusione del virus per gli anni passati erano state esagerate, e andavano riviste (1990: “in realtà nel 1986 erano solo circa 750.000”; 1996: “nel 1992 erano ancora solo 650.000-900.000…”); 2) il basso tasso di diffusione del virus che era comunque riscontrabile era dovuto al successo delle campagne di prevenzione; 3) l’incidenza, inferiore alle attese, della diffusione della malattia era dovuta all’impiego di farmaci che ritardavano la comparsa dell’Aids clinico.

  • Galileo e l’argomento della torre

Galileo era, in astronomia, un convinto copernicano. Gli aristotelici e sostenitori del sistema tolemaico opponevano, tra l’altro, ai copernicani un’obiezione nota come “l’argomento della torre”. Se la terra fosse in movimento come sostiene Copernico, argomentavano, un corpo gettato da una torre dovrebbe giungere a terra a una certa distanza dalla base della torre in una posizione che risulterebbe dalla combinazione del suo moto verticale e quello della Terra. Avviene però l’esatto contrario, il che falsifica il sistema copernicano.
Il sistema copernicano venne per questo abbandonato da Galileo? NO.
Piuttosto, nel Dialogo sui massimi sistemi affronta l’obiezione invocando un principio di inerzia circolare, che attribuisce a sistemi in movimento circolare con velocità angolare costante (Galileo considerava la Terra uno di questi) le stesse proprietà che valgono per sistemi in moto rettilineo uniforme (come può essere una nave o un’automobile) e nei quali in particolare – argomenta Galileo – solo i moti relativi sono operativi.
(Provate a riflettere su questa altra confutazione del sistema copernicano: la Luna ruota intorno alla Terra, e non al Sole!...)

  • Newton, Laplace e Napoleone

Secondo un episodio che compare più nell’aneddotica, o addirittura nel “folklore”, della scienza più che nella sua storia, all’inizio dell’Ottocento sarebbe successo su per giù quanto segue. Dopo che Pierre Laplace (uno dei più grandi scienziati della sua epoca, fervente newtoniano) ha presentato a Napoleone un’opera nella quale espone la sua “teoria dei cieli”, ha luogo questo dialogo: Napoleone – “Vedo che nella sua opera non ha menzionato Dio”; Laplace – “Non ho avuto bisogno di questa ipotesi”.
Alle spalle del fatto (o della leggenda) c’è però un problema serio. I calcoli di Newton e dei suoi allievi, fondati sulla teoria della gravitazione universale, non riuscivano a rendere conto del moto di Giove e Saturno e prevedevano un veloce e catastrofico collasso del sistema planetario. Ma naturalmente il sistema solare sembrava essere in uno stato di ragionevole equilibrio da un bel po’ di tempo.
La meccanica newtoniana venne per questo abbandonata? NO.
I newtoniani affrontarono il problema sostenendo che Dio, di tanto in tanto, ristabiliva l’equilibrio del sistema (!).
(Vale la pena di ricordare che Newton era anche filosofo e teologo e si prese la pena di difendere in modo agguerrito il suo Dio “interventista” da quello “orologiaio” dei rivali cartesiani.)

  • Newton vs. Flamsteed

“Flamsteed, l’astronomo reale del tempo di Newton, mandò a quest’ultimo una tavola di dati sul moto lunare che mostravano che la teoria di Newton non funzionava…”
Newton abbandona per questo la sua teoria? Neanche per sogno.
“…Newton, ricevuti questi dati, prende una carrozza e si precipita a Greenwich dove incontra Flamsteed e gli dice: ‘Assumiamo che qui ci sia la Terra e qui la Luna; come fate a calcolare dalle vostre osservazioni la vera posizione della Luna dato che i raggi di luce quando raggiungono l’atmosfera si rompono? Se osserviamo la Luna da questo punto, la vediamo come se fosse qui, proprio a causa di questo fenomeno. Così’, dice Newton, ‘ho il sospetto che non siano le mie quattro leggi a essere sbagliate, ma la vostra teoria della rifrazione atmosferica.’ ‘Qual è la vostra teoria della rifrazione atmosferica?’ chiede Flamsteed. E Newton: ‘Va bene: vi manderò una spiegazione della mia teoria della rifrazione atmosferica; dopo ricalcolate le vostre tabelle, ma non vi preoccupate di mandarmele perché sono sicuro che, dopo aver tenuto conto dell’effetto di rifrazione, andranno bene’.” (da I. Lakatos e P. Feyerabend, Sull’orlo della scienza. Pro e contro il metodo, Cortina, Milano, 1995)

  • William Prout e i pesi atomici

Nel 1815 Prout elabora la “congettura” che il peso atomico di un qualsiasi campione “puro” di un dato elemento chimico è un numero intero. In base alle nostre attuali conoscenze possiamo dire che l’ipotesi di Prout è corretta (con alcune precisazioni) e che alle sue spalle ci sono gli affascinanti risultati di decenni di storia della fisica dell’atomo. Ma per circa cento anni dopo la sua enunciazione gli sperimentatori non fecero altro che confutarla, misurando pesi atomici decimali.
Non solo queste confutazioni non indussero all’abbandono dell’ipotesi, ma alcune di esse erano già ben note all’epoca della sua prima formulazione. La reazione di Prout e dei suoi seguaci fu di sostenere che le tecniche sperimentali di purificazione degli elementi erano inaffidabili, cioè a loro volta fondate su ipotesi false.

  • Velikovsky

Nel 1950, in Worlds in Collision, Immanuel Velikovsky espone la teoria del “catastrofismo cosmico” secondo cui i pianeti del sistema solare non sarebbero sempre stati fissi nelle loro orbite; in particolare, la Terra sarebbe stata soggetta a enormi cataclismi prodotti dalla collisione con la coda di comete giganti. Una di queste comete avrebbe incontrato la Terra durante la prigionia del popolo di Israele in Egitto e sarebbe stata responsabile di eventi come la divisione delle acque del Mar Rosso.
Sembra naturale aspettarsi che ogni popolo che abbia assistito a eventi del genere li abbia in qualche modo documentati. Dunque, il fatto che molte civiltà contemporanee a fatti raccontati, poniamo, nella Bibbia non sembrino averli nemmeno notati falsifica la teoria.
Ma gli esponenti del catastrofismo non si sono fatti impressionare. Velikosky attribuisce la mancanza di resoconti a una “amnesia collettiva”: i cataclismi sarebbero stati così traumatici che i popoli che vi assistettero ne “rimossero” il ricordo.

Che cosa sta succedendo qui? Che cosa non funziona? Che cosa ci sfugge?

 

Alcune reazioni: Thomas Kuhn e Paul Feyerabend

Osservazioni ben documentate su casi di questo tipo (e altri ancora) che sembrano sfuggire alla rappresentazione popperiana dell’alternarsi di coraggiose congetture ed emozionanti tentativi di confutazione emergono chiaramente dal lavoro di autori come Thomas Kuhn (1922-1996) e Paul Feyerabend (1924-1994).

La pubblicazione de La struttura delle rivoluzioni scientifiche di Thomas Kuhn (1962) è, dal punto di vista storico, un punto di svolta nella filosofia della scienza del Novecento. Kuhn lancia alla filosofia della scienza una sfida formidabile basandosi sulla storia della scienza. (Kuhn non è stato il primo a farlo, ma nessun altro ha catturato allo stesso modo l’attenzione.)
Ecco come inizia La struttura delle rivoluzioni scientifiche:

“La storia, se fosse considerata come qualcosa di più che un deposito di aneddoti o di una cronologia, potrebbe produrre una trasformazione decisiva dell’immagine della scienza da cui siamo dominati.”

Riguardo a Popper i principali problemi che Kuhn solleva sono i seguenti:

  • gli scienziati per lo più non sembrano affatto particolarmente interessati alle confutazioni…

 

  • il lavoro dello scienziato (almeno in quelli che Kuhn chiama i periodi di “scienza normale” ispirata a un certo “paradigma”) non sembra affatto consistere nel “creare” nuove ingegnose e ardite congetture, ma nel “risolvere rompicapi” all’interno di una tradizione ben consolidata
  • …nemmeno quando un rompicapo risulta essere particolarmente arduo e resistente viene considerato come una confutazione, ma piuttosto come un’“anomalia” e, tipicamente, gli scienziati non abbandonano a causa sua la loro teoria preferita (che Kuhn chiama paradigma)per sostituirla con una nuova coraggiosa “congettura” creata dal nulla, ma piuttosto cercano ancora di “rattoppare” la teoria stessa per accomodare i dati recalcitranti e, se proprio non ci riescono, li mettono da parte e aspettano che qualcosa succeda!

 

  • è quella speciale forma di dogmatismo che consiste nell’impegno ad articolare, estendere e difendere un certo paradigma il tratto caratteristico della scienza: la scienza (normale) è risoluzione di rompicapi (puzzle-solving)
  • è vero che numerose anomalie possono indebolire un paradigma, ma in generale esso non sarà abbandonato a meno che e fino a che non vi sia un’alternativa in qualche modo promettente

 

  • anche allora, però, cioè nel contesto dei periodi di scienza rivoluzionaria,non avviene nulla di simile a un dibattito e a una scelta fra teorie concorrenti “metodologicamente disciplinata”, ma piuttosto qualcosa di simile a una “conversione” (o un “riorientamento gestaltico”) all’interno della comunità dei ricercatori, e soprattutto da parte di quelli più giovani
  • infine, le rivoluzioni scientifiche sono processi altamente non-cumulativi, sicché, mentre parlare di progresso all’interno di un paradigma non dà problemi, parlare di progresso attraverso le rivoluzioni è azzardato

 

Ed ecco alcune importanti conclusioni che Paul Feyerabend ha tratto muovendo dalle difficoltà dei tentativi come quello di Popper di creare una teoria generale della scienza (potete trovarle illustrate in modo intrigante nei suoi bellissimi libri, si vedano i riferimenti biblio):

  • “Anarchismo metodologico”: “Non esiste nessun insieme finito di regole generali che abbia contenuto (cioè raccomandi o vieti procedure ben definite) e sia compatibile con tutti gli eventi che hanno segnato la nascita e il progresso della scienza moderna” (Addio alla ragione, 1987)

Per Feyerabend gli scienziati (specie quelli migliori) sono degli “opportunisti metodologici”, geniali e imbroglioni e ogni teoria generale della scienza è impossibile. Questo ha almeno due importanti conseguenze:

    • da una parte, la scienza e gli scienziati vanno liberati dalle gabbie che le filosofie della scienza vorrebbero imporre (“libertà per la scienza”);
    • dall’altra, la società va liberata dalla soggezione per la presunta superiorità intellettuale (la “razionalità”) della scienza – che è fondata sull’ignoranza e il fraintendimento di quello che è il suo reale funzionamento – e deve essere in grado di decidere in modo completamente libero, democratico e autonomo se e come  recepire ciò che la scienza elabora e produce (“libertà dalla scienza”, o anche “separazione di Stato e Scienza”)
      • Un secondo punto: la storia della scienza insegna (a parere di Feyerabend) che è la critica che proviene da un punto di vista esterno, eretico, rivoluzionario che promuove la “dinamica” della scienza sollecitando l’articolazione, l’esplicitazione e la discussione di dettagli o premesse che restavano in ombra o erano erroneamente dati per scontati.

Per Feyerabend l’unico “progresso” che la scienza (come la vita) può conoscere sta nell’arricchimento, nella proliferazione delle alternative e dei punti di vista contrastanti e l’unica “regola” da raccomandare è l’incoraggiamento spregiudicato di tale proliferazione.

Abbiamo trattato (molto brevemente) le posizioni di Thomas Kuhn e Paul Feyerabend perché i loro libri sono bellissimi e importanti nella storia della filosofia della scienza e per ragioni di completezza. Ma noi non seguiremo la loro strada.

 

Ancora un caso

Quello che segue è un altro caso storico che non sembra possa essere facilmente compreso con gli strumenti messi a disposizione dal falsificazionismo di Popper (più avanti vedremo in che senso somiglia molto a quelli precedenti)

  • i geologi contro i fisici: l’età della Terra

Nel 1830 Charles Lyell pubblica quello un volume che è considerato l’atto di nascita delle moderne scienze della Terra: Principles of Geology. La posizione di Lyell è nota come una forma di uniformismo: l’aspetto attuale della Terra è il risultato di cause fisiche tuttora presenti (come, ad esempio, l’erosione) che hanno operato per tutta la storia del pianeta in modo uniforme alle loro modalità attualmente osservabili. L’uniformismo si opponeva dunque al ricorso a eventi catastrofici nella ricostruzione dell’evoluzione del nostro pianeta e nella spiegazione del suo stato attuale. Come si vede, il genere di cause che l’uniformismo ammette operano molto lentamente. Per questo, la teoria includeva l’ipotesi che la Terra avesse una storia passata di enorme lunghezza. Per ragioni teoriche non molto diverse, questa ipotesi viene accolta con entusiasmo da Darwin nella prima edizione (1859) dell’Origine delle specie. Darwin stesso stima l’età della Terra non inferiore a trecento milioni di anni (e ipotizza, in effetti che sia di molto superiore).

Negli stessi anni prende posizione sul problema dell’età della Terra William Thomson, meglio noto come Lord Kelvin, un personaggio poliedrico e brillante e uno dei più autorevoli fisici della sua generazione. In diversi suoi scritti Kelvin attacca le teorie al tempo dominanti argomentando che l’attuale stato termico della Terra confuta le stime degli uniformisti. L’argomento è più o meno questo. Supponiamo, dice Kelvin, che la Terra esista da svariate centinaia di milioni di anni. In origine, deve essere stata una “palla infuocata” la cui temperatura si aggirava intorno a quella della fusione delle rocce (circa 7.000/10.000 gradi Fahrenheit). La termodinamica (di cui Kelvin fu uno dei fondatori) stabilisce che debba esserne seguito un graduale, irreversibile raffreddamento. Assumiamo poi che (al tempo nessuno aveva ragione di dubitarne) non vi siano altre fonti di energia in grado di compensare la dissipazione del calore. Usando le stime più attendibili sulla velocità di conduzione del calore dovremmo aspettarci che, al momento attuale, la Terra fosse un deserto di ghiaccio, o qualcosa del genere. Il che, evidentemente, non è. Kelvin calcola poi che il reale stato termico attuale della Terra sia compatibile, cioè non confuti, una età della Terra non superiore a i duecento milioni di anni.
“L’irresponsabile appello alla banca del tempo con cui Lyell, Darwin e i loro seguaci tendevano a pagare i loro debiti esplicativi era ricondotto entro i limiti di un’economia sensata – vittoriana, verrebbe da dire.” (Bencivenga)

In questo caso, la resistenza dei geologi alla falsificazione della loro teoria fu vinta in tempi decisamente brevi. Nel giro di una ventina d’anni la maggior parte di loro (e lo stesso Darwin) ritrattarono. Come se non bastasse, i suguaci di Kelvin restrinsero ulteriormente le sue stime, cioè sostennero che lo stato termico attuale della Terra falsificasse anche le stime di cento-duecento milioni di anni che egli aveva considerato salve; i geologi furono contretti a rincorrere i fisici e a combattere con i numeri sostituendo ipotesi a ipotesi. Il paradosso è che, in questo caso, sembra proprio che i geologi avrebbero fatto meglio a tener duro sulle loro posizioni (come Prout e i suoi, per esempio). Infatti:

  • 1903: Pierre Curie e Albert Laborde annunciano la scoperta che i sali di radio sono una fonte costante di calore;
  • 1904: Himsted annuncia che la Terra contiene depositi di radio e dunque che il calore generato dalla radioattività va preso in considerazione quando se ne studia la storia termica. Liebenow calcola che la presenza di 1/5.000 di milligrammo di radio per ogni metro cubo del volume della Terra è sufficiente per compensare la dispersione di calore prevista dal secondo principio della termodinamica.

Come probabilmente sapete, la conoscenza dei tempi e modi di decadimento di elementi radioattivi contenuti in campioni di materiale terrestre è divenuta ben presto proprio un potente strumento per valutare a quando risale la loro costituzione e, su questa base, le attuali stime sull’età della Terra si avvicinano molto di più ai tempi “enormi” di Lyell che non a quelli calcolati da Kelvin e i suoi seguaci.

Ma allora: che cosa sta succedendo qui? Lo stato termico attuale della Terra confutava un’età della Terra di enorme lunghezza nel 1870 e non la confutava più nel 1905? Ma la confutazione si basa semplicemente sulla contraddizione, la contraddizione è un rapporto logico, e i rapporti logici non mutano nel tempo! E allora? Siamo vicinissimi a un problema molto importante e delicato…

Il problema di Duhem (il falsificazionismo era nato morto?)

Pierre Duhem è un fisico, storico e filosofo della scienza francese che vive fra l’Ottocento e il Novecento. La sua opera più importante, La teoria fisica, è del 1906 e ha dunque quasi un secolo di vita. È stata pubblicata molto prima di tutti i lavori e i contributi che abbiamo citato fino ad adesso. Eppure Duhem coglie un fondamentale aspetto della logica della scienza e del suo funzionamento che è stato a lungo ed erroneamente trascurato e che sta alla base di tutti i casi storici problematici che abbiamo visto finora.

Quando si discute delle conseguenze osservative o controllabili (per esempio: avvistamenti astronomici) di una teoria bisogna (per esempio la meccanica newtoniana) stare molto attenti. Tipicamente, per poter dedurre delle conseguenze osservative è (logicamente) necessario utilizzare un insieme abbastanza ampio di premesse che includono:

  • un insieme di proposizioni (chiamiamole H1, …, Hn) che appartengono alla teoria su cui in quel momento si concentra l’attenzione (per esempio le leggi della meccanica newtoniana, o di quella quantistica);

 

  • un insieme di proposizioni cosiddette “ausiliarie” (chiamiamole A1, …, Ai); ce ne sono di moltissimi tipi; nelle scienze naturali è molto comune l’utilizzo di quelle che regolano l’impiego di strumenti di osservazione o misurazione, cioè che permettono di passare da stati di cose direttamente osservabili (come un numero su un display, una figura su uno schermo o su una pellicola) a quei fenomeni che ci interessa mettere in relazione con la teoria H1, …, Hn (come l’intensità della corrente elettrica, la posizione di un pianeta, la traiettoria di una particella);
  • l’insieme delle condizioni iniziali (o “condizioni al contorno”), chiamiamole I1, …, Ik, che riguardano, per esempio, la presenza, l’assenza e il genere di fattori rilevanti nel caso che ci interessa (per esempio la presenza o l’assenza di un campo elettromagnetico, il numero dei corpi che influenzano il moto di un certo pianeta, la presenza di un effetto placebo e cose di questo genere).

 

Quindi la situazione, dal punto di vista logico, è questa:

(H1 Ù … Ù Hn Ù A1 Ù … Ù Ai Ù I1 Ù … Ù Ik) ® O

Come si vede, è coinvolto un intero sistema teorico, che può essere anche molto complesso.
(O è una proposizione che descrive uno stato di cose direttamente osservabile, una proposizione la cui verità o falsità riteniamo sia decidibile in modo affidabile sulla base dell’esperienza diretta.)

Ora supponiamo che il tentativo di falsificazione riesca e che si osservi quindi uno stato di cose descritto dalla proposizione ØO. A questo punto, per le regole della logica (modus tollens) avremo:

            ØO ® (ØH1 Ú … Ú ØHn Ú ØA1 Ú … Ú ØAi Ú ØI1 Ú… Ú ØIk)

Ma se assumiamo, con Popper, che tutte le premesse sono sempre ipotetiche, congetturali e correggibili, allora a questo punto sulla base della logica possiamo, sì, concludere che almeno una di esse è falsa, ma non possiamo stabilire QUALE!!

L’immagine che Popper esprime è quella in cui la possibilità puramente logica della falsificazione genera uno scontro eroico fra ipotesi e fatti che costringe gli scienziati ad abbandonare le loro vecchie coraggiose e innovative teorie e a idearne di nuove altrettanto coraggiose e innovative.
Ma il problema sottolineato da Duhem ha come conseguenza che è perfettamente possibile dal punto di vista logico che uno scienziato, a fronte di dati avversi, resti tenacemente aggrappato alla sua teoria preferita “dirottando” la falsificazione su una parte più “periferica” del sistema teorico e proponendo una modifica la cui portata è molto più circoscritta di quella delle “audaci congetture” di Popper. In altre parole, le osservazioni di Duhem forniscono la base logica per l’esistenza della “scienza normale” di Kuhn.

“Tra gli elementi teorici [...] ve n’è sempre un certo numero che i fisici di una determinata epoca si accordano di accettare senza controllo, considerandoli fuori contesto. A questo punto il fisico che debba modificare la teoria fonderà certamente la sua modifica su elementi diversi da quelli. Ma ciò che spinge il fisico ad agire in questo modo non è certo una necessità logica. Agendo diversamente egli potrebbe essere maldestro e male ispirato, non procederebbe per questo sulle tracce del geometra tanto insensato da contraddire le sue stesse definizioni, non farebbe niente di assurdo. Ma c’è di più: un giorno forse, agendo diversamente, rifiutandosi di invocare cause di errore e di ricorrere a correzioni per ristabilire l’accordo tra lo schema teorico e il fatto, operando risolutamente una riforma nelle proposizioni che un accordo comune dichiarerebbe intoccabili, egli compirà l’opera geniale che apre una nuova possibilità alla teoria. Infatti, le ipotesi, diventate convenzioni universalmente accettate, la cui certezza sembra spezzare la contraddizione sperimentale e respingerla su altre supposizioni più dubbie, non andrebbero considerate per sempre al sicuro. La storia della fisica ci mostra che molto spesso lo spirito umano è stato condotto a rivoltare da capo a fondo tali principi considerati concordemente, per secoli, assiomi inviolabili, e a ricostruire su nuove ipotesi le sue teorie fisiche.” (Duhem 1906: 238)

“[Un fisico] può sentirsi obbligato a salvaguardare certe ipotesi fondamentali mentre tenta di ristabilire l’accordo tra le conseguenze della teoria e i fatti, complicando lo schema al quale si applicano le ipotesi, invocando cause d’errore diverse, moltiplicando le correzioni. L’altro, disdegnando procedimenti complicati, può limitarsi a cambiare alcune delle rappresentazioni essenziali che sono alla base dell’intero sistema. Il primo non ha certo il diritto di condannare in anticipo l’audacia del secondo, né il secondo quello di ritenere assurda la timidezza del primo. I metodi seguiti da entrambi non sono giudicabili se non dall’esperienza, e se entrambi soddisfano le esigenze dell’esperienza, è logicamente consentito all’uno e all’altro di dichiararsi contenti dell’opera compiuta. Ciò non significa che non si possa preferire l’opera dell’uno a quella dell’altro [...]. Può accadere che noi non troviamo affatto sensata la fretta con cui il secondo sconvolge i principi di una vasta teoria armoniosamente costruita, quando una modificazione secondaria, una leggera correzione sarebbero sufficienti a mettere d’accordo le teorie con i fatti. Può darsi al contrario che consideriamo puerile e irragionevole l’ostinazione con cui il primo fisico mantiene, costi quel che costi, a prezzo di continue riparazioni e di una moltitudine di puntelli ingarbugliati, i pilastri tarlati di un edificio traballante laddove, demolendo i pilastri, sarebbe possibile costruire, su nuove ipotesi, un sistema semplice, elegante, solido.” (ibid.: 243-44)

Il principio di falsificabilità può ancora essere considerato prezioso rispetto alla questione: che cos’è la scienza? (quando una teoria è scientifica?)
Ma la rappresentazione di Popper di come la scienza funziona è insufficiente.
Infatti, sappiamo che non tutti i tentativi di resistere alla falsificazione modificando il sistema teorico vengono giudicati legittimi, corretti o hanno successo. C’è qualche principio metodologico generale che distingue i casi riusciti da quelli che non lo sono e mostra come e fino a che punto è razionale difendere un certo insieme di ipotesi teoriche e quando è invece il momento di metterlo da parte? Per trovare una risposta interessante, dovremo guardare altrove.

 

 

Riferimenti bibliografici:

Per un’introduzione al pensiero di Karl Popper:

  • M. Motterlini, Karl Popper, Il Saggiatore-Flammarion, Milano, 1998

Due fra le opere più note e importanti di Popper:

  • Logica della scoperta scientifica, Einaudi, Torino, 1970.
  • Congetture e confutazioni, Il Mulino, Bologna, 1985.

Per un’introduzione accessibile alla logica formale:

  • M. Mondadori e M. D’Agostino, Logica, Mondadori, Milano, 1997.

Due buoni testi introduttivi generali sulla filosofia della scienza:

  • D. Gillies e G. Giorello, La filosofia della scienza nel XX secolo, Laterza, Roma-Bari, 1993.
  • G. Giorello, Introduzione alla filosofia della scienza, Garzanti, Milano, 1994.

Uno dei più grandi letterati del Novecento, L.F. Céline, era medico e dedicò alla storia di Semmelweiss la sua tesi di laurea. In pratica si tratta del suo primo romanzo.

  • L.F. Céline, Semmelweiss, Adelphi, Milano.

Uno dei libri più importanti e influenti per la filosofia della scienza del Novecento, per la storia della scienza e per il loro complesso rapporto:

  • T.S. Kuhn, La struttura delle rivoluzioni scientifiche, Einaudi, Torino.

Alcuni lavori provocatori e accessibili di Feyerabend:

  • P.K. Feyerabend, Contro il metodo. Abbozzo di una teoria anarchica della conoscenza, Feltrinelli, Milano.
  • La scienza in una società libera, Feltrinelli, Milano.
  • Scienza come arte, Laterza, Roma-Bari.
  • Dialogo sul metodo, Laterza, Roma-Bari.
  • Dialoghi sulla conoscenza, Laterza, Roma-Bari.
  • Ammazzando il tempo. Un’autobiografia, Laterza, Roma-Bari.

Una rassegna ben scritta di casi problematici nella storia della scienza:

  • E. Bencivenga, I passi falsi della scienza, Garzanti, Milano, 2001.

Fonte: http://disi.unitn.it/~bouquet/filosofia_della_scienza/Appunti_Filosofia_della_scienza.doc

Sito web da visitare: http://disi.unitn.it

Autore del testo: sopra indicato nel documento di origine

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.

 

Filosofia della scienza appunti

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Filosofia della scienza appunti

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Filosofia della scienza appunti