Tra scienza e scientismo – In edicola

Nel numero 101 della rivista mensile l’Altra Medicina è presente un mio articolo dal titolo Tra scienza e scientismo, nel quale introduco ai principi di epistemologia necessari a distinguera la prima dal secondo.

Nei tempi attuali, nei quali la scienza sempre più sostituisce la politica nel governo della società, diventa essenziale imparare a discriminare tra conoscenze realmente scientifiche e affermazioni che sebbene si dichiarino scientifiche mancano dei presupposti per esserlo realmente.

Di seguito il testo:

Tra Scienza e Scientismo

We are most of us governed by epistemologies that we know to be wrong”

Gregory Bateson

 

Iniziamo con alcune definizioni: la scienza è un complesso organico di conoscenze ottenute tramite rigorosi procedimenti di verifica della loro validità; lo scientismo è l’indebita estensione della scienza oltre i suoi intrinseci limiti; l’epistemologia è la disciplina che si occupa delle condizioni sotto le quali può esserci conoscenza scientifica e dei metodi per raggiungerla. Ovvero, l’epistemologia ci insegna come distinguere la scienza dallo scientismo, per questo è così importante. Diversamente da una mela che si stacca da un ramo, che sempre cade a terra, a meno che sia in atto un qualche trucco o si sia testimoni di un vero e proprio miracolo, gli eventi di pertinenza di discipline come la biologia, la medicina o la psicologia non offrono simili certezze. Esiste semmai una cospicua varietà nella risposta che individui diversi hanno a contatto con uno stesso patogeno, uno stesso trauma o uno stesso trattamento. Inoltre, constatare l’esistenza di una conseguenza non autorizza a inferirne una relazione di causa effetto poiché, a meno di essere certi di avare isolato tutti i possibili fattori intervenienti, la correlazione osservata potrebbe essere spuria, cioè dovuta ad altra causa. L’osservazione di un singolo caso clinico è scarsamente predittiva dell’estensibilità degli esiti osservati ad altri individui, “a tizio è accaduto”, sempre che si tratti di una testimonianza sincera e correttamente riportata, attesta che tale esito è possibile ma non ci dice niente sulle reali cause, né pertanto su come e se altri nella stessa condizione avranno lo stesso esito.

Per questi motivi la ricerca necessita della statistica per inferire con quale probabilità in presenza di uno specifico evento possiamo attenderci determinate conseguenze, purché siano rispettate specifiche condizioni, all’aumentare delle quali cresce l’affidabilità della previsione. Esistono pertanto distinti livelli di conoscenza ottenibili da diversi disegni di ricerca: i casi clinici o gli studi osservazionali possono indicare che un’ipotesi sia degna di essere indagata; gli studi correlazionali suggeriscono se la tesi merita approfondimento; gli studi sperimentali, possibilmente randomizzati e in doppio cieco, validano o falsificano l’ipotesi, con uno specifico grado di significatività (usualmente al 5%, ovvero la probabilità di non più di un caso su venti che i dati osservati siano dovuti al caso); tali risultati possono essere estesi alla popolazione con caratteristiche analoghe a quella esaminata (non è lecito presumere che, ad esempio, la risposta a un patogeno di soggetti anziani affetti da più patologie sia analoga a quella di soggetti giovani e sani) se – e solo se – i risultati sono riprodotti da un numero sufficiente di altri studi, e di tale verifica si occupano le metanalisi; mentre le revisioni sistematiche offrono il punto della situazione sull’argomento in questione. Come è noto, in ambito sanitario si è affermata la cosiddetta evidence based medicine, definita dal suo promotore, il medico canadese David Lawrence Sackett, in un celebre articolo del British Medical Journal (Sackett et al., 1996) “the conscientious, explicit, and judicious use of current best evidence in making decisions about the care of individual patients” (p. 71). Le migliori evidenze, per quanto di fatto siano probabilità e non evidenze, sono appunto quelle offerte dalla ricerca scientifica nell’ordine inverso a quello sopra esposto. Conoscenze scientifiche sono unicamente le ipotesi sopravvissute all’intero percorso di ricerca (poiché è universalmente adottata la tesi di Karl Popper che un’ipotesi non può mai essere verificata ma la si può solo provvisoriamente accettare a meno che sia stata falsificata), diversamente si tratta di ipotesi di scienziati, il che è lungi dall’essere la stessa cosa.

Purtroppo però, non solo le ipotesi sono fin troppo spesso spacciate per certezze, ma l’intero sistema è così in crisi da spingere lo stimatissimo professore della Stanford University, John Ioannidis, tra gli scienziati più citati al mondo, a scrivere a David Sackett, in una lettera intitolata Evidence-based medicine has been hijacked, che:

As EBM became more influential, it was also hijacked to serve agendas different from what it originally aimed for. Influential randomized trials are largely done by and for the benefit of the industry. Meta-analyses and guidelines have become a factory, mostly also serving vested interests. National and federal research funds are funneled almost exclusively to research with little relevance to health outcomes. […] Under market pressure, clinical medicine has been transformed to finance-based medicine. In many places, medicine and health care are wasting societal resources and becoming a threat to human well-being. (Ioannidis, 2016, p. 82).

Nel 2005, Richard Horton, direttore dalla prestigiosa rivista The Lancet, in un’inchiesta promossa dal Parlamento Britannico (Great Britain Parliament House of Commons Health Committee, 2005) afferma che “at almost every level of NHS [National Health Service – il sistema sanitario britannico] care provision the pharmaceutical industry shapes the agenda and the practice of medicine” (p. 243); relazione che poche righe più sotto Horton definisce di tipo parassitario, aggiungendo che “adverse drug reactions were found to be the fourth commonest cause of death in the United States” (p. 243).

Ma come è possibile che la migliore metodologia scientifica ad oggi disponibile abbia prodotto tali risultati? Ci sono molteplici motivazioni che spaziano dalla scarsa competenza statistica di alcuni ricercatori e gli errori derivanti; agli interessi di carriera dei ricercatori (il noto detto “publish or perish”); alle cattive abitudini delle stesse riviste scientifiche che tendono a non pubblicare i tentativi di replicazione di precedenti studi; a vere e proprie frodi scientifiche e conflitti di interessi; come riportato in Why Most Published Research Findings Are False (Ioannidis, 2005). L’aspetto probabilmente più problematico è conosciuto con il nome di crisi della riproducibilità, poiché ripetere gli esperimenti è imprescindibile alla ricerca scientifica, che diversamente non ha modo di sapere se i risultati di un lavoro siano dovuti al puro caso, o addirittura alla frode. Troppo spesso tuttavia interi campi di studio si basano su ricerche che non sono mai state replicate. A titolo di esempio, tra i molti possibili, un articolo del Reuters intitolato In cancer science, many ‘discoveries’ don’t hold up (Bagley, 2012) ci informa del presidente di un’azienda biomedica che tenta di ripetere 53 studi cardine e scopre di poterne replicare solo l’11%, commentando: “It was shocking, these are the studies the pharmaceutical industry relies on to identify new targets for drug development”, e di altri episodi analoghi. Le condizioni a rischio di errori, o di deliberata manipolazione, sono tuttavia molte e ognuna di esse meriterebbe un approfondimento. Come pure, in un panorama dominato dalla necessità di essere evidence based, sarebbe necessario mostrare che pratiche che non lo sono molto spesso neppure possono esserlo, vuoi perché non in grado di accedere agli ingenti capitali necessari a una seria sperimentazione, vuoi per alcune condizioni che non ne consentono l’autorizzazione da parte di una commissione etica, ma anche talvolta per oggettive impossibilità sperimentali. Devo tuttavia limitarmi ad accennare alla problematica per tornare alla visione generale su scienza e scientismo. Chi si occupa di scienza, quella vera, conosce bene quali ne sono le potenzialità, le condizioni necessarie, e i limiti intrinseci; anche se talvolta ha la credenza che la scienza sia capace di autocorreggersi. Tuttavia la supposta autocorrezione si basa sulla riproducibilità e se quest’ultima viene a mancare, ecco che manca anche la prima. Altri motivi sono esposti da Ioannidis (2012) in Why Science Is Not Necessarily Self-Correcting e in A manifesto for reproducible science (Munafò et al., 2017), dove auspica che vengano attuate le pratiche necessarie affinché l’autocorrezione scientifica sia effettiva e non solo un mito. Allo stato attuale tuttavia, è bene sottolinearlo, così non è.

Concludendo, la buona scienza esiste eccome, ma non è quella che prospetta granitiche certezze e richiama alla cieca obbedienza. La vera scienza è assolutamente democratica, nel suo più profondo significato che chiunque ne conosca il linguaggio può personalmente verificare la correttezza e il valore delle ricerche effettuate; la vera scienza non è, né può essere, dogmatica. Lo scientismo è dogmatico, e così facendo tradisce completamente proprio i principi che afferma di promuovere. Buona scienza a tutti!

Bibliografia

Bagley, S. (2012). In cancer science, many “discoveries” don’t hold up. In Reuters. Retrieved from: https://www.reuters.com/article/us-science-cancer-idUSBRE82R12P20120328

Great Britain Parliament House of Commons Health Committee. (2005). The influence of the pharmaceutical industry: Formal minutes, oral and written evidence. London: The Stationery Office Limited.

Ioannidis, J. P. A. (2005). Why Most Published Research Findings Are False. Plos Medicine, 2(8):e124, 696-701

Ioannidis, J. P. A (2012). Why Science Is Not Necessarily Self-Correcting. Perspectives on Psychological Science, 7(6), 645-654.

Ioannidis, J. P. A. (2016). Evidence-based medicine has been hijacked: a report to David Sackett. Journal of Clinical Epidemiology , Volume 73 , 82 – 86.

Munafò, M. R., Nosek, B. A., Bishop, D. V. M., Button, K. S., Chambers, C. D., Percie du Sert, N., Simonsohn, U., Wagenmakers, E-J., Ware, J. J., Ioannidis, J. P. A. (2017). A manifesto for reproducible science. Nature Human Behaviour, 1(1), 0021.

Sackett, D. L., Rosenberg, W. M., Gray, J. A., Haynes, R. B., & Richardson, W. S. (1996). Evidence based medicine: what it is and what it isn’t. BMJ : British Medical Journal, 312(7023), 71–72.

Chiama
× Chat