Vaccini e autismo: davvero ci servono altre prove?
Una volta mi hanno mandato un articolo scientifico-scherzo che si intitolava “Uso del paracadute per la prevenzione di morte e trauma grave a seguito di stress gravitazionale: revisione sistematica dei trial controllati randomizzati”. L’articolo raccoglieva tutta la letteratura scientifica prodotta sull’uso dei paracadute e concludeva, numeri alla mano, che non ci sono prove sufficienti per dire che i paracadute siano una protezione, e dunque bisognerebbe fare una sperimentazione controllata in cui si buttino alcune persone con o senza paracadute da un aereo per vedere se effettivamente quelle col paracadute sopravvivono di più.
Ecco, alcuni argomenti che mi sono capitati sottomano nella mia attività per Pro-Test sembrano fatti proprio allo stesso modo: si applica all’evidenza scientifica un approccio così assurdamente rigido da diventare ottuso; come quando si pretenderebbe che ci fosse una validazione formale dell’intera sperimentazione animale. Certo; perché non facciamo una validazione formale dell’intera biologia o della chimica allora? Dove sono le prove che biologia e chimica funzionano? Vogliamo la validazione!
Analogamente, molti no-vax continuano a ripetere il mantra secondo il quale non ci sarebbero prove sufficienti dell’innocuità ed efficacia dei vaccini, ignorando completamente gli innumerevoli studi ormai portati avanti su decine di migliaia di individui che provano tutto ciò, e insistendo a chiedere che si provi la cosa in un trial clinico randomizzato.
Va bene, affrontiamo questo discorso, allora. Usando un approccio che sia il più possibile fruibile anche al profano e perfino, forse, anche al no-vax, inizieremo con lo spiegare cos’è e a cosa serve un trial clinico randomizzato. Dopodiché ci chiederemo se questi trial vengono già fatti o meno sui vaccini, e in caso non fossero fatti, se effettivamente la lagna dei no-vax ha qualche senso e ci sarebbe necessità di farne.
Dunque, premettiamo: ogni trattamento medico, prima di essere messo in commercio, deve ovviamente essere sperimentato sugli umani. Eh, lo so! Scandaloso, eh? Un farmaco che deve curare gli umani prima o poi devi provare a darlo agli umani. Vergogna, complotto, ci usano come cavie!
Va beh, lo specifico solo perché alcuni non riescono proprio a digerire il fatto che quando si fa ricerca non si può sapere a priori se tutto andrà bene; sperimentare significa provare, e dunque assumersi dei rischi. Rischi che d’altro canto sono corsi su base volontaria dai pazienti, e peraltro sono minimizzati da tutto il complesso percorso di prove e controprove cui deve sottoporsi un nuovo farmaco prima di essere commercializzato.
Quindi, in generale, se vuoi provare che un farmaco di qualunque genere funzioni devi, prima o poi, provarlo sui pazienti. Dunque, dopo aver fatto le nostre ricerche in vitro promettenti, dopo aver visto che sugli animali parrebbe abbastanza sicuro ed efficace, possiamo finalmente testarlo anche sulle persone in un trial clinico.
E il non plus ultra dei trial clinici è il trial clinico randomizzato in doppio cieco.
Spieghiamo ora di che si tratta. Un trial clinico randomizzato in doppio cieco è una sperimentazione di un trattamento medico che ha le seguenti caratteristiche: è controllata, è interventistica, è in cieco. Spieghiamo cosa si intende con questi termini.
Supponiamo che vogliamo valutare se l’aspirina faccia passare il mal di testa o meno. Prendo dunque tre miei amici che avevano il mal di testa e hanno preso l’aspirina, e loro mi dicono che in effetti il giorno dopo stavano bene. Fantastico. Ho provato che il farmaco funziona?
No, ovviamente no. Questo per una serie di ragioni.
La prima è che ai miei amici, magari, il mal di testa è passato per caso. Come faccio a sapere che non è così?
Questo si risolve facilmente: è sufficiente che io confronti questi miei amici con altri amici col mal di testa che invece di prendere l’aspirina si sono limitati a farsi un bel sonnellino o a bersi un caffè; vediamo se effettivamente chi ha preso l’aspirina stava meglio. Ovvero: ho inserito un gruppo di controllo. Ho fatto un trial controllato, cioè in cui abbiamo i pazienti divisi in due (o più) bracci che ricevono trattamenti diversi, permettendo un confronto. Ma i problemi non sono finiti.
Ok, adesso o altri tre amici cui do il placebo; e i tre a cui invece ho dato il farmaco stanno effettivamente meglio. Ma… un momento: sono solo tre contro tre; sono pochissimi. Magari a quei tre il mal di testa è passato sempre per puro caso, oppure avevano semplicemente bevuto un po’ e dopo hanno smaltito, mentre quelli cui ho dato il placebo invece avevano l’influenza, che dà problemi più a lungo. Dunque, devo anche assicurarmi che i miei 3+3 pazienti siano confrontabili fra di loro, che siano cioè abbastanza simili da permettermi di isolare l’effetto del farmaco da altri fattori confondenti. Inoltre, devo essere ragionevolmente sicuro che i risultati che osservo non siano frutto del caso e sarebbero validi anche sulla popolazione generale.
Questo è un problema molto più grosso dell’altro; come faccio ad assicurarmi che i due gruppi siano comparabili, e anche che rappresentino la popolazione generale?
Beh, per cominciare dovrò prenderne molti di più di 3+3. Quanti, esattamente? Calcolare esattamente quanti pazienti si debbano arruolare nel trial è compito abbastanza complesso ed è il ruolo specifico del biostatistico. Di regola, però, il campione deve essere tanto più grande quanto più piccola è la differenza che si vorrebbe rilevare fra i due gruppi. Insomma, se nel gruppo placebo le guarigioni sono il 2% e col farmaco invece diventano il 3%, per vederlo mi serviranno una marea di pazienti, perché è una differenza molto piccola; d’altro canto se invece col farmaco diventassero il 40, 50%, potrei forse cavarmela con solo qualche decina di pazienti. È più o meno come dover vedere cose molto piccole richiede per forza lenti molto grosse e spesse.
Comunque, prendiamone pure molti di più di 3+3. Resta purtroppo il problema per cui i due gruppi potrebbero essere troppo diversi tra di loro per fare un confronto; avrebbe senso confrontare un gruppo di novantenni con uno di adolescenti?
È impossibile essere veramente sicuri, a priori, che i due gruppi si somiglino; dopotutto la decisione di dargli l’aspirina o non dargliela l’ha presa il medico, che è un essere umano e potrebbe essere stato influenzato da una serie di fattori… o addirittura potrebbe essere stata un’idea del paziente stesso! A questa cosa si può rimediare in parte aggiustando la propria analisi in modo che tenga conto delle differenze fra i gruppi; anche questo è uno dei compiti dello statistico. Tuttavia, è difficile essere certi di avere eliminato tutti i possibili fattori confondenti in questo modo.
C’è solo un modo per essere sicuri che non ci siano distorsioni di questo tipo: dobbiamo essere noi sperimentatori a selezionare i pazienti e a intervenire sul paziente somministrando il farmaco. In questo modo potremo far sì che i due gruppi di pazienti si somiglino il più possibile. Ma vogliamo essere ancora più sicuri e rimuovere qualsiasi influenza umana: lasceremo che a decidere chi prende l’aspirina e chi no sia un computer, completamente a caso. Se i pazienti li scelgo davvero a caso e i numeri sono abbastanza grandi, ciò per note leggi statistiche praticamente mi garantisce che i gruppi siano omogenei. Abbiamo ora un trial in cui interveniamo per assegnare i pazienti a questo o a quel trattamento, quindi un trial interventistico, e lo facciamo a caso, quindi usando un anglicismo diciamo che è un trial randomizzato.
Abbiamo risolto tutti i problemi, direi. Accidenti, no… ce n’è ancora uno. L’effetto placebo! Magari quelli che hanno avuto l’aspirina si sentono meglio solo perché credono di sentirsi meglio, come accade con l’omeopatia. Ok, allora faremo in modo che i pazienti non sappiano che trattamento gli viene fatto; così siamo in cieco. Anzi: faremo in modo che non lo sappia neanche il medico, così siamo in doppio cieco. E se vogliamo proprio esagerare, facciamo sì che nemmeno chi analizza i dati sappia chi ha quale trattamento, ma solo il computer, che lo rivelerà solo alla fine della sperimentazione; adesso siamo in triplo cieco!
Perfetto, meglio di così non si può: abbiamo un trial clinico randomizzato in doppio (o triplo) cieco (double blind Randomized Clinical Trial, RCT), lo standard aureo della ricerca clinica.
E questo è quello che i no-vax dicono di volere per convincersi che i vaccini funzionano e sono sicuri.
Sì, in teoria sarebbe una gran figata. Ma ci sono dei grossi ma.
Per cominciare chiariamo una cosa: non è che solo perché l’RCT è il massimo che si possa volere, allora tutto il resto è cacca. Nessuno ha mai fatto un RCT lungo vent’anni in cui un braccio fosse stato indotto a fumare e l’altro a non fumare per verificare che i primi abbiano maggiore incidenza di cancro ai polmoni; non sarebbe etico farlo e comunque le prove epidemiologiche che dimostrano che il fumo aumenta il rischio di carcinoma polmonare sono schiaccianti anche senza. Non serve per forza l’RCT per dimostrare qualcosa, anche se sarebbe l’ideale averlo.
Ma soprattutto, un RCT non è sempre fattibile.
E facciamo proprio l’esempio dei vaccini.
Cos’hanno di particolare i vaccini, rispetto ad altri farmaci? Beh, una caratteristica su tutte: non sono curativi, ma preventivi. Quando te li danno non sei malato; la loro efficacia consiste proprio nel non farti ammalare.
Quindi un trial di efficacia su un vaccino che abbia un cosiddetto hard endpoint, ovvero vada a misurare direttamente l’esito che ci interessa di più in termini di efficacia, dovrebbe mostrare di essere in grado di diminuire, in pazienti sani, l’incidenza della malattia.
Facciamo un passo indietro. Ricordate cosa vi dicevo riguardo alla dimensione del campione? Più le differenze da osservare sono piccole, più pazienti ci servono per rilevarle. È escluso, per ovvie ragioni etiche, che possiamo dare il vaccino ai pazienti e poi iniettargli la malattia per vedere se funziona; dobbiamo dunque aspettare che il contagio accada da solo in un gruppo, e non accada o accada di meno nell’altro. E questo deve avvenire un numero di volte sufficiente alto da permetterci di trarre conclusioni statisticamente valide. Ok, prendiamo una malattia a caso; mi viene in mente la malattia di Lyme, una brutta infezione trasmessa dalle zecche (per la quale in effetti un vaccino esisteva già, ma grazie ai no-vax non esiste più). L’incidenza della malattia negli USA è stimata sullo 0.1% annuo. Non troppo comune, eh? Ok, vogliamo sperimentare il vaccino. In un trial clinico lungo un anno. Sapete quanti pazienti ci vorrebbero per dimostrare che il vaccino abbatte i casi del 99% (che sarebbe tanto)?
21 304 pazienti. Basterebbero a renderlo uno dei più grandi trial clinici interventistici del mondo, se non il più grande. Se facessimo durare la sperimentazione cinque anni invece di uno ce ne basterebbero invece “solo” 4 250. E parliamo di un vaccino straordinariamente efficace. Se la diminuzione fosse meno eccezionale, dell’80% per esempio, andrebbe anche peggio: dovremmo seguire 5 868 pazienti per cinque anni. E questo senza contare un tipico problema dei trial clinici che è la perdita al follow-up, ovvero l’esistenza di pazienti che iniziano il trial ma poi, per una ragione o per l’altra, spariscono, o ritirano il consenso al trattamento dei dati; poiché ci sono sempre di queste perdite in effetti è sempre necessario avere un po’ di pazienti in più di quelli strettamente necessari. Già questi numeri rendono l’idea di come fare trial clinici sui vaccini con hard endpoints possa diventare semplicemente impossibile.
Ma ci sono anche delle altre ragioni per cui ciò non viene fatto, e la prima è che… beh… non è strettamente necessario.
I vaccini, infatti, malgrado vengano dipinti dai no-vax come la cosa più pericolosa della terra, anche per gli standard di un farmaco, che in quanto farmaco può avere effetti collaterali, sono fra i più sicuri: gli effetti collaterali gravi sono oggettivamente rarissimi. Inoltre, il trattamento vaccinale non è assolutamente impegnativo per il paziente, che deve solo farsi un’iniezione e sta a posto per i prossimi dieci anni o per tutta la vita, mentre il potenziale beneficio è altissimo. Il vaccino, inoltre, di solito non è neanche particolarmente costoso; per tutte queste ragioni siamo di fronte ad un caso in cui non è particolarmente etico avere un braccio placebo. Praticamente vai a reclutare 5 000 pazienti e poi lasci metà di loro a bocca asciutta.
Quest’ultimo è un problema etico che sussiste sempre coi trial randomizzati; devi dimostrare che il nuovo trattamento funziona, quindi devi confrontarlo con quelli vecchi… Ma se quelli vecchi fanno schifo, o addirittura sono dei placebo? Cioè, metà dei pazienti li curi, e l’altra metà no? Insomma, se hai un nuovo vaccino che si somministra con una sola iniezione ogni dieci anni, e che sai già che potrebbe proteggere da una malattia molto pericolosa ed è sostanzialmente innocuo, è etico reclutare 5 000 pazienti e a metà di loro iniettare invece soluzione fisiologica aspettando che alcuni si ammalino? La cosa è un pochino discutibile, mi pare.
Per queste ragioni i trial clinici randomizzati sui vaccini spesso non hanno hard endpoint e misurano invece, per esempio, la risposta immunologica (lo sviluppo degli anticorpi), laddove ci siano dati che indicano che questa correla con la protezione; oppure ancora sono trial in cui si va a prevenire la ricorrenza della malattia in pazienti che soffrono di ricorrenze e quindi sono ad alto rischio. Tutte queste possibilità sono prese in considerazione dalle linee guida a riguardo dell’European Medicines Agency, che riguardo all’approvazione dei vaccini è forzata ad avere maggiore flessibilità rispetto ad altri farmaci, e autorizza la messa in commercio anche senza un RCT con hard endpoint, laddove ciò sia concretamente impossibile da farsi.
Ma torniamo a bomba sull’autismo: diciamo che vogliamo fare un RCT sulla correlazione autismo-vaccini. Dobbiamo partire da una prevalenza dell’autismo di circa lo 0.6%, su una popolazione prevalentemente vaccinata. I no-vax credono che se non fossimo vaccinati la percentuale sarebbe inferiore. Quanto inferiore? Boh… spariamo in alto, diciamo che sarebbero addirittura la metà, lo 0.3%. Per rivelare una differenza di questo tipo basterebbero… 15 626 pazienti?! Robetta, insomma, si fa in quattro e quattr’otto. E non ha neanche troppo senso pensare di diminuire i pazienti richiesti seguendoli per più tempo, visto che l’autismo insorge più o meno sempre intorno alla stessa età e osservare dei bambini più a lungo non aumenterebbe sensibilmente il numero di casi osservati. Inoltre, questa cosa andrebbe ripetuta per ogni singolo vaccino messo in commercio. E nel frattempo, per testare quest’ipotesi strampalata e fare contente due “mamme informate” dovremmo, arbitrariamente, prendere 7 813 bambini a caso e privarli della protezione vaccinale. Così, tanto per provare. Ma stiamo scherzando?
Cacciatevelo dalla testa, no-vax. Non è possibile fare una cosa del genere, men che meno è possibile farla per ogni singolo vaccino che venga messo in commercio. E comunque non ha senso farlo, non più di quanto non avrebbe senso fare un RCT in cui obblighiamo metà dei pazienti a fumare per vent’anni e vedere se sviluppano il cancro.
Quello che si può fare e si fa, però, è la sorveglianza dopo la messa in commercio. I dati più importanti su sicurezza ed efficacia dei vaccini vengono in genere proprio dagli studi cosiddetti osservazionali, ovvero quelli in cui si va appunto ad osservare cosa accade nella popolazione che già prende o non prende il farmaco per conto suo. Malgrado ovviamente gli studi osservazionali abbiano una serie di potenziali limiti, condurne uno a regola d’arte è perfettamente possibile ed è stato fatto: ne trovate qui una revisione sistematica.
Per inciso, nonostante la mole ormai immensa di studi che provano su numeri mostruosi l’assenza di correlazione fra autismo e vaccini, ricordiamo che i no-vax, che vorrebbero lo studio randomizzato, basano tutto ciò che dicono su di uno studio truffa, quello di Wakefield, fatto su dodici pazienti. DODICI. E non erano neanche scelti a caso da un computer, ma selezionati appositamente da lui.
E questi chiedono a noi di fare un RCT su sedicimila pazienti, se no non sono contenti perché non ci sono abbastanza prove.
Cominciassero a chiedere prove serie di ciò che dicono a sé stessi, i no-vax, prima di chiedere alla comunità scientifica di provare e riprovare e ri-ri-riprovare la cinquantamilesima volta una roba che è già stata ampiamente provata.
[Alberto Ferrari, Ph.D., Comitato Scientifico PTI]