Blog

Quel verde pallido e sbiadito sul tricolore italiano

Avvertenze: questo articolo tratta di valori e principi e parla di fatti concreti, pertanto potrebbe non essere compreso da tutti. È poi un articolo lungo (la conoscenza e la consapevolezza necessarie per difendere la propria libertà possono costare un po’ di fatica). Non è adatto dunque ai dissonanti cognitivi e/o agli analfabeti funzionali che spesso hanno la soglia di attenzione solo di pochi minuti. Sono consapevole che questo porterà la maggioranza delle persone a leggere solo in parte o a non leggere quest’articolo, ma non essendo in cerca di popolarità o cose simili, sarò felice di sapere se anche soltanto una persona avrà avuto l’amor proprio di provare a capire di più o anche soltanto di aver provato a vedere le cose da un punto di vista diverso. Non per me, ma per se stesso. L’intento, infatti, è solo quello di informare e non di convincere. Mi rivolgo dunque a quelli che prediligono il “sapere” al “credere”. Buona lettura.

“La libertà deriva dalla consapevolezza, la consapevolezza dalla conoscenza, la conoscenza (anche) dall’informazione, dallo studio e dalla lettura senza pregiudizi” (Stefano Nasetti.)

La bandiera è il simbolo distintivo per antonomasia. È usata in molti ambiti ma sempre con la stessa finalità. Ancor più dei moderni loghi, la bandiera serve per identificarsi e distinguersi da altri. Tutti gli elementi della bandiera o contenuti in essa, hanno sovente un preciso significato e vengono scelti perché considerati sintesi di caratteristiche specifiche tipiche dei soggetti che rappresenta. Forma, dimensioni, colori contenuti nella bandiera o della bandiera stessa, la loro disposizione oltre agli eventuali altri simboli raffigurati sono in genere attentamente studiati. Ciò è ancor più vero quando parliamo di bandiere nazionali. 

Esistono bandiere più complesse e articolate come quella degli Stati Uniti, quella del Brasile o di alcuni paesi del sud-est asiatico e bandiere apparentemente più semplici. Ogni bandiera ha la sua storia. La bandiera d'Italia, comunemente conosciuta come il Tricolore, è il vessillo nazionale della Repubblica Italiana. Tutti sanno che il tricolore italiano è una bandiera composta, così come dispone l’articolo 12 della Costituzione, da tre bande verticali di eguali dimensioni, di colore verde, bianco e rosso e verde (partendo dall’asta).

Nonostante la legge ne disciplini l’utilizzo e l’esposizione, tutelandone la difesa prevedendo il reato di vilipendio della stessa, ne prescriva l'insegnamento nelle scuole, non tutti ne conoscono la storia e il significato dei colori. L’attribuzione del significato ai colori della bandiera Italiana è importante, perché dovrebbe simboleggiare i principi o i valori che identificano il popolo italiano o a cui il popolo italiano dovrebbe fare riferimento.

Qual è quindi questo significato? In un’epoca di relativismo, e soprattutto alla luce degli accadimenti degli ultimi anni e dell’ultimo mese (marzo 2020), cosa rimane del significato originario di quei colori?

Quest’analisi ci permetterà di riflettere profondamente su ciò che il nostro Paese è diventato oggi, e di quanto si sia distaccato dagli ideali che si riteneva rappresentassero il sentimento comune del popolo italico, solo poco più di settant’anni fa.

Per meglio comprendere tutto questo, è innanzitutto necessario fare prima un po’ di storia.

In araldica (che può essere definita come “la scienza del blasone” cioè quella che “regola e governa la composizione degli stemmi”) ogni colore ha un significato specifico. Il verde è simbolo della vittoria, dell'onore, dell'abbondanza. Il bianco è utilizzato per rappresentare la purezza, l'innocenza, la giustizia e l'amicizia. Il rosso, richiamandosi al sangue versato in battaglia, solitamente simboleggia il valore, l'audacia, la nobiltà e il dominio.

Ogni bandiera però ha la sua storia, e le vicissitudini in essa narrate sovente hanno influito sulla scelta dei colori, sulla loro disposizione e sul significato attribuito ai colori stessi. Questo è proprio il caso del Tricolore italiano, in cui la scelta dei colori verde, bianco e rosso NON si rifà al significato che questi hanno nella pluricentenaria “scienza araldica”.

Il periodo storico in cui ha fatto la sua prima comparsa e i motivi che ne hanno portato all’adozione, prima per il Regno d’Italia e poi, dal 1947 come bandiera della Repubblica Italiana, hanno, di fatto, determinato l’attribuzione di un significato diverso a ciascun colore. Il cambio di significato attribuito a ciascun colore della bandiera d’Italia, ha generato moltissima confusione nella popolazione, dando origine a spiegazioni diverse da quelle storiche, nel tentativo di trovare origine in fonti “poetiche”, letterarie e addirittura naturalistiche. La confusione è ormai tale da farne perdere a molti, la conoscenza del significato autentico.

Tra le spiegazioni più fantasiose ancora oggi molto diffuse, e senza alcun fondamento storico, c’è quella secondo cui i colori verde, bianco e rosso rappresenterebbero rispettivamente il colore dei prati e della macchia mediterranea, quello delle nevi delle montagne italiane e il sangue versato dai soldati italiani nelle molte guerre a cui hanno preso parte.

Facendo invece riferimento a fonti storiche ufficiali, l'origine dei colori che diventeranno poi quelli nazionali italiani, risale al 21 agosto 1789 a Genova, quando apparvero su una coccarda tricolore, per poi comparire sullo stendardo militare della Legione Lombarda l’11 ottobre del 1796.

La comparsa ufficiale del tricolore sul suolo italiano come bandiera identificativa di uno stato nazionale e sovrano invece, avvenne per la prima volta il 7 gennaio 1797 a Reggio Emilia, quando fu adottato quale bandiera della Repubblica Cispadana, sulla scorta degli avvenimenti susseguenti alla rivoluzione francese (1789) che aveva propugnato, oltre i suoi famosi ideali (uguaglianza, fratellanza e libertà), anche il diritto all’autodeterminazione dei popoli. È proprio in ricordo della prima apparizione del tricolore a Reggio Emilia che dal 1996, lo Stato italiano dedica alla sua bandiera la festa del Tricolore, il 7 gennaio di ogni anno.

Fu poco dopo gli eventi rivoluzionari francesi, infatti, che anche in Italia iniziarono a diffondersi estesamente gli ideali d’innovazione sociale, proprio sulla scorta della propugnazione della dichiarazione dei diritti dell'uomo e del cittadino del 1789. Anche nella politica italiana i moti francesi ebbero un impatto rilevante, con i primi fermenti patriottici indirizzati all'autodeterminazione nazionale. Non a caso la bandiera francese blu, bianca e rossa diventò il primo riferimento dei giacobini italiani e fonte d’ispirazione per la creazione di un vessillo identitario italiano.

È abbastanza evidente che, come somiglianza, il tricolore italiano derivi da quello transalpino, che nacque durante la rivoluzione francese dall'unione del bianco (il colore della monarchia) con il rosso e il blu (i colori di Parigi). La bandiera francese divenne dunque simbolo del rinnovamento sociale e politico. Le gazzette italiane dell'epoca avevano poi creato confusione sui fatti francesi, in particolar modo sulla sostituzione del verde con il blu, riportando la notizia che il tricolore francese fosse verde, bianco e rosso. Il verde fu poi mantenuto dai giacobini italiani perché rappresentava la natura e quindi metaforicamente, anche i diritti naturali, cioè l'uguaglianza e la libertà.

Dopo il 7 gennaio 1797, la considerazione popolare per la bandiera italiana crebbe costantemente, sino a farla diventare uno dei simboli più importanti del Risorgimento, che culminò il 17 marzo 1861 con la proclamazione del Regno d'Italia, di cui il tricolore assurse a vessillo nazionale, accompagnato sul bianco, dello stemma dei Savoia. Durante il precedente periodo napoleonico, i tre colori avevano acquisito per la popolazione un significato più idealistico: il verde la speranza, il bianco la fede e il rosso l'amore. Altre ipotesi, supportate però da scarsa documentazione storica, spiegano l'adozione del verde sulla bandiera italiana, ipotizzandone un tributo che Napoleone avrebbe voluto dare alla Corsica, dove nacque, oppure, come già accennato, a un possibile richiamo al verdeggiante paesaggio italiano.

Per l'adozione del verde esiste anche la cosiddetta "ipotesi massonica". Anche per la massoneria, infatti, il verde era il colore della natura, emblema quindi dei diritti dell'uomo, che sono, infatti, naturalmente insiti nell'essere umano.

Il colore verde sul tricolore italiano, indipendentemente dall’origine giacobina, napoleonica o massonica che sia, sembra comunque poter essere ricondotto, fin dalla sua prima adozione, a simbolo di uguaglianza e libertà o, più generalmente, ai diritti fondamentali dell’uomo.

Nel periodo successivo, la caduta di Napoleone e la Restaurazione dei regimi assolutistici, si ripercosse anche sull'uso delle bandiere e delle coccarde: il tricolore italiano fu sempre più sostituito da quello francese, con il blu della bandiera d'oltralpe che prese il posto del verde nel vessillo italiano. Nonostante queste limitazioni, il tricolore verde, bianco e rosso ebbe un forte impatto sull'immaginario collettivo degli italiani, diventando in poco tempo e a tutti gli effetti, simbolo inequivocabile d’italianità. Il tricolore italiano entrò quindi in clandestinità, diventando simbolo dei fermenti patriottici che iniziarono a serpeggiare in Italia, la cui stagione è conosciuta come Risorgimento.

Con l’unità d’Italia prima (nel 1861) e con la proclamazione della Repubblica poi (nel 1946), il tricolore italiano fu mantenuto. Secondo la maggioranza degli storici quindi, il significato dei colori della bandiera italiana è il seguente: il verde simboleggia i diritti fondamentali dell’uomo, in particolar modo l’uguaglianza e la libertà; il bianco la fede (non solo verso la patria ma anche in senso religioso, poiché l’influenza della chiesa cattolica è stata sempre molto elevata nel nostro Paese); il rosso simbolo di amore verso la patria e del sangue versato come estremo sacrificio per proteggerne l’identità e dunque gli ideali.

La bandiera tricolore ha attraversato più di due secoli di storia d'Italia, salutandone tutti gli avvenimenti più importanti. Dopo oltre settant’anni dall’adozione del tricolore come bandiera della Repubblica Italiana possiamo fare un bilancio e vedere se i principi e i valori rappresentati dai colori verde, bianco e rosso sono ancora attuali e rispecchiano i valori del popolo italiano.

Per quanto sopra visto, è indubbiamente il colore verde quello più importante e rappresentativo del popolo italiano, sia per il significato che a esso è stato attribuito, sia perché è il vero elemento distintivo. Il colore verde è quello che, ad esempio, fa distinguere la bandiera italiana da quella francese, da cui traeva ispirazione. Il verde è il colore che rappresenta i valori e i diritti fondamentali dell’uomo, come l’uguaglianza, la libertà di pensiero e di espressione, l’inviolabilità del corpo, e tutte le altre libertà fondamentali su cui si fonda il concetto di democrazia, declinato e poi attuato nelle varie forme di governo, in cui quella della repubblica parlamentare costituisce la forma più equa, almeno sulla carta.

La nostra carta costituzionale sembra aver accolto, almeno in apparenza, tutti questi valori, dichiarandoli inviolabili e inderogabili e prevedendo tutele normative molto rigide al fine di garantirne o scoraggiarne la messa in discussione. Ciò nonostante, negli ultimi venticinque anni, i diritti fondamentali sono stati fortemente messi in discussione, mediante leggi liberticide, antidemocratiche e incostituzionali, fatte accettare alla popolazione mediante vere e proprie campagne di propaganda mediatica e commistioni politiche con altri poteri dello Stato che avrebbero dovuto invece tutelare, secondo quanto disposto dalla costituzione stessa, tali valori.

La nostra epoca è ormai governata non soltanto da logiche di tipo consumistiche e da economie capitaliste orientate alla crescita indefinita e all’altrettanto assurda idea di privilegiare i bilanci a discapito dei servizi sociali e, più in generale, a quelli al cittadino, ma anche governata dall’ideologia progressista. Questo micidiale mix, venutasi a combinare verso la metà degli anni ’90 con la fine della guerra fredda, ha portato nel corso degli anni a sgretolare i principi e i valori fondamentali e democratici. Questo perché il progressismo è intriso di quella forma di relativismo per il quale tutto ha un prezzo e può essere messo in discussione. Questa visione si è sposata alla perfezione con l’individualismo proprio delle economie capitaliste e consumiste, provocando una diffusa e generalizzata perdita di qualunque valore fondamentale.

Oggi le persone valutano le situazioni esclusivamente sulla propria individuale convenienza del momento e non in un’ottica più ampia, che contempli il benessere sociale e quei principi e valori che dovrebbero guidare le azioni di ogni persona che si definisce democratica, e che in un contesto sociale e democratico dice di voler vivere.

Nel corso degli anni quindi, abbiamo assistito: a leggi che hanno messo in discussione la libertà di pensiero ed espressione (mediante l’introduzione del reato di opinione) basate sulla forma di discriminazione peggiore che possa esistere, quella del cosiddetto razzismo gnoseologico; a leggi che hanno aperto alla possibilità che uno Stato possa appropriarsi, anche se solo momentaneamente, del corpo del cittadino (obbligo vaccinale) e deciderne cosa farne, le stesse leggi che hanno aperto a forme di discriminazione fondate su presunte, ipotetiche e potenziali contagiosità dei cittadini considerati non più tali, ma "potenziali untori"; a leggi che hanno violato palesemente articoli costituzionali, come la possibilità di violazione della corrispondenza, introdotta attraverso l’autorizzazione alla raccolta sistematica e non necessariamente motivata di dati attraverso la tecnologia (legge sull’intercettazione e sui Trojan di stato), che costituiscono oltretutto palesi violazioni di quello che è considerato, anche a livello internazionale, un altro caposaldo della democrazia, vale addire il diritto alla privacy. Gli articoli della costituzione disattesi, poiché i diritti tutelati sono stati violati, nonostante fossero stati definiti inviolabili, solo da queste tre situazioni sono molteplici:

  • Art.2 che riconosce e garantisce i diritti inviolabili dell’uomo con particolare riferimento alla Dichiarazione dei diritti fondamentali e la dichiarazione dei diritti dell’uomo e del cittadino;
  • Art. 3 che afferma che tutti i cittadini sono uguali di fronte alla legge, senza distinzione alcuna;
  • Art.13 che afferma che la libertà personale è inviolabile. In particolare al comma 3 punisce e condanna ogni forma di violenza fisica e morale sulle persone;
  • Art.15 che dispone che la corrispondenza è anch’essa inviolabile;
  • Art. 21 che afferma la libertà di manifestazione del pensiero con qualunque mezzo;
  • Artt. 33 e 34 che dispongono che la scuola è aperta a tutti.

Come se tutto ciò non fosse ancora abbastanza, con “l’emergenza coronavirus”, si è permesso a chi ci governa di fare un altro passo verso la trasformazione della Repubblica in stato totalitario, calpestando ogni principio e ogni contrappeso tra i poteri dello Stato, che era stato inserito nella costituzione italiana liberal-democratica.

La prima mossa del Governo infatti, è stata quella di dichiarare lo “stato di emergenza” e di emanare leggi speciali che consentissero a chi lo guida, di emanare provvedimenti normativi individuali. È stato così creato lo strumento normativo del Decreto del Presidente del Consiglio dei Ministri (divenuto noto con l’acronimo di DPCM), non previsto dalla costituzione italiana. Questo provvedimento è, a tutti gli effetti, un atto autoritaristico individuale, in cui una sola persona (il Presidente del Consiglio dei Ministri) decide e dispone arbitrariamente cosa fare in ogni materia, anche in quelle come la sanità pubblica, di competenza delle Regioni.

Così facendo, una persona diventa il capo supremo di un Paese, aggirando anche quei provvedimenti collegiali, costituzionalmente previsti come i Decreti Legge (espressione di volontà del Governo inteso come organo collegiale composto da tutti i Ministri e presieduto dal Presidente del Consiglio), più immediati e veloci per gestire un'emergenza, rispetto alla classica emanazione di una legge e/o di un decreto legislativo che prevedono l'intervento del Parlamento quale massimo organo rappresentativo del popolo. La spiegazione stessa portata dal Presidente del Consiglio per l’emanazione di leggi speciali, costituisce un atto incostituzionale, poiché si è detto più volte che” l’emergenza sanitaria da Covid-19” è equiparabile a uno “stato di guerra” e dunque necessità di leggi speciali. Ovviamente l’accostamento è improprio dal punto di vista giuridico. Ma volendo comunque far finta di nulla, la situazione non cambia.

Infatti, l’articolo 78 della Costituzione italiana riserva alle Camere l'esclusiva possibilità di dichiarare lo "stato di guerra" e di  conferire poi poteri speciali al Governo (e non a chi ne è a Capo), che dunque non può arrogarsi tale diritto in modo arbitrario, com’è di fatto avvenuto. Come si è assistito in passato con l’ascesa al potere di ogni regime totalitario, anche in questo caso i successivi atti del Governo, e in particolar modo del Presidente del Consiglio, sono andati tutti nella direzione di andare circoscrivere i diritti democratici e fondamentali costituzionalmente previsti.

Con i vari Decreti del Presidente del Consiglio dei Ministri che si sono succeduti dal mese di marzo 2020 in poi, il Presidente del Consiglio ha violato diversi articoli della Costituzione. Il primo DPCM ha disposto la chiusura di molte attività commerciali e lavorative in genere. I successivi DPCM hanno via via aumentato il numero dell’attività economiche e lavorative temporaneamente vietate, in aggiunta a numerose limitazioni dei diritti fondamentali dei cittadini. Con questi atti, il Presidente del Consiglio ha contravvenuto ai seguenti articoli costituzionali:

  • Art.1 in cui si riconosce il diritto al lavoro come elemento centrale e fondante della repubblica (art.1 “L’Italia è una repubblica democratica fondata sul lavoro”). L’articolo è stato violato disponendo la chiusura di gran parte delle attività lavorative;
  • Art. 3 comma 2, in cui si garantiva la parità di trattamento per l’esercizio del diritto al lavoro (“è compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale che, limitando, di fatto, la libertà e l’uguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese”). C'è stato palesemente un difforme trattamento poichè alcune attività sono state consentite, mentre altre no;
  • Art.4 in cui era disposto l’impegno della Repubblica a promuovere le condizioni che rendano effettivo questo diritto (“La Repubblica riconosce a tutti i cittadini il diritto al lavoro e promuove le condizioni che rendano effettivo questo diritto. Ogni cittadino ha il dovere di svolgere, secondo le proprie possibilità e la propria scelta, un’attività o una funzione che concorra al progresso materiale e spirituale della società”). Al contrario, con i DPCM sono stati inseriti ostacoli oggettivi all’esercizio di tale diritto, impedendo, ad esempio gli spostamenti sul territorio.
  • Art.5 in cui si riconoscono e promuovono le autonomie locali. I vari DPCM hanno legiferato in materie (tutela della salute pubblica e organizzazione del territorio) che sono a esclusivo appannaggio delle Regioni.
  • Art.13 “La libertà personale è inviolabile. Non è ammessa forma alcuna di detenzione, di ispezione o perquisizione personale, né qualsiasi altra restrizione della libertà personale, se non per atto motivato dall’autorità giudiziaria e nei soli casi previsti dalla legge. In casi eccezionali di necessità e urgenza, indicati tassativamente dalla legge, l’autorità di pubblica sicurezza può adottare provvedimenti provvisori che devono essere comunicati entro 48 ore all’autorità giudiziaria e, se questa non li convalida nelle successive 48 ore, s’intendono revocati e restano privi di ogni effetto”. Il 2° comma vieta quindi qualsiasi forma di detenzione e/o ogni altro intervento restrittivo inserendo, proprio per l’importanza di tale diritto fondamentale, quella che in giurisprudenza è definita “doppia riserva”. La frase “… se non nei casi previsti dalla legge” costituisce una “riserva assoluta” mentre la riserva giurisdizionale viene rafforzata dalla necessità di motivare il provvedimento. Il Presidente del Consiglio dei Ministri non è un’autorità di pubblica sicurezza e non può disporre alcun tipo di restrizione alla libertà personale dei cittadini. Ancor più se opera in un regime di presunta emergenza, la cui fattispecie, tra l’altro, non rientra nei casi previsti dalla legge.  I DPCM che hanno disposto il divieto di uscire dalla propria abitazione, fatto salvo le eccezioni previste dagli stessi DPCM, sono quindi palesi violazioni di quest’articolo!
  • Art.16 libertà di circolazione, soggiorno ed espatrio. “Ogni cittadino può circolare e soggiornare liberamente in qualsiasi parte del territorio nazionale, salvo le limitazioni che la legge stabilisce in via generale per motivi di sanità o di sicurezza. … Ogni cittadino è libero di uscire dal territorio della Repubblica e di rientrarvi, salvo obblighi di legge”.  Si tratta di libertà strettamente connesse e dipendenti da quella personale (art.13) e anch’esse godono di una “riserva di legge rafforzata”, per quel che riguarda i limiti, che si manifesta dalle necessarie motivazioni di sanità e sicurezza che devono essere alla base dei vari e possibili provvedimenti limitativi. Tuttavia numeri ufficiali alla mano, dati forniti dalle stesse istituzioni, come ampiamente documentato in un precedente articolo dal titolo “Speciale Coronavirus: il coronavirus svela le fake news di autorità e mass media” le motivazioni ufficiali, che fanno riferimento a esigenze di carattere sanitario che sarebbero alla base dei provvedimenti di restrizione contenuti nei DPCM, sono alquanto opinabili. Le reali motivazioni “di carattere sanitario” non riguardano la reale pericolosità del virus in sé, quanto piuttosto l’incapacità dello Stato di prestare cure adeguate ai cittadini. Ciò considerato quindi, i DPCM violano anche il presente articolo 16.
  • Art. 17 diritto di riunione “I cittadini hanno diritto di riunirsi pacificamente e senz’armi. Per riunioni, anche il luogo aperto al pubblico, non è richiesto preavviso. Delle riunioni in luogo pubblico deve essere dato preavviso alle autorità che possono vietarlo soltanto per comprovati motivi di sicurezza o di incolumità pubblica”. Quest’articolo dispone che i motivi per eventuali limiti a questa libertà sono principalmente due: 1) limite assoluto (sono cioè consentite tutte le forme di riunione se a scopo pacifico e senz’armi); 2) un’autorizzazione per l’esercizio delle attività, se tali riunioni sono alla base di essa. Unico altro motivo è quello di sicurezza e incolumità pubblica. Nei DPCM, il Presidente del Consiglio impedisce invece qualunque forma di aggregazione senza distinzione alcuna.
  • Art.19 libertà di culto e religione. Quest’articolo recita “Tutti hanno il diritto di professare liberamente la propria fede religiosa in qualsiasi forma, individuale o associata, di farne propaganda e di esercitarne in privato o in pubblico il culto…” Questo diritto è di fatto leso, con l’impossibilità di recarsi nei luoghi di culto e il divieto di assembramento.
  • Art. 21 Libertà di manifestazione del pensiero con qualunque mezzo. Già lesa in passato dalle leggi che hanno introdotto il reato d’opinione (vedi leggi sul negazionismo), oggi questo diritto viene ulteriormente calpestato,in considerazione dell’impossibilità di esercitarlo in luoghi pubblici assieme ad altre persone.
  • Art.24 difesa dei propri diritti. Con la sospensione dei processi e delle udienze prevista nei DPCM, è stata circoscritta la possibilità di difesa dei cittadini. Anche se i termini di prescrizione sono stati sospesi, alcuni procedimenti considerati urgenti proseguono con delle sostanziali variazioni. Ad esempio nei casi di carcerazione preventiva (quella cioè senza un giudizio definitivo, ma esercitata a scopo cautelare) la decisione di applicazione di tale provvedimento era in origine demandata a un consiglio di giudici. COn il DPCM invece, viene accentrata nelle mani di un solo soggetto, facendo venir meno l’equità di giudizio a garanzia del cittadino imputato. Si tratta ovviamente solo di un numero di casi circoscritti. Tuttavia con ciò si configura una palese violazione o limitazione del diritto di difesa oltre che e di quello ribadito nel successivo art.25 che dispone che “nessuno può essere distolto dal giudice naturale precostituito per legge”, poiché in questo caso, il giudice naturale sarebbe il "collegio di giudici "e non un singolo giudice.
  • Art.32La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività e garantisce cure gratuite agli indigenti”. L’ammissione alla violazione di questo diritto, è stato, di fatto, apertamente dichiarato dallo stesso Presidente del Consiglio dei Ministri e da vari altri Ministri del Governo, nel momento dell’emanazione di primi DPCM. Infatti, come da loro stessi dichiarato, la reale motivazione per le restrizioni contenute nei DPCM è quella di "evitare il collasso del sistema sanitario nazionale", non più in grado di garantire le adeguate cure ai cittadini, come da disposizioni costituzionali. I motivi di tale inadeguatezza strutturale sanitaria, li ho già esposti nel succitato e precedente articolo. Rimando pertanto a esso l’approfondimento di questo punto. Lo Stato dunque, non è in grado di adempiere il proprio dovere ledendo i diritti dei propri cittadini. Poco vale, ovviamente, che ciò sia stato pubblicamente e ufficialmente ammesso, o che l’attuale governo sconti gli errori della politica fatti negli ultimi venticinque anni. 
  • Art. 33 e 34 riguardo il diritto di accesso alla scuola e all’insegnamento. La chiusura di scuole e atenei ha di fatto reso complesso l’accesso all’insegnamento, considerato il fatto che, nonostante viviamo in un epoca incui la tecnologia è alla portata di tutti, non tutte le persone o le famiglie dispongono di dispositivi adeguati per l’accesso all'istruzione a distanza. Con la chiusura senza alcun preavviso delle università e delle scuole di ogni ordine e grado, il Presidente del Consiglio dei Ministri ha di fatto posto ostacoli all’esercizio del diritto all’istruzione, non consentendo alle scuole e/o alle università di organizzarsi dal punto di vista logistico e tecnologico, inpedendo oltretutto ai  cittadini di procurarsi eventualmente mezzi tecnologici per l’accesso, vista l’impossibilità di acquistarli nei negozi, chiusi per legge.

A ciò si aggiungono rinvio del referendum e sospensione a tempo indeterminato di ogni altra consultazione elettorale sia locale, sia nazionale.

Alla luce di tutte queste violazioni, possiamo senza alcun timore affermare che la Costituzione Italiana è, di fatto, stata sospesa, ma la stragrande maggioranza delle persone, completamente in balia dei mass media mainstream, non ha quasi battuto ciglio.

D’altro canto, come detto in precedenza, nel corso degli anni è stata costruita una società piena d’individui completamente privi di spirito sociale e svuotati di ogni valore. Le persone che costituiscono l’odierna società sono, senza alcun dubbio, mediamente più acculturate rispetto a quelle presenti nel nostro Paese alla fine del secondo conflitto mondiale. Ciò nonostante, risultano mediamente meno consapevoli, e quindi meno capaci di difendere i propri diritti fondamentali o i valori propri di quella società democratica in cui sono nati e cresciuti. Come spesso amo ripetere il titolo si studio non è sinonimo di cultura, la cultura non è sinonimo d’intelligenza. L’intelligenza è spesso la capacità di osservare e vedere le cose anche da altri punti di vista” non solo quelli proposti o imposti dalle autorità e dai mass media.

Questo perché conoscere non basta, è necessario essere consapevoli, perché, come diceva il filosofo cinese Han Fei Tzo, “il difficile non è sapere una cosa, ma saper far uso di ciò che si sa”. Ma ciò ancora non basta. È necessario anche essere presenti a se stessi, evitando di vivere prevalentemente o esclusivamente in un mondo virtuale. Non mi riferisco ovviamente soltanto all’utilizzo eccessivo dei social o in una propria costante presenza sul web, ma al prediligere la conoscenza oggettiva e quindi il mondo reale, a quella soggettiva, parziale e virtuale cioè alla visione del mondo proposta da autorità e mass media. Insomma, Conoscenza, Consapevolezza e Presenza sono le tre parole chiave per provare a mantenere la propria libertà”.

Le violazioni sistematiche protratte nel tempo di tutti quei diritti e valori fondamentali e che son alla base dei moderni paesi democratici, sono le medesime che si registrano in paesi come la Cina ad esempio, che autorità politiche, mass media mainstream e opinion leader (o “influencer” come qualcuno preferisce chiamarli oggi), non hanno problemi a definire “regimi autoritari o totalitari”! Quindi anche noi siamo in un regime totalitario non molto differente da quello presente in Cina.

In questo clima da regime totalitario, ci prepariamo a un nuovo passo in avanti, quello della geolocalizzazione del cittadino (ne ho parlato nel precedente articolo “Coronavirus+tecnologia: scacco matto alla liberta?") che equiparerà definitivamente il comune cittadino a un criminale.

Non è forse un caso che nel cosiddetto “Decreto Cura Italia”, decreto legge firmato dal Presidente della Repubblica Sergio Mattarella pubblicato sulla Gazzetta Ufficiale il 18 marzo 2020, sono stati disposti iter semplificati - fino al 30 giugno 2020- per la detenzione domiciliare di chi deve scontare una pena (anche residua) fino a 18 mesi (prevista dalla legge n.199/2010), con la previsione di "controllo mediante mezzi elettronici", il cosiddetto "braccialetto elettronico", per pene comprese tra 7 e 18 mesi. Nel decreto legge "Cura Italia" vengono confermate - all'articolo 123 - le misure giustificate per "alleggerire" il sovraffollamento carcerario in questo momento di emergenza sanitaria. Sebbene siano esclusi dal beneficio i reati più gravi (quelli indicati dall'articolo 4 bis dell'ordinamento penitenziario), i maltrattamenti in famiglia e lo stalking, si tratta in altre parole di un’altra evidenza dell’incapacità dello Stato di garantire i diritti ai cittadini onesti assicurando la certezza della pena.

Con la prossima adozione delle app per geolocalizzare i cittadini, motivata dalla necessità di contenere l’epidemia di Covid-19 e in grado di verificare gli spostamenti dei cittadini dalla propria abitazione con l’accuratezza di pochi metri, al comune cittadino sarà riservato un trattamento non dissimile di quello previsto per un detenuto agli arresti domiciliari con braccialetto elettronico. Anche in questo caso, non si registrano obiezioni di sorta tra la popolazione, tra le forze politiche di maggioranza e opposizione, nei mass media o tra le autorità di altro tipo. Anche questa volta è prevalsa la logica relativista che “il fine giustifica i mezzi”.

Nel frattempo in un clima da regime totalitario non potevano mancare le intimidazioni personali. Ne stanno facendo le spese diverse centinaia di migliaia d’italiani, che sono stati, e sono costretti ad ascoltare gli altoparlanti delle forze dell’ordine che, passando per le strade dei centri abitati non solo con le automobili ma addirittura con gli elicotteri (è avvenuto a Roma, nel quartiere di Ostia, video al momento ancora disponibili su Youtube), hanno invitato e invitano la popolazione a non uscire da casa, minacciando la denuncia e l’arresto per i trasgressori.

Ma l’intimidazione di stampo autoritaristico e dispotico (a ulteriore testimonianza della cessata esistenza della libertà di pensiero ed espressione) ha toccato pubblicamente anche alcuni virologi, che nei primi giorni dell’”emergenza sanitaria” avevano osato mettere in discussione la versione allarmistica ufficiale diramata dai mass media, dalle autorità politiche e da quelle scientifiche colluse con esse. È il caso della virologa Maria Rita Gismondo, direttrice del Laboratorio di microbiologia clinica, virologia e diagnostica delle bioemergenze dell'ospedale Sacco di Milano, che si è vista recapitare una diffida legale dall'associazione Patto trasversale per la scienza (Pts) "per le gravi affermazioni ed esternazioni pubbliche sul coronavirus, volte a minimizzare la gravità della situazione e non basate su evidenze scientifiche".

L'associazione Patto trasversale per la scienza (Pts) riunisce ricercatori, scienziati, clinici, divulgatori, giornalisti e avvocati, e "ha come principale obiettivo difendere i cittadini e la loro salute dalla pseudoscienza, dalle fake news medico-scientifiche, dai ciarlatani e da chiunque attenti alla salute pubblica". In realtà si tratta di un vero e proprio tribunale dell’inquisizione che agisce, come nella migliore tradizione orwelliana, sostenendo di difendere i cittadini mentre difende soltanto il proprio potere e, più in generale lo status quo.

La Mia frase sul virus come l’influenza? Altri virologi, ad esempio Pregliasco, hanno detto la stessa cosa, e lo diceva anche il direttore generale dell'Oms. In quel momento avevamo un piccolo focolaio a Codogno e due casi dalla Cina" spiega Gismondo. Ma "si attacca solo me, quando invece c'erano altre persone che dicevano le stesse cose - ribadisce - fra cui quella che firma la diffida. Vale la fonte o il contenuto?".

“Se chiedono a me di fare un passo indietro sulle mie dichiarazioni, devono farlo anche per quelle del virologo Pregliasco, di Ilaria Capua e del direttore dell'Oms” - aggiunge Gismondo – “Non devo dimostrare nulla perché quello che ho detto è pubblicato ovunque. La Capua, ad esempio, ha detto che questo virus diventerà come un raffreddore. Inoltre non sono mai stata in un tavolo governativo e non posso aver influenzato nessun decisione - prosegue la Gismondo - Ho espresso un mio parere e ho sempre detto quello che si sa sul coronavirus, ovvero che è un virus sconosciuto e potrebbe rivelarsi positivo o negativo a seconda del cammino che farà".

La Gismondo afferma il vero. Sia le sue dichiarazioni, sia quelle simili di Ilaria Capua e di altri virologi che poi hanno firmato la diffida, le avevo riportate nell’articolo Speciale coronavirus. Il fatto che soltanto lei sia stata minacciata, (perché questo tipo di diffida equivale a un ammonimento a cui segue spesso la radiazione dall’albo dei medici che significa fine (o quasi) della carriera di medico, almeno nel pubblico), è perché altri non sono al momento minacciabili.

Ilaria Capua ad esempio, anche lei perseguita in passato per dichiarazioni non in linea con l’opinione dominante della comunità scientifica, lavora ormai negli Stati Uniti. Una diffida come quella ricevuta dalla Gismondo, non avrebbe alcun tipo di efficacia sulla Capua, ma anzi metterebbe in ridicolo il Pts, poiché la virologa italiana è stata insignita più volte di varie onorificenze per il suo lavoro scientifico. Si tratta quindi di una persona che non si può far passare pubblicamente per pseudo scienziata. Come in ogni regime quindi, si colpisce innanzitutto il più debole.

Anche in questo caso, non c’è stata alcuna indignazione pubblica. La popolazione sembra completamente in uno stato d’ibernazione sospesa. Quanto ancora durerà quest’apatia generale?

Le autorità e tutti quelli che le appoggiano, sostengono che stiamo combattendo una guerra contro un nemico invisibile chiamato Covid-19, che stiamo combattendo questa battaglia per salvare vite, per evitare un’epidemia simile a quella dell’influenza spagnola del primo dopoguerra, quando le vittime del virus furono maggiori di quelle della guerra stessa. Forse tra qualche mese cominceranno a rendersi conto che i provvedimenti estremi e dispotici presi in questi giorni rischiano di invertire la situazione verificatasi un secolo fa. Il numero delle vittime di Covid-19 potrebbero essere inferiori a quello delle vittime provocate in conseguenza di tali privazioni, che stanno distruggendo l’economia d’interi paesi e mettendo in ginocchio persone e famiglie. Come potrà riprendersi l’economia nazionale? Come potranno milioni di persone rientrare del mancato guadagno conseguente all’impossibilità di lavorare e sostentare la propria vita e quella della propria famiglia?

Il protrarsi di tali restrizioni non può che aggravare una situazione, già al momento critica. Che termini il 5 aprile (come annunciato inizialmente dallo stesso Presidente del Consiglio dei Ministri) o che proseguano ancora per altre settimane o mesi, tra meno di 6, 8 o 10 mesi al massimo, cominceremo a contare le prime vittime di questo disastro. Ne stiamo cominciando a vedere qualche esempio in questi giorni, con tentativi di assalto ai supermercati (in Sicilia) da parte di chi non ha più soldi per andare avanti.

Mass media mainstream, politica e autorità scientifiche saranno responsabili di ciò che accadrà, poiché con il loro comportamento, con le loro decisioni, con le loro affermazioni stanno piantando i semi di una guerra civile, che si scatenerà tra chi non avrà più nulla da perdere e chi invece, cercherà di rimanere nella legalità, avendo ancora qualcosa a disposizione.

Le cure in questi giorni proposte per rilanciare l’economia, rischiano altresì di peggiorare le cose. Le immissioni di liquidità in modo massiccio e incontrollato potrebbero allargare la massa dei poveri.

Tutte le merci sul mercato hanno un prezzo che è determinato dall’incontro tra domanda e offerta. A parità di domanda, se un bene diviene improvvisamente poco disponibile, il suo prezzo aumenta, poiché le persone sono disposte a pagare di più per averlo. Per fare un esempio e senza andare troppo lontano, basta guardare ciò che è avvenuto con i prezzi di mascherine e disinfettante delle mani. Se al contrario viene improvvisamente immessa sul mercato una quantità eccessiva di quel bene, il suo prezzo diminuisce. In questo il denaro non fa eccezione. Ci troviamo già in una fase in cui i tassi d’interesse (che rappresentano il costo del denaro) sono ai minimi storici. Nei mesi scorsi, alcune banche del nord Europa offrivano mutui con tassi negativi. Chiedevano cioè la restituzione di una somma  priva di interessi e addirittura inferiore a quella erogata.

Immettere in un contesto come quello di oggi, una grande liquidità di moneta, significa svalutare la moneta stessa. Questo significa che i risparmi di milioni di persone rischiano di essere polverizzati con un click. Solo una mia opinione? Eppure lo abbiamo già visto durante i periodi bellici e post bellici nel secolo scorso. Le soluzioni per il rilancio dell'economia dovranno dunque essere molto ben ponderate, per evitare il peggio. Si dovrà forse arrivare a questo punto, per far sì che la popolazione con più nulla da perdere, cerchi di riottenere la libertà e quei diritti oggi negati?

Nella speranza che non si debba arrivare a questo punto, concludo costatando che i colori della nostra bandiera, con particolare riferimento al verde, simboleggiavano i diritti fondamentali dell’uomo, l’uguaglianza e la libertà. Oggi a distanza di settant’anni possiamo dire senza timore di smentite, che il verde del nostro tricolore appare più pallido e sbiadito che mai. I diritti che esso rappresenta sono, di fatto, stati aboliti e/o continuamente calpestati. Erano una volta diritti considerati inalienabili e inderogabili a cui quel pezzo di carta ormai quasi senza valore, la nostra costituzione, riservava addirittura tutele rafforzate, a rimarcarne l’importanza.

In questi giorni molte persone hanno esposto la bandiera italiana alle finestre. Su iniziativa di alcuni Comuni, il 31 marzo prossimo le bandiere italiane sugli edifici pubblici saranno esposte a mezz’asta in segno di lutto per le vititme del Covid-19. In realtà sono tutti i cittadini ad essere vittime, perchè l alibertà e morta.

INVITO TUTTI COLORO CHE HANNO ESPOSTO IL TRICOLORE O CHE LO ESPORRANNO NEI PROSSIMI GIORNI E FINCHE’ LA DEMOCRAZIA E LA LIBERTA’ NON SARA’ RIPRISTINATA, A COPRIRE IL COLORE VERDE, COME SEGNO DI PROTESTA CIVILE VERSO LA PRIVAZIONE DI QUEI DIRITTI FONDAMENTALI E DEMOCRATICI CHE ESSO RAPPRESENTAVA E RAPPRESENTA.

Almeno questa piccola fatica potete concederla a voi stessi, ai vostri figli ai vostri concittadini.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Fonti

Continua...

Coronavirus+Tecnologia = scacco matto alla liberta?

Nel corso degli ultimi vent’anni, tutto il mondo ha assistito alla costante e lenta erosione delle libertà e dei diritti fondamentali su cui (ancora anacronisticamente) si ritiene si fondino le democrazie moderne. I sedicenti paesi democratici non sono, però, più guidati davvero dai quei diritti una volta considerati inalienabili, bensì da logiche diverse e mutevoli, che cambiano in base alle opportunità del momento, alla convenienza politica ed economica di chi comanda. Queste persone sfruttano le crescenti possibilità che la tecnologia offre, per circoscrivere le libertà individuali dei cittadini.

L’immobile popolazione del mondo, distratta e ammaliata dalla tecnologia sempre più a buon mercato, e spaventata dalle spesso pretestuose e quasi inesistenti minacce di ogni tipo (terrorismo, razzismo, epidemie di morbillo, criminalità, ecc), portate sempre ad opera di soggetti esterni e criminali, ha accettato e continua ad accettare tutto quanto gli viene posto davanti agli occhi dai mass media compiacenti.

Se nel corso di questi ultimi anni le libertà fondamentali come la privacy (anche le Nazioni Unite considerano uno dei diritti umani fondamentali), l’inviolabilità del corpo, la libertà di pensiero e di espressione sono state gravemente compromesse, soprattutto nei Paesi occidentali dagli stessi Governi nazionali che quei diritti dovrebbero invece tutelare e salvaguardare, possiamo oggi affermare, senza timore di smentite, che è stata l’ultima nuova “paura”, chiamata “coronavirus”, a fornire il pretesto per dare il colpo di grazia alla libertà.

I contendenti di questa partita a scacchi non sono quindi gli onesti cittadini da un lato, e i comuni criminali di ogni sorta (ladri, truffatori, terroristi, assassini, ecc.) dall’altro. In realtà da diversi decenni o probabilmente da sempre, l’avversario degli onesti cittadini sono sì i criminali, ma non di certo quelli comuni.

I veri antagonisti sono i Governi, in special modo quelli che si autodefiniscono democratici. Mentre infatti, nei regimi autoritari (di destra e di sinistra) la popolazione a ben chiaro lo stato delle cose e sa bene con chi ha a che fare, nei Paesi occidentali la popolazione vive una libertà apparente, in cui sempre più sovente la libertà è soltanto poco più di un’idea instillata ad hoc nella loro mente.

Come in partita a scacchi la mossa finale non arriva subito e improvvisa, ma si costruisce lentamente nel corso del tempo, mossa dopo mossa. Gli avversari si studiano e, apparentemente, partono entrambi con le stesse possibilità di vincere.

Nella realtà raramente c’è un reale equilibrio. C’è sempre un giocatore più forte dell’altro. Così accade spesso che mentre un giocatore gioca all’attacco, l’altro è costretto innanzitutto a difendersi. Tuttavia anche chi attacca cerca di essere cauto, attua la sua strategia cercando di non farsi accorgere, di sviare l’attenzione dell’avversario su quello che è il suo reale obiettivo. Negli scacchi però, così come anche in molti altri sport, chi si difende non sempre esce sconfitto. La consapevolezza delle proprie capacità, delle proprie possibilità, della propria forza riesce spesso a supplire l’apparente iniziale stato di difficoltà, e trionfare.

In questa metafora è facile comprendere che sono i Governi a essere i giocatori sulla carta più forti. Il vero grande problema dei nostri tempi è che il giocatore più debole (il comune cittadino), non è consapevole non solo del reale obiettivo del suo avversario ma, soprattutto, delle proprie forze. Questo genera uno squilibrio che difficilmente lo potrà portare a ribaltare l’esito della partita. Acquisire consapevolezza di sé e della realtà della situazione (dunque occorre essere presenti a se stessi) è essenziale per avere possibilità di vittoria.

Com’è avvenuto anche per tutti gli altri diritti fondamentali lesi in passato, le ultime privazioni non sono certamente giunte come fulmini a ciel sereno, ma hanno fatto comunque un breve e rapido cammino.

Il 16 gennaio (2020), The Lancet Digital Healt ha pubblicato uno studio in cui un team americano aveva osservato la diffusione d’infezioni stagionali, come l'influenza, attraverso i dati raccolti con bracciali Fitbit.

La Fitbit Inc. è una società americana (con sede a San Francisco, California), acquisita da Google nel 2019. L’azienda produce dispositivi indossabili, tracciatori di attività che tramite wireless e collegandosi agli smartphone dei clienti, raccolgono e misurano dati biometrici quali il numero di passi, qualità del sonno, gradini saliti, e altre metriche personali.

I ricercatori che hanno pubblicato lo studio in questione, sono partiti dai dati relativi a 200 mila utenti, le cui informazioni sono state rese anonime (così affermano) prima di essere elaborate (chi conosce l’informatica sa bene però, che è sempre e comunque possibile risalire all’identità delle persone partendo da dati anonimizzati, dunque in realtà nessun dato anonimizzato è realmente anonimo).

Hanno poi osservato 47.249 individui, che in cinque Stati (California, Texas, New York, Illinois e Pennsylvania) hanno indossato smartwatch e band identici a quelli in commercio. Nessun sensore particolare, quindi. L'obiettivo era quello di predire la diffusione dei contagi dell’influenza stagionale, analizzando il battito cardiaco (che accelera in caso d’infezione) e il ritmo sonno-veglia. Comparando le stime degli Us Centers for Disease Control, i ricercatori sono effettivamente riusciti a fornire previsioni più efficaci. Ma, soprattutto, sono riusciti a farlo in tutti e cinque gli Stati e pressoché in tempo reale, senza quello scostamento di due o tre settimane tipico degli organi ufficiali.

Se da un lato sapere subito vuol dire agire prima e che, come si legge nello studio, “queste informazioni potrebbero essere vitali per attuare misure tempestive di risposta alle epidemie e prevenire l'ulteriore trasmissione di casi”, non si può non evidenziare che l’utilizzo di dati come quello di cui sopra, fatto certamente all’oscuro degli individui che indossavano quei dispositivi (benché avessero certamente dato il loro consenso accettando, probabilmente senza leggere come ormai accade sempre, le norme sulla privacy legate all’utilizzo di quei dispositivi), costituisce una pratica assai pericolosa. Rappresenta infatti, sicuramente, uno delle tante tipologie di sorveglianza di massa a cui siamo continuamente e forzatamente sottoposti.

Secondo gli stessi autori dello studio, questo è stato soltanto in piccolo esempio di ciò che si può fare con l’odierna tecnologia. La platea delle persone analizzate infatti, è stata tutto sommato contenuta. Lo studio si è concentrato sulla diffusione di disturbi simil-influenzali (cioè generici, con febbre e tosse) e ha rivelato sintomi già palesi, utilizzando i dati provenienti da dispositivi come quelli del fitness e del wellness, che hanno una diffusione comunque limitata nella popolazione.

In merito a questo studio, in data 8 febbraio 2020, l’agenzia giornalistica Agi, ha intervistato Antonio Bosio, product e solutions director di Samsung Italia, che ha fatto dichiarazioni interessanti quanto allarmanti. “Dobbiamo essere seri e dire che i dispositivi consumer, oggi, non possono fornire una diagnosi. I sensori che equipaggiano smartphone e wearable sono adatti al mondo del wellness perché non hanno apparati medicali. Realisticamente, nel rispetto della normativa, l'obiettivo è allargare il perimetro del wellness. Il maggior numero di sensori ci aiuterà a capire se abbiamo la febbre e misurerà le pulsazioni. È possibile avere informazioni in tempo reale e veicolarle opportunamente. Non dobbiamo pensare solo agli smartphone e smartwatch. Ma potrebbero essercene molti altri – (tutti quelli “smart” cioè connessi alla rete NDR) - Ad esempio, un frigorifero connesso che suggerisca un'alimentazione e il trattamento del cibo più adatti”.

Secondo Bosio la tecnologia indossabile dovrebbe diventare lo strumento non solo per raccogliere dati, ma anche per diffondere informazioni. Se da una parte si potrebbero divulgare con più facilità “suggerimenti sui comportamenti virtuosi”, dall'altra ci sarebbe il “monitoraggio dei parametri che, potrebbero essere d'aiuto agli specialisti per comprendere se il paziente merita approfondimenti”. Secondo il product solution director di Samsung Italia “Se gli utenti sono monitorati a distanza non intaserebbero gli ospedali solo per ansia e si ridurrebbero i tempi di attesa e d’intervento”.

E come se non fosse sufficientemente pericoloso per la tutela delle libertà dell’individuo raccogliere i dati in modo massivo, secondo Bosio è addirittura necessario far sì che i dati siano concentrati nelle mani di pochi!  “È fondamentale costruire una piattaforma nazionale o macroregionale, dove far confluire le informazioni”.

Esiste dunque, un interesse concreto per le grandi aziende dell’Hi-tech, nel voler implementare la raccolta massiva di dati personali. Questo però, fino almeno un paio di mesi fa, si scontrava palesemente con le normative degli stati occidentali, che hanno leggi a tutela della privacy che ostacolano (almeno in parte) la raccolta, lo scambio e l’utilizzo di questi dati.  Come risolvere la questione?

È lo stesso Bosio suggerire, quasi profeticamente, la soluzione per aggirare il problema. “Il mondo è interconnesso – spiega il manager di Samsung – e c'è condivisione nel mondo scientifico, ma non a livello di circolazione dei dati. Con gli open data, resi anonimi, è possibile avere grandi benefici. Le smart city che funzionano meglio sono quelle che usano dati aperti. Certo, è importante garantire che siano trattati adeguatamente ma si potrebbero evitare ritardi che ci sono stati anche nel caso del coronavirus”.

In Cina, dove gran parte della popolazione ha già familiarità con i sistemi di sorveglianza di massa, ha comunque fatto parlare di sé il software sviluppato da una controllata del gigante dell'e-commerce Alibaba insieme al regime di Pechino. Il software collegato alle onnipresenti telecamere di sorveglianza e incrociando i dati raccolti tramite gli smartphone della popolazione, determina la probabilità di essere stato infettato, e assegna a ciascun cittadino un colore - verde, giallo o rosso - che ne determina la libertà di movimento e la necessità di mettersi in auto quarantena.

Molti penseranno che la Cina essendo un paese antidemocratico e dittatoriale, non può essere presa ad esempio. Come vanno le cose in altri paesi del mondo?

Mentre in Italia a febbraio 2020 si cominciava a discutere sulla possibilità di utilizzare la tecnologia per fronteggiare le epidemie, in altri Paesi del mondo, considerati democratici, si era già molto più avanti. Si tratta in molti casi di Paesi in cui erano già stati creati i presupposti per il nuovo giro di vite, sempre attraverso consolidato metodo: creo un problema, attendo la reazione, fornisco la soluzione. In tali circostanze il problema è presentato spesso come una seria minaccia, la reazione della popolazione è di paura o panico e la soluzione passa sovente attraverso la limitazione di diritti fondamentali in precedenza acquisiti.

È il caso ad esempio della Corea del Sud (che ha un governo filooccidentale a differenza della dittatura di sinistra presente in Corea del Nord).

All’inizio dell’emergenza coronavirus, la Corea del Sud era il secondo Paese per contagi dopo la Cina. Il Governo sudcoreano ha così deciso di eseguire uno degli esperimenti su più larga. Le autorità di Seul hanno cominciato a tenere traccia degli spostamenti delle persone affette da Covid-19 attraverso quanto avevano a disposizione: il Gps del telefono, i pagamenti con carta di credito, le telecamere di sicurezza. Il sistema avvertiva la popolazione in tempo reale su dove erano stati registrati nuovi casi di coronavirus, fornendo informazioni dettagliate sugli ultimi spostamenti delle persone risultate positive ai test. Il sistema, tuttora in funzione, se consente di sapere se vi siano rischi di esser stati contagiati, ha avuto e sta avendo pesanti ricadute sulla tutela della privacy dei malati. Infatti, pur non indicandone nomi o indirizzi, i pazienti sono spesso facilmente identificabili incrociando età, quartieri e attività e vedono così le loro vite messe in piazza.

Sugli smartphone dei cittadini il Governo invia continuamente messaggi che segnalano i nuovi casi, con l'età e il sesso del paziente risultato positivo, i suoi ultimi spostamenti prima del test e in molti casi l'indicazione del lavoro della persona da cui si presume sia stato contagiato. Nessun dettaglio viene risparmiato, compreso l'orario a cui i pazienti risultati positivi sono stati in un bar piuttosto che in un motel a ore e pare che diversi tradimenti siano venuti alla luce in questo modo.

Se è vero che il fatto di essere identificabili ha reso la vita difficile anche a quei contagiati con pochi sintomi che non avrebbero voluto rivelare la malattia e che ora si vedono additati come degli appestati, la cosa più preoccupante per molti, è la presa di coscienza di quanto siano invasive le tecnologie “smart” che quotidianamente vengono utilizzate da miliardi di persone in tutto il mondo. In Corea del Sud, le informazioni raccolte sono anche pubblicate sul sito del Ministero della Salute, e sono consultabili da chiunque, mettendo così in piazza relazioni extra-coniugali, legami privati e abitudini inconfessate.

Ad esempio, una 27enne che lavora alla Samsung di Gumi, si è appreso che alle 23,30 del 18 febbraio si era incontrata con il compagno che è membro della Shincheonji, la setta diventata un focolaio nazionale. I suoi concittadini hanno chiesto di sapere dove abitasse e lei ha supplicato su Facebook il sindaco di non fornire altre informazioni dopo che aveva già diffuso il suo cognome.

Come accennato, una precedente “minaccia”, quella relativa all’epidemia di MERS del 2015 per la quale il governo di Seul era stato molto criticato per aver tenuto segrete le informazioni sui contagiati, ha fornito lo spunto al Parlamento per modificare le stringenti leggi sulla tutela della privacy, per dare più poteri al Governo e alle autorità che indagano sugli spostamenti dei contagiati in caso di epidemie. Quello accaduto nel 2015 in Corea del Sud è ciò che, come vedremo a breve, sta accadendo nel resto dei Paesi occidentali oggi.  

Ciò che è accaduto in Corea del Sud sta accadendo, in scala più piccola, anche a Singapore, dove le autorità locali hanno messo online un sito in cui vengono elencati età, sesso, occupazione e ultimi luoghi visitati dai pazienti affetti dalla patologia.

Anche nel resto del mondo, non mancano situazioni simili. Molti Paesi utilizzando il pretesto di combattere contro il coronavirus che causa la Covid-19, stanno impiegando sistemi di sorveglianza invasivi, mettendo a rischio il delicato equilibrio tra privacy e diritto alla salute.

L'ultimo è il caso è quello di un Paese che è spesso ed erroneamente considerato, nell’immaginario collettivo, un Paese democratico e civile: Israele. Qui lo scorso fine settimana (15/3/2020), il premier a interim Benjamin Netanyahu ha dato il via libera allo Shin Bet, il servizio di sicurezza interno, per tracciare i cellulari, attraverso una tecnologia utilizzata finora ufficialmente solo dall'antiterrorismo. Anche in questo caso, l'obiettivo dichiarato è monitorare i movimenti e i contatti sociali dei contagiati e dei presunti tali. I primi messaggi, firmati dal ministero della Salute, sono già partiti: i destinatari vengono avvertiti via sms di essersi trovati vicino a una persona positiva (senza riferirne il nome) in una certa data, e vengono invitati a mettersi immediatamente in quarantena per 14 giorni.

La modalità non ha però convinto tutti: due Ong hanno fatto ricorso alla Corte suprema denunciando non solo una presunta lesione dei diritti civili dei cittadini, monitorati senza consenso, ma anche il fatto che il provvedimento sia stato approvato dal governo con una procedura d'emergenza senza passare dal Parlamento, a testimoniare che quando si parla di Israele si parla di uno stato tutt’altro che democratico.

Mentre negli Stati Uniti la Casa Bianca finge di consultare i suoi esperti sanitari che si starebbero confrontando con i big dell’informatica, come Google, Apple, Microsoft, Amazon e Facebook, sulla possibilità di usare la geolocalizzazione degli smartphone per mappare l'epidemia e verificare se siano mantenute le distanze di sicurezza (come se il monitoraggio sistematico di massa sia un’attività nuova per gli USA), Paesi considerati totalitari come l’Iran, che aveva cominciato ad adottare un sistema analogo, ha invece fatto marcia indietro. Il regime di Teheran a inizio marzo aveva invitato i connazionali a scaricare un'app che avrebbe dovuto aiutarli a capire se fossero o no a rischio contagio. Sollevati alcuni dubbi in fatto di privacy, l'app è stata ritirata dal Ministro della Salute.

Siamo quindi al paradosso. Stati considerati totalitari che sembrano rispettare la privacy dei cittadini, mentre sedicenti Paesi democratici che usano ogni pretesto per circoscrivere on ogni modo anche questo diritto fondamentale, utilizzando ogni pretesto per aggirare le norme a tutela dei diritti dei cittadini.

Anche in Italia la stretta sta arrivando, o per meglio dire, un po’ in sordina è già arrivata. Mentre i cittadini sono occupati ad ascoltare gli artisti della TV che via web intrattiene la popolazione (o si fa pubblicità?), sono occupati a cantare alla finestra, o sono sul balcone a sventolare il tricolore, con un finto e ritrovato spirito di unione, la Regione Lombardia ha iniziato da giorni a tracciare gli spostamenti dei suoi 10 milioni di cittadini. La notizia, diffusa dalla giunta regionale, è stata accompagnata dalla classica rassicurazione: “I dati raccolti grazie alla collaborazione con le principali compagnie telefoniche sono in forma aggregata e anonima”. Servono a visualizzare i flussi di persone, non a monitorare i singoli. Ma è davvero così?

Meno scaltro, più esplicito e forse più sincero (ma solo per pavoneggiarsi sui media) è stato il sindaco di Firenze Dario Nardella (ex deputato del Partito Democratico) che il 20 marzo 2020 alle ore 9:45 del mattino, nella trasmissione di SkyTG24, è intervenuto dicendo: ”Stiamo testando in via sperimentale un software collegato alle nostre telecamere di sorveglianza, con un algoritmo in grado di rilevare automaticamente gli assembramenti di persone (da un minimo di due persone in su) e avvisare la centrale di polizia in modo che intervenga prontamente. Abbiamo chiesto al ministero dell’Interno, al Comitato per l’ordine e la Sicurezza, l’autorizzazione per l’utilizzo, autorizzazione che dovrebbe arrivare nelle prossime ore. Inoltre stiamo lasciando acceso il wi-fi pubblico per sapere chi si connette e chi non rispetta l’obbligo di stare a casa.”

Il sindaco di Firenze quindi, ha ammesso apertamente che il monitoraggio NON avviene in forma anonima e aggregata ma, al contrario, il comune è in grado di identificare (e quindi monitorare) le singole persone attraverso la connessione al wi-fi pubblico degli smartphone, oltre che alle ormai onnipresenti telecamere a riconoscimento facciale (alle quali, è bene ricordare, sono collegati database con le anagrafiche di quasi tutti i cittadini che negli ultimi anni hanno rinnovato i documenti di riconoscimento come carta d’identità elettronica e passaporto – leggi l’articolo "Polizia di Stato o Stato di Polizia?" dedicato all’argomento) e software di polizia predittiva.

Intanto Luca Foresti, fisico e amministratore delegato della rete di poliambulatori specialistici Centro medico Santagostino, ha reso noto attraverso un’intervista rilasciata all’agenzia ANSA in data 19 marzo 2020, che da diverse settimane stanno sviluppando un’app che, una volta sul telefono consente di ricostruire i movimenti delle persone positive al coronavirus e di chi è entrato in contatto con loro. “Le persone che scaricano e installano l'app sul cellulare diventano un nodo di raccolta di dati georefrenziata che aiuta tutti, ma aiuta anche il singolo individuo ad avere informazioni puntuali su se stesso. Più persone ce l'avranno più l'app avrà un ruolo pubblico che farà capire tante cose", sottolinea Foresti. Un modo elegante per dire “possiamo sapere chi sei, dove ti trovi e con chi ti trovi in ogni momento”.

La situazione già di per sé allarmante, considerato quanto detto, lo diventa ancor di più se a esprimere un parere favorevole non è un politico come il sindaco di Firenze, quello di Milano, il Presidente della regione Lombardia o un tecnico chiaramente interessato a fornire o entrare in possesso di questo tipo di tecnologie come Luca Foresti del Centro Medico Sant’Agostino o il manager di Samsung Italia Antonio Bosio, ma il direttore della Polizia Postale Nunzia Ciardi, che ha rilasciato sulla questione, una videointervista all’agenzia Ansa, in data 20 marzo 2020.

Alla domanda riguardo la possibilità di tracciare gli spostamenti dei cittadini adottando app geolocalizzate come in Corea del Sud, nell’intervista il comandante ha affermato “Per noi è uno stappo importante alle regole che hanno fin qui ispirato la nostra vita, le regole sulla privacy, le norme ispirano il nostro ordinamento sul tema della tutela dei dati personali. Ovviamente oggi siamo purtroppo in un’emergenza straordinaria che potrebbe anche giustificare una deroga ai principi generali. Questi però, Però questa sono bilanciamenti che vanno fatti tenendo conto degli interessi in gioco, valutazioni che spettano a chi strategicamente, politicamente e giuridicamente gestisce questa emergenza”.

Il Comandante della Polizia Postale quindi, sebbene con qualche appena accennata perplessità dal punto di vista della violazione dei diritti dei cittadini, contempla la possibilità di derogare a un principio inderogabile, andando a costituire come in tutti gli altri casi di libertà violate nel nostro recentissimo passato, un pericoloso precedente.

La giornalista dell’ANSA (il cui nome è sconosciuto, poiché come per tutti gli articoli e servizi dell’Ansa, vige l’assoluto anonimato) scontenta della poca perentorietà dell’ufficiale di polizia, rincalza chiedendo (o più che altro affermando, quasi a suggerire la risposta): “Si può quindi, in casi di assoluta necessità o emergenza estrema, oltrepassare i confini della privacy per la salute e la sicurezza dei cittadini, facendo appunto un bilanciamento degli interessi in gioco”.

Tecnicamente è possibile, tecnicamente è assolutamente possibileha risposto questa volta con più decisione Nunzia Ciardi – poi bisogna valutare quanto sia consigliabile dal punto di vista strategico, etico e politico.”

In questi giorni è nata una piccola polemica sul modello di autodichiarazione che il Governo ha reso obbligatorio per potersi muovere sul territorio nazionale. In molti si sono concentrati sul punto in cui si dichiara di non essere in quarantena e non essere positivi al Covid-19. Nessuno però, ha posto l’accento sulla presenza di un altro aspetto, ben più inquietante ma forse ancor più eloquente, su quelle che sono le reali intenzioni del Governo e ciò che ci potrebbe riservare il futuro.

Nei moduli di autodichiarazione, subito dopo le classiche generalità come nome, cognome, data e luogo di nascita, indirizzo di residenza, numero di documento d’identità è presente un campo anomalo, un campo presente anche nei precedenti moduli: il numero di utenza telefonica.

Dovremmo chiederci, da quando l’utenza telefonica è considerata un elemento che fa parte delle generalità per l’identificazione di una persona? A che scopo viene richiesto il numero di utenza telefonica? Per eventuali comunicazioni alla persona fermata?

La legge prevede che, qualora la persona fermata sia ritenuta passibile di denuncia e sanzione, se le motivazioni addotte per giustificare la sua presenza fuori dalla propria abitazione non siano state ritenute valide, viene richiesta l’elezione di un domicilio al quale sarà in seguito notificata la denuncia e ogni altra comunicazione relativa al reato contestato. Le comunicazioni legali dunque, saranno sempre inviate in forma cartacea. Non è consentito neanche l’invio di tale documentazione a mezzo PEC. Infatti, nel modulo non è neanche previsto il campo relativo a un indirizzo email.

È chiaro dunque che la richiesta del numero di utenza telefonica deve avere uno scopo diverso da quello di un canale di comunicazione tra Stato e cittadino. Quale?

Non è difficile pensare, alla luce di ciò che abbiamo visto, si sta approntando in termini di sorveglianza di massa della popolazione, che il numero di utenza telefonica abbinato al nome possa servire per facilitare il compito delle forze dell’ordine nel verificare gli spostamenti dei fermati e la veridicità di quanto dichiarato. Con il numero di telefono subito abbinato al nome, le forze dell’ordine non dovrebbero richiedere ai gestori telefonici, i numeri di utenze intestate alle persone fermate, poiché lo avrebbero già lì, bello e pronto per essere inserito nei sistemi di sorveglianza.

È solo un’ipotesi, sia chiaro ma non vedo altri motivi per spiegare la presenza di quel campo nel modulo.

È possibile evitare di fornire questo dato e cercare di difenderci in qualche modo? Certamente sì, poiché non è un dato identificativo. Tuttavia qualora le circostanze suggeriscano di fornire il dato e non potendo fornire dati errati (numero errato o dichiarare di non avere uno smartphone) per non incorrere nel reato di false dichiarazioni, il consiglio è fornire il proprio numero di rete fissa e non mobile. L’espediente non risolve certamente il problema, ma almeno non si rende la vita facile a questo ennesimo sopruso.

Insomma, come un giocatore di scacchi, i Governi mondiali si preparano a dare “Scacco matto” alle libertà individuali introducendo con la scusa del coronavirus, un pericoloso precedente che consente di violare sistematicamente e massivamente la privacy di miliardi di persone, mettendosi alla stregua dei tanto pubblicamente criticati governi dittatoriali e assolutisti dei cosidetti “Stati canaglia”.

Intanto il comune cittadino continua a osservare tutto, quasi la questione non lo riguardasse, convinto dalla propaganda dei politici e dei mass media a rinunciare all’ennesimo diritto fondamentale, e ormai solo teoricamente in derogabile, pur di sconfiggere la paura di questa nuova minaccia.

Cerchiamo allora di fare almeno quella che potrebbe essere la nostra ultima mossa. Una mossa difensiva che può farci prendere ancora un minimo di tempo, quella che nel gioco degli scacchi è chiamato “arrocco”. L’arrocco una mossa difensiva che può però sovvertire l’esito della partita, consentendo di ripartire al contrattacco.

Tutti quelli che hanno preso coscienza di ciò che sta avvenendo si arrocchino e prendano tempo allora, nella speranza che intanto, anche il resto della popolazione prenda coscienza che la reale minaccia è quella alle libertà fondamentali e alla democrazia portata dai Governi dei nostri stessi Paesi, e da quella moltitudine di persone che ricoprono ruoli diversi nella società. Tali persone, ritenendo di essere dalla parte dei giusti, sono pronte a ridiscutere i valori fondamentali dell’essere umano e a derogare a diritti e valori senza i quali nessuno sarebbe veramente libero. Oggi siamo chiaramente davanti ad una scelta che riguarda il nostro futuro. La scelta non è tra vivere o morire, ma tra essere liberi o in catene!

La battaglia che i Governi dicono di combattere contro la Covid-19, rischia di diventare una battaglia per sconfiggere la libertà.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Fonti:

Continua...

SPECIALE CORONAVIRUS: Il coronavirus svela le Fake News di autorità e mass media

È ormai da diversi mesi (dal dicembre 2019) che i mass media parlano quasi esclusivamente del coronavirus SARS-CoV-2 e della Covid-19. La comunicazione riguardo quest’argomento si è fatta ancor più insistente da quando, ormai alla fine di gennaio 2020, erano stati confermati ufficialmente i primi casi d’infezione in Italia.

Nelle successive quattro settimane (l’intero mese di Febbraio) abbiamo assistito a ore e ore di trasmissioni dedicate all’argomento da radio e Tv e centinaia di articoli su tutte le testate giornalistiche (solo su Ansa si contano quasi 1000 articoli sull’argomento in appena 30 giorni con una media di oltre 34 al giorno, più di uno ogni ora), ad annunci e disposizioni sanitarie disposte da Governi, Regioni e Comuni, con chiusure di scuole, isolamento d’intere città e quarantene per migliaia di persone.

In tutto questo, non si sono fatte attendere le interviste a virologi e medici, che hanno cercato di fare un minimo di chiarezza nell’approssimativa comunicazione fatta nelle settimane precedenti dagli impreparati, disinformati e mediocri giornalisti che popolano il panorama italiano, del settore chiamato impropriamente “dell’informazione”. Al contempo, in questo caos generalizzato, abbiamo potuto osservare le reazioni della popolazione a tutto ciò che stava e sta accadendo.

Gli accadimenti, in special modo quelli degli ultimi due mesi (febbraio e marzo 2020), ci consentono di fare alcune importanti riflessioni riguardo l’attività svolta dai mass media italiani, le reazioni e le affermazioni odierne e passate delle autorità in tema di focolai epidemici, e il rapporto tra popolazione e la comunicazione proveniente da questi due soggetti (mass media e autorità).

Ma andiamo con ordine e iniziamo innanzitutto dalle basi scientifiche e dati concreti, poiché ritengo debbano essere sempre i dati oggettivi a incidere nella formulazione delle nostre idee e considerazioni, e non viceversa. Cercherò quindi di fare innanzitutto una corretta e completa informazione, per poi passare a esporre le mie considerazioni personali.

Cos’è il coronavirus di cui parlano in continuazione i mass media?

Quello di cui si parla genericamente oggi con l’appellativo di “Coronavirus”, in realtà si chiama SARS-CoV-2 (in precedenza 2019-nCoV). A scegliere il nome è stato l'International Committee on Taxonomy of Viruses (ICTV) che si occupa della designazione e della denominazione dei virus (ovvero specie, genere, famiglia, ecc.). A indicare il nome è stato un gruppo di esperti appositamente incaricati di studiare il nuovo ceppo di coronavirus. Secondo questo pool di scienziati il nuovo coronavirus è fratello di quello che ha provocato la Sars (SARS-CoVs), da qui il nome scelto di SARS-CoV-2.

La malattia provocata dal nuovo Coronavirus ha un nome: “COVID-19 (dove "CO" sta per corona, "VI" per virus, "D" per disease e "19" indica l'anno in cui si è manifestata). Il nome è stato scelto dall’OMS (Organizzazione mondiale della Sanità). Si tratta di un virus della famiglia Coronavirus, noti per causare malattie che vanno dal comune raffreddore a malattie più gravi come la Sindrome respiratoria mediorientale (MERS) e la Sindrome respiratoria acuta grave (SARS). Tuttavia, pur facendo parte della stessa tipologia, il SARS-CoV-2 non è il virus dalla SARS, ma un virus diverso, la cui origine certa non è ancora nota.

Quanto è pericoloso il nuovo virus?

Su questo punto c’è stata molta disinformazione, fatta soprattutto (se non esclusivamente) dai mass media mainstream.

Fin dall’inizio dell’epidemia in Cina tutti i mass media si sono limitati soltanto ad aggiornare il numero dei casi conclamati e il numero dei morti, omettendo colpevolmente di spiegare all’opinione pubblica quali fossero le condizioni igienico sanitarie in cui si è sviluppato e diffuso il focolaio in Cina, quale fosse il contesto sociale in cui il virus si stava diffondendo, quali fossero le modalità e le possibilità di accesso alla sanità cinese e quindi alle cure, quali fasce di età della popolazione fossero più colpite, quali fossero le condizioni di salute preesistenti nei soggetti colpiti e poi deceduti e, infine, omettendo sempre il numero delle persone guarite.

Tutte queste omissioni, colpevoli o colpose, hanno trasformato quella che doveva essere “informazione” in disinformazione, generando confusione, prima, allarmismo e panico poi, una volta che il virus è arrivato in Italia. Sui motivi che hanno indotto tutti i mass media a tale superficiale comportamento, tornerò più avanti, poiché qualcuno potrebbe considerare le spiegazioni a riguardo solo delle opinioni. Proseguiamo allora, prima con i fatti.

Secondo quanto riporta il sito del Governo italiano www.salute.gov.it, se si prende il virus SARS-CoV-2 (che da qui in avanti per semplicità chiamerò anch’io “coronavirus” al fine di facilitare la comprensione del lettore), “Alcune persone si infettano ma non sviluppano alcun sintomo. Generalmente i sintomi sono lievi, soprattutto nei bambini e nei giovani adulti, e a inizio lento. Circa 1 su 5 persone con COVID-19 si ammala gravemente e presenta difficoltà respiratorie, richiedendo il ricovero in ambiente ospedaliero”.

Secondo ISS (Istituto Superiore di Sanità) quindi, il virus porta complicazione in circa il 20% dei malati. Ma è davvero così? Cosa dicono i virologi?

Esporrò alcuni eminenti pareri, mettendo ovviamente da parte l’opinione di quei medici che di virologi hanno soltanto il titolo e che, al soldo di taluni partiti politici, sono saliti alla ribalta negli ultimi anni lucrando costantemente sulla salute della popolazione facendo propaganda politica e non informazione scientifica, mediante un’esposizione mediatica continua e la pubblicazione immediata di libri (a solo 30 giorni dall’arrivo del nuovo coronavirus in Italia, il virologo a cui mi riferisco e di cui non farò il nome per non fargli pubblicità, ha già pubblicato un libro sull’argomento) su ciascun argomento che possa rientrare nella loro sfera di competenza.

Qui di seguito invece, riporto un estratto degli interventi di due prestigiosi virologi italiani, intervenuti in due distinte trasmissioni di Radio Rai, Speciale GR1 sul coronavirus, nei giorni 24 e 25 febbraio 2020. È molto importante porre particolare attenzione alle affermazioni che ho sottolineato. Torneranno utili per le considerazioni finali. Nella trasmissione del 24 febbraio, è intervenuto il virologo Giovanni Maga, direttore dell’istituto Molecolare del CNR (Centro Nazionale delle Ricerche). Ecco cosa ha detto.

Giornalista Radi orai: “Vorrei con Lei ridimensionare quella che è la pericolosità di questo virus, che è altamente contagioso ma, lo abbiamo detto più volte, essere positivi al test del coronavirus, quindi avere il contagio, non significa essere in pericolo di vita.”  (Si può morire per coronavirus, ma le persone che sono a oggi decedute erano persone fragili - dal punto di vista immunitario NDR.)

Giovanni Maga:Assolutamente. L’infezione da questo nuovo coronavirus ha un decorso benigno nell’assoluta maggioranza delle persone. Insomma, guarire è la regola! Almeno l’80%, ma come dicevo, in base anche all’età, quindi in età giovane può essere anche il 90%, le persone hanno una sintomatologia moderata o lieve, cioè non richiedono ospedalizzazione, e guariscono senza particolari conseguenze. C’è una percentuale significativa, tra 10 e 15%, sempre a seconda della propria costituzione e del proprio stato fisico, che può sviluppare una polmonite virale. Questa incidenza è superiore a quella causate dal normale virus influenzale in percentuale, ma anche in questo caso, nell’assoluta maggioranza dei casi il decorso è benigno.”

Giornalista Radio Rai: “Quindi a questo punto l’importante è contenere i contagi. Si è sviluppata una sorta di caccia al paziente zero, ma potremmo già essere alla terza o quarta generazione del virus. Perché è importante risalire al fantomatico paziente zero”.

Giovanni Maga: “Il paziente zero, in qualsiasi focolaio epidemico, è importante per due motivi. Perché definisce il contesto in cui il virus è entrato, cioè ci fa capire com’è arrivato, e inoltre ci consente di tracciare i primi contatti, quindi risalire ai primi che sono stati potenzialmente infettati e da cui potrebbe essere partito il focolaio. Questo ovviamente, se viene fatto subito, consente di circoscrivere immediatamente l’area. La nostra situazione attuale è che, purtroppo, non è stato possibile identificare il paziente zero all’inizio, e quindi ci siamo un po’ allontanati dalla radice di quest’albero d’infezione che si sta diffondendo.  Però questo vuol dire che abbiamo messo in campo un’area di delimitazione molto ampia proprio per renderci conto della dinamica dell’infezione, per limitarne la diffusione, intanto che gli studi epidemiologici cercano di tracciare all’indietro i contatti. Però a oggi per la limitazione dell’infezione la misura migliore è quella di circoscrivere le zone potenzialmente interessate.”

Giornalista Radio Rai: “C’è la speranza che con la buona stagione questo virus cominci a decrescere nei contagi, così come sta accadendo anche per la normale influenza?”

Giovanni Maga: “È una ragionevole ipotesi. AL momento non sappiamo come questo virus si comporti da un punto di vista stagionale. È molto simile alla SARS come tipologia ma non certamente come gravità dei sintomi, la SARS era molto più aggressiva e molto più letale, è 10-50-100 volte più letale, a seconda delle classi di rischio, ma così come la sars era scomparsa con l’arrivo della bella stagione, se anche questo virus seguirà l’andamento di tutti i virus respiratori, come quello dell’influenza, si può ragionevolmente sperare che, con l’aumento delle temperature, perda di potenza. Io vorrei anche sottolineare che anche nell’epicentro della malattia, in Cina, si sta iniziando a vedere una diminuzione dei casi, l’aumento sempre maggiore delle persone guarite, tant’è che la Cina ha deciso di allentare un pochino i cordoni di contenimento, proprio perché sembra che l’epidemia stia rallentando e si spera nei prossimi mesi scenderà … Quindi nel frattempo, l’importante è evitare che nuovi focolai si accendano e si espandano in altre zone.”

Giornalista Radio Rai: “Sembrerebbe anche dai dati che sono stati registrati in Cina e in tutti i paesi colpiti dal virus, che questo virus colpisca meno i più piccoli, i più giovani. C’è qualche spiegazione o è solamente un fatto statistico ancora non emerso?”

Giovanni Maga:In questa fase è difficile a dirsi, perché non è chiaro di quanto sia stata l’esposizione della popolazione infantile al virus, almeno in Cina. Certamente il dato statistico è chiaro. Ci sono poche infezioni in età pediatrica. Una possibilità sta nelle differenze del sistema immunitario dei bambini rispetto all’adulto, perché una delle cause delle complicazioni di questo virus è un’eccessiva risposta di tipo infiammatorio mediata da un sistema immunitario adulto, che nei bambini è meno soggetta a dare questo tipo di complicazioni quindi, in qualche modo, li rende meno suscettibili e gli fa passare questa infezione in maniera molto blanda. Per diminuire possibilità di contagio è buona norma (ma questo vale sempre anche nei periodi di normale influenza) lavarsi bene (anche con un semplice sapone) sempre le mani prima di portarle alla bocca, agli occhi o al naso. Gli antibiotici non servono a nulla perché gli antibiotici distruggono i batteri. Questo è un virus.”

Il giorno seguente, nella trasmissione del 24 febbraio, è intervenuta Ilaria Capua, pluripremiata virologa italiana, che oggi dirige un dipartimento dell'Emerging Pathogens Institute dell'Università della Florida.

Giornalista Radio Rai: Vorrei parlare di anticorpi: man mano che il virus colpisce gli italiani, chi viene colpito sviluppa gli anticorpi. Questo potrebbe essere una chiave di lettura interessante: più popolazione viene colpita più anticorpi si sviluppano.”

Ilaria Capua: “Beh..., questa è la storia delle malattie infettive … tranne in pochissimi esempi di virus che sono molto particolari, la stragrande maggioranza dei virus provoca, come risposta dell’organismo che infetta, provoca la produzione di anticorpi che sono delle forme difensive nei confronti del virus. Infatti, quando si sentono le notizie dalla Cina che il numero di casi sembra essere in rallentamento, è probabilmente perché si è raggiunto il picco epidemico. Il picco epidemico si raggiunge quando il virus ha raggiunto la sua capacità massima di infettare. Perché raggiunge la sua capacità massima? Perché comincia a trovare gli anticorpi. Faccio un esempio. Facciamo finta che parliamo di morbillo, così facciamo un po’ d’informazione sanitaria aggiuntiva. Da un bambino affetto da morbillo, se ne possono infettare altri 5, perché R0 (di cui avrete sentito parlare) è 5 (in medicina è “R” è l’indice d’infettività e il numero che segue rappresenta il numero di persone solitamente contagiate da ciascun paziente affetto se queste non hanno quegli anticorpi NDR). Se però questi cinque hanno gli anticorpi, quel bambino con il morbillo non ne infetta neanche uno … Torniamo al coronavirus, se effettivamente il coronavirus provoca solo una sindrome simil-influenzale, almeno a oggi, se effettivamente il coronavirus sta circolando in Italia da un mese e mezzo o (come sembra) anche da un po’ di più, ci dovrebbero già essere anticorpi in circolazione. Quindi possiamo aspettarci una diffusione minore (rispetto alle previsioni iniziali NDR), questo però ancora non lo sappiamo.”

Giornalista Radio Rai: “Sì, appunto, perché in Cina delle persone guarite poi si sono riammalate, questo ha un significato dal punto di vista scientifico, anche.”

Ilaria Capua: “MMMMHHH… Io non capisco perché le cose che succedono normalmente per le altre malattie, con questa malattia dovrebbero essere diverse. Scusate, ma voi avete mai avuto una ricaduta da influenza? … Ci sono alcune malattie che si prendono una volta sola e poi si è immuni per tutta la vita - (come tutte le malattie infettive NDR) – e poi ci sono altre malattie per le quali, non solo non si è immuni per tutta la vita, vedi l’influenza che ogni anno bisogna aggiornare il vaccino, e il coronavirus potrebbe essere una di queste, in cui le ricadute o le reinfezioni in caso di condizioni particolari, altra concentrazione virale, piuttosto che altri fattori di rischio, è possibile che le persone si riammalino. Io però credo che la stragrande maggioranza delle persone che a oggi ha contratto il coronavirus, l’ha contratto in maniera asintomatica o con sintomi non degni di essere oggetto di attenzione medica, ed è quindi possibile che in Italia ci siano molti più guariti di quanto non si creda …”

Giornalista Radio Rai: “Si sta lavorando negli USA alla creazione di un vaccino.”

Ilaria Capua: “Sì ho letto anch’io la notizia ma questo non significa che avremo un vaccino prima di un anno. I vaccini devono superare i Trial clinici per testare che siano effettivamente innocui per l’organismo e, al contempo, efficaci contro la malattia, cioè che siano in grado di far sviluppare anticorpi. Per i dati che abbiamo oggi, credo che questa emergenza sanitaria, perché è indubbiamente un’emergenza sanitaria, non abbia assolutamente i tratti di situazione apocalittica a cui ci si riferisce nel nostro immaginario quando si parla di pandemia. Perché si pensa alla pandemia del 1918, siamo nel 2020.”

A due mesi e mezzo dal rilevamento dei primi casi in Cina e dopo un mese dai primi casi in Italia, due importanti virologi, intervistati dall’emittente di Stato nei suoi canali radiofonici, hanno affermato a chiare lettere e senza mezzi termini che il virus SARS CoV-19 e la malattia che causa, la Covid-19, NON sono letali, contrarre il virus non significa mettere a rischio la propria vita, guarire è la norma e che i numeri non descrivono assolutamente una situazione apocalittica o pandemica, smentendo di fatto ogni allarmismo provocato dai mass media.

Questo è ciò che si era detto circa 15 giorni fa, e qualcuno potrà ora dire che la situazione è notevolmente peggiorata, sia in Italia sia nel resto del mondo. Così almeno è ciò che si evince dal bollettino quotidiano diramato dalle autorità attraverso tutti i mass media mainstream. Ma è davvero così?

Che cosa dicono i numeri ufficiali fino a oggi (16 marzo 2020) registrati?

Il bollettino diramato oggi dal Governo Italiano, dalla Protezione Civile e dall’ISS riferisce di un numero di contagiati, dall’inizio dell’epidemia a fine gennaio, di 31.506 di cui già guariti 2.941 e deceduti 2.503. Analizzati così però, i numeri sono fuorvianti, perché incompleti, perché il numero complessivo dei contagiati è senza dubbio maggiore di quello indicato, così come quello dei guariti.

Ciò è dovuto a un cambio di strategia nel modo di rilevare i contagi e nel conteggiare i guariti.

All’inizio dell’epidemia infatti, e quasi per tutto il mese di febbraio (2020) il Governo italiano aveva dato istruzioni di eseguire i tamponi “a tappeto”, in modo sistematico a chiunque mettesse piede in Italia e a chiunque abitasse, o avesse frequentato, le prime “zone rosse” in Lombardia, dove si erano registrati i primi focolai. Questa strategia ha portato a rilevare un numero casi positivi molto elevato e, verosimilmente, molto vicino a quello reale. Tuttavia, man mano che il numero di casi positivi riscontrati si faceva più grande, l’eco di quella che fino alla prima settimana di Marzo 2020 (circa 35-40 giorni dopo i primi casi in Italia) era stata definita dalle autorità italiane (Governo, Protezione civile e ISS) una “emergenza sanitaria”, ha cominciato a portare un ritorno d’immagine negativa per il nostro Paese, con notevoli danni economici. Molti paesi europei hanno cominciato a chiudere le frontiere con l’Italia, hanno sospeso voli da e per il nostro Paese e hanno perfino iniziato a bloccare il traffico delle merci per i prodotti italiani o hanno bloccato l’esportazione in Italia di prodotti necessari all’emergenza sanitaria (mascherine, prodotti disinfettanti, respiratori, ecc.).

L’effetto del ”racconto distorto” dei media che avevano calcato la mano sulla reale pericolosità del virus, inizialmente circoscritto, con tutte le conseguenze economiche del caso, alla sola Cina si è improvvisamente ritorto sul nostro Paese.

Non è soltanto una mia opinione ma un’evidenza oggettiva. Molti esperti di comunicazione hanno espresso il medesimo parere.

In un articolo apparso sull’agenzia di stampa Agi in data 27 febbraio 2020, sono stati interpellati alcuni addetti ai lavori, come l’esperto di comunicazione di crisi e docente di Strategie di Comunicazione e tecniche pubblicitarie alla Luiss e fondatore della società di consulenza Comin&Partners, Gianluca Comin che ha detto senza dubbi: “L’emergenza è stata sovraccaricata con una comunicazione eccessiva, ripetitiva e con toni preoccupanti; anche il solo fatto di rappresentare la crisi dalla Protezione Civile fa passare il messaggio di una calamità nazionale e tutto questo ha creato ansia e timore nella gente”.

Un punto su cui concorda Federico Unnia, anch’esso consulente in comunicazione di crisi. “Nel momento in cui si è correttamente centralizzata la regia sulla Protezione civile, sarebbe stato più utile far comunicare prevalentemente loro. Credo poi che nell'immaginario collettivo abbia spaventato di più il blocco di 11 paesi di quanto il pericolo reale del coronavirus. Non sono state considerate abbastanza le ripercussioni all’estero di una comunicazione così emergenziale, soprattutto l’impatto che avrebbe avuto sul turismo, sulle imprese e sul commercio. Gestire un evento di questa portata ha delle complessità uniche. Le informazioni sono frammentarie, in veloce e inaspettata evoluzione, condizionate da fattori spesso non controllabili come l’informazione dall’estero”. “Se ci si pensa” ha aggiunto Unnia, “18 pagine di un quotidiano su questo evento, indipendentemente dalla sua gravità, trasferiscono ansia e preoccupazione. L'informazione, stampa, tv, social si è inseguita e ha finito per alimentare un flusso continuo. Il commento ha superato spesso i fatti reali. E questo, pensando al rigore scientifico, non è positivo”.

Nonostante alcuni pallidi tentativi di riportare alla realtà dei fatti la popolazione italiana, facendo intervenire, come abbiamo visto, virologi indipendenti e più obiettivi di quelli di mainstream e politicizzati che abbiamo, nostro malgrado, dovuto ascoltare negli scorsi anni, è stato pressoché impossibile per i mass media, rimangiarsi quanto di allarmistico detto in precedenza. Il danno ormai era fatto.

Sulla stregua di quanto fatto dagli altri Paesi europei e per alleggerire il carico di lavoro di screening del sistema sanitario nazionale, anche il Governo italiano ha deciso di cambiare strategia. Dal 26 febbraio scorso – in linea con una circolare del Ministero della Salute del giorno prima – si è stabilito che i test andassero fatti solo ai soggetti sintomatici (per esempio con febbre e problemi respiratori), mentre prima erano testati anche gli asintomatici. Era infatti impossibile, in un’ottica di allargamento dei contagi, pensare di sottoporre l’intera popolazione italiana (circo 60 milioni di persone) al tampone per il rilevamento del virus.

La conseguenza è che se prima le persone positive ma asintomatiche, erano comunque rilevate e conteggiate, poiché comunque gli era stato fatto il tampone, dall’inizio di marzo in avanti, questa tipologia di persone non hanno fatto più parte dello screening. Non rientrando più tra le persone controllate, è quindi probabile che ci siano molte persone positive asintomatiche. È dunque molto probabile che i positivi siano oggi molto più di quelle ufficialmente indicate dalle autorità.

Inoltre, tra i “guariti” non sono conteggiate le persone asintomatiche rilevate in precedenza e/o quelle che, non manifestando sintomi degni di particolare attenzione sanitaria, hanno fatto il loro decorso semplicemente nelle mura domestiche. Insomma, i guariti di cui si ha quotidiana notizia, sono quasi esclusivamente quelli in precedenza ricoverati negli ospedali e poi guariti. Ciò significa che i guariti sono molti di più di quelli comunicati dalle autorità.

Tutto questo ha un impatto notevole sulla percezione reale della situazione, sulle considerazioni e sulle percentuali di guarigione e mortalità.

Tutto ciò è confermato anche da quanto a ha chiarito il 5 marzo a Il Messaggero l’epidemiologo dell’Università di Pisa, Pier Luigi Lopalco, “Il rapporto tra contagiati e morti cambia in base a quante persone vengono sottoposte al tampone e se sono sintomatiche o senza sintomi”.

In parole semplici, se si sottopongono ai test sia i soggetti sintomatici sia quelli asintomatici, è più probabile che il tasso di letalità risulti più basso rispetto a uno scenario in cui sono testate solo le persone con sintomi. Questo avviene perché nel calcolo si contano anche persone, gli asintomatici, che magari non svilupperanno mai sintomi e quindi non subiranno gravi conseguenze, come la morte. Se infatti, il numero dei positivi è sottostimato per i motivi sopra detti, si determina apparentemente un aumento del tasso di mortalità. Per chiarire, faccio un esempio.

Se ho riscontrato 3 decessi su 100 persone risultate positive, il tasso di mortalità sarà pari al 3%. Se però controllo solo chi manifesta sintomi di una certa entità, certamente avrò un numero di positivi inferiore, poniamo (solo per esempio) pari a 50, poiché non ho riconosciuto come positivi, perché non li ho testati, gli asintomatici e coloro che hanno manifestato sintomi lievi. Rapportando il nuovo dato dei positivi e fermo restando quello dei deceduti, il mio tasso di mortalità risulterà così raddoppiato, passando dal 3% al 6%. Questo è ciò che è avvenuto in Italia, dove nel primo mese il tasso di mortalità riscontrato si attestava attorno allo 0,5% contro il 2,5% della Cina. Oggi il tasso di mortalità in Italia, considerato il cambio metodologia di screening appena spiegato, è addirittura schizzato al 7,9%. È verosimile che il tasso di mortalità sia effettivamente aumentato, ma solo in ragione del diffondersi della malattia e in rapporto all’età della popolazione, ma certamente non nei termini che appaiono dai dati ufficiali. Quello ad oggi (18/3/2020) accertato su base mondiale è pari a 3,99%, ma sul calcolo incide pesantemente il dato Italiano (secondo paese al mondo per numero di positivi) poiché, come detto, il dato dato dei positivi è ampiamente sottostimato.

C’è infatti, un altro dato da tenere in considerazione nell’analisi dei numeri quotidianamente distribuiti dalle Autorità, il fattore demografico, quello cioè che riguarda le fasce di età e le condizioni di salute pregressa dei deceduti. È vero che il tasso di letalità è al momento più basso in Cina rispetto all’Italia, ma una delle possibili spiegazioni è il “peso” del numero nel nostro Paese dei pazienti più anziani.

Secondo i dati Istat e dell’OMS, l’Italia ha un’età media molto più alta rispetto ad esempio alla Cina (44,3 anni contro 37,4) e questo mette ancora più pressione sulle strutture e gli operatori nelle zone colpite dall’epidemia.

In tal senso ci aiuta uno studio pubblicato sul sito dell’ISS, lo scorso 5 marzo (2020), in cui è presente un report dettagliato sui casi positivi italiani riscontrati fino al 4 marzo. Dallo studio emerge che l’età media dei pazienti deceduti e positivi a COVID-2019 è 81 anni, sono in maggioranza uomini e in più di due terzi dei casi hanno tre o più patologie preesistenti. Nello studio si sottolinea come ci siano 20 anni di differenza tra l’età media dei deceduti e quella dei pazienti positivi al virus. La maggioranza sono uomini (73.3%) mentre le donne sole 26,7%.

La maggior parte dei decessi 42.2% si è avuta nella fascia di età tra 80 e 89 anni, mentre 32.4% erano tra 70 e 79, 8.4% tra 60 e 69, 2.8% tra 50 e 59 e 14.1% sopra i 90 anni. Le donne decedute dopo aver contratto infezione da COVID-2019 hanno un’età più alta rispetto agli uomini (età mediana donne 83.4 – età mediana uomini 79.9). Il numero medio di patologie pregresse (cioè le malattie presenti e preesistenti al contagio di coronavirus) osservate tra questi primi 105 deceduti è di 3.4. Complessivamente, il 15.5% dei morti aveva tra 0 o 1 patologie, il 18.3% presentavano 2 patologie e 67.2% presentavano 3 o più patologie. Quindi il 100% dei deceduti fino al 5 marzo scorso aveva condizioni di salute precedentemente compromesse.

Da questo primo studio quindi, sebbene sia chiaro che il virus infetta indistintamente ogni fascia di età, dai neonati agli anziani, è altresì chiaro e inconfutabile che, salvo rarissime eccezioni tutte ancora da studiare, il CoVid-19 fa vittime quasi esclusivamente tra gli anziani ultrasettantacinquenni con patologie pregresse o con codizioni di salute precedentemente compromesse.

Nonostante l’apparente aumento del tasso di mortalità registrato nei dati ufficiali (e per i motivi sopra spiegati) i risultati del primo studio che indica l’incidenza della mortalità nel 99% dei casi, soltanto nella fascia di età over 75 e/o (in casi di decessi nella fascia minore di questa) in pazienti con presenza di patologie pregresse, è stata sempre confermata!

I mass media hanno continuato a sostenere che il virus fosse pericoloso e che dalla Cina non fossero arrivati dati specifici sull’epidemia, sul numero reale di contagiati, di guariti e morti, oltre che delle fasce di età più vulnerabili. Anche in questo caso si tratta di un’informazione approssimativa se non addirittura del tutto infondata!

La Cina ha fornito, a partire dal 31 dicembre 2019, all’OMS i dati dettagliati dell’epidemia.

Paradossalmente, nonostante ci troviamo in un’epoca in cui continuamente Governi, big dell’informatica e molti altri soggetti violano la nostra privacy, raccolgono, rubano e vendono qualunque dato che ci riguardi, dai più elementari a quelli più personali, per ragioni di tutela della privacy, l’Oms e l’Iss (e le altre istituzioni sanitarie internazionali) hanno deciso di non riportare i dati relativi a età, sesso e condizioni patologiche preesistenti dei contagiati dal coronavirus che poi sono morti (non è sempre chiaro con che rapporto di causa/effetto) comunicati dalla Cina.

La giustificazione dei media di fronte all’accusa di aver diffuso per mesi dei dati incompleti dell’epidemia in Cina, dicendo che i dati non erano stati forniti da Pechino è errata.

Tuttavia esistono due autorevoli studi, entrambi del mese di febbraio 2020, uno della missione dell’Oms in Cina e l’altro del Centro cinese di controllo e prevenzione delle malattie (Ccdc), che hanno analizzato decine di migliaia di casi verificatisi in Cina e ne hanno estrapolato alcune rilevanti informazioni. Solo l’agenzia AGI (ma in data 5 marzo) ha tirato fuori questi studi.

Al netto delle discrepanze tra i due report, quello che emerge è che il tasso di letalità è superiore tra gli uomini rispetto alle donne, che il rischio aumenta – e di molto – con l’aumentare dell’età della persona contagiata e che i pazienti che non hanno altre malattie, a parte il coronavirus, hanno tassi di letalità più bassi della media. Tra chi ha altre malattie, oltre al coronavirus, i tassi di letalità sono sempre più alti della media e in particolare risultano più esposti di tutti i soggetti che soffrono di malattie cardiovascolari. Sostanzialmente gli studi sui casi cinesi confermano i dati rilevati dall’ISS nel nostro Paese.

Per quanto riguarda le morti, i dati comunicati finora dalle autorità, non ci dicono se sono decessi di persone morte “per” il virus o “con” il virus. Secondo alcuni virologi, questa sarebbe una differenza di poco conto (e da non risaltare sul piano comunicativo), ma sulla questione si registrano opinioni contrastanti anche tra gli esperti.

Secondo Walter Ricciardi, membro del comitato esecutivo dell’Organizzazione mondiale della sanità (Oms) e consigliere del ministro della Salute per il coordinamento con le istituzioni sanitarie internazionali, l’Italia sta registrando i morti con coronavirussenza quella maniacale attenzione alla definizione dei casi di morte che hanno per esempio i francesi e i tedeschi, i quali prima di attribuire una morte al coronavirus eseguono una serie di accertamenti e di valutazioni che addirittura in certi casi ha portato a depennare dei morti dall’elenco. Di fatto capita che accertino che alcune persone siano morte per altre cause pur essendo infette da coronavirus”.

Questa pratica, sempre secondo l’ex presidente dell’Iss, spiegherebbe un’altra questione: il fatto che, a oggi, il tasso di letalità del Sars-CoV-2 in Italia sembra essere più elevato che altrove.

In data 1 marzo 2020, la virologa affermato Maria Rita Gismondo, direttrice del laboratorio dell'ospedale Sacco di Milano, ospite di 'SkyTg24' ha affermato: "A livello mondiale conosciamo i casi della Cina che ci hanno molto spaventato. A oggi in Italia abbiamo 1049 casi, in Lombardia sono 615 i positivi, 256 ricoverati e 80 in terapia intensiva. Ma se facciamo un paragone con l'influenza vediamo che ci sono già stati 5 milioni di casi, il 9% popolazione, con 300 decessi collegati all'influenza. Non voglio sminuire il coronavirus ma la sua problematica rimane appena superiore all'influenza stagionale. È l'organizzazione sanitaria, ovvero in poco tempo tanti casi, a preoccupare. Non è una pandemia ma occorre rispondere in un periodo molto breve a tanti ricoveri in terapia intensiva”.

Secondo anche questo virologo quindi, il nuovo coronavirus non è particolarmente pericoloso se non in misura appena superiore all’influenza stagionale. Tuttavia le opinioni vanno prese come tali e, anche in questo caso, facciamo parlare i dati ufficiali sull’influenza stagionale per poi poter fare un paragone con quelli del coronavirus.

Iniziamo con i dati riguardanti gli infettati.

Ogni anno si ammalano d’influenza diversi milioni d’italiani, e per alcune centinaia la malattia si rivela letale. Ogni stagione invernale, InfluNet (il sistema nazionale di sorveglianza epidemiologica e virologica dell’influenza, coordinato dal Ministero della Salute con la collaborazione dell’Iss) pubblica settimanalmente sul suo sito i risultati del monitoraggio a partire dalla settimana n. 42 di un anno (metà ottobre) alla settimana n. 17 dell’anno seguente (fine aprile). Questo periodo di cinque mesi è l’unico considerato nella rilevazione statistica dei casi d’influenza stagionale. È chiaro dunque, che i numeri seguenti, benché considerati come “annuali” in realtà sono concentrati in soli 5 mesi.

In base ai dati più aggiornati, dal 14 ottobre 2019 al 9 febbraio 2020 – dunque a quasi i due terzi del periodo monitorato – il numero di casi simil-influenzali è stato di 5.018.000. Al termine della precedente stagione influenzale (2018-2019), i casi erano stati 8.104.000, tra il 2017 e il 2018 erano 8.677.000 e tra il 2016 e il 2017 sono stati 5.441.000. 

Questi numeri ci danno un’idea della portata del fenomeno, ma non riguardano tutti i reali casi di contagio. Il Ministero della Salute nelle sue raccomandazioni. Scrive sul portale: "Si sottolinea che l’incidenza dell'influenza è spesso sottostimata poiché la malattia può essere confusa con altre malattie virali e molte persone con sindrome simil-influenzale non cercano assistenza medica".

Secondo i dati dell’Iss, è possibile affermare senza timore di smentite, che ogni anno le sindromi simil-influenzali coinvolgono circa il 9% dell’intera popolazione italiana, "con un minimo del 4 per cento (ossia circa 2,4 milioni di persone l’anno), osservato nella stagione 2005-06, e un massimo del 15% (ossia quasi 9 milioni di persone) registrato nella stagione 2017-18". Le fasce più colpite della popolazione sono quelle in età pediatrica (0-4 anni e 5-14 anni) e con 65 anni e oltre. Secondo il Ministero della Salute, che riporta i dati del Centro europeo per il controllo delle malattie (Ecdc), ogni anno in Europa si stimano circa 50 milioni di casi sintomatici d’influenza, e fino a un miliardo nel mondo, secondo dati dell’Oms.

Quanti sono i morti d’influenza stagionale negli ultimi 11 anni in Italia?

Secondo il database di Istat sulle cause iniziali di morte (ossia su quelle malattie che hanno condotto al decesso), nel 2017 i morti diretti per influenza sono stati 663, il doppio dei 316 registrati nell’anno precedente. Nel 2015 i decessi sono stati 675 e 272 nel 2014. Tra il 2007 e il 2013 i morti per influenza sono stati rispettivamente: 411, 456, 615, 267, 510, 458 e 417. Tra il 2007 e il 2017 l’influenza è stata la causa iniziale di morte per un totale di 5.060 decessi, una media di 460 l’anno. È utile ribadire che si tratta quindi di morti dirette.

A seconda delle stime dei diversi studi, vanno poi aggiunti tra le 4 mila e le 10 mila morti indirette (cioè come tutte quelle a oggi attribuite al coronavirus, o meglio i “decessi con coronavirus” – NDR), dovute a complicanze polmonari o cardiovascolari, legate all’influenza”, ha spiegato a Pagella Politica Fabrizio Pregliasco, virologo e ricercatore all’Università degli Studi di Milano.

Come sottolinea anche l’Iss, qui però stiamo parlando di stime su più anni, a differenza dei dati Istat sulle cause di morte. L’ISS in merito spiega che “Diversi studi pubblicati utilizzano differenti metodi statistici per la stima della mortalità per influenza e per le sue complicanze. È grazie a queste metodologie che si arriva ad attribuire mediamente 8 mila decessi per influenza e le sue complicanze ogni anno in Italia”.

Ricapitolando: per quanto riguarda la comune influenza stagionale, e facendo riferimento esclusivamente ai soli dati ufficiali, se contiamo i morti “diretti” per influenza, tra il 2007 e il 2017 sono stati in totale poco più di 5.000; se si consideriamo però anche i decessi “indiretti” il numero sale di molto e potrebbe potenzialmente a superare le 100.000.000 morti in totale, con una media di quasi 10.000 morti l’anno (o per meglio dire nei 5 mesi dell’influenza, con una media di 2.000 morti al mese), solo in Italia!

In generale, afferma l’Iss, si stima che il tasso di letalità dell’influenza stagionale (ossia il rapporto tra morti totali e contagiati) sia inferiore all’uno per mille (0,1 per cento).

Questi numeri, già ampiamente disponibili a fine febbraio 2020, ottenuti solo ed esclusivamente, è bene ricordarlo, dai dati ufficiali ci dicono che la contagiosità del Covid-19 è di gran lunga inferiore a quella dell’influenza stagionale.  A oggi (18/3/2020) il totale dei casi in tutto il mondo sono “appena” 201.634 e circa 8.007 decessi. Se consideriamo il tempo trascorso dal primo caso (metà dicembre 2019) sono passati 3 mesi. Se i morti sono stati in tutto il mondo 8.007, sono morte 2.669 persone, una mortalità di poco superiore a quella che l’influenza stagionale fa ogni anno solo in Italia!

In sintesi, stando ai numeri ufficiali, la diffusione del coronavirus nel mondo, è di gran lunga inferiore alla diffusione dell’influenza stagionale che si registra annualmente solo in Italia. Il tasso di mortalità del coronavirus SARS Cov2 (e della malattia conseguente Covid-19) è appena superiore a quello dell’influenza stagionale!!!! Non stiamo certamente parlando di un’epidemia di Ebola, Malaria o Dengue.

È solo ora, una volta che abbiamo esposto tutti i dati ufficiali e valutato realmente e oggettivamente la situazione, che possiamo effettuare alcune considerazioni.

Perché è in questo contesto e con questi dati disponibili (che erano addirittura migliori 2 settimane fa) che il Governo italiano (in data 5 marzo) ha preso le prime decisioni valide su tutto il territorio nazionale, disponendo la chiusura delle scuole e delle università, il divieto di assemblea e manifestazione, il rinvio del referendum del taglio dei parlamentari.

A questo punto, una qualunque persona di buon senso dovrebbe porsi delle legittime domande:

  1. Stando ai dati sopra esposti (tutti presi da fonti ufficiali), perché tutto quest’allarmismo?

  2. I provvedimenti liberticidi adottati dal Governo italiano e che stanno lentamente prendendo piede anche tutti gli altri Paesi del mondo, sono legittimati da cosa?

  3. Come e perché siamo arrivati a questo punto?

Comincio con il proporre una riflessione che riguarda l’operato dei mass media, in particolar modo quelli mainstream.

Ho già fatto presente quanto l’informazione sul nuovo coronavirus sia stata superficiale e deficitaria oltre che enfatizzata, ma perché? La motivazione è presto spiegata e non è necessario pensare a fantasiose teorie del complotto, poiché la stessa scadente qualità d’informazione, o per meglio dire di disinformazione, è riscontrabile continuamente quasi in ogni notizia appare nelle testate giornalistiche tradizionali. L’opinione pubblica sovrastima le reali capacità e la reale attendibilità dei mass media.

Nel mondo di oggi ogni persona, e i giornalisti non fanno certo eccezione, antepone i propri interessi personali a qualunque altro aspetto. Inoltre oggi, nella società dell’immagine, i risultati del lavoro di ogni persona sono spesso valutati più per l’aspetto quantitativo che qualitativo, questo è un dato di fatto.

I giornalisti dunque, cercano di eseguire il loro mandato innanzitutto rispettando i vincoli a loro assegnati, come ad esempio redigere un articolo di un certo numero di battute o un servizio televisivo di un certo numero di minuti. Ciò va fatto quotidianamente, spesso di fretta e trattando argomenti su cui non si hanno adeguate competenze.

Va da sé che come viene riempito lo spazio assegnato dell’articolo e del servizio, passa in secondo piano. Sovente possiamo leggere e ascoltare servizi con pochissime informazioni o assolutamente privi delle stesse, ma pieni zeppi d’ipotesi, commenti, interpretazioni, illazioni e previsioni del tutto opinabili.

L’obiettivo principale, oltre che riempire lo spazio assegnato, è quello di fare audience, ascolti, vendere copie, avere il numero massimo di visualizzazioni, click, like e cose del genere. Questo perché dalle copie vendute e dagli ascolti dipende la raccolta pubblicitaria di cui gli editori di tutte le testate vivono.

Se gli ascolti o non sono adeguati, chiunque dal direttore al semplice giornalista, rischia il posto. È dunque necessario massimizzare l’attenzione del pubblico. Per fare questo diventa inevitabile e quasi naturale enfatizzare o spettacolarizzare le notizie, spesso a discapito della corretta informazione. C’è poi da aggiungere infine, il fattore ideologico e politico proprio del giornalista o, più in generale, della testata per cui lavora. Non possiamo far finta ipocritamente, che ci siano categorie esenti da queste logiche.

C’è poi un altro aspetto su cui vale la pena riflettere. Dobbiamo smettere di pensare che i giornalisti abbiano una cultura superiore alla media. Nella maggioranza dei casi non è così.

La maggior parte dei giornalisti poi, ha compiuto studi di carattere umanistico e viene inoltre continuamente spostata di competenza. Una volta confezionano servizi e articoli di cronaca, poi di scienza, poi di finanza, poi di politica, poi di sport. Sono pochi i giornalisti veramente specializzati in una specifica materia e incaricati poi si raccontare ciò che accade in quell’ambito.

Dobbiamo riflettere sul fatto che, come diceva il compianto astronomo Carl Segan, ” abbiamo costruito un mondo basato su scienza e tecnologia, in cui nessuno capisce niente di scienza e tecnologia”. È grottesco e paradossale pensare che incarichiamo persone che hanno fatto studi prevalentemente umanistici, di raccontarci la realtà di un mondo prevalentemente scientifico. Come possiamo pensare che possano riuscire a raccontarci tutto correttamente, seppure volessero e facessero prevalere le loro coscienze a discapito degli altri interessi sopra citati, e fossero pienamente consapevoli e responsabili del ruolo sociale e delle conseguenze di una pessima informazione?

Anche la comunicazione fatta sul coronavirus ha risentito, come ho già accennato in precedenza, di questi fattori, portando, forse involontariamente o inconsapevolmente, a un’isteria e psicosi di massa presso l’opinione pubblica, sull’onda emotiva della quale la politica, sempre in cerca di consenso, si è mossa con provvedimenti che, dati ufficiali alla mano riguardo diffusione e letalità, appaiono a oggi, ancor più di quindici giorni fa (5 marzo 2020) quando sono stati adottati, alquanto fuori luogo.

È a causa della disinformazione dei mass media mainstream (che ovviamente rifuggono da ogni responsabilità a riguardo) che il Governo ha preso provvedimenti che hanno causato danni incalcolabili all’economia di un intero Paese. La principale responsabilità del crollo dell’economia va ascritta senza dubbio a chi ha fatto cattiva informazione, ancor prima che alla politica!

Veniamo dunque ad analizzare i provvedimenti del Governo adottati in questi giorni, con particolari riferimento a quelli che hanno di fatto sospeso molti diritti costituzionali. Con il decreto del 5 marzo infatti, il Governo ha in un sol colpo, in modo pretestuoso poiché oggettivamente senza motivi reali giacché i numeri ufficiali (emanati dalle stesse autorità) sul coronavirus sono decisamente decine, se non centinaia di volte, inferiori a quelli dell’influenza stagionale e dunque non sussistono reali pericoli diretti per la salute pubblica:

  1. Sospeso la liberta di spostamento sul territorio e più in generale il diritto di libertà personale (art. 12 e 16 della Costituzione Italiana.)

  2. Sospeso il diritto di pubblica assemblea e manifestazione e sciopero (art. 17 e 40).

  3. Sospeso il diritto al lavoro impedendo alcune attività commerciali (art. 4 della Costituzione Italiana).

  4. Sospeso o ostacolato il diritto di accesso all’istruzione chiudendo scuole e università (art.34 della costituzione italiana).

  5. Sospeso il diritto di difendersi in giudizio (art.24 della costituzione) con la sospensione di tutti i processi.

  6. Sospeso il diritto di voto con il rinvio del referendum e delle elezioni amministrative (art. 48 e 75 della Costituzione italiana).

È bene ricordare che nel momento in cui il Governo ha adottato questi provvedimenti che hanno di fatto sospeso la democrazia e la Costituzione italiana, per la prima dalla costituzione della Repubblica nel 1946, tutte le autorità politiche e sanitarie consideravano il nuovo coronavirus (e cito testualmente) una “emergenza sanitaria”, dunque una minaccia assai meno pericolosa di un’epidemia o (come poi annunciato dall’OMS solo una settimana più tardi, l’11 marzo 2020) di una pandemia!

A tal proposito, e prima di tornare al coronavirus, vorrei porre l’attenzione su un aspetto che coinvolge sia la politica sia la comunicazione, soprattutto per un fatto di coerenza e logicità tra ciò che si dice e ciò che si fa.

Nel 2017, l’allora Governo Gentiloni, per mezzo del suo Ministro della salute, Beatrice Lorenzin, emanava il famigerato decreto, poi convertito in legge, sull’obbligo vaccinale, introducendo l’obbligatorietà per ben 11 vaccinazioni.

 La motivazione per la quale veniva introdotto quest’obbligo, palesemente incostituzionale e lesivo dei diritti d’inviolabilità del corpo previsti non solo dai diritti fondamentali dell’uomo a cui tutti i Paesi democratici dicono di ispirarsi, ma anche dell’art. 32 della costituzione che prevede una deroga soltanto per un tempo limitato e per reali minacce alla salute pubblica.

L’allora Ministro della Salute con l’appoggio non disinteressato di alcuni virologi, fino ad allora sconosciuti, e di tutti i mass media mainstream, aveva adottato una campagna di comunicazione con metodologie molto affini a quelle di una vera e propria propaganda.

Le sue interviste e dichiarazioni venivano continuamente e giornalmente riportate dai mass media compiacenti (per i motivi già esposti), mentre raccontava di fantomatiche epidemie di morbillo e di altre numerose malattie, in corso in Italia e in Europa.

L’intento era chiaramente quello di spaventare la popolazione e far accettare il provvedimento. Come ormai tutti sapranno, il ministro è stato già ampiamente “sbugiardato” su queste presunte epidemie, che non solo non erano in atto all’epoca, ma non si sono avute neanche nei mesi successivi, così come non se ne ricordano almeno negli ultimi cinquant'anni.

Ad ogni modo, ciò che mi preme sottolineare, è che nonostante autorità politiche, sanitarie e tutti i mass media mainstram parlassero senza mezzi termini di “epidemia” (quindi una situazione sanitaria in teoria di gran lunga più preoccupante di “un’emergenza sanitaria”, com’era stata definita quella relativa al coronavirus al momento dell’emanazione dei decreti del 5 marzo 2020 e seguenti) nessun provvedimento di portata simile a quelli a cui stiamo assistendo questi giorni era stato preso.

Qualunque persona ancora in grado di formulare un proprio libero pensiero, dovrebbe chiedersi perché. Erano inventate le epidemie denunciate dall’allora Ministro della Salute Beatrice Lorenzin? Il governo di allora ha messo a repentaglio la salute pubblica non prendendo provvedimenti adeguati? Oppure le epidemie erano uno stratagemma mediatico per seminare il terrore e far accettare un provvedimento coercitivo e palesemente incostituzionale, che a tutto mirava tranne che tutelare la salute pubblica? Se come accertato già all’epoca, non esisteva alcuna epidemia, perché la magistratura non ha provveduto ad aprire un fascicolo a carico dell’allora Ministro della Salute e di tutti i mezzi d’informazione per il reato di procurato allarme? L’attuale Governo ha esagerato con questi provvedimenti poiché la situazione di “emergenza sanitaria” è inferiore a quella di una “epidemia” o pandemia?

È chiaro che l’intento principale della legge Lorenzin non era, a mio modesto parere, quello di perorare la causa delle lobby farmaceutiche, né tantomeno quello di tutelare la salute pubblica, ma quello di andare a costituire un pericolosissimo precedente, in deroga al principio dell’inviolabilità del corpo, introducendo la possibilità che uno stato possa stabilire, senza una reale motivazione, cosa fare del corpo dei cittadini!

Un altro aspetto su cui vorrei porre l’attenzione, riguarda alcune affermazioni fatte oggi dai virologi in merito alle malattie infettive e alle risposte immunitarie, rapportandole alle affermazioni fatte all’epoca della Legge Lorenzin dalle autorità scientifiche e appoggiate da tutti i mass media.

All’epoca è stata fatta una vera e propria campagna di terrore sui rischi per i bambini di contrarre il morbillo (ad esempio). Si rimarcavano continuamente i rischi di mortalità attribuendo, così come oggi è stato fatto anche per i morti con risultati positivi al Covid-19, al morbillo decessi di cui il morbillo era solo concausa e non causa principale. Si sosteneva dunque la necessità di vaccinare i bimbi per evitare che contraessero il virus in età pediatrica.

Nell’esporre i rischi del nuovo coronavirus, abbiamo visto che virologi indipendenti (che all’epoca non erano stati mai interpellati in merito al dibattito vaccini sì, vaccini no) ci hanno chiaramente detto che contrarre un virus da bambini è meglio, poiché statisticamente comporta meno rischi, che farlo da adulti.

Questo sia perché la risposta infiammatoria in età pediatrica è solitamente inferiore a quella del sistema immunitario di un adulto (sono meno probabili complicazioni e decessi diretti), sia perché con l’avanzare dell’età è più probabile contrarre problematiche di altro tipo o vedere il proprio sistema immunitario più deficitario o addirittura compromesso, sul quale il virus del morbillo (ad esempio) potrebbe avrebbe vita più facile, rendendosi più pericoloso.

Ricordiamo che il vaccino dl morbillo (sempre per proseguire l’esempio) ha un’efficacia solo al 97% e non del 100%, ed ha una copertura stimata di circa 5 anni (in cui spesso i primi mesi, così come gli ultimi, non risultano totalmente efficace). Non contrarre il virus da piccoli significa esporsi a un rischio maggiore da adulti a meno di non ricorrere periodicamente e per il resto della vita al vaccino, nella speranza che sia efficace.

Senza entrare nel merito dell’utilità o meno di fare un vaccino o della “pulizia” o della dannosità degli stessi (ritengo che essendo un farmaco, ognuno debba poter liberamente decidere della propria salute, senza coercizione alcuna), le persone dovrebbero oggi chiedersi: perché autorità politiche, virologi compiacenti e mass media, affermavano il contrario di ciò che oggi ci dicono i virologi parlando del coronavirus? Appare abbastanza evidente che, anche in questo caso, non c’è coerenza ma c’è certamente del dolo nella comunicazione di autorità e mass media.

Torniamo ora ai provvedimenti presi in questi giorni dal Governo.

Abbiamo appurato che i dati ufficiali non giustificano in alcun modo la portata di questi provvedimenti; provvedimenti liberticidi che si aggiungono tra l’altro, a quelli presi negli anni precedenti da Governi appoggiati da partiti che sostengono anche questo governo. Il riferimento è alle leggi che hanno, di fatto, introdotto (in violazione degli articoli costituzionali 21, e 15 oltre agli altri già citati) il reato di opinione (legge sul negazionismo), abolito la segretezza della corrispondenza (legge sui Trojan di Stato e accesso ai conti correnti da parte della guardia di Finanza) e come detto l’inviolabilità del corpo (legge Lorenzin). Tutti hanno un filo rosso (è proprio il caso di dirlo) che li unisce, sono stati varati da Governi appoggiati dalla stessa parte politica (progressista ed europeista) che oggi appoggia il Governo che ha de facto sospeso la Costituzione Italiana.

Se, com’è chiaro, non ci sono reali motivi in tema di salute pubblica per adottare provvedimenti così totalitaristi, perché il Governo li ha adottati?

È stato lo stesso Governo Italiano, per mezzo del suo Presidente del Consiglio, a comunicarlo in sede di presentazione de decreto legge del 5 marzo 2020. Conte ha correttamente sottolineato come la maggior parte dei contagiati riporti sintomi lievi o guarisca, ma ha anche spiegato che i motivi di preoccupazione sono dettati dal fatto che “una certa percentuale di persone contagiate necessita di un’assistenza continuata in terapia intensiva”. Il Governo ha annunciato di voler potenziare il numero di posti letto in terapia intensiva in tutta Italia. C’è il rischio concreto e reale (questo sì) che a uccidere le persone non sia il Covid-19, ma la mancanza di cure adeguate.

La motivazione reale quindi, non riguarda la pericolosità del virus in sé, ma è quella di evitare che il sistema sanitario giunga al collasso, e quindi nell’incapacità di prestare cure adeguate (come da obblighi costituzionali) ai cittadini. Ma com’è possibile che il sistema sanitario nazionale sia in tale grave situazione?

Quanti sono i posti letto negli ospedali italiani, in particolare per chi necessita di cure urgenti ed è in gravi condizioni di salute? Come siamo messi rispetto al resto d’Europa? Prima di vedere che cosa dicono i numeri, analizziamo brevemente una questione collegata, di cui si è molto parlato negli ultimi giorni: i tagli alla sanità.

Nel 2018 l’Italia ha destinato risorse pubbliche alla sanità per un valore pari al 6,5 per cento del Pil, una percentuale vicina alla media Ocse (6,6 per cento) ma più bassa di quella di altri grandi Paesi europei come Germania (9,5 per cento), Francia (9,3 per cento) e Regno Unito (7,5 per cento). Questo dato oltretutto è in calo rispetto al 2010, quando si era attestato intorno al 7 per cento.

Questo significa che sono state tagliate risorse al servizio sanitario nazionale (Ssn), oppure no?

Se si guarda alle cifre in valore assoluto, si vede che tra il 2001 e il 2019 (fatta eccezione per il 2012 e il 2015) il finanziamento del Ssn a carico dello Stato è sempre cresciuto, passando da 71,3 miliardi di euro a 114,5 miliardi di euro (con una crescita media inferiore a quella dell’inflazione). Da questo punto di vista quindi non si può parlare di tagli. Tuttavia è vero però che negli ultimi 10 anni gli aumenti alla sanità pubblica sono stati ogni anno minori rispetto a quelli programmati negli anni precedenti dalle manovre dei vari governi.

A settembre 2019 il Ministero della Salute ha pubblicato l’“Annuario statistico del servizio sanitario nazionale”, che contiene i dati più aggiornati sull’assetto organizzativo e sulle attività della sanità in Italia. Nel 2017 – quando le strutture di ricovero pubbliche erano 518 e quelle private accreditate 482 – in Italia c’erano 151.646 posti letto per degenza ordinaria in ospedali pubblici (2,5 ogni 1.000 abitanti) e 40.458 in quelli privati (0,7 ogni 1.000 abitanti), per un totale di oltre 192 mila posti letto (3,2 ogni 1.000 abitanti).

In base ai dati Eurostat e Ocse, tra il 2000 e il 2017 (ultimo anno disponibile) nel nostro Paese il numero dei posti letto pro capite negli ospedali è calato di circa il 30 per cento, arrivando appunto a 3,2 ogni 1.000 abitanti, mentre la media dell’Unione europea è vicina a 5 ogni 1.000 abitanti. L’Italia quindi è al sest’ultimo posto nell’Ue. Al primo posto c’erano Germania (8/1.000), Bulgaria (7,5/1.000) e Austria (7,4/1.000). Agli ultimi Svezia (2,2/1.000), Regno Unito (2,5/1.000) e Danimarca (2,6/1.000).

Come ormai è ampiamente dimostrato sono proprio ventilatori, macchine per la respirazione artificiale e sistemi di isolamento biologico la linea di difesa più efficace contro il virus. In media, stando ai dati della Protezione civile, un italiano ogni dieci italiani infettati dal virus SARS CoV-19, finisce poi con lo sviluppare infezioni gravi dell'apparato respiratorio tale da metterne a rischio la sopravvivenza. Per questo è necessario ricorrere a questo particolare tipo di terapia, a cui, occorre sottoporsi per periodi anche molto lunghi di tempo. I tempi di ricovero dei pazienti con coronavirus nei reparti di terapia intensiva sono molto più lunghi della media: 30 giorni circa (ma è un dato parziale), contro  14 per altre patologie.

Per quanto riguarda i numeri relativi ai posti in terapia intensiva, in valori assoluti, oggi ci sono in tutta Italia, secondo il Prontuario statistico Nazionale, 5.090 posti  tra strutture pubbliche e private, con un rapporto di 12 a 1 a favore del Servizio pubblico. Ogni anno i 5.090 posti letto di rianimazione sono occupati con un tasso del 48,4 per cento. Questo significa che, sperando che tutti i posti siano sempre in perfetta efficienza e immediatamente utilizzabili, oltre al fabbisogno ordinario si possono avere circa 2.500 posti letto per la terapia dei pazienti affetti da coronavirus, ai quali si aggiungerebbero i nuovi posti che sono in via di realizzazione in questi giorni ad opera di Governo e Regioni, che si stanno impegnando per aumentarli del 50%. Quindi l’obiettivo dichiarato è arrivare a circa 4.000 posti complessivi in tutti Italia, dedicati ai malati di Covid 19.

Se oggi quindi i posti in terapia intensiva sono 5.090 e sappiamo che dal 2000 ne sono stati persi circa il 30%, facendo un rapido calcolo significa che vent’anni fa avevamo complessivamente 7.270 posti in rianimazione. Se anche fossero stati occupati per un numero complessivo di 2.463 unità (pari a 48,4% dei 5.090 posti presenti oggi), se non ci fossero stati tagli alla sanità, oggi avremmo disponibili per la rianimazione dei malati di Covid-19, complessivamente 4.806 posti letto, circa 800 in più di quelli che il Governo ha ad oggi stimato possano essere sufficienti per far fronte all’emergenza.

Negli ultimi 20 anni, a causa dei vincoli di bilancio imposti dall’Unione Europea e sotto il Governo sostenuto sempre da maggioranze filo europeiste, le stesse che hanno varato tutti i provvedimenti antidemocratici finora descritti, l’Italia è stata costretta a contenere le spese, anche in ambito sanitario, non riuscendo neanche a mantenere i livelli presenti al momento dell’ingresso nell’Unione a fronte, tra l’altro, anche di una crescita demografica di circa 1 milione e mezzo di unità. È questo il reale motivo che ha spinto il governo a varare queste misure, ma ammetterlo palesemente significherebbe rinnegare vent’anni di politica filo europeista.

Come ne uscirebbero, agli occhi dell’opinione pubblica, i partiti di maggioranza?

È chiaro che il Governo qualcosa doveva fare poiché la tutela della salute pubblica, anche se circoscritta da una specifica fascia della popolazione (gli anziani e i malati), è uno dei suoi doveri, così come quello di avere cure adeguate è un diritto del cittadino, sancito anche dalla costituzione all’art.32.

Le disposizioni coercitive e totalitariste adottate però, sarebbero dovute essere evitate, limitandosi a fare delle raccomandazioni alla popolazione e facendo appello al senso civico, attenzione al sociale e rispetto per i più deboli. Ma nel mondo e nella società che è stato costruito negli ultimi 25-30 anni, non esiste più nulla di tutto ciò. La società moderna è imperniata sull’individualismo e sull’egocentrismo (basta vedere i programmi TV o osservare che uso è fatto solitamente dei social network), tutto frutto di quel relativismo proprio dell’ideologia progressista che l’ha generata.

Questa ideologia ha formato una società d’individui apparentemente tutti uguali, sovente incapaci di formulare propri autonomi pensieri, che hanno continua necessità di sentirsi parte di un gruppo ma che, al contempo, in quel gruppo vuole distinguersi e farsi ammirare per ciò che fa o che ha. Una società d’individui in cui il pensiero unico è la regola, l’ipocrisia, l’incoerenza e il qualunquismo sono il loro quotidiano.

Persone che fanno finta di avere uno spirito sociale solo quando fa comodo, quando lo fanno tutti. Si affacciano ai balconi sventolando bandiere e facendo rumore non per solidarietà sociale, ma perché è stato scritto sui social e sentono il bisogno di rimanere omologati.

La solidarietà e la coscienza sociale si dimostrano nella normalità e nella quotidianità e non nell’eccezionalità. Sono come quelle persone che non amano il calcio, salvo poi ritrovarsi in strada se la nazionale di calcio arriva in finale ai Mondiali. Non possiamo dire certo che sono appassionati di calcio. L’ideologia che ha creato questa società è la stessa ideologia che poi, per porre rimedio a situazioni di emergenza, prende la facile strada della privazione delle libertà.

La popolazione dal canto suo, priva di qualunque valore sociale, comprende solo la strada dell’imposizione

Personalmente rimango a casa solo per rispetto di chi potrebbe avere necessità di cure ospedaliere e potrebbe non vedersele erogate dallo Stato, e non per un’ingiusta imposizione normativa.

Oggi paghiamo un prezzo altissimo in termini di libertà e democrazia non a causa di un’emergenza sanitaria dettata dalla pericolosità di un virus, ma paghiamo questo tributo all’Europa, la stessa che ci ha voltato per l’ennesima volta le spalle quando ne avevamo bisogno, negandoci aiuti sanitari quando li abbiamo richiesti (ormai oltre 3 settimane fa), chiudendo confini e boicottando il nostro export.

L’Europa che non c’è. La dis-Unione Europea in cui, anche nel caso del coronavirus, si è dimostrata inesistente. L’Europa in cui ogni Paese pensa soltanto ai propri interessi nazionali, in cui ogni paese prende i propri specifici provvedimenti anche in tema di tutela della salute pubblica. Quella dis-Unione Europea che non ha alcun piano di coordinamento o contenimento per fronteggiare emergenze di questo tipo. L’Europa che è da sempre sostanzialmente divisa, in cui i cittadini degli stati membri non si sentono cittadini di un unico stato europeo, ma al contrario rivendicano la propria identità nazionale (tranne in Italia poiché se si parla di certi temi, ci si sente immediatamente dare del fascista) e pensano solamente al proprio tornaconto. L’Europa culturalmente colonizzata e di fatto militarmente “occupata” dagli Stati Uniti, l’unico stato sovrano (di quelli sedicenti democratici) di cui alla popolazione è consentito parlare ed esaltare la propria identità nazionale.

Dopo vent’anni sarebbe opportuno, alla luce di tutto questo, e anche per gli europeisti più convinti, fare un serio bilancio, scevro da condizionamenti preconcetti intrisi di europeismo, per capire che, come ho avuto modo di scrivere più volte anche nei miei libri, l’unione di un popolo (il concetto vale anche quando si parla impropriamente di globalizzazione) non si fa sulla carta, sottoscrivendo patti e accordi politici. Non si fa con il commercio, né con un sistema di comunicazione globale. Non si fa imponendo una moneta comune, togliendo autonomia monetaria ai singoli stati. L’unione di nazioni si può fare esclusivamente con un palese e consapevole atto di volontà dei popoli che di quelle nazioni fanno parte e, nel caso dell’Unione Europea non è stato così. Si è trattato di un’unione imposta ai popoli, e oggi, a distanza di vent’anni, ne prendiamo definitivamente coscienza nel modo più doloroso, perdendo la democrazia, perdendo la libertà.

Per concludere propongo un’ultima riflessione, un’ultima e amara costatazione, che questa volta riguarda la popolazione. È per me triste ma non sorprendente purtroppo, costatare quanto la popolazione sia facilmente e in continuazione manipolata dalle fake news dei mass media e delle autorità. Quasi nessuno si pone più domande, quasi nessuno pretende comportamenti coerenti e trasparenti nel tempo da questi due interlocutori. Si fanno convincere a rinunciare alla propria libertà senza reali motivazioni, spaventati da pericoli circoscritti o totalmente inventati. È sempre con la tecnica della paura che in questi ultimi venti anni hanno accettato limitazioni a quei diritti fondamentali e democratici, che una volta ci insegnavano a chiamare inviolabili e inderogabili. Prima il terrorismo, poi il ritorno del fascismo, poi la lotta alla criminalità, poi contro il morbillo e le malattie infettive comuni, oggi con questa nuova fantomatica minaccia chiamata Covid-19.

Ci sono concrete possibilità che, anche in questo caso, il Covid-19 sia stato soltanto un pretesto per introdurre un pericoloso precedente. Una sorta di test generale in vista di uno stato totalitario. Oggi chi comanda sa definitivamente che, inventando fantomatiche epidemie può far accettare alla popolazione restrizioni inimmaginabili. Mi chiedo cosa succederà con l’arrivo della prossima influenza stagionale che, come abbiamo visto dai dati ufficiali, ogni anno miete più vittime in Italia che il coronavirus in tutto il mondo? Saranno ripresentate le medesime restrizioni?  Con l’arrivo dell’estate e la comparsa delle zanzare, ci diranno che il virus può essere trasmesso anche da questi insetti?

A chi si illude che il prossimo 5 aprile tutto ritornerà come prima, ricordo che molti scienziati e molti politici hanno già cominciato a sostenere che il picco di contagi non si avrà prima della metà di aprile 2020. Altri sostengono che la situazione di emergenza arriverà fino a estate inoltrata. Altri ancora che l’emergenza globale durerà addirittura due anni, per poi riproporsi ciclicamente. Siete pronti ad abbandonare definitivamente le vostre libertà?

Speriamo ovviamente che non sia così!

Finisco dicendo a tutte le persone che accettano tutto questo senza batter ciglio, che possono stare tranquille o, come amano dire oggi, #andratuttobene, il Covid-19 non li ucciderà. Non si può uccidere chi è già morto, non fisicamente ma intellettualmente, nello spirito, nella coscienza, nei valori!

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Fonti:


 

Continua...

L’acqua fugge da Marte più rapidamente del previsto. Che cosa implica per l’abitabilità passata e futura?

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Marzo 2021)

Dove è finita l'acqua che scorreva su Marte? Guardando le foto della superficie di Marte vediamo letti di fiumi e laghi asciutti. È evidente a tutti che su Marte scorreva acqua, ne scorreva molta e per molto tempo. Oggi la situazione appare decisamente diversa. La pochissima pressione esercitata dalla sottile atmosfera marziana farebbe evaporare l’acqua in superficie eventualmente ancora presente (sebbene stagionalmente e in piccole quantità sia stata più volte rilevata dalla Nasa fin dal 2006). 

All’inizio della sua storia però, Marte, oltre ad avere acqua, aveva un’atmosfera, che poi gli è stata strappata dal vento solare, forse complice il suo campo magnetico che si andava via via indebolendo per cause ancora da accertare. Se questo è in estrema sintesi ciò che abbiamo compreso da oltre vent’anni di esplorazione marziana, è legittimo chiedersi dove sia finita tutta l’acqua che scorreva su Marte. È evaporata oppure è penetrata nel sottosuolo e, viste le temperature glaciali, si è trasformata in ghiaccio?

Circa una dozzina di anni fa la sonda Mars Odyssey della NASA aveva fornito una mappa della frazione della componente acquosa del suolo marziano misurata attraverso i raggi gamma emessi dall’idrogeno colpito dai raggi cosmici. Tuttavia si trattava di dati sommari. La misurazione, che era sensibile alla presenza d’idrogeno solo fino a 1 metro di profondità, aveva rivelato che, mentre tutta la zona equatoriale era certamente secca (con componente acquosa ben al di sotto del 10%), mano mano che ci si avvicina ai poli la componente acquosa aumentava fino ad arrivare al 40%. Utilizzando come termine di paragone il suolo terrestre, un suolo argilloso contiene circa il 25% di acqua mentre ai nostri poli la percentuale è ovviamente del 100%. La misurazione di Mars Odyssey non diceva quindi a che profondità era il ghiaccio. In un’ottica di futura colonizzazione, fa una bella differenza sapere quanto occorra scavare per trovare il ghiaccio che si può trasformare in acqua da bere, in ossigeno da respirare, in idrogeno per produrre energia nelle celle a combustibile oppure in carburante per tornare a casa.

Per avere un quadro più preciso della situazione, la NASA pensò di sfruttare la diversa conducibilità termica del ghiaccio rispetto a quella del suolo marziano. Usando decine di anni di dati “termici” raccolti dalle sonde Mars Odyssey e Mars Reconnaisance Orbiter (MRO), che permettono di seguire l’andamento stagionale delle temperature del suolo, combinati con modelli sul trasporto del calore, è stato possibile evidenziare che, in alcune regioni a latitudine medio - alta, il ghiaccio sarebbe facilissimo da raggiungere perché la sua firma si vede alla profondità di pochi centimetri. Giusto quel po’ di copertura che serve per proteggerlo e impedirgli di sublimare nella tenue atmosfera del pianeta rosso.

Nella mappa della crosta marziana così ottenuta, le zone blu - violette indicavano le aree, dove il ghiaccio si trova a meno di 30 cm di profondità mentre quelle giallo-rosse sono quelle dove si trova a più di 60 cm. Le zone grigie invece sono povere di acqua e quelle nere sono molto sabbiose e non particolarmente adatte a un ammartaggio.

Successivi studi basati su più recenti dati, hanno confermato l’abbondante presenza di acqua non solo nelle zone già evidenziate dallo studio della Nasa, ma anche in aree insospettabili (tipo quelle equatoriali indicate in nero). Altri strumenti, come il radar Marsis montato sulla sonda Mars Express dell’Esa, avevano poi scoperto anche laghi di acqua liquida salata sotto la superficie, e addirittura sistemi di laghi sotterranei interconnessi. Considerando che l’altimetria dell’emisfero Nord lo rende più adatto a un possibile ammartaggio, la NASA ha individuato nella regione delimitata dalla linea bianca (chiamata Arcadia Planitia) il luogo ideale per un possibile insediamento umano che potrebbe contare su ghiaccio a portata di mano. Insomma, è probabile che, a seconda del luogo di ammartaggio, ai futuri astronauti non occorreranno complicate macchine per raggiungere depositi di acqua, probabilmente basterà una pala.

Ma se ciò ci ha detto con sufficiente approssimazione, dove si trova l’acqua oggi rimasta, poco ancora si sapeva dove fosse finita tutta l’acqua originariamente presente sul pianeta rosso. Una serie di studi pubblicati negli ultimi tre anni, ha stimato l’acqua minima presente in origine su Marte. Questi studi hanno stabilito che oltre il 40% della superficie del pianeta rosso fosse stata ricoperta dall’acqua Come detto però, si tratta di una stima per difetto, è probabile che di acqua ce ne fosse ancora di più. Il confronto tra acqua minima stimata e acqua oggi rimasta, aveva contribuito a fornire un’idea di quanta acqua fosse stata persa da Marte nel corso del tempo. Anche in questo caso, si trattava comunque d’ipotesi formulate su alcuni assunti e pochi dati. Ad esempio si partiva dal presupposto che il cataclisma che ha distrutto il pianeta rosso e che ha generato l’indebolimento del campo magnetico e il conseguente assottigliamento dell’atmosfera (con annessa dispersione dell’acqua nello spazio), fosse avvenuto relativamente presto nella storia del pianeta. Non si aveva perciò un dato reale sulla velocità di dispersione dell’acqua, dato che poteva essere confrontato con i modelli teorici elaborati fino a quel momento. Oggi uno studio ha fornito un elemento in più nella risoluzione del mistero della scomparsa dell’acqua marziana.

In uno studio internazionale, finanziato dall’Agenzia spaziale europea (Esa) e dalla russa Roscosmos, gli autori, coordinati dallo Space Research Institute dell’Accademia delle scienze russa, hanno evidenziato che marte sta perdendo il suo vapore acqueo più velocemente del previsto.

I dati della ricerca, pubblicato a gennaio sulla rivista Science dal gruppo del Centro nazionale della ricerca francese (Cnrs) guidato da Franck Montmessin, non lasciano spazi a dubbi. I ricercatori hanno utilizzato l’Atmospheric Chemistry Suite (Acs), uno strumento composto da tre spettrometri infrarossi dell’Exomars Trace Gas Orbiter (Tgo) della missione Exomars dell’Esa e di Roscosmos.

Sulla Terra, quando il Sole illumina i grandi depositi di ghiaccio situati ai poli del pianeta e tutti gli altri specchi d’acqua presenti sul nostro pianeta, l’aria si arricchisce di vapore acqueo a seguito dell’evaporazione dell’acqua dalla superficie. Il vapore acqueo viene quindi trasportato dai venti verso altitudini più elevate e più fredde che portano, grazie alla presenza di polveri,  alla condensa delle molecole d’acqua e alla conseguente formazione delle nuvole. Questo processo di condensazione impedisce una rapida e massiccia progressione dell’acqua verso quote più elevate dell’atmosfera, dove i legami all’interno delle molecole d’acqua, sotto l’azione dei raggi ultravioletti del Sole, verrebbero spezzati. Gli atomi d’idrogeno e di ossigeno separati, finirebbero così per disperdersi nello spazio. Ma se ciò sulla Terra non avviene, su Marte le cose vanno diversamente.

Le particolari condizioni atmosferiche del pianeta rosso sembrano impedire la formazione di grandi quantità di condensa. L’atmosfera sottile, spesso sovra-satura di vapore acqueo, non riesce a trattenere le molecole d’acqua, portando il vapore acqueo a salire negli strati superiori dell’atmosfera. Qui, i raggi UV causano la loro dissociazione in atomi d’idrogeno e ossigeno. Gli atomi, a loro volta, sfuggono fuggono nello spazio eludendo il freno della debole gravità marziana, generando la perdita d’acqua di Marte.

Marte, fotografato durante l'opposizione del 2016 (fonte: NASA, ESA, the Hubble Heritage Team/STScI/AURA, J. Bell/ASU, and M. Wolff/Space Science Institute)

Infatti, sebbene Marte mantenga un proprio ciclo dell’acqua (in realtà ne sono stati identificati ben due), abbia comunque delle nuvole e presenti fenomeni meteorologici (come nevicate ad esempio) che si manifestano con modalità e frequenza diversa da quelli terrestri, la quantità di acqua che ricade sul pianeta rosso è minore di quella che sublima dalla superficie. Era quindi noto già da qualche tempo, che una certa quantità di acqua, fosse lentamente persa dal pianeta nel corso del tempo.  La nuova ricerca non ha quindi introdotto alcuna novità in tal senso. Ciò che ha rivelato è invece la reale velocità con cui Marte sta perdendo la sua acqua nello spazio.

Attraverso misurazioni effettuate dal Trace Gas Orbiter di Exomars, i ricercatori hanno osservato che la dispersione sembra essere legata alle grandi quantità di vapore acqueo che si accumulano nell’atmosfera marziana in determinate stagioni dell’anno. Questa concentrazione è risultata essere molto ampia e insolita, da dieci a cento volte superiore rispetto alla media che si riteneva potesse essere compatibile con le temperature del pianeta rosso.

I dati mostrano che l’atmosfera viene quindi sovraccaricata dal vapore acqueo, in particolare in determinate stagioni dell’anno e, poiché la condensa delle molecole su Marte è spesso ostacolata dalle condizioni prima citate, una maggiore quantità di particelle d’acqua fluisce nell’atmosfera superiore. Ciò determina quindi, che un maggior numero di atomi d’idrogeno e di ossigeno è disperso nello spazio, portando a una progressiva perdita di acqua dal mondo rosso, a una velocità superiore rispetto a quanto previsto dai precedenti modelli. Questo risultato, scrivono gli autori, implica che l’acqua potrebbe scappare da Marte più rapidamente di quanto previsto.

Questo nuovo studio ci consente di fare alcune riflessioni. Anzitutto pone in evidenza come, ancora una volta, molti dei modelli su cui la comunità scientifica ha formulato la sua idea sul passato e sul presente di Marte, siano errati. I dati più accurati e raccolti nel corso degli ultimi anni, hanno portato anche stavolta a dover rivedere i modelli precedenti, basati su poche e sommarie informazioni e molte ipotesi spesso tendenti a confermare l’idea preconcetta di un pianeta poco ospitale e privo di vita.

L’errore posto in evidenza dal nuovo studio non è da sottovalutare. Si parla di quantità di vapore acqueo potenzialmente esposto all’azione disgregante dei raggi UV, da dieci a cento volte superiore a quanto mediamente stimato dai modelli precedenti. Questo non può non avere conseguenze, unitamente ai risultati di tutte le altre ricerche pubblicate negli anni precedenti (che ho avuto di esporre sommariamente in altri articoli di questo blog e già dettagliatamente nel mio libro Il lato oscuro di Marte – dal mito alla colonizzazione) sulla ricostruzione della storia geologica del pianeta rosso.

Infatti, data la quantità di acqua oggi presente sul pianeta rosso (rinvenuta in depositi sotterranei ghiacciati e non, pressoché in tutto il pianeta), se Marte sta perdendo l’acqua molto più rapidamente di quanto si pensasse solo pochi mesi fa, significa che il pianeta rosso possedeva una quantità notevolmente superiore a quella fino ad oggi stimata. Altra possibilità, non necessariamente alternativa alla prima, è che il cataclisma che ha causato la serie di eventi alla base di questo processo di dispersione, sia avvenuto in tempi molto più recenti di quanto afferma la teoria a oggi prevalente in ambito scientifico. Ciò da maggiore peso ai risultati delle ricerche pubblicate nei mesi scorsi, che hanno indicato la probabilità che ampi specchi d’acqua liquida (si parla di laghi e piccoli mari) fossero ancora presenti su Marte fino a “soli” 200.000 - 300.000 anni fa, contro i 3-4 miliardi di anni fa della teoria ufficiale. Lo studio pubblicato da Science quindi, indirettamente sembra poter dare maggiore forza a tutte quelle ricerche scientifiche che hanno, ciascuna nei propri campi di competenza ma sempre sulla base dell’analisi dei dati oggettivi rilevati dalle sonde sul pianeta rosso, suggerito un’abitabilità di Marte per molto più tempo e temporalmente molto più vicino a noi di quanto si pensasse. Si tratta forse un altro piccolo passo verso l’annuncio ufficiale del ritrovamento della vita sul pianeta rosso?

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Siamo figli delle stelle e non siamo soli! La conferma da nuovi studi.

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Maggio 2021)

Come ha avuto origine la vita? Creazionismo? Per abiogenesi (nascita spontanea della vita)? Per panspermia (vita arrivata da altri luoghi)? Dall’ipotesi più fantasiosa, la prima, a quella più probabile, la terza, passando per quella possibile ma assai meno verosimile, la seconda, per trovare una risposta alla domanda iniziale, è necessario fare riferimento a tutte le nostre conoscenze.

La risposta proposta dalle religioni (creazionismo) ha un seguito senza pari, con miliardi di adepti. Quella prevalente in ambito scientifico (l’abiogenesi), ha certamente un seguito minore rispetto al creazionismo, tuttavia ha una valenza pari, se non superiore, a quella delle religioni poiché rappresenta l’opinione prevalente nella comunità scientifica e quindi costituisce il “sapere” ufficiale che viene insegnato.

Non dovrebbe interessarci invece, se alcune di queste ipotesi godono di maggiore popolarità, ciascuno dei rispettivi ambiti, a discapito di altre possibilità. Galileo sosteneva che in scienza “l’autorità di un migliaio di persone non vale di più del ragionamento di un singolo individuo”.

Nel mio piccolo, amo ripetere che le verità scientifiche non si decidono a maggioranza e che, quando si parla di scienza e di cosa sia reale e cosa non lo sia, sono i dati, i fatti a decidere chi ha torto e chi ragione, cosa è vero e cosa non lo è. Credere a una teoria, non la rende vera. Ciò è vero sempre, in ogni caso, anche per le teorie scientifiche, se queste non tengono conto di tutte le informazioni disponibili o, non sono del tutto coerenti con esse.

Le informazioni, i dati, sono dunque essenziali per trovare una risposta più vicina possibile alla verità, sull’origine della vita sulla Terra. Questo perché da tale circostanza, potrebbe essere legato il significato della nostra vita e lo scopo della stessa (scopri di più qui).

Non potendo prescindere dalle informazioni, è necessario mettere in discussione e aggiornare, se necessario, continuamente il nostro punto di vista sulla questione. Non deve interessarci se le nuove informazioni che vengono trovate e divulgate, possano andare a sostegno di una delle possibili risposte e a discapito delle altre. L’evidenza dei dati dovrebbe essere la nostra bussola.

È stato ormai assodato che circa 4 miliardi di anni fa la Terra era assolutamente inospitale, con eruzioni vulcaniche continue, frequenti bombardamenti di asteroidi e nessuna traccia di ossigeno. Qualunque forma di vita, anche la più elementare, non avrebbe mai potuto svilupparsi in un ambiente simile. Eppure a un certo punto qualcosa è cambiato, e nonostante le bassissime probabilità di successo la chimica terrestre ha avuto le condizioni giuste per la comparsa delle prime forme viventi, anche questo è un dato di fatto. Che cosa ha permesso di raggiungere questo punto critico? E quali sono stati gli ingredienti che hanno permesso la realizzazione di tali condizioni?

Indipendentemente dal motivo che ha permesso alla vita di fare la sua comparsa sulla Terra, dovevano certamente esserci condizioni idonee a sostenerla. Ciò è vero sempre, sia nell’ipotesi più fantasiosa, quella del creazionismo divino, sia in quelle di stampo più scientifico come abiogenesi e panspermia.

L’abiogenesi suggerisce che la Terra sia un pianeta “fortunato”, che casualmente si è venuto a trovare alla giusta distanza dalla sua stella e, altrettanto fortuitamente, ha visto la contemporanea presenza di tutti gli elementi essenziali per la comparsa spontanea della vita. Questa teoria considera la Terra come se fosse un corpo avulso dal resto dell’universo, in cui, almeno per quanto riguarda la comparsa della vita, le interazioni con lo spazio extraterrestre, sebbene possano esserci state, sono state quasi ininfluenti. La “fortunata” serie di circostanze casuali che hanno portato alla comparsa della vita sulla Terra sarebbe quindi, più uniche che rare, il che, in poche parole, sottintende che le possibilità che la vita esista anche altrove siano pressoché nulle. È chiaro che la teoria dell’abiogenesi sia figlia dei suoi tempi, in cui conoscevamo poco di ciò che c’è nel nostro sistema solare e ancor meno di ciò che esiste fuori di esso. Tutto questo dovrebbe oggi apparirci ben chiaro, eppure non è così.

Infatti, nonostante la teoria dell’abiogenesi sia quella prevalente in abito scientifico e quindi la spiegazione ufficiale alla comparsa della vita sul nostro pianeta, molti rimarranno sorpresi dall’apprendere che questa idea è molto più vicina a una “verità di Stato” che a una realtà oggettiva.

Possibile? Assolutamente sì.

Sappiamo, infatti, che la vita per come la conosciamo, ha necessità della contemporanea presenza di alcuni elementi chimici fondamentali, tra cui il fosforo. Questo elemento costituisce la spina dorsale delle molecole alla base di tutti gli organismi, il Dna e l'Rna. Il fosforo, che abbiamo scoperto essere presente su Marte fin dall’inizio della sua formazione, non è stato ancora mai ritrovato in campioni di rocce terrestri risalenti alla terra primordiale. Come può essersi quindi originata spontaneamente una vita contenente il fosforo se il fosforo non era presente sulla Terra?

Da circa 50 anni questo è stato un rompicapo indecifrabile per la comunità scientifica. Ciò nonostante, solo per evitare di abbracciare ipotesi scientifiche certamente più logiche, ma meno popolari e certamente più “ridimensionanti” (poiché l’universo è misurato attraverso il “metro antropico”), come la panspermia, le autorità scientifiche hanno continuato a sostenere e insegnare questa idea o forse, per meglio dire, opinione.

Capire dove si potesse trovare il fosforo nella Terra primitiva, è divenuto una delle principali domande dei biologi e astrobiologi, perché è divenuta quasi un’esigenza per poter continuare a sostenere l’idea dell’abiogenesi. L’ultima possibile risposta in ordine di tempo, è arriva dalla rivista dell'Accademia Americana delle Scienze, Pnas, da parte di un gruppo dell'università di Washington coordinato da Jonathan Toner.

I ricercatori hanno studiato i laghi particolarmente ricchi dei sali, chiamati carbonati, che si formano in ambienti asciutti, come Mono Lake in California e il lago Magadi in Kenya. Analizzandone le acque, si sono rilevati livelli di fosforo fino a 50.000 volte più alti rispetto a quelli trovati sia nell'acqua di mare sia in qualsiasi altro ambiente di acqua dolce. Proprio i carbonati presenti in queste acque sono i responsabili delle elevate concentrazioni di fosforo: legandosi al calcio, lasciano il fosforo libero di accumularsi. Da questa evidenza oggettiva è stato dedotto che, nella Terra primordiale questo processo deve essere stato molto comune perché, secondo il coordinatore di questa ricerca, i vulcani attivi erano numerosi e le rocce vulcaniche appena formate reagivano con l'anidride carbonica, fornendo carbonati ai laghi. "Per questo motivo - ha concluso Jonatahn Toner - la Terra primordiale avrebbe potuto ospitare molti laghi ricchi di carbonati, con concentrazioni di fosforo tali da dare inizio alla vita".

Tutto risolto quindi, l’abiogenesi ha trovato conferma. La Terra è un pianeta più unico che raro, e la vita su di essa, compresa la nostra presenza, è un fatto fortuito e fortunato. Possiamo continuare a compiacere il nostro ego, continuando a sentirci un po’ speciali, quando guardiamo e contempliamo l’immensità dell’universo. Già, ma purtroppo non è così.

Al di là della semplicistica e superficiale comunicazione di questa informazione da parte della maggioranza dei mass media, dalla lettura attenta dello studio dell’Università di Washington, è abbastanza chiaro che in realtà non è stata trovata alcuna evidenza oggettiva della presenza di fosforo nella Terra primordiale, ma ne è stata solo ipotizzata la presenza in alcuni luoghi in virtù di una condizione oggi presenti in ambienti che si suppone potessero avere condizioni simili alla Terra primordiale. Si tratta quindi, di una semplice nuova ipotesi per spiegare in quali ambienti potesse essersi originato il fosforo. Non sappiamo tuttavia se effettivamente l’ipotesi, per quanto scientificamente possibile, si sia poi verificata.

Eppure il fosforo doveva certamente esserci. Ma allora da dove veniva?

Due diversi studi hanno oggi fornito elementi tangibili che hanno aggiunto nuovi elementi sul piatto della bilancia dell’altra teoria scientifica, quella opposta all’abiogenesi: la panspermia.

Il primo studio è quello pubblicato sulla rivista  Monthly Notices of the Royal Astronomical Society, guidato dall’Università di Berna e dall’Istituto Nazionale di Astrofisica, che hanno utilizzato rispettivamente i dati dello strumento Rosina, lo spettrometro a bordo della sonda Esa Rosetta, e i dati di Alma (Atacama Large Millimeter/Submillimeter Array).

Attraverso le osservazioni di Alma il team dell’INAF ha individuato l’area principale nello spazio in cui si formano le molecole contenenti fosforo: si tratta di una regione di formazione stellare nota come Aflg 5142, una sorta di nube formata da gas e polvere. In regioni simili sorgono nuove stelle e sistemi planetari, rendendo queste aree i luoghi ideali da cui iniziare la ricerca dei cosiddetti “mattoni della vita”, molecole organiche complesse che, unendosi successivamente tra loro in condizioni favorevoli, hanno dato origine al RNA e poi al DNA.

I risultati delle osservazioni hanno evidenziato che le molecole contenenti fosforo vengono create quando si formano stelle massicce. I flussi di gas provenienti da queste stelle scavano delle cavità nelle nubi interstellari. All’interno delle cavità, grazie all’azione combinata di urti e radiazioni della giovane stella, si formano le molecole contenenti fosforo. Tra tutte le molecole il monossido di fosforo resta quella predominante.

Questo primo riscontro preliminare, ha portato il team ad una considerazione importante: se le pareti della cavità collassano per formare una stella, il monossido di fosforo può congelarsi e rimanere intrappolato nei granelli di polvere ghiacciata rimasti attorno alla neonata.

È ormai noto che, durante il processo di formazione stellare, però, parte dei granelli di polvere si unisce andando a formare rocce e infine comete. Ciò non avviene sempre, ma le comete si originano in questo modo. Queste ultime, diventano così vere e proprie “incubatrici” di monossido di fosforo e di tanti altri elementi. Solo a questo punto, e per questo motivo, gli scienziati hanno spostato l’attenzione su una delle comete più studiate del Sistema Solare, grazie soprattutto alla missione Rosetta: la cometa 67P/Churyumov-Gerasimenko.

Nel corso della missione, lo strumento Rosina ha osservato la cometa per due anni rilevando tracce di fosforo sul corpo celeste, senza però individuare nello specifico di quale molecola si trattasse. Combinando i dati di Alma e di Rosina, il team dell’INAF e dell’Università di Berna ha identificato il monossido di fosforo come risposta. Kathrin Altwegg, co-autrice del nuovo studio ha dichiarato “Il fosforo è essenziale per la vita come la conosciamo e dato che le comete hanno probabilmente fornito grandi quantità di composti organici alla Terra, il monossido di fosforo trovato nella cometa 67P potrebbe rafforzare il legame tra le comete e la vita sulla Terra”.

È indiscutibilmente chiaro ormai che c’è un legame sempre più stretto tra la presenza della vita e l’impatto delle comete sul nostro pianeta. Ma quali altre sostanze fondamentali hanno portato le comete, i meteoriti e gli asteroidi nell’impatto con la Terra? Lo suggeriscono sempre i dati dello spettrometro Rosina, elaborati dall’università di Berna. Il team di ricerca svizzero ha scoperto la presenza di sali di ammonio, la cui presenza non era stata rilevata nelle prevedenti analisi dei dati.

Rosetta non è stata la prima missione impegnata in un flyby ravvicinato di una cometa. Nel 1985 la sonda Esa Giotto aveva sorvolato la cometa di Halley e, grazie al suo spettrometro, aveva osservato una mancanza di azoto nella sua chioma. Sebbene l’azoto sia stato scoperto sotto forma di ammoniaca e acido cianidrico, l’incidenza è stata inferiore alle attese degli scienziati.

Dopo oltre trent’anni, la sonda Rosetta ha sorvolato un'altra cometa, la cometa 67P Churyumov-Gerasimenko, giungendo a soli 1,9 chilometri di distanza dalla superficie, e immergendosi nella sua chioma. L’impatto con le polveri emesse dalla cometa non è stato indolore. I sensori dello spettrometro Rosina sono andati quasi distrutti tuttavia, grazie a questo incidente, gli scienziati sono riusciti a rilevare alcune tipologie di particelle mai analizzate prima. In particolare l’incidenza di ammoniaca, (composto chimico formato da azoto e idrogeno), è risultata sorprendentemente alta.

Sono state necessarie molte analisi in laboratorio per dimostrare la presenza di questi sali nel ghiaccio cometario. “Il team di Rosina ha trovato tracce di cinque diversi sali di ammonio: cloruro di ammonio, cianuro di ammonio, cianato di ammonio, formiato di ammonio e acetato di ammonio – ha dichiarato Nora Hanni del team Rosina – fino ad ora l’apparente assenza di azoto nelle comete era un mistero. Il nostro studio ora mostra che è molto probabile che l’azoto sia presente sulle comete, in particolare sotto forma di sali di ammonio”.

La presenza di questi sali è importantissima. I sali di ammonio scoperti, infatti, includono diverse molecole rilevanti nel campo dell’astrobiologia che possono favorire lo sviluppo di urea, aminoacidi, adenina e nucleotidi. La presenza di questi composti è sicuramente un’altra indicazione che gli impatti delle comete possono essere collegati con l’emergere della vita sulla Terra.

Ma non finisce qui, perché da un accurato lavoro di revisione e miglioramento della qualità dei dati, questa volta relativi alla composizione della superficie del nucleo della cometa 67P Churyumov Gerasimenko raccolti da un altro strumento, lo spettrometro italiano VIRTIS, montato sempre a bordo della sonda spaziale europea Rosetta, ha permesso di individuare, per la prima volta su un oggetto celeste di questo tipo, chiare tracce di composti organici alifatici, catene di atomi di carbonio e idrogeno. Si tratta della prima identificazione di questo tipo di composti organici solidi su un nucleo cometario, ed è anche la prima identificazione da remoto, ovvero senza il rischio di alterare il campione durante la sua misura. I ricercatori hanno riesaminato alcuni milioni di spettri raccolti da VIRTIS (Visual, Infra-Red and Thermal Imaging Spectrometer) per ricavare la più accurata “visione” nell’infrarosso dei materiali che sono presenti sulla superficie del nucleo della cometa 67P

Il materiale del nucleo risulta così avere delle caratteristiche simili a quelle del mezzo interstellare diffuso e in alcune meteoriti rinvenute sulla Terra, suggerendo una continuità tra questi due ambienti, e fornendo un ponte di collegamento evolutivo: i composti organici presenti nel mezzo interstellare che sono stati catturati nella nube primordiale da cui si è formato il Sistema solare rimangono intrappolati nelle regioni più fredde e periferiche in piccoli oggetti come asteroidi e comete. Questi corpi celesti sono rimasti inalterati e, impattando sui pianeti, tra cui la Terra, possono aver fornito il materiale organico alla base dei cosiddetti “mattoni della vita”.

Nel presentare lo studio, questa volta pubblicato nell’ultimo numero della rivista Nature Astronomy, i coordinatori dello studio hanno affermato: “Già sapevamo che la gran parte dei composti organici presenti sulla Terra primordiale provengono dallo spazio” ha detto l’astrofisico Andrea Raponi. “Ora, questo studio suggerisce che possiamo spingerci oltre: i composti organici del Sistema solare sono probabilmente – e almeno parzialmente – ereditati direttamente dal mezzo interstellare. Quest'affascinante scenario suggerisce quindi che lo stesso materiale organico possa essere disponibile anche per altri sistemi planetari.

Lo studio appena pubblicato – ha aggiunto Eleonora Ammannito ricercatrice delle Scienze Planetarie dell’Agenzia Spaziale Italiana – identifica nelle comete un credibile mezzo di trasporto di materiale organico all’interno del Sistema Solare. Sempre di più, quindi, si evidenzia l’importanza di combinare gli studi sull’origine della vita terrestre con quelli sui corpi minori come comete, asteroidi e meteoriti. Solo un approccio multidisciplinare, infatti, ci permetterà – conclude la Ammannito – di capire le dinamiche che hanno portato allo sviluppo della vita sulla Terra e di focalizzare al meglio gli sforzi per la ricerca di forme di vita extraterrestri”.

È bene ricordare che m ateria organica extraterrestre è stata già ritrovata sul nostro pianeta, in particolare su alcuni monti del Sudafrica . Così come, in quasi tutti i quasi 200 meteoriti marziani ritrovati sulla Terra, ci sono tracce di microrganismi vivi sul pianeta rosso alcuni miliardi di anni fa.

Le ricerche citate in quest'articolo, ci forniscono dunque un altro tangibile elemento a sostegno della connessione tra ambiente extraterrestre e ambiente terrestre riguardo la creazione delle condizioni necessaria alla presenza di vita. Se ciò non bastasse, due ricercatori, nel commentare la pubblicazione dei loro studi, ci suggeriscono esplicitamente che le condizioni che hanno portato le sostanze necessarie alla vita, giunte sulla Terra dallo spazio, possano essersi ripetute anche per altri sistemi planetari, sottolineando come i meteoriti possono essere decisivi nella diffusione dei composti organici e della vita stessa.

Facciamo parte di un qualcosa di molto più grande di quanto comunemente pensiamo. Quelle sulla Terra non sono, con ogni probabilità, le uniche forme di vita presenti nell’universo. La vita extraterrestre potrebbe essere molto più vicina di quanto immaginiamo. Che si accetti o no, man mano che raccogliamo nuove informazioni nella ricerca della risposta alla comparsa della vita sul nostro pianeta, appare chiaro che siamo figli delle stelle e non siamo i soli!

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Vita extraterrestre: guida all’uso dei modelli climatici terrestri e nuovi metodi di ricerca

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Marzo 2021)

C’è vita oltre il nostro Sistema solare? Per la comunità scientifica ufficiale, e per tutti quelli che pendono dalle sue labbra per formulare i propri pensieri e accettare possibilità o evidenze logiche e tangibili, questa domanda ha acquistato ufficialmente piena legittimità, soltanto dal 1995, quando è stata confermata per la prima volta l’esistenza di esopianeti.

Da quel momento, gli astronomi hanno trovato migliaia di mondi extrasolari (a oggi, 8/2/2020 sono 4.177, dando così il via alla caccia ai migliori candidati per l’abitabilità. Come scrivevo ormai oltre cinque anni fa (2015), nel mio primo libro e poi in successivo articolo su questo blog, con il procedere della scoperta di nuovi esopianeti, era apparso ormai chiaro che la maggioranza dei pianeti in fascia abitabile scoperti orbitasse attorno a stelle più fredde rispetto al nostro Sole. Si tratta delle cosiddette nane rosse, stelle tra le più frequenti nella nostra galassia (circa il 67% di tutte le stelle sono di questo tipo). I pianeti rocciosi e potenzialmente abitabili orbitano molto più vicini a queste stelle rispetto a quanto la Terra faccia con il Sole. Esempi recenti come TRAPPIST-1 e Proxima b hanno ridato smalto a quella che molti chiamano the Big Question, la grande domanda sulla vita aliena.

Al tempo stesso però alcuni scienziati hanno cominciato a mettere in discussione il metodo comunemente utilizzato per la ricerca di mondi abitabili. Questo perché le condizioni presenti su questo tipo di esopianeti, benché la vicinanza con il loro sole sia ridotta proprio perché la stella è molto più fredda consentendo così la presenza di acqua allo stato liquido, ciò non costituisce la condizione esclusiva in cui la vita può sussistere. Finalmente la comunità scientifica lo comincia a capire, non fosse altro per le scoperte di forme di vita in habitat estremi sul nostro pianeta, la scoperta di ambienti ospitali alla vita stesse in condizioni completamente diverse da quelle presenti sulla Terra (come Mercurio, Cerere e le lune ghiacciate di Giove e Saturno, dove Europa, con i suoi oceani di metano, ed Encelado, con i suoi oceani caldi e salati sotto uno spesso strato ghiacciato, è considerata i posti più probabili dove si annidano forme di vita extraterrestre più vicine a noi), o le evidenze della presenza certamente passata (ma probabilmente anche presente) di vita su Marte (il cui annuncio ufficiale avverrà entro pochi anni, certamente prima del 2025, come ho fatto presente nel secondo mio libro). Questo nuovo movimento di pensiero, sta trovando negli ultimi due/tre anni, sempre più diffusione e dalla teoria si comincia a passare alla pratica, soprattutto per trovare al più presto una risposta alla domanda più che sulla vita extraterrestre (sappiamo che è esistita, e forse esiste ancora, su Marte), sulla vita extrasolare.

In sintesi, quello che si è fatto fino oggi è stato puntare verso il cielo telescopi spaziali e terrestri, scandagliare regioni di cosmo più o meno ampie e tirare fuori lunghe liste di pianeti potenzialmente adatti a ospitare la vita. Una tecnica che finora si è rivelata efficace solo per trovare pianeti potenzialmente abitabili, ma senza alcuna evidenza che realmente lo siano. Tra l’altro è una modalità di ricerca che è molto dispendiosa e soprattutto lenta.

Per questo da qualche tempo c’è chi propone di adottare un approccio statistico per la ricerca di ‘Terre 2.0’, basandosi sul calcolo della probabilità piuttosto che sui dati osservativi. Mondi abitabili tradotti in numeri, dunque: questa proposta è descritta in un articolo redatto dall’Università di Chicago e apparso su Astrophysical Journal Letters nel 2017, secondo cui gli astronomi dovrebbero iniziare a fare ricerca utilizzando anche la statistica. In pratica, secondo gli autori dell’articolo, la grande domanda sull’abitabilità dovrebbe essere declinata in questo modo: che cosa riusciamo a dire sulla frequenza con cui un insieme di pianeti può ospitare un ambiente abitabile? Un approccio certamente interessante.

Secondo gli autori, infatti, con i mezzi fino allora a disposizione riuscire a confermare l’abilità di un singolo pianeta era, ed è, un risultato molto raro; al contrario, la statistica può aiutare a valutare più rapidamente tutti i pianeti potenzialmente abitabili, arrivando così a valutare le diverse probabilità di vita aliena su mondi lontani. Il nuovo metodo tuttavia se da un lato può restringere il numero di pianeti su cui concentrarsi nella caccia alla vita aliena, dall’altro non risolve la questione.

A tre anni dalla pubblicazione di quest’articolo, la caccia alla vita su mondi extrasolari continua a essere un obiettivo chiave per la comunità scientifica. Considerato già l’enorme numero di pianeti potenzialmente abitabili scoperti a oggi, ci si è cominciato a porre la domanda di come poter fare un’altra scrematura e di quali altri parametri prendere in considerazione. Si è quindi pensato che il clima di un pianeta possa essere indicativo sulla probabilità di presenza di forme di vita.

All’interno di uno degli edifici del Goddard Space Flight Center della Nasa migliaia di computer automatizzati lavorano giorno e notte, producendo quadrilioni di calcoli al secondo. Queste macchine sono i supercomputer Discover e il loro compito è di elaborare raffinati modelli climatici per prevedere l’evoluzione del clima terrestre.

Da qualche mese, gli astrofisici e gli astrobiologi hanno sfruttato le potenzialità di questi supercomputer per analizzare qualcosa di molto più distante da noi. Sono finiti sotto osservazione proprio gli oltre 4.100 pianeti scoperti negli ultimi due decenni oltre il nostro Sistema Solare. A essere presi in considerazioni sono stati in particolare gli esopianeti rocciosi, che si pensa possano avere acqua liquida sulla superficie. Lo scopo di questa nuovo studio è scoprire, attraverso nuovi modelli climatici terrestri, se la vita potrebbe svilupparsi in mondi lontani. I dati prodotti dai Discover hanno rivelato, con sorpresa per molti scienziati amanti delle teorie tradizionali, che la vita così come la conosciamo, non solo potrebbe esistere, ma potrebbe svilupparsi in condizioni sorprendentemente diverse rispetto a quelle terrestri, come tra l’altro abbiamo già osservato sulla Terra e, in parte, nel nostro sistema solare.

Si è accesa finalmente nella testa di molti una domanda tanto ovvia ed evidente, quanto ormai legittima: È possibile, dunque, che le nostre nozioni su ciò che renda un pianeta adatto alla vita siano troppo limitanti?

Sicuramente grazie alla prossima generazione di telescopi e osservatori spaziali potremmo avere molti più dati e informazioni più chiare, poiché questi strumenti saranno in grado di analizzare per la prima volta l’atmosfera degli esopianeti.

Negli ultimi anni gli studi in tal senso non sono mancati. Solo un anno fa (febbraio 2019), il portale scientifico ArXiv ha pubblicato i dettagli di un dispositivo in grado di rilevare la vita vegetale dal modo unico in cui essa riflette la luce, una “firma” non confondibile con quella di materiali abiotici (come le rocce ad esempio) e che dunque potrebbe essere montata su sonde spaziali per la ricerca di vita aliena su mondi lontani. Il principio di base è il medesimo con cui gli scienziati F. Hoyle, C. Wickramasinghe individuarono negli anni’70, le prime molecole organiche nello spazio, metodo prima contestato perché dava nuovo impulso alla teoria della panspermia quale origine della vita sulla Terra, e oggi invece ampiamente utilizzato. Il dispositivo si chiama “spettropolarimetro TreePol” ed è stato sottoposto a diversi esami e aggiornamenti da parte del suo creatore, il biologo olandese Lucas Patty dell'Università Vrije di Amsterdam.

Il ricercatore, assieme ai colleghi dell'ateneo olandese, è al lavoro per la realizzazione e il perfezionamento di questo macchinario dal 2015, quando ha compreso che gli strumenti di laboratorio di cui era in possesso, erano già in grado di rilevare la peculiarità della luce riflessa dalle piante. Ma l'ambiente controllato è ben diverso dal mondo reale, a causa dei disturbi legati agli agenti esterni, ai movimenti del bersaglio e anche alle variazioni d’illuminazione. Dopo anni lavori di perfezionamento lo spettropolarimetro TreePol adesso riesce a individuare la vita vegetale anche a chilometri di distanza. La tecnologia del biologo olandese è ancora in fase di perfezionamento ma è la medesima che le agenzie spaziali stanno sviluppando e pensando di installare sui prossimi telescopi spaziali.

Come accennato, il segreto è nella chiralità, cioè il modo in cui gli organismi biologici riflettono la luce in modo specifico, determinando la cosiddetta polarizzazione circolare. È questa la “firma univoca” che il super dispositivo riesce a individuare.

In attesa di avere questi nuovi strumenti, con le tecnologie ora a disposizione lo studio delle atmosfere degli esopianeti è tanto difficile quanto inviare un veicolo spaziale a una tale distanza. E se ciò è arduo per i telescopi spaziali, la situazione è addirittura peggiore per i telescopi sulla Terra, che non sono sufficientemente avanzati per riuscire ad analizzare l’atmosfera di questi mondi lontani, perché visibilmente troppo piccoli e avvolti dalla luce delle loro stelle per essere osservati con maggior dettaglio. Al momento quindi, lo sviluppo di modelli climatici appare essere fondamentale per l’esplorazione, poiché essi sono in grado di eseguire previsioni specifiche e verificabili (sempre nelle simulazioni al computer) dati le poche informazioni di cui oggi disponiamo.

Come ricordato all’inizio di quest’articolo, i pianeti rocciosi più simili alla Terra osservati finora sono stati scovati attorno a nane rosse, una tipologia di stelle predominante nella nostra galassia. Poiché queste stelle sono più piccole e meno luminose del Sole rilevare il transito del pianeta attorno ad esse è più facile rispetto ad altri mondi. È interessante ricordare che alcuni astrobiologi Nasa a cui sono state sottoposte alcune rappresentazioni di possibili visitatori alieni, hanno individuato nella razza dei cosiddetti “grigi”, creature dalle caratteristiche fisiche compatibili con il probabile sviluppo su pianeti rocciosi più piccoli della nostra Terra, orbitanti attorno a stelle nane rosse. Questo ancor prima che la scienza si rendesse conto di quanti pianeti rocciosi potenzialmente abitabili ci fossero attorno a questo tipo di stelle.

Quest’opinione non ha avuto molto credito nell’ambito della comunità scientifica ufficiale, un po’ per motivi ideologici preconcetti (non si ritiene ufficialmente reale alcun tipo di contatto extraterrestre), un po’ per motivazioni di carattere scientifico. Le nane rosse possono emettere, infatti, radiazioni ultraviolette e raggi x fino a 500 volte in più rispetto al Sole. Questo dato ha portato a pensare che un tale ambiente potesse influenzare drasticamente e in senso negativo, il clima di un pianeta roccioso, rendendo difficile la comparsa e la sopravvivenza della vita.

Oggi invece, i nuovi modelli climatici terrestri creati dai supercomputer Discover dimostrano che gli esopianeti rocciosi attorno alle nane rosse potrebbero essere abitabili nonostante l’alta dose di radiazioni.

I sistemi planetari potenzialmente abitabili di maggior rilievo per la comunità scientifica, tutti scovati attorno a nane rosse, sono principalmente quattro dei sette pianeti orbitanti attorno a Trappist-1, uno attorno a LHS1140, Teegarden b e Teegarden C del sistema Teegarden e Proxima b, del sistema Proxima Centauri (che a probabilmente anche un secondo pianeta roccioso in fascia abitabile, Proxima c, individuato di recente ma la cui scoperta va ancora confermata). Il team di scienziati Nasa ha iniziato l’indagine simulando le possibili condizioni climatiche su Proxima b tali da renderlo adatto alla vita.

Le informazioni che abbiamo oggi su questo esopianeta ci dicono che esso orbita attorno a Proxima Centauri, un sistema di tre stelle situato a 4,2 anni luce dal Sole, ed ha una massa leggermente più grande di quella terrestre.

Proxima b, inoltre, è venti volte più vicino alla sua stella rispetto alla distanza Terra-Sole, pertanto impiega solo 11 giorni per compiere un’orbita. Secondo i calcoli effettuati, la vicinanza con la stella, renderebbe Proxima b bloccato gravitazionalmente, in rotazione sincrona (come la nostra Luna con la Terra), ma con un emisfero sempre illuminato ed esposto quindi all’intensa radiazione, e l’altro perennemente al buio, esposto alle rigide temperature dello spazio (ciò non avviene per la Luna perché è in rotazione sincrona con la Terra e non con il Sole). Apparentemente quindi, tutto ciò costituirebbe un altro ostacolo a condizioni ottimali per lo sviluppo della vita.

Le nuove simulazioni mostrano però che Proxima b, o qualsiasi altro pianeta con caratteristiche simili, potrebbe essere comunque abitabile.  In che modo? A giocare un ruolo cruciale sarebbero le nuvole e gli oceani.

Alla base del nuovo studio c’è l’aggiornamento di modello climatico terrestre sviluppato negli anni ’70 (in grado di calcolare i dettagli dell’orbita di qualsiasi pianeta), che era servito a realizzare un simulatore planetario chiamato Rocke-3d, per studiare anche i pianeti bloccati gravitazionalmente. In questo modo il team di scienziati ha potuto simulare la temperatura, la durata del giorno e della notte e la salinità degli oceani per capire come questi dati influenzino il clima del pianeta. Simulatori come Rocke-3d può produrre informazioni importanti partendo da pochi dati: dimensioni, massa e distanza dalla stella. Questi dettagli, seppur scarsi, attraverso le analisi del citato supercomputer Discover possono diventare informazioni necessarie per costruire modelli climatici più raffinati.

Le simulazioni su Proxima b sono state condotte nello stesso modo in cui sono applicati i modelli climatici terrestri per studiare il modo in cui le nuvole e gli oceani si muovono e s’influenzano tra loro, e come le radiazioni interagiscono con l’atmosfera e la superficie del pianeta.

I risultati rivelano che le possibili nuvole presenti sul pianeta potrebbero fare da scudo alle radiazioni, mitigando le temperature sul lato esposto alla stella. L’atmosfera e la circolazione oceanica, inoltre, potrebbero spostare aria calda e acqua in tutto il pianeta, trasportando così calore sul lato freddo. Insomma, grazie a questo nuovo metodo di studio, oggi sappiamo che i pianeti rocciosi in fascia abitabile attorno a nane rosse sono, se possibile ancor più di prima, i luoghi dove potrebbe aver fatto la sua comparsa, la vita. Ciò rafforza anche la possibilità che i racconti riguardanti gli alieni grigi siano veri?

Indagini come questa pongono nuove basi sull’abitabilità planetaria, fornendo agli scienziati nuovi strumenti per la caccia alla vita su mondi lontani e a tutti coloro interessati alla vita extraterrestre l’opportunità di fare con maggiore consapevolezza, le proprie valutazioni sulla veridicità dei racconti di contatti, presenti e passati, con creature delle stelle.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Scoperte 143 nuove linee Nazca

Uno dei 143 nuovi geoglifi scoperti a Nazca

(Questo articolo è stato pubblicato anche sulla rivista ARCHEO MISTERI MAGAZINE nel numero di Maggio 2021)

Nazca, Perù. A circa 320 chilometri a sud est della capitale del Perù, Lima, si trova la moderna città di Nazca. Nell’area oggi desertica della pampa peruviana che circonda la città, viveva una misteriosa popolazione: i Nazca. Di questa popolazione conosciamo ben poco. Sappiamo era solita seppellire i morti, sappiamo che alcuni delle mummie ritrovate avevano il cranio allungato, sappiamo che hanno occupato questa zona desertica per quasi un millennio (dal 300 a.C. al 500 d.C.) e sappiamo che adorava divinità scese dal cielo.

Tra i pochissimi reperti archeologici che sono stati a oggi ritrovati, quelli che rimangono più misteriosi, non sono i gioielli d’oro o i resti dei vasi in terracotta rinvenuti nelle tombe, e neanche i curiosi e particolari pozzi, tutti allineati, a forma di spirale (i puquios) scavati nel deserto. Ciò per cui quest’antica popolazione è oggi conosciuta in tutto il mondo è un qualcosa che rimane ancora avvolto nel mistero.

Tra la fine degli anni venti e l’inizio degli anni trenta del secolo scorso, iniziano i primi voli commerciali in Perù. Mentre gli aerei volano alto sopra la pampa peruviana, sempre più piloti cominciano ad accorgersi che nei pressi della città di Nazca, il deserto cambia forma. L’anonimo e sbiadito paesaggio desertico, con le sue rocce e le sue distese di sabbia rossa sembra farsi sempre più organizzato, man mano che ci si addentra in quest’area. Ed ecco che dall’onnipresente rosso della sabbia, cominciano ad apparire linee bianche, che si evolvono gradualmente. Sempre più strisce s’incrociano nel secco e arido deserto peruviano. Il paesaggio cambia completamente mentre sempre più linee prendono forma, per realizzare semplici ma precisi, disegni geometrici: trapezi, linee rette, rettangoli, triangoli.

Montagna con cima spianata (Nazca)

Anche alcune montagne sembrano diverse. Cime perfettamente piatte e livellate si distinguono in modo chiaro dai finestrini degli aerei. Sono montagne dalla cima piatta, in mezzo a montagne con cime più naturali. Impossibile pensare che tale perfetto e ripetuto livellamento sia opera di casuali forze della natura. Sono state rimosse da qualcuno? Da chi? Come? Perché un simile dispendio di tempo ed energia? E dove è finito tutto il materiale rimosso? Le domande sono moltissime.

L’anomalia è ancor più evidente se si considera, che da queste cime, si dipanino altre linee, perfettamente dritte, che continuano per decine di chilometri. Sembrano essere strade che s’incrociano, ma non siamo in una città, siamo in pieno deserto. Non ci sono resti di edifici o altri ostacoli naturali che possano giustificare la costruzione di così tante strade che s’incrociano in un’area così vasta. Le linee, larghe anche decine di metri, proseguono perfettamente dritte, anche sopra alle montagne, senza che il profilo o le asperità delle stesse sembra aver influito nella realizzazione delle linee.

Mentre il traffico aereo diventava più intenso, appariva chiaro che quelle che si stagliavano sul deserto, non potevano essere semplici strade.

Ciò fu confermato quando furono scoperte alcune linee che, a differenza delle altre, non erano dritte, ma curvavano e zigzagavano in modo apparentemente casuale, finché ecco apparire figure ben distinguibili: scimmie, colibrì, ragni, uccelli, lama, fiori e misteriose figure umanoidi, tutte enormi, lunghe anche oltre 300 metri, impossibili da distinguere a livello del suolo. È così che il mondo ha scoperto le linee di Nazca, designati Patrimonio dell'Umanità dall'UNESCO nel 1994. Non si tratta di solchi scavati nel terreno ma, al contrario di geoglifi realizzati dalle antiche popolazioni in un modo certamente molto più lungo.

Le linee sono state realizzate rimuovendo le parti del terreno roccioso e scuro di ossido di ferro in superficie, scoprendo così il terreno calcareo più chiaro che si nascondeva sotto. Il contrasto il suolo più chiaro sottostante e le rocce più scure circostanti, ha reso quindi possibile realizzare le linee.

Grazie alla scarsa presenza di venti e al clima stabile essenzialmente secco e privo di piogge, ha permesso di conservare le figure intatte per più di 2.000 anni.  La domanda su cui tutti, nessuno escluso, si sono sempre posti riguardo alle linee è: perché tacciare linee e disegni così grandi al punto che è possibili apprezzarli soltanto dall’alto (moltissimi a livello del suolo sono pressoché invisibile e appaiono più che altro come semplici “strade” o “aree recintate” con delle pietre)? In molti, nel corso del tempo, hanno provato a cercare un’oggettiva risposta a questa domanda. Le molte teorie formulate negli anni, hanno però dato risposte parziali, anche perché si sono concentrate sulle sole informazioni e sui soli geoglifi conosciuti in fino quello specifico momento.  Ma nel corso dei decenni, i misteri e le domande anziché dissiparsi e trovare risposta, si sono infittiti e sono aumentati con l’aumentare degli studi sui geoglifi scoperti.

Il Ragno di Nazca

Tra quelli più particolari è più misteriosi (e anche uno tra i primi scoperti) c’è il ragno.  Quello che apparentemente sembra essere la raffigurazione di un semplice ragno, da un’analisi più accurata emerge una particolarità molto interessante. Questa figura, dalla lunghezza di 45 metri, rappresenta infatti, un ragno “Ricinulei”, originario del cuore della foresta Amazzonica, che si trova a oltre 1.500 chilometri di distanza dall'altopiano di Nazca. Com’è stata identificata questa specifica specie di ragno? L’aracnide caratteristico dell’Amazzonia, è molto piccolo, misura solamente 6 millimetri, ma ha una caratteristica molto rara. Presenta, infatti, l'organo genitale separato dall'apparato riproduttivo. In questa specie di ragni, sono i maschi a deporre le uova, mediante un'escrescenza appuntita che si trova sulla terza gamba. Il ragno di Nazca presenta questa peculiare caratteristica, ed è qui che cresce il mistero. Essendo il ragno molto piccolo, Tale escrescenza, nel Ricinulei, è visibile solamente mediante l’utilizzo del microscopio, strumento ovviamente non disponibile tra le popolazioni precolombiane.


La Scimmia di Nazca

C’è poi la Scimmia con una coda a spirale, delle ragguardevoli dimensioni di 135 metri. Secondo l’interpretazione degli archeologi, la spirale è un simbolo molto diffuso in tutte le antiche popolazioni della Terra, fin dal paleolitico, e si ritiene sia associata all’acqua. Più tardi infatti, nella cultura Maya, la scimmia, sarà considerata un animale divino, associato proprio all'acqua. Rimane da spiegare però, perché quasi tutte le più antiche popolazioni del mondo, benché non fossero mai entrate in contatto tra loro (almeno secondo l’archeologia e la storia ufficiale) abbiano utilizzato gli stessi simboli per indicare le stesse cose.

L'Astronauta di Nazca

Il geoglifo dell’Astronauta, lungo 30 metri, è un altro geoglifo interessante e tra i più famosi e controversi. È così chiamato a causa della curiosa forma della testa, simile a un casco da astronauta. Secondo l’archeologia tradizionale rappresenterebbe uno sciamano o un sacerdote. Anche qui sono moltissime le somiglianze tra questo geoglifo e i petroglifi del paleolitico presenti in Valcamonica (in Italia) o quelli presenti nello Utah (Negli Stati Uniti) o nei dipinti rupestri in Australia. Le domande che sorgono sono le stesse di quelle formulate per i geoglifi precedenti.

 

A destra  - Gli Astronauti della Valcamonica (Italia) - a sinistra i Wandjina nelle pitture rupestri degli aborigine (Australia)

Tra i più famosi e iconici c’è infine il Colibrì. Questo stupendo geoglifo è lungo addirittura 94 metri e largo 66, ed è apprezzabile soltanto dall’alto.

Il Colibrì di Nazca

La maggior parte degli archeologi ritiene che i geoglifi presenti in quest’area del Perù, siano stati realizzati in due tappe successive: prima le figure e poi i disegni geometrici. SI tratta tuttavia soltanto di ipotesi  poiché, a causa delle caratteristiche del suolo, è molto difficile poter datare con sicurezza il periodo in cui furono costruite, specialmente per la difficoltà di applicare il sistema di datazione con il Carbonio 14 (la datazione con al radiocarbonio è possibile solo per i materiali organici e non per le pietre).

Gli scienziati quindi, si sono avvalsi di altri metodi, come il confronto tra le figure dei geoglifi e quelle trovate sul vasellame della civiltà Nazca. Ai margini della Pampa, gli archeologi hanno scoperto la città cerimoniale dei Nazca, Cahuachi, da cui si ritiene provenissero gli artefici delle linee. Non si può escludere tuttavia, che le linee siano antecedenti a queste due civiltà, e che Nazca, Cahuachi, Paracas e altre popolazioni dell’area abbiano ricopiato i disegni sul loro vasellame, anche se ciò appare improbabile considerata l’assenza di tracce di altre civiltà precedenti.

Benché la scoperta avesse attratto da subito l’interesse non solo dell’opinione pubblica, ma soprattutto degli archeologi, fino al 1994, in quasi settant’anni di studi, erano stati identificati appena 30 geoglifi raffiguranti flora fauna e altri oggetti. Nel corso degli anni successivi il numero delle linee scoperte è aumentato. Grazie all’utilizzo d’immagini satellitari e, in seguito di droni, lo studio sistematico e la mappatura dell’area interessata dalle “linee di Nazca” è divenuta più facile, portando alla scoperta di numerose altre figure e facendo comprendere che il fenomeno ha riguardato un territorio molto più esteso di quanto inizialmente immaginato. I geoglifi nella Nasca Pampa si trovano distribuiti in un'area che si estende per circa 20 chilometri quadrati, ma fanno parte di un’area ancor più vasta (di circa 80 chilometri) che arriva nei pressi di un altro importante centro di un’antica e altrettanto misteriosa civiltà della zona: i Paracas.

La presa di coscienza che le “linee Nazca” fossero un fenomeno molto più esteso, sia a livello territoriale, sia a livello temporale, e la scoperta di nuovi geoglifi, ha influito nella ricerca della risposta alla domanda riguardo ai motivi che hanno portato le antiche popolazioni di quest’area a realizzare questi disegni?

L'Università di Yamagata ha analizzato le immagini satellitari dal 2004 e ha svolto attività sul campo per chiarire la distribuzione delle Linee di Nasca e per studiare le ceramiche trovate nei geoglifi dal 2010. Fino al 2015, questi sforzi di ricerca hanno identificato con successo oltre 40 geoglifi biomorfici. Tuttavia, era subito apparso chiaro come ci fosse ancora molto lavoro necessario per rilevare la distribuzione di tutti i geoglifi.

Nell’agosto del 2014 il ricercatore Eduardo Herrán Gómez de la Torre, nel corso di un'ispezione aerea dell'altopiano di Nazca, aveva fatto una scoperta inaspettata, come spesso capita, e importantissima.
Mentre sorvolava il famoso deserto di Nazca, aveva notato alcuni geoglifi che non erano mai stati rilevati in precedenza. Secondo quanto riportato dal quotidiano El Comercio, i geoglifi, sarebbero emerse a seguito di alcune tempeste di sabbia che avevano compito la zona tra il Mercoledì e il Sabato della settimana precedente la scoperta, tempeste tra le più intense degli ultimi 25 anni, con una velocità che ha raggiunto i 60 km orari, molti per un’area solitamente quasi priva di vento.
Le formazioni appena individuate raffigurano un serpente lungo 60 metri e largo 4 metri, un uccello, un animale, che potrebbe essere un lama, e alcune linee a zig-zag.

Le immagini si trovano su due colline situate ai margini sinistro e destro della Valle di El Ingenio, vicini a San Jose e Pampas di Jumana, dove si concentrano altri geoglifi già noti. La scoperta fu importante non tanto per i disegni in sé, quanto piuttosto perché dimostrava che, nonostante l’apparente e costante tranquillità del clima in quell’area (che spesso è paragonata da questo punto di vista ad alcune aree del pianeta Marte) nel corso del tempo, si parla di migliaia di anni, alcuni eventi eccezionali possono aver cancellato o nascosto altri disegni nel terreno.

La conferma si ebbe appena pochi mesi dopo, quando con l'aiuto dei droni nell'ambito dell'iniziativa GlobalXplorer e finanziato dalla fondazione National Geographic, e partendo dall’analisi d’immagini satellitari, furono scoperti altri 50 geoglifi anche in un’area inesplorata del deserto di Nazca, questa volta tra le città di Nazca e di Palpa. Anche in questo caso, si trattava di geoglifi rimasti sepolti da un sottile strato di sabbia, spazzato via da venti poco più forti di quelli che solitamente sono presenti in quel luogo. I nuovi disegni scoperti, ritraggono prevalentemente profili stilizzati di animali e linee geometriche, raffigurano anche esseri umanoidi. Per uno degli autori della scoperta, Johny Isla, archeologo del ministero della Cultura del Perù, "Alcuni disegni sono precedenti alla cultura Nazca e questo indica che la tradizione delle linee nel deserto è vecchia di migliaia di anni. La scoperta - ha aggiunto - apre la strada a nuove ipotesi sulla loro funzione e significato".

Si comprese dunque, che i geoglifi potrebbero essere ancor più di quelli che erano stati fin allora trovati. Nonostante gli scarsi venti e il clima secco, nel corso del tempo molti disegni potevano essere stati semplicemente nascosti. Non trovarli avrebbe potuto metterne in pericolo la stessa esistenza. L'espansione delle aree urbane ha causato danni alle linee, attirando l'attenzione sulla protezione delle linee Nasca come questione sociale. Geoglifi come l’Alligatore (quasi del tutto cancellato dall'incuria) e la Lucertola (questa figura ha subito gravi danni, essendo stata tagliata in due dai lavori dell'autostrada Panamericana), solo per citarne alcuni, sono già stati seriamente compromessi e ne rimangono solamente poche tracce.

Scoprirle e mapparle tutte il prima possibile è dunque necessario per proteggere questo sito e per avere più informazioni possibili per comprendere il significato delle linee nella cultura delle antiche popolazioni precolombiane di quest’area.

Dal 2017 un team di ricerca giapponese, ha messo in campo addirittura l’intelligenza Artificiale (IA), nella ricerca di nuovi geoglifi. Masato Sakai (antropologo culturale a capo del progetto e che lavora dell'Università di Yamagata, in Giappone) ha passato anni a dare la caccia ai geoglifi durante le sue spedizioni in sito, scandagliando anche, nel frattempo, immagini ad alta risoluzione delle Linee di Nazca fatte dallo spazio. Nel 2019, i dettagli sulle nuove 143 linee di Nazca scoperte durante questa ricerca, sono stati pubblicati su un documento diffuso alla stampa e messo on-line sul sito web dall'Università di Yamagata.

Grazie a una serie di tecniche avanzate, un gruppo di scienziati ha rinvenuto ben 143 nuovi geoglifi finora sconosciuti. Uno di questi, che sembra ritrarre una figura umanoide, è stato identificato solo grazie ad un modello di IA.

I nuovi geoglifi scoperti ritraggono esseri viventi e oggetti di tutti i tipi: persone, uccelli, scimmie, pesci, rettili e una varietà di corpi astratti.

Nello studio dell’Università di Yamagata, i ricercatori hanno classificato i nuovi geoglifi ritrovati in due categorie A e B, in base alla dimensione. Quelle di tipo A sono generalmente di grandi dimensioni e tutte le figure che si estendono per più di 50 metri (la più grande tra quelle di nuova identificazione supera i 100 metri). Quelle di tipo B sono sempre inferiori a 50 metri, tra cui la più piccola di appena 5. Il team nipponico ha poi rilevato come i geoglifi più grandi, chiamati di Tipo A, tendessero a rappresentare animali. Per gli studiosi le rappresentazioni dovevano essere enormi per renderle ben visibili alle divinità in cielo.

Le nuove figure di questo tipo appena scoperte, sono state datate come risalenti alle fasi più tardive della civiltà Nazca, tra il 100 e il 300 d.C. Secondo i ricercatori giapponesi, le figure di tipo A, in cui sovente sono stati rinvenuti cocci di vaso, sarebbero stati teatro di cerimonie rituali.

I geoglifi più piccoli invece, chiamati di Tipo B, risalirebbero a qualche secolo più vecchi dei primi, e sarebbero stati creati tra il 100 a.C. e il 100 d.C. Il team di Sakai ritiene che le figure di Tipo B, spesso collocate su chine e sentieri, potessero avere la funzione di punti di riferimento che aiutavano le persone a orientarsi. Sarebbero stati utilizzati come “indicazioni stradali”, per indirizzare i pellegrini verso le figure più grandi, attorno alle quali s’ipotizza che le persone si radunassero per tenere cerimonie religiose.

Di quest’ultimo tipo (B) fa parte la figura umanoide scoperta con l’aiuto di un sistema di IA, addestrata attraverso un metodo di deep learning di IBM il Watson Machine Learning Community Edition.

Il team di Sakai ha lavorato con il Thomas J. Watson Research Center di IBM, negli Stati Uniti, per allenare l'intelligenza artificiale a setacciare le immagini satellitari della regione e segnalare i siti papabili dove potevano nascondersi nuovi geoglifi. La piattaforma ha individuato un potenziale geoglifo (che poi si è rivelato essere tale) in un'area a ovest delle Linee di Nazca. Il team dell’università di Yamagata ha potuto così, trovare il glifo umanoide, che misura solo cinque metri di lunghezza. Questa figura è relativamente piccola, si estende per circa 5 metri di diametro e raffigura una figura umanoide in piedi.

Si pensa che sia stato creato durante il primo periodo della civiltà Nasca, poiché è un geoglifo di tipo B. Anche questa figura appena scoperta è situata vicino a un sentiero, indicando che probabilmente era usata come una specie di punto di osservazione. È la prima volta nella storia che una IA ha saputo indicare con esattezza la posizione di un geoglifo nella regione di Nazca, ma i ricercatori vogliono continuare a usarla per trovare, mappare e categorizzare nuove figure.

I ricercatori stanno ancora conducendo ricerche sul campo in diversi siti, comprese le aree non ancora esaminate utilizzando AI. Si ritiene possibile che alcuni geoglifi si trovino in aree esterne a quelle considerate nell'ipotesi iniziale. Tuttavia, le immagini 3D ad alta risoluzione raccolte con i nuovi satelliti e con i droni, si sommano a un'immensa quantità di dati già esistente e ci vorrebbe molto tempo per un essere umano, per identificare i geoglifi tra tutti questi dati.

Per espandere il progetto, la Yamagata University utilizzerà IBM PAIRS per organizzare i dati prodotti nelle ricerche sul campo negli ultimi 10 anni e utilizzerà l'IA per aggregare, cercare e analizzare questi insiemi di dati complessi e di grandi dimensioni. Al contempo, l'università giapponese implementerà l'intelligenza artificiale per svolgere indagini preliminari sulla distribuzione dei geoglifi, oltre a continuare a svolgere attività sul campo in loco. I risultati combinati delle due iniziative consentiranno all'università giapponese di produrre una mappa geografica di localizzazione dei geoglifi per l'intera pampa di Nazca. L'università cercherà poi di utilizzare questa mappa di localizzazione per proseguire gli sforzi per preservare le linee di Nazca, con la collaborazione del Ministero della Cultura in Perù.

Solo acquisendo una comprensione dettagliata di dove si trovano le figure e quando sono state utilizzate, i ricercatori potranno provare a fornire risposte alle tante domande che ancora circondano le linee di Nazca, nel tentativo di avvicinarci a comprendere la visione del mondo delle persone che hanno creato e usato questi geoglifi.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 

Continua...

Marte, l’annuncio dell’entomologo William Romoser: «Insetti e serpenti sul pianeta rosso»

 

William Romoser, uno dei più stimati entomologi americani, ha studiato per anni le fotografie scattate dai rover della Nasa su Marte. In occasione del meeting annuale dell'Entomological Society of America a St. Louis, nel Missouri, il professore dell'Università dell'Ohio ha esposto le conclusioni della sua ricerca, sostenendo l'esistenza di numerosi esempi di forme simili a insetti, viventi e fossili. La ricerca, che fatto molto parlare anche all’interno della comunità scientifica ufficiale, è stata pubblicata ed è disponibile sul portale scientifico Researchgate.net, con tanto di foto e relative annotazioni.

Romoser ha affermato che “la vita su Marte c’è stata e c’è ancora”. Nello specifico, sostiene di aver riconosciuto la presenza di creature simili ad api, bombi e serpenti. Per l’identificazione degli insetti marziani, l’entomologo statunitense ha adottato i medesimi parametri utilizzati per identificare e classificare gli insetti presenti sulla Terra.  “Tre regioni del corpo, una sola coppia di antenne e sei zampe — ha spiegato — sono tradizionalmente sufficienti per stabilire l’identificazione come insetto sulla Terra. Per gli artropodi bastano invece un esoscheletro e appendici articolate. Queste caratteristiche dovrebbero essere valide anche per identificare un organismo su Marte. Su queste basi, nelle foto dei rover si possono vedere forme simili ad artropodi e insetti terrestri”.

Nella sua analisi, Romoser ha poi tenuto conto anche di altri parametri per riconoscere gli insetti, quali la differenza di colore con le rocce circostanti, la simmetria del corpo, i raggruppamenti di forme diverse, la postura, l’evidenza di movimento, il volo, l’interazione apparente e gli occhi lucenti. “Una volta identificata e descritta una chiara immagine di una determinata forma, questa è stata utile per facilitare il riconoscimento di altri scatti meno chiari, ma comunque validi, che presentano la stessa forma base” ha continuato lo scienziato.

"La presenza di organismi metazoi superiori su Marte implica la presenza di fonti e processi di nutrienti / energia, catene e reti alimentari e acqua come elementi che funzionano in un ambiente ecologico, seppur estremo, sufficiente a sostenere la vita", si legge ancora nel paper della ricerca. "Ho osservato casi suggestivi di acqua stagnante o piccoli corsi d'acqua. Noto piccole rocce sommerse, rocce più grandi, un'area umida a riva e un'area più asciutta oltre l'area umida. L'acqua su Marte – ha ricordato l’entomologo - è stata segnalata più volte, compresi i rilievi fatti dalle strumentazioni di Viking, Pathfinder, Phoenix e Curiosity. Le prove della vita su Marte presentate qui forniscono una base solida per molte altre importanti questioni biologiche, nonché sociali e politiche. Rappresentano anche una solida giustificazione per ulteriori studi".

Non è la prima volta che, osservando con attenzione le foto raccolte dai rover sul pianeta rosso e poi pubblicate dalla Nasa, qualcuno evidenzia la possibilità che siano state immortalate creature viventi (uccelli o insetti volanti, granchi, ratti, ecc.) o fossili. Non sono mancate neanche le segnalazioni di possibili resti di costruzioni, e altri elementi architettonici artificiali. In tutti questi casi precedenti però, la comunità scientifica non si è neanche degnata di intervenire in prima persona per far sentire, attraverso suoi autorevoli membri, la posizione della “scienza ufficiale” a riguardo.

Tutti i casi precedenti sono stati aprioristicamente declassati a fake news o al fenomeno della pareidolia (fenomeno per cui la mente umana tenderebbe a vedere in rocce o formazioni naturali, volti, oggetti o esseri viventi con cui ha più familiarità). A emettere queste “sentenze” la comunità scientifica ha “mandato” i numerosissimi e “attivissimi” (sul web) portaborse che, sebbene non abbiano alcun titolo accademico per potersi pronunciare su questioni che riguardano praticamente tutto lo scibile umano, hanno, di fatto, ribadito al pubblico che quelle notizie non erano attendibili, soprattutto perché non provenivano da personale qualificato, cioè da persone di scienza.

Per tale motivo si è detto al pubblico che queste tutte le persone che avevano riscontrato anomalie nelle foto marziane, erano state tratte in inganno dal fenomeno della pareidolia, proprio perché non abituate a valutare scientificamente le cose, non avendo familiarità con la geologia, l’entomologia e la biologia in generale. Altro elemento su cui gli irriflessivi ossequiosi della scienza hanno sempre posto l’accento, era la tradizionale (ma ormai anacronistica) immagine di Marte che ancora oggi viene diffusa, quella cioè di pianeta inospitale alla vita, oggi come in passato.

Se tutto ciò è avvenuto in precedenti situazioni simili a quelle di Romoser, allora perché questo caso ha suscitato tanto clamore in ambito scientifico, facendo intervenite a più riprese, numerosi esponenti della comunità scientifica sulla questione?

Per rispondere a questa domanda è necessario valutare diversi aspetti.

La principale differenza con i casi passati sta, innanzitutto, nel fatto che ad avanzare la possibilità che i rover su Marte abbiano realmente immortalato forme di vita, questa volta sia stato uno scienziato accademico che fa parte a tutti gli effetti della comunità scientifica ufficiale, e non un “improvvisato” ricercatore.

Dal mio punto di vista, se un’osservazione è onesta, documentata e coerente con tutte i dati disponibili è degna di nota, indipendentemente dal fatto che ha farla sia un membro o meno della comunità scientifica ufficiale o un cittadino comune (ciò non significa, sia chiaro, che debba essere considerata vera ogni teoria, sovente assurda, che si trova in rete). Ma la comunità scientifica ha dato più volte dimostrazione di non pensarla allo stesso modo.

Ho già avuto modo di far presente, in precedenti articoli su questo blog, come la comunità scientifica non gradisca che qualcuno possa “metter bocca” su materie che ritiene siano ad appannaggio esclusivo degli scienziati accademici, né tantomeno che si vada contro le teorie tradizionali. Secondo l’idea “progressista” di cui gran parte della comunità scientifica è intrisa, solo gli esperti possono pronunciarsi su certe questioni. Secondo questa visione, il cittadino comune non deve pensare, ma solo accettare (o credere), senza se e senza ma, alle affermazioni delle autorità (in questo caso scientifiche).

Ma se esiste forse qualcosa di ancor meno tollerato nella comunità scientifica ufficiale, sono le cosiddette “invasioni di campo”, cioè i casi in cui uno scienziato si pronunci su argomenti di altre materie, diverse da quella in cui opera direttamente o è specializzato.

Le invasioni di campo sono mal digerite perché creano enormi imbarazzi a chi opera quotidianamente nel campo oggetto dell’invasione, perché non si può far finta di nulla o rispondere in modo perentorio dando, senza mezzi termini, dell’incompetente al collega che ha operato l’invasione.

In questo caso ci troviamo proprio di fronte ad un’invasione di campo: un entomologo che si pronuncia in tema di astrobiologia. È stato un membro della comunità scientifica ufficiale a sollevare obiezioni alla tradizionale visione della vita marziana. Non era possibile dunque, sguinzagliare i soliti e irriflessivi e “attivissimi” ossequiosi delle autorità, che non hanno alcun titolo per controbattere a un illustre e stimato scienziato accademico.

Era necessario “scomodarsi” in prima persona, per effettuare un intervento diretto a difesa dell’idea tradizionale (o forse d’interessi personali o nazionali). Sono quindi scesi in campo, anche in Italia molti membri, esponenti o portavoce, della comunità scientifica ufficiale, e l’hanno fatto intervenendo in tutte le principali testate giornalistiche mainstream.

La Repubblica e il Corriere della Sera (tanto per citare quelle più lette e diffuse nel nostro paese) sono solo alcune delle testate che si sono occupate della vicenda in modo a dir poco preconcetto, manifestando palesemente una dipendenza cognitiva di stampo progressista, basata esclusivamente sull’accettazione incondizionata delle affermazioni delle autorità e sulle “verità ufficiali”.

Tanto per fare un esempio, l’articolo (di appena venti righe) che si è occupato dello studio di Romoser (che il redattore dell'articolo storpia in "Rosomer" più volte in tutto l'articolo, evidenziando il suo livello di professionalità nonchè l'attendibilità del gionale su cui scrive),  apparso sul Correre della Sera il 20 novembre 2019, dopo aver illustrato con palese scetticismo le affermazioni dell’entomologo statunitense (probabilmente una delle competenze richieste per diventare giornalista del Corriere è la laurea in entomologia … - ironia), si conclude così: “Il rischio, tuttavia, è che l’illustre entomologo si sia fatto “abbagliare” dalla familiarità delle sagome rocciose, finendo vittima di ripetute pareidolie. Ad oggi - va detto - la Nasa non ha mai annunciato di essersi imbattuta in forme di vita marziane. Tuttavia, è proprio per fare luce sulla questione che tra pochi mesi prenderà il via Mars 2020, missione che prevederà l’invio sul pianeta di un nuovo rover incaricato di rintracciare strutture biologiche fossili quali conchiglie, coralli e stromatoliti”.

Da ciò si evince, secondo il Corriere della Sera, che la realtà è formata esclusivamente su ciò che le autorità (in qual caso la Nasa) affermano. Siccome la Nasa non ha mai affermato di essersi imbattuta in forme di vita marziane, affermazione già di per sé non del tutto corretta (vedi annuncio della Nasa e dell’allora presidente Bill Clinton nel 1996 sul rinvenimento di batteri fossili nel meteorite marziano ALH84001, e quello riguardante la rivalutazione degli esperimenti della missione Viking 2 del 1977, a cui un altro importante quotidiano come La Stampa aveva dedicato un articolo), ciò è sufficiente per declassare a pareidolia le affermazioni di un importante entomologo accademico.

Un'altra affermazione alquanto pittoresca contenuta nell’articolo, e che testimonia l’evidente difficoltà intellettiva dell’estensore nel formulare un pensiero autonomo e coerente, è quella relativa al fatto che la missione Mars2020 in partenza nei prossimi mesi, ha come obiettivo quello di cercare “strutture biologiche fossili quali conchiglie, coralli e stromatoliti”.

Ora, come ho già fatto notare nel mio ultimo libro (il lato oscuro di Marte dal mito alla colonizzazione), le prove sull’esistenza passata di vita su Marte sono già state trovate, come dimostrato dai numerosi studi pubblicati in merito (tutti citati nel mio lavoro editoriale), studi di cui ovviamente l’estensore ignora l’esistenza. È proprio per questo che la Nasa (ma lo farà anche l’ESA – Agenzia Spaziale Europea - con la missione a guida italiana EXOMARS 2020) andrà sul pianeta rosso a caccia non di forme di vita semplici, come batteri o altro (poiché già trovate), ma di forme di vita già più complesse come quelle che generano conchiglie, coralli ecc., o andrà addirittura “a caccia dell’evoluzione”, come affermato da alcuni addetti ai lavori e riportato nella rivista Golbal Science, House Organ dell’ASI (leggi l’articolo su questo blog “Exomars2020: su Marte in cerca dell’evoluzione”). L’estensore dell’articolo del Corriere della Sera avrebbe dovuto ragionevolmente porsi la domanda: com’è possibile cercare i resti di forme di vita complesse se la vita semplice non è stata trovata (almeno per quanto di sua conoscenza)? È come affermare di voler cercare i resti dei dinosauri su sulla Luna, senza che aver evidenze dell’esistenza di altre forme di vita più semplici!

È sorprendente ma altrettanto significativo, trovare una così evidente contraddizione in termini logici, in così poche righe di un articolo di stampa!

Possibile che su testate giornalistiche così importanti lavorino “giornalisti” (le virgolette sono obbligatorie in questi casi) così impreparati su questi argomenti, al contempo così superbi da ergersi a giudici del vero e del falso e con una percezione cognitiva così limitata da non rendersi conto di contraddire se stessi in poche righe? Oppure bisogna pensare che la redazione dell’articolo sia stata compiuta in ossequio ad altre logiche e interessi?

Il richiamo alla prossima missione (Mars 2020) forse non è un caso e, come vedremo tra breve, potremmo trovare una risposta alle domande appena poste, dopo aver valutato le dichiarazioni rilasciate “sull’affaire Romoser” a La Repubblica, dai membri italiani della comunità scientifica ufficiale.

L’articolo apparso su questo quotidiano, sempre in data 20 novembre 2019, è certamente più circostanziato di quello pubblicato dal Corriere della sera. Tuttavia, il tenore dell’articolo è pressoché lo stesso, mirante a sminuire, ma in modo più sottile e raffinato, l’attendibilità dello studio. Sia chiaro, lo studio di Romoser dal mio punto di vista non toglie o aggiunge nulla a quanto sappiamo sulla vita marziana, ma un giornalista vero e serio, ancorché totalmente impreparato per parlare di certi argomenti, si dovrebbe limitare a fare cronaca, riportando i fatti, senza aggiungere alcun commento.

Il titolo (“Insetti su Marte, la strana teoria dell’entomologo USA”), l’onnipresente sottolineatura che le annotazioni di Romoser siano espressione di un suo convincimento personale (come a sottintendere che il professore universitario statunitense sia un folle), combinata con l’uso del condizionale che accompagna i virgolettati dello scienziato statunitense, la sottolineatura che nelle immagini sono stati usati “freccette e cerchietti di colore rosso” quasi a volerne evidenziare la poca professionalità e serietà, testimonia lo scetticismo (o il tentativo di trasferire la stessa sensazione al lettore) presente in chi ha redatto l’articolo (probabilmente anche a La Repubblica assumono soltanto persone altamente specializzate in entomologia e astrobiologia).

Oltre alle opinioni del tutto personali del “giornalista”, l’articolo de La Repubblica è interessante poiché contiene le opinioni di tre membri della comunità scientifica ufficiale. Inutile dire che, anche in questo caso, si tratta di opinioni a senso unico (volendo dare per scontato che siano state riportate correttamente dall’estensore dell’articolo che fatico a definire “cronista”, il cronista riporta e non esprime opinioni proprie), sulla falsa riga del titolo e del tenore dell’intero articolo.

La prima opinione riportata (introdotta dall’esplicativo titolo di “Dai vermi all'uomo nella roccia: i 'fake' su Marte“) è quella di Raffaele Mugnuolo dell'Unità Esplorazione e Osservazione dell'Universo dell' ASI (Agenzia Spaziale Italiana) che ha detto: “Bisogna essere molto cauti nel giungere a conclusioni sulla base di così pochi dati. Già alcuni decenni fa ci fu un’ipotesi simile (i vermi marziani) fatta da scienziati russi che avevano analizzato alcune immagini particolari e identificato alcune strutture simili a microbatteri. Le risposte, si spera le avremo con le prossime missioni ExoMars e mars2020. Certo la presenza di metano rilevata da Curiosity e in passato dal nostro PFS (Planetary Fourier Spectometer) su Mars Express, insieme alla recente rilevazione di ossigeno sempre fanno ben sperare in scoperte clamorose".

Il riferimento di Mugnolo alla vicenda dei “vermi marziani” fatta dai russi decenni fa è da intendersi assolutamente faziosa. Oggi, a differenza di alcuni decenni fa, abbiamo moltissime altre informazioni oggettive sulle condizioni riguardanti il passato e il presente di Marte, informazioni che rendono certamente più plausibili certe ipotesi. Perché citare solo questo caso di probabile errore (?) fatto dai ricercatori russi, e non citare invece altre ricerche ben più valide dal punto di vista scientifico, come quella dei ricercatori del CNR Nicola Cantasano e Vincenzo Rizzo, pubblicata sull’International Journal of Astrobiology nel settembre del 2016 (ne ho parlato sempre nel mio libro e in quest’altro articolo del mio blog), che hanno confrontato, trovando corrispondenza pressoché assoluta, i segni lasciati nelle rocce sulla Terra da batteri terrestri, con quelli presenti nelle rocce marziane, sia a livello microscopico sia macroscopico in quasi tutte le oltre 40.000 foto analizzate?  Questa ricerca conferisce certamente più attendibilità alle possibilità avanzate da Romoser. Possibile che Mugnuolo, che ricopre un ruolo di assoluta importanza in ASI, non conosca questa ricerca così importante? Perché vengono ricordate al pubblico soltanto le ricerche che sono “funzionali” alla propria idea e all’idea tradizionale? Da notare anche in questo caso, il “richiamo” alle prossime missioni ESA e Nasa. Un caso?

Il secondo intervento riportato sulle pagine de La Repubblica, è quello dell’astrobiologa dell’Università di Roma Tor Vergata, Daniela Billi, che spesso collabora con i “vicini di casa” dell’ASI (l’Università di Roma Tor Vergata, dista poche centinaia di metri dalla sede dell’ASI) e con la NASA. Le dichiarazioni dell’astrobiologa italiana sono introdotte da La Repubblica con queste parole: “Le speranze di trovare conferma della tesi di Romoser è assai più remota per Daniela Billi…”, tanto per evitare che le parole di Mugnuolo apparentemente più possibiliste, possano aver distratto il lettore portandolo a considerare, anche solo per un attimo, la possibilità avanzata da Romoser.

"Non possiamo basarci sulla morfologia per affermare l'esistenza di vita, - ha affermato Billi - perché quelle forme che vediamo nelle immagini potrebbero essere il risultato di reazioni chimiche che niente hanno a che fare con la biologia. Parlare di organismi che possono vivere sulla superficie di un pianeta così ostile, così come lo conosciamo, sembra molto difficile. Possiamo immaginare che la vita possa essere esistita un tempo su Marte, ma anche nel caso si trattasse di fossili sarebbe necessario analizzarli prima di arrivare a tali conclusioni. Anche perché ciò presupporrebbe un'evoluzione biologica ben più veloce di quanto accaduto sulla Terra. Basti pensare che gli insetti sulla Terra sono comparsi non prima del Devoniano - e in presenza di un’atmosfera ossigenata, - quindi in un periodo molto successivo a quando Marte presentava condizioni di abitabilità superficiale. Abbiamo avuto solo prove recenti dell'esistenza di composti organici, - conclude Billi - ma che la loro origine sia chimica o biologica è ancora tutta da verificare. Per ammettere dunque l'esistenza di organismi viventi, abbiamo bisogno di prove ben più consistenti".

Anche in questo caso, c’è molto da dire circa l’onesta intellettuale di queste affermazioni.

Cominciamo col dire che non si può che essere d’accordo con Daniela Billi sul fatto che in scienza ci vogliono prove concrete, e che lo studio attento e circostanziato di Romoser, si basa soltanto su poche immagini, che sono state per di più “lavorate” al computer per poter evidenziare gli elementi su cui ha elaborato le sue conclusioni.

Tuttavia Daniela Billi omette di ricordare (o l’estensore dell’articolo non l’ha riportato) alcune cose. Anzitutto che le immagini che la Nasa pubblica sul suo sito, sono spesso rielaborate al PC prima della divulgazione, perché spesso sono raccolte con strumenti che percepiscono lo spettro visivo luminoso in modo molto più ampio dell’occhio umano, poiché mirano a evidenziare la composizione chimica delle rocce marziane, informazione importante per i geologi Nasa. Così, al fine di rendere le immagini più fruibili al pubblico, prima della pubblicazione la Nasa le rielabora, riportandole ai colori che un uomo potrebbe percepire se si trovasse sulla superficie del pianeta rosso, o come dichiarato da alcuni scienziati Nasa, ai colori che il pubblico si aspetta e/o a cui è più abituato quando si tratta del pianeta Marte (tanto per essere chiari, spesso il rosso viene “caricato” come si dice in gergo, in modo da rendere, ad esempio, il terreno o il cielo più rosso di quanto siano realmente). Ciò ovviamente, non avviene sempre, ma in molti più casi di quanto si pensi. Rielaborare le immagini Nasa aumentando e diminuendo contrasti e luminosità, per provare a riportarle allo “stato originario”, non significa necessariamente falsare l’immagine o il contenuto della stessa.

Dobbiamo certamente convenire con Daniela Billi che la valutazione del solo studio di Romoser non è assolutamente sufficiente ad affermare che su Marte ci sia e ci sia stata vita, così come non lo sarebbe anche se volessimo prendere per buone (e certamente non tutte lo sono) tutte le altre analoghe segnalazione di strane forme geologiche marziane fatte negli anni precedenti da ricercatori indipendenti.

Così come avvenuto per le dichiarazioni di Mugnuolo, però, dobbiamo altresì rilevare il fatto che l’astrobiologa italiana, che collabora attivamente con ASI e Nasa, non può non conoscere le decine di studi scientifici, basati sui dati raccolti in situ dai rover e dalle sonde presenti sul pianeta rosso, che hanno provato la presenza di materia organica, di acqua e di altri composti ideali e idonei a sostenere la vita. Non può non conoscere i numerosissimi studi che hanno ridisegnato la nostra conoscenza sul passato caldo e umido di Marte, al punto da rendere plausibile l’ipotesi che sia stato addirittura la  culla della vita nel nostro sistema solare , e dunque che la vita possa aver fatto la sua comparsa prima su Marte e solo dopo sulla Terra.

Si tratta di tutti studi scientifici compiuti dalle maggiori università e istituti di ricerca al mondo, pubblicati sulle principali e più importanti riviste scientifiche al mondo e basati su dati oggettivi e non su ipotesi. Possiamo pensare che un’astrobiologa così importante non conosca i progressi e le scoperte compiute negli ultimi vent’anni nella propria materia di competenza? Senza contare quanto già detto sui ritrovamenti di batteri fossi nei meteoriti (studi Nasa), sulla rivalutazione dei risultati degli esperimenti PR e LR della missione Viking 2 del 1977 e dello studio dei ricercatori italiani del CNR. Queste sono evidenze concrete. Perché non citarli o considerarli nelle sue affermazioni? Perché far finta di nulla, e ricordare all’intervistatore e al pubblico, sempre e solo informazioni obsolete, miranti a preservare l’immagine tradizionale del Marte inospitale?

Mi chiedo ancora perché, durante le sue lezioni di astrobiologia all’Università Roma Tre, insegna e non “rigetta” anche nozioni che fanno parte di teorie scientifiche supportate da scarse prove o ancora del tutto da provare, benché siano ampiamente condivise in ambito scientifico (ma non per questo necessariamente esatte)?

Se, come siamo tutti d’accordo, la scienza dovrebbe basarsi su prove concrete e oggettive in assenza delle quali è opportuno sospendere il giudizio, perché si richiedono prove inconfutabili solo di fronte a teorie che sono contro l’idea tradizionale e prevalente in ambito scientifico, e non si ha la stessa fermezza nel chiedere prove altrettanto incontrovertibili, di fronte alla moltitudine di teorie scientifiche ufficiali, ma pur sempre teorie e non verità oggettive?

Uno dei requisiti fondamentali di un uomo di scienza, dovrebbe essere anzitutto la coerenza! È paradossale vedere che la coerenza non ci sia in chi la scienza la insegna.

Nell’articolo de La Repubblica, il culmine del paradosso si raggiunge forse, nelle dichiarazioni della docente di fisica dell’Università Roma Tre, Elena Pettinelli. La ricercatrice collabora attivamente con l’ASI e l’ESA e, in passato, ha analizzato i dati del radar italiano Marsis, strumento che ha scandagliato il cuore del pianeta rosso alla ricerca di tracce di acqua.

Le sue dichiarazioni hanno dell’inverosimile!

"Non abbiamo prove di esistenza di acqua allo stato liquido e stabile sulla superficie del pianeta – ha dichiarato Elena Pettinelli - e questo, insieme alle intense radiazioni cosmiche, fa escludere la presenza di organismi viventi su tale superficie. E' capitato più di una volta che le immagini arrivate dai rover e dalle sonde in missione intorno a Marte venissero interpretate male, come quando qualcuno pensò di avere avvistato la faccia di un uomo scolpita nella roccia. Non vuol dire che ciò che vediamo sia una prova di esistenza in vita: la biologia su un pianeta è fatta di molecole, non di suggestioni".

Elena Pettinelli, in barba all’annuncio della Nasa del settembre del 2016 che ha comunicato che in certi periodi e in certe circostanze, l’acqua liquida ancora scorre sulla superficie marziana (anche se per brevi periodi, ma comunque in modo stabile e ricorrente), ci dice che su Marte non c’è acqua liquida e stabile in superficie!

Sebbene non siano oggettivamente presenti specchi d’acqua o fiumi in superficie (ma nel sottosuolo c’è un vasto sistema di laghi di acqua salta, rilevato proprio dal radar Marsis, e più in generale depositi d’acqua sono pressoché ovunque), la presenza ricorrente e periodica di rigagnoli d’acqua non consente di affermare che su Marte non ci sia acqua in superficie. Quella di Elena Pettinelli è una forzatura e una semplificazione fuorviante, soprattutto per il grande pubblico che non è informato e/o non segue continuamente l’evolversi dell’esplorazione marziana. Perché fare affermazioni tanto estreme quanto imprecise e fuorvianti? Dobbiamo pensare forse, che anche la docente di fisica dell’Università Roma Tre non sia aggiornata sulle nuove scoperte della materia di cui si occupa?

La sensazione che in queste reazioni, che appaiono un po’ scomposte e bizzarre, sembra esserci qualcosa che non va, sembra poter aver trovato poi conferma qualche giorno dopo.

Cinque giorni dopo la pubblicazione degli articoli che hanno “bollato” come folle lo studio di Romoser su tutti i mass media mainstream, il 25 novembre 2019, il portale della rivista Global Science, l’House Organ dell’ASI, che non aveva dedicato neanche una sillaba allo studio dell’entomologo statunitense, ha pubblicato, a firma del suo direttore Francesco Rea, un video articolo.

Nell’articolo del 25 novembre (2019), Rea prende spunto da uno studio pubblicato su Nature Geoscience da parte di un team di ricercatori europei, che poco o nulla a che fare con Marte, sostenendo che tale studio “concede poche chance all’entomologo statunitense”.  Nello studio pubblicato su Nature Geoscience, i ricercatori hanno concentrato la loro attenzione su un’area particolare del nostro pianeta, un cratere vulcanico pieno di sale, che emette gas tossici e nel quale l’acqua bolle in un’intensa attività idrotermale. Si tratta delle sorgenti etiopi di Dallol, l’unico luogo della Terra a oggi scoperto, dove non sono state trovate tracce di vita, neanche batterica.

Il luogo in questione, presentato da Rea come “molto simile a quella che dovrebbe essere la realtà ambientale marziana”, presenta sì alcune caratteristiche simili ad alcuni luoghi di Marte, ma anche sostanziali differenze.

Le sorgenti di Dallol sono, infatti, un luogo così torrido che in inverno le temperature superano i 45 gradi e dove abbondano pozze d'acqua saline e ricche di acidità. Composti salini e acidi sono certamente presenti in alcune aree di Marte, sebbene sia difficile poter stabilire se il grado di acidità e salinità sia lo stesso con quello delle sorgenti etiopi, ma di pozze d’acqua sul pianeta rosso, complice il fenomeno della sublimazione, certamente non ce ne sono in superficie o, come paradossalmente e anacronisticamente sostiene Elena Pettinelli, l’acqua liquida non c’è proprio. Inoltre, in Etiopia, le temperature nel luogo in questione sono molto alte e per questo assolutamente diverse, se non addirittura opposte a quelle su Marte. Nel Dallol le temperature variano da un minimo di 45 °C e massimi di 60 °C. Su Marte la temperatura  media di -63 °C, con minimi di -143 °C e massimi anche di 25 °C all'equatore in estate. Sotto questo punto di vista dunque, non potrebbe esserci luogo più diverso da comparare a Marte!

C’è poi da far presente che è un esercizio intellettualmente disonesto prendere un luogo così particolare e unico sulla Terra, che presenta condizioni simili solo in parte a quelle di alcuni specifici luoghi di Marte, e applicare questo “modello” a tutto il pianeta rosso. Se io fossi un alieno e stessi studiando la Terra, potrei prendere le condizioni presenti in un solo luogo specifico, magari proprio quello delle sorgenti del Dallol o quello di un deserto arido e inospitale come quello di Atacama in Cile, per poi applicare quanto osservato in questi singoli luoghi a tutto il nostro pianeta, giungendo alla conclusione che è privo di vita? Certamente potrei farlo, ma altrettanto sicuramente la mia “osservazione scientifica” sarebbe al quanto opinabile se non del tutto errata. Ciò che ha fatto Rea sul portale di Global Science non è poi tanto diverso.

È quindi chiaro il tentativo di Rea di utilizzare strumentalmente uno studio che nega la presenza di vita in certe condizioni, per gettare acqua sul fuoco sulle affermazioni di Romoser (che anche Rea storpia più volte in "Rosomer", probabilmente perchè parla per sentito dire? Oppure non sa neanche di cosa sta parlando?).

Anche in questo caso c’è viene da chiedersi: perché il direttore dell’House Organ dell’Agenzia Spaziale Italiana, si è sentito in dovere di intervenire strumentalmente su una vicenda a cui non era stata data in precedenza la minima importanza? Perché spingersi a fare paragoni tra luoghi terrestri tanto particolari e il pianeta Marte, citando la ricerca di Romoser, per di più riportando anche il nome sbagliato? Un semplice “abbaglio” del direttore di Global Science?

La risposta ai tanti comportamenti anomali fin qui riscontrati, va cercata nel “comun denominatore” che sembrano avere tutti i protagonisti di questa vicenda.

Infatti, tutti lavorano o hanno ruoli di rilevanza nelle prossime missioni Nasa (MARS 2020) ed ESA (EXOMARS 2020). Entrambe le missioni hanno l’obiettivo della ricerca di prove di forme di vita, non solo passata, ma adesso presente su Marte. Non a caso, entrambi i rover delle due missioni hanno strumenti per cercare nel sottosuolo marziano, luogo in cui si ritiene più probabile trovare forme di vita ancora vive. I risultati di queste missioni sono attesi non prima del 2021.

Prendete, se preferite, quanto sto per dire, non come un’indiscrezione o una rivelazione, quanto invece semplicemente per una deduzione.

Ho fatto già presente in molti articoli su questo blog, e ancor prima e più dettagliatamente nel mio libro su Marte (ma anche sommariamente in quest’articolo), che la vita sul pianeta rosso è già stata trovata. Tuttavia nessun annuncio in “pompa magna” come quello dell’annuncio del ritrovamento di acqua liquida su Marte fatto dalla Nasa (che era a conoscenza, in modo inconfutabile, di questa informazione fin dal 2008) è stato fatto. Questo perché le evidenze della presenza di forme di vita su Marte sono venute alla luce in modo differito e frammentato.

La rivalutazione degli esperimenti della missione Viking 2 è stata oggetto di una lunghissima diatriba tra la Nasa e il responsabile dell’esperimento, lo scienziato Gilbert Levin. La Nasa ha fatto parziali, e non ufficiali, ammissioni sull’esito positivo dei risultati degli esperimenti effettuati nel 1977 sul pianeta rosso dalla sonda Viking2, solo negli ultimi anni.

Le evidenze delle similitudini delle impronte fossili presenti nelle rocce marziane con quelle presenti sulle rocce terrestri, evidenziate dallo studio dei ricercatori del CNR, è stata eseguita sulla base dei dati raccolti molti anni prima dalle sonde, dati mai analizzati prima di quel momento. Solo pochi mesi fa si sono definitivamente escluse tutte le possibili ipotesi fino ad allora formulate, circa l’origine abiotica del metano marziano, lasciando sul tavolo come unica ipotesi, l’origine biologica, a ulteriore conferma dei risultati dei test effettuati dalla Viking 2. Nel frattempo abbiamo scoperto che le condizioni presenti su Marte non sono state, e non sono tuttora, così inospitali come si pensava, sebbene certamente estreme.

Tutto ciò considerato, è chiaro che la vita su Marte ci sia stata e ci sia, probabilmente in forme elementari, ancora oggi, sebbene non ci sia ancora un’evidenza inconfutabile ma solo una somma di elementi.

L’arrivo diluito del tempo di tali informazioni, non ha consentito di sfruttare mediaticamente le notizie, e dunque non si è ritenuto opportuno dare alcun annuncio ufficiale in tal senso. Dobbiamo, infatti, considerare che il settore della ricerca scientifica sia mosso prevalentemente in ragione d’interessi economici e politici. La “corsa allo spazio” degli anni ’60 conclusasi con gli allunaggi è avvenuta prevalentemente per motivi propagandistici, così come oggi l’esplorazione di Marte. Il ritorno d’immagine derivante dal successo delle missioni, è un elemento assolutamente importante e non secondario, a cui la comunità scientifica e la politica che la finanzia, tengono molto.

La notizia della scoperta di forme di vita aliene è un qualcosa di epocale, che deve essere sfruttato a pieno dal punto di vista mediatico. L’obiettivo è quello di cogliere il primo risultato positivo che sarà raccolto dalle sonde Nasa ed Esa nell’ambito delle missioni previste con partenza 2020, per dare finalmente l’annuncio ufficiale. Come ho già più volte anticipato infatti, l’annuncio riguardo il ritrovamento della prima forma di vita extraterrestre sarà dato entro e non oltre il 2025.

In attesa di avere quindi lo spunto giusto per fare l’annuncio, la parte della comunità scientifica che gestisce la scienza in ambito di astrofisica, astrobiologia e tutti gli altri settori coinvolti nell’esplorazione spaziale, non consentiranno a nessuno di “bruciare” una notizia così importante, forse la più grande scoperta nella storia dell’umanità. Men che meno a un altro scienziato che opera in un altro settore.

Immaginate l’imbarazzo tra gli astrobiologi e gli altri addetti ai lavori, di fronte a un entomologo, un esperto d’insetti, che fa un annuncio epocale come quello del ritrovamento della vita extraterrestre. Sarebbe uno smacco troppo grande. Che cosa penserebbe l’opinione pubblica di questi astrobiologi, sovente pagati con soldi pubblici, che non riescono a vedere una cosa così importante come una forma di vita aliena, mentre lo fa “l’ultimo arrivato”?

È chiaro che a fare l’annuncio del ritrovamento della vita extraterrestre sarà un astrobiologo e nessun altro. Aggiungo che, con ogni probabilità e per ragioni di opportunità, sarà la missione europea a guida italiana ad avere quest’onore. Dipenderà molto dalla situazione politica del momento. Si ritiene che l’immagine della Nasa sia stata molto compromessa negli ultimi anni. Infatti, la Nasa sembra essere ormai considerata, da una parte dell’opinione pubblica mondiale, il “deus ex machina” di molte teorie della cospirazione, dai falsi allunaggi alla terra piatta, passando per quelle che sostengono che l’ISS non esista e che le sonde su Marte non siano mai arrivate.  Basti pensare che sui social, alla notizia della pubblicazione dello studio di Rosomer riguardo eventuali insetti marziani, sono apparsi commenti di questo tipo: “Perché vi stupite? Certo, in Arizona ci sono gli insetti!” lasciando intendere che non ci sono sonde umane su Marte e che tutte le foto sono false.

Sebbene personalmente consideri poco rilevanti tali teorie, è altresì evidente che  la Nasa, così come quasi tutte le autorità statunitensi, si sono fatte pizzicare con le dita nella marmellata parecchie volte e che le loro affermazioni siano ormai sempre, da prendere con le molle .

C’è dunque chi ritiene che se l’eventuale annuncio del ritrovamento della vita marziana fosse fatto dalla Nasa, susciterebbe scetticismo in parte dell’opinione pubblica, sminuendo i meriti e gli onori della comunità scientifica, anch’essa bisognosa di un rilancio d’immagine dopo i numerosi scandali che la stanno caratterizzando negli ultimi anni (leggi gli articoli su questo blog dedicati all’argomento).

In quest’ottica c’è chi ritiene sia più opportuno lasciare all’ESA l’onore di fare quest’annuncio epocale. Al contrario, c’è anche chi sostiene che quello dell’annuncio del ritrovamento di vita extraterrestre possa essere una buona opportunità per la Nasa per rilanciare la sua immagine.

Concludendo, lo studio di Romoser, sebbene interessante, non costituisce un inedito assoluto ed è da considerarsi solo uno dei possibili tasselli a sostegno della probabilità della presenza di vita sul pianeta rosso, e non certamente una prova. Dal mio punto di vita non aggiunge e non togli nulla a quanto già noto ufficialmente e certamente più interessante. Tuttavia, grazie a questo studio e all’invasione di campo effettuata da Rosomer, abbiamo potuto osservare le razioni scomposte di alcuni esponenti della comunità scientifica ufficiale e dei mass media mainstream, a tutela di posizioni di potere e privilegio, presente passato e futuro, reazioni che ci hanno comunque consentito di evidenziare ancora una volta, come la scienza spesso non sia guidata dalla voglia di conoscenza, ma da interessi personali e di lobby.

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Vita su Marte: dall’ossigeno nuovi indizi.

Che Marte un tempo possa esser stato, e possa essere ancora oggi un luogo favorevole alla vita è ormai un’ipotesi più che accreditata nella comunità scientifica, che trova sempre nuove conferme attraverso i dati inviati a terra da orbiter e rover sulla superficie del pianeta rosso che i ricercatori analizzano e studiano scrupolosamente. Per la prima volta nella storia dell'esplorazione dello spazio, gli strumenti del laboratorio marziano Curiosity hanno permesso agli scienziati di misurare i cambiamenti stagionali nei gas che riempiono l'aria direttamente sopra la superficie del cratere Gale su Marte.

In particolare, nel corso di tre anni marziani (quasi sei anni terrestri) lo strumento Sample Analysis at Mars (SAM) situato all'interno del rover Curiosity, al lavoro sul pianeta rosso dall’agosto 2012, ha "annusato" l'aria del cratere Gale e ne ha analizzato la composizione.

I ricercatori che lavorano alla missione, coordinati da Melissa Trainer, del Goddard Space Flight Center della Nasa, hanno pubblicato i primi risultati sul Journal of Geophysical Research: Planets.

La rilevazione in situ ha consentito da un lato di confermare quanto già si sapeva riguardo la composizione media dell’atmosfera marziana, dall’altra ha portato alla luce delle “anomalie” che potrebbero rappresentare una nuova conferma alla presenza, ancora oggi, di forme vita sul pianeta rosso. In particolare, ciò che è risultato anomalo è il comportamento dell’ossigeno. Ma procediamo per gradi.

Innanzitutto i risultati delle rilevazioni hanno confermato la composizione dell'atmosfera marziana in superficie, già nota in precedenza: 95 per cento in volume di anidride carbonica (CO2), 2,6 per cento azoto molecolare (N2), 1,9 per cento argon (Ar), 0,16 per cento ossigeno molecolare (O2) e monossido di carbonio (CO) 0,06 per cento.

Gli strumenti di Curiosity hanno anche rivelato che su Marte le molecole si mescolano e circolano nell'aria seguendo le variazioni della pressione durante tutto l'anno.

Questi cambiamenti sono causati dalla CO2: il gas si congela sui poli in inverno, riducendo così la pressione dell'aria in tutto il pianeta. Quando la CO2 evapora in primavera e in estate e si mescola su Marte, aumenta la pressione dell'aria. All'interno di quest’ambiente, gli scienziati hanno scoperto che l'azoto e l'argon seguono un modello stagionale prevedibile, crescendo e diminuendo in concentrazione nel cratere Gale durante tutto l'anno rispetto alla quantità di CO2 presente nell'aria.

In precedenza gli strumenti avevano rilevato le fluttuazioni stagionali del metano. Numerosi studi, nel corso degli ultimi mesi, hanno combinato diversi dati, riuscendo man mano a escludere possibili cause delle fluttuazioni del metano. Se inizialmente l’origine abiotica (vale a dire da processi chimico-geologici) sembrava essere la soluzione più probabile (o era considerata tale, forse perché preconcetta e conforme all'idea di un Marte inospitale), la valutazione di tutti i vari fattori a oggi noti, hanno, di fatto, lasciato sul tavolo la sola possibilità che il metano sia di origine biologica, originato da batteri ancora oggi presenti su Marte (leggi i precedenti articoli a riguardo, pubblicati su questo blog).

Nulla aveva mai fatto  pensare che anche altri gas potessero seguire le stesse fluttuazioni. La comunità scientifica riteneva che, come rilevato da Curiosity in precedenza, tutti i gas seguissero il modello stagionale prevedibile. Gli scienziati si aspettavano che l'ossigeno facesse lo stesso. Ma non è così. Infatti, lo studio appena pubblicato ha evidenziato che la quantità di ossigeno nell'aria è aumentata di ben il 30 per cento durante la primavera e l'estate, per poi tornare ai livelli previsti dalla chimica nota solo in autunno.

Questo schema si è ripetuto ogni primavera, anche se la quantità di ossigeno aggiunta all'atmosfera variava di anno in anno, suggerendo che qualcosa lo stia producendo, e qualcos’altro poi lo disperda.

E' così che è stato trovato sorprendentemente ossigeno, il gas che molte creature terrestri usano per respirare. Cone accennato, gli scienziati che studiano Marte, sono rimasti sorpresi nel costatare che la storia dell'ossigeno è curiosamente simile a quella del metano. Almeno occasionalmente, infatti, i due gas sembrano fluttuare in tandem. Il metano è presente costantemente nell'aria all'interno del cratere Gale in così piccole quantità (0,00000004 per cento in media) che è appena percettibile anche dagli strumenti più sensibili su Marte. Tuttavia, è stato misurato da SAM. Anche l’ossigeno quindi, si comporta in un modo che finora gli scienziati non sono stati in grado di spiegare attraverso alcun processo chimico noto.

"La prima volta che l'abbiamo visto, è stato strabiliante. Abbiamo visto questa sorprendente correlazione tra l’ossigeno molecolare e il metano per buona parte dell’anno marziano, e ci ha sorpreso molto”, ha spiegato Sushil Atreya, dell’Università americana del Michigan, ad Ann Arbor, tra gli autori dello studio. "Stiamo iniziando a vedere questa correlazione allettante tra metano e ossigeno per buona parte dell'anno su Marte. Penso che ci sia qualcosa perché nell’atmosfera non ci sono abbastanza atomi di ossigeno per creare il comportamento che osserviamo. I due fenomeni devono essere collegati, ma non so dire in che modo. Nessuno lo sa al momento”, ha continuato l’esperto. "Il fatto che il comportamento dell'ossigeno non sia perfettamente ripetibile ogni stagione ci fa pensare che non sia un problema che ha a che fare con la dinamica atmosferica. Deve essere una fonte chimica e un pozzo che non possiamo ancora spiegare" ha concluso.

Nuvole nel cielo di Marte catturate da Curiosity

I ricercatori continuano a prendere in considerazione ogni ipotesi. anche se non hanno prove convincenti della presenza di attività biologica su Marte. Curiosity non ha strumenti in grado di dire definitivamente se la fonte del metano o dell'ossigeno su Marte sia biologica o geologica.

L'ossigeno e il metano possono essere prodotti sia biologicamente (dai microbi, ad esempio) che abioticamente (dalla chimica relativa all'acqua e alle rocce).

Per il metano però, abbiamo già visto che, nonostante ci si limiti a dire che tutte le ipotesi sull’origine abiotica sono state scartate, non affermando ufficialmente e palesemente che l’unica scelta rimasta sul tavolo, è quella dell’origine biologica, non è poi rimasto molto da discutere, almeno sulla base dei dati fino ad oggi raccolti e analizzati.

Tenuto conto di questo e unendo quanto emerso in merito al metano a tutti gli altri studi scientifici pubblicati nel corso degli ultimi due decenni (che ho raccolto ed esposto nel mio ultimo libro) riguardo la reale situazione passata e presente del pianeta Marte, la possibilità che l’ossigeno, così come il metano, siano evidenza di una qualche attività biologica, ancora in atto sul pianeta rosso, sembrano ormai diventate delle probabilità più che delle possibilità.

È legittimo e doveroso pensare, a questo punto che non sia certamente un caso che solo pochi mesi fa, uno studio del California Institute of Technology (Caltech), pubblicato nell’ottobre 2018 su "Nature Geoscience", ha concluso che l'ossigeno si trova nell'acqua salata sotto la superficie del pianeta rosso, potrebbe supportare la vita di microorganismi e forme di vita anche più complesse.

Come ho già avuto modo di esporre in un precedente post, secondo i ricercatori e gran parte della comunità scientifica con questa "scoperta" lo scenario cambia completamente perché aumentano le probabilità che nell'acqua marziana ci siano le condizioni per ospitare microrganismi con un metabolismo basato sull'ossigeno. Gli scienziati del Caltech autori dello studio, hanno dichiarato: "Anche ai limiti delle incertezze, i nostri risultati suggeriscono che su Marte ci possono essere ambienti in superficie con sufficiente O2 disponibile per far respirare i microbi aerobici”. È dunque questa la soluzione al mistero delle fluttuazioni di metano e ossigeno nell’atmosfera marziana?

Maggiori dettagli potranno arrivare da due missioni in programma nel 2020: ExoMars 2020, dell’Agenzia Spaziale Europea (Esa) e Mars 2020 della Nasa, che andranno a caccia di tracce di possibili forme di vita, presente o passata, su Marte. In particolare con la missione ESA-Roscomos ExoMars 2020 che effettuerà analisi geologiche e biochimiche del suolo marziano utilizzando un trapano costruito in Italia in grado di perforare la superficie del pianeta rosso fino a due metri di profondità. Obiettivo del rover europeo, le cui operazioni saranno guidate dal centro di controllo Rocc sito a Torino, sarà indagare non solo la presenza di eventuali condizioni favorevoli alla vita ma, come affermato dagli stessi scienziati, quello di trovare forme di vita e tracce della sua evoluzione!

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Edward Snowden: nell'Area 51 non ci sono alieni, ma l’11 settembre …

Edward Snowden, l’ex tecnico informatico della CIA e collaboratore della NSA (National Security Agency), dopo una serie di libri e di film che hanno narrato la sua vicenda e la decisione di rivelare i programmi top-secret di sorveglianza di massa del governo americano, ha pubblicato (il 20 settembre scorso – 2019) un libro dal titolo “Permanent Record” (titolo italiano “Errore di sistema”), nel quale racconta la sua versione dello scandalo “Datagate” e il perché ha deciso di rivelare i piani (e non solo) di sorveglianza di massa messi in atto dal governo statunitense. Nel libro espone anche il suo punto di vista su molte altre vicende della storia recente americana e mondiale, opinioni maturate sulla base delle indagini da lui stesso effettuate, in anni di “consultazione” più o meno autorizzata, dei supersegreti server di NSA, CIA e FBI e di tutte le altre agenzie di Stato. I temi toccati vanno dagli attentati dell’11 settembre 2011, alle scie chimiche, passando per gli allunaggi, il cambiamento climatico e gli alieni nell’area 51. Cosa ha scoperto?

Iniziamo prima con il riassumere velocemente perché oggi il nome di Edward Snowden è conosciuto (o ci sia augura lo sia) in tutto il mondo e perché oggi è esiliato in Russia.

Snowden è abituato a nascondersi  fin da ragazzino, quando come hacker adolescente si era già dimostrato capace di entrare nei sistemi governativi. Da semplice tecnico informatico della CIA, la sua attività all’interno dell’apparato di intelligence governativa si intensifica dopo gli attentati dell'11 Settembre, quando decide di mettere a tempo pieno le sue abilità al servizio del Governo. Ad appena 22 anni, era già operativo con la licenza di maneggiare materiale Top Secret, lo stesso tipo di materiale, che alla fine, da analista della NSA (National Security Agency) farà trapelare per inchiodare gli Stati Uniti alle proprie responsabilità.

Durante la sua attività spionistica, terminata nel 2013, per conto dei servizi segreti statunitensi, Snowden si rese conto, infatti, che il governo USA sorvegliava illegalmente i cittadini statunitensi, europei e di altri paesi, in aperta e palese violazione di ogni accordo internazionale o legge costituzionale. Scoperto quell’abuso e dopo aver raccolto prove inoppugnabili, decise di collaborare con i giornalisti Glenn Greenwald, Laura Poitras, ed Ewen MacAskill, consegnando loro documenti classificati riguardanti i sistemi d’intercettazione e sorveglianza delle comunicazioni telefoniche e Internet, documenti che provavano inequivocabilmente le sue dichiarazioni.

Quando i quotidiani The Guardian, Washington Post, Der Spiegel e New York Times, iniziarono a pubblicare articoli basati su quel materiale da lui consegnato, Snowden si trovava in un albergo di Hong Kong, ma sentendo sul collo il fiato della CIA, fuggì. Nel giugno 2013, infatti, il Dipartimento della giustizia degli Stati Uniti d’America accusò Snowden di violazione dell’Espionage Act del 1917, cioè furto di proprietà del governo.

Con le sue rivelazioni, tutte documentate da prove tangibili e inoppugnabili, aveva mostrato al mondo il vero volto degli Stati Uniti. Altro che paese libero ed esempio di democrazia. L’attività di spionaggio di massa non si limitava alla ricerca di potenziali cellule terroristiche che potessero mettere a rischio la sicurezza nazionale, ma riguardava tutti. L’intera popolazione mondiale era potenzialmente e sostanzialmente, sotto controllo senza distinzione alcuna. Paesi “nemici”, paesi alleati, cittadini statunitensi, cittadini europei e di altri paesi, semplici cittadini, primi ministri, capi di stato e di governo, generali ed esponenti delle forze armate e di altri apparati d’intelligence di altri paesi, nessuno era al sicuro. Snowden dimostrò che già dal 2008, gli Stati Uniti potevano intercettare qualunque comunicazione, scritta o vocale, trasmessa con qualunque mezzo, telefono, fax, email, messaggi sui social. Gli Stati Uniti, infatti, erano (e sono tuttora) in grado di accedere e utilizzare qualunque sistema connesso alla rete. PC, smartphone e ogni altro dispositivo “smart” poteva (e può) essere attivato anche se spento e registrare conversazioni, girare filmati, e scattare foto utilizzando i microfoni contenuti nei dispositivi stessi, senza che il proprietario se ne potesse (e se ne possa) rendere conto.  Insomma, un vero e proprio “Grande Fratello” in stile Orwell. Le rivelazioni di Snowden sulle continue violazioni della privacy degli USA, portarono l'amministrazione Bush prima, e quell’Obama poi, a considerarlo un traditore e ad accusarlo di spionaggio per aver rivelato segreti di Stato.

Braccato dagli Stati Uniti, Snowden riuscì comunque a partire per Mosca, dove le autorità lo fermarono a causa del passaporto invalidato (che gli era stato annullato in contumacia dagli USA, nel tentativo di impedirgli la fuga), confinandolo nel terminal del Šeremet’evo airoport della capitale russa.

La scelta della Russia avvenne solo per mancanza di alternative, dato che tutti i Paesi occidentali e “democratici” (teoricamente), fra cui l'Italia, nonostante avessero ricevuto richiesta di asilo, glielo negarono (come confermato dallo stesso Snowden in un'intervista rilasciata a Roberto Saviano per la Repubblica a metà del 2019).

Dopo un mese di permanenza presso lo scalo aeroportuale, la Federazione Russa lo fece liberare e gli concesse il diritto di asilo temporaneo rinnovabile. Dal 2013 Edward Snowden vive in Russia, a Mosca, dove si è sposato ed è divenuto scrittore e giornalista.

All’epoca dei fatti, la vicenda dello spionaggio di cittadini europei da parte degli USA fece clamore, ma mediaticamente l’eco della vicenda si spese dopo poche settimane. Incredibilmente, nonostante Snowden abbia mostrato al mondo l’ipocrisia e l’inaffidabilità degli Stati Uniti, sacrificando la sua vita e agendo quindi a tutela di tutta la popolazione mondiale, in particolare anche di quella europea, i cui leader politici erano costantemente spiati dal subdolo e infido alleato americano, nessun cambiamento c’è stato nei rapporti diplomatici e commerciali con il paese natale di Snowden. Ancor peggio, Snowden è mal visto dai politici italiani e, a cascata da tutti i mass media mainstream che ne parlano di rado e malvolentieri. È chiaro che parlare di Snowden significherebbe dover poi, per coerenza, agire di conseguenza e diffidare di ogni cosa quando si intrattengono rapporti con gli Stati Uniti.

Come se nulla fosse, i politici italiani ed europei, si recano sovente oltre oceano, ben contenti di ricevere indicazioni sulle politiche da adottare, soprattutto in tema di politica estera, dimostrando chiaramente il rapporto di sudditanza verso gli Stati Uniti. Paradossalmente, anziché rivedere radicalmente i rapporti con lo zio Sam, i paesi europei, Italia in primis, sembrano invece aver adottato lo stesso sistema già in voga negli USA. La violazione della privacy in barba a qualunque legge o principio democratico, avviene sistematicamente ormai anche nel nostro paese (ne ho parlato su questo blog nell’articolo “Polizia di Stato o Stato di polizia?”). Tutte le persone di buon senso, a questo punto dovrebbero porsi delle domande, a partire dalla più importante: com’è possibile far finta di nulla e continuare a vivere sapendo che tutte le informazioni della nostra vita, le nostre foto, anche quelle più intime, le nostre chat di WhatsApp, le nostre ricerche su internet possano essere a disposizione dei governi (e anche imprese private)? Com’è possibile accettare che ogni nostro dispositivo connesso alla rete che può essere utilizzato per spiarci, spesso con la complicità delle aziende telefoniche? È assurdo e paradossale costatare come quotidianamente, miliardi di persone vivano la violazione della nostra privacy come un aspetto normale della propria vita, e non ci sia nessun politico che cerchi di contrastare realmente quest’abuso.

Nel libro appena pubblicato e divenuto subito un bestseller, Snowden fa nuove rivelazioni, toccando argomenti considerati, spesso a torto, complottismo. Dagli attentati dell’11 settembre 2001 agli allunaggi del 1969, per arrivare ai cambiamenti climatici, alle scie chimiche passando per i misteri dell’Area 51 sugli alieni. Sono molti i temi su cui l’ex agente CIA, esprime le sue opinioni, frutto dell’attività d’indagine effettuata ai tempi in cui era un agente attivo, e in cui poteva, più o meno liberamente o lecitamente, girovagare per i server delle varie agenzie statunitensi.

Alcune delle principali testate e agenzie giornalistiche italiane (Ansa, Agi, Aska news, SkyTG24, ecc.) hanno dedicato dei piccoli articoli annunciando l’uscita del libro nelle settimane precedenti. Ma pochissime tra quelle qui citate, hanno poi dedicato servizi al contenuto del libro, una volta pubblicato. Nei rari casi in cui lo hanno fatto, hanno selezionato con “cura” gli argomenti. Del resto è comprensibile che l’annuncio del l’uscita di un libro di un personaggio così importante trovi spazio nei media, ma sia chiaro, che ciò accade soltanto per scopi commerciali, per fare pubblicità del libro insomma, così come accade per tanti altri personaggi nostrani che vengono invitati in trasmissioni televisive soltanto per il lancio del proprio libro. Ci si dovrebbe interrogare sul perché poi, non è stato dato spazio alle questioni importanti, cioè alle dichiarazioni del libro stesso, che ricordiamo, non è un romanzo di fantasia. Il motivo della poca visibilità data alle dichiarazioni di Snowden è perché non sono gradite?

A conferma di quanto detto in precedenza, tra le cose scritte nel libro di Snowden che sembrano aver attratto l’attenzione dei pochi media che hanno ritenuto interessante le nuove rivelazioni, ci sono soltanto alcune informazioni, e non altre. La selezione delle informazioni rivelate da Snowden e il modo di presentarle, è estremamente indicativo dell’atteggiamento che i mass media mainstream hanno nei confronti dell’ex agente CIA e di taluni argomenti.

Snowden ha dichiarato nella prefazione del libro, e poi più recentemente (il 24 ottobre 2010) durante il podcast "The Joe Rogan Experience" (commentatore televisivo statunitense), che le difese informatiche a protezione dei server dove è andato a curiosare erano ridicole e per lui è stato abbastanza semplice potervi accedere (aspetto da tenere a mente).  Ma cosa ha detto Snowden di interessante?

Iniziamo con il puntualizzare che nel suo libro, Snowden fa delle affermazioni che possono essere considerate, nella maggioranza dei casi, semplici opinioni. Questo perché tali opinioni sono sì maturate sulla base dell’attività di ricerca che Snowden ha condotto, ma la ricerca non sempre ha dato i frutti sperati. Andiamo però con ordine, iniziando con l’affermazione che, a mio modesto parere, è quella più significativa e riguarda gli attentati dell’11 settembre 2001.

Snowden ha dichiarato di aver trovato evidenza oggettiva che nei giorni immediatamente prima degli eventi “terroristici” che hanno colpito gli Stati Uniti all’inizio del nuovo millennio, per motivi non chiari era stata comandata e disposta la sospensione delle attività spionistiche di tutte le agenzie d’intelligence. Nel libro, l’ex agente CIA s’interroga sul perché la rete spionistica statunitense fu tagliata fuori proprio alla vigilia di quel momento critico. Solitamente l’establishment statunitense, e tutti Governi occidentali e i mass-media mainstream relegano le varie ipotesi sul coinvolgimento degli apparati statunitensi negli attentati dell’11 settembre fatte in questi anni, a improbabili e congetturali teorie della cospirazione. Nel libro, Snowden dichiara apertamente di non avere intenzione di farsi coinvolgere in teorie cospirazioniste, pur continuando a domandarsi perché i direttori delle agenzie abbiano sospeso temporaneamente gli agenti in servizio proprio a ridosso degli attentati. Solo una casualità? È stata proprio l’analisi dei fatti di quei giorni a portarlo a convincimento che se gli agenti fossero stati in ascolto, gli attacchi avrebbero potuto essere prevenuti ed evitati. Dunque, sebbene non abbia trovato le prove di un coinvolgimento degli Stati Uniti nell’organizzazione degli attentati (come alcune teorie hanno supposto), le prove trovate da Snowden certificano quantomeno una responsabilità indiretta sugli accadimenti. Se Gli Stati Uniti non hanno organizzato loro stessi gli attentati, li hanno certamente non ostacolati e, dunque favoriti. La sospensione del servizio, il far si che le agenzie d’intelligence non potessero condividere le informazioni lavorando in rete, gettano dunque una luce nuova sulla vicenda.

Ha seguito di quanto accaduto l’11 settembre 2001, con l’emanazione dal Patriot Act (che ha legittimato la sorveglianza di massa e circoscritto le libertà democratiche e individuali dei cittadini americani e di riflesso di tutti gli altri paesi del mondo), si è susseguito quasi ventennio di guerre. Nel corso di questi anni, un fiume di denaro pubblico è affluito nelle tasche di appaltatori della difesa e politici guerrafondai, che hanno inventato prove per spingere i paesi alleati a partecipare a guerre immotivate, inutili e sanguinose. Veri e propri attacchi deliberati alla sovranità di altri stati. In base a questa evidenza, nel libro Snowden denuncia il fatto che nei tre rami del governo degli Stati Uniti sono presenti funzionari corrotti, che lungi dal sorvegliare l’operato delle agenzie appaltatrici della difesa, nascondono la verità al popolo americano. Gli iniziali sospetti di Snowden diventano dunque tutt’altro che illazioni.

Di tutto queste nuove informazioni e dichiarazioni contenute nel libro appena pubblicato da Snowden, i mass media mainstream non hanno fatto menzione. L’agenzia ANSA (la 5a agenzia giornalistica più importante al mondo, che “produce” notizie e “indirizza” buona parte della stampa italiana), non ha dedicato una sola parola alla questione. Le altre hanno preferito concentrarsi (ma Tra le testate italiane che ho citato in precedenza, soltanto l’AGI ha dedicato poche righe al contenuto del libro, ignorando la questione 11 settembre e scegliendo di concentrarsi su aspetti molto che appaiono meno importanti. Non perché questi temi lo siano in assoluto, ma piuttosto perché le dichiarazioni di Snowden sulle altre tematiche, non sono affatto rilevanti e/o non sono supportate da documenti che ha trovato. Le opinioni di Snowden su cui i pochi mass media mainstream interessati si sono concentrati riguardano si basano su quello che NON ha trovato.

AGI ad esempio (e tutti gli altri siti che con il classico “copia e incolla” hanno ripreso l’articolo), ha titolato il suo articolo così “Nell'Area 51 non ci sono alieni. Parola di Edward Snowden” per poi porre l’accento anche su altre questioni, con un taglio giornalistico molto significativo ad evidenza della finalità per cui, a differenza altre testate, abbia deciso di dare spazio all’inviso Snowden. Nell’articolo di Agi si legge infatti: “…"Non esistono alieni conservati dalla Nasa e sulla Luna, ci siamo andati davvero". Un brutto colpo per tutti i cospirazionisti arriva da Edward Snowden… a che aggiunge altre due "rivelazioni". "Il cambiamento climatico è reale, le scie chimiche no".  

Appare abbastanza chiaro che le appena 21 righe dedicate alla vicenda mirino ad accumunare strumentalmente teorie o visioni che non hanno alcun punto di contatto tra loro e che hanno sostenitori e gradi di veridicità o verosimiglianza completamente differenti, oltre al fatto che le opinioni (perché di questo si tratta) di Snowden non certificano nulla.

Si tratta quindi di un articolo redatto, se volessimo considerare la buona fede, con una visione preconcetta delle cose, un articolo che mira alla ricerca dei “bias di conferma” tipici degli analfabeti funzionali e degli irriflessivi ossequiosi delle autorità e delle verità di Stato.

Accumunare l’argomento “Alieni e Area 51” con la teoria dei finti Allunaggi del ’69, è un esercizio intellettualmente disonesto e scorretto. Così come lo è accumunare superficialmente la teoria della presunta negazione dei cambiamenti climatici, con quella delle scie chimiche.

C’è, infatti, da sottolineare come Snowden abbia maturato le sue idee sulla base di quello che ha trovato ma, soprattutto, di quello che non ha trovato. Anche in questo caso procediamo con ordine e per gradi.

Ha trovato evidenze e documenti che attestano gli allunaggi. La teoria dei falsi allunaggi è una teoria che, sebbene sia molto popolare (probabilmente perché rilanciata in occasione del cinquantesimo anniversario degli allunaggi che è ricorso quest’anno, nel 2019), è una teoria da sempre poco credibile. Il suo eventuale fascino o “credibilità”, termina immediatamente, non appena ci si addentra nelle nozioni di fisica, astronomia, astrofisica e ingegneria aerospaziale. Le evidenze che gli allunaggi siano reali sono talmente tante, da rendere abbastanza ovvio e scontato il fatto che Snowden abbia trovato evidenze e abbia fatto dichiarazioni in tal senso.

Medesimo discorso può essere fatto per quanto concerne il cambiamento climatico. Il cambiamento climatico è qualcosa di oggettivo che tutti possiamo constatare. Le teorie che discutono lo stesso sono diverse e variegate. Si va dalla negazione pura (ma che come detto lascia il tempo che trova) a quelle certamente più oggettive che non negano il cambiamento in sé, malo spiegano in modo scientificamente più plausibile di quanto comunemente è fatto dai politici, dai meteorologi (che non sono climatologi) e dai mass media mainstream. In queste teorie si sostiene solo l’evidenza scientifica della questione e cioè che il nostro pianeta ha sempre subito nel corso del tempo cambiamenti climatici, anche in periodi in cui l’uomo era assente o la sua attività non era significativa. Eventi naturali quali eruzioni vulcaniche, impatti asteroidali e, come oggi sappiamo (ma solo da pochi anni) soprattutto l’attività solare, influiscono in modo determinante sul clima terrestre. Il fatto che ci troviamo in un periodo di cambiamento è evidente, le teorie prevalenti in tema di discussione del cambiamento climatico, riguardano piuttosto la quantificazione dell’incidenza dell’attività antropica sul clima e, eventualmente quanto questo dipenda da attività involontarie (effetti collaterali dell’attività umana, inquinamento atmosferico, sfruttamento delle risorse, ecc.) e quanto invece dall’attuazione volontaria di sistemi di geoingegneria. Accumunare volutamente tutte queste teorie diverse come fossero una sola, e volendo ergere a rappresentativa solo la più assurda (quella della negazione) è chiaramente un esercizio intellettualmente disonesto, che mira soltanto a screditare ogni teoria non ufficiale.

Anche per il cambiamento climatico quindi, le dichiarazioni di Snowden non sorprendono, così come non sorprende che possa aver trovato documenti che evidenziano la situazione.

Ma ciò che sembra aver avuto maggior gradimento da parte dei media mainstream, sono certamente le dichiarazioni di Snowden riguardo agli alieni. Anche in questo caso però, le dichiarazioni sono state riportate in modo capzioso. Si è data enfasi al fatto che l’ex agente CIA abbia detto di non aver trovato nulla riguardo al fatto che nell’Area 51 ci fossero dischi volanti alieni o copri di alieni, così come di non aver trovato alcuna evidenza di contatti tra il governo americano e gli alieni. Non si stato riportato o è stata data meno enfasi, alla puntualizzazione fatta dallo stesso Snowden che ha, infatti, precisato che il fatto di non aver trovato nulla non significhi che le teorie (che poi tanto teorie non sono) sono false, aggiungendo che se fossero vere, il segreto è molto ben custodito.

Quest’ultima parte però, evidentemente non era funzionale, a confermare le verità di Stato a cui i mass media mainstream fanno riferimento, dunque la notizia è diventata che gli USA non hanno avuto contatti con alieni e non ne nascondono l’esistenza.

Abbiamo però detto, che è stato lo stesso Snowden ha dire che non bisogna giungere a conclusioni definitive e, in precedenza, ci aveva detto che l’accesso ai server su cui aveva cercato evidenze a queste teorie, avevano misure di sicurezza “ridicole” (cito testualmente).

Non dovrebbe sorprendere quindi, che Snowden non abbia trovato nulla a riguardo. Del resto quale modo migliore c’è di conservare un segreto oggi, se non quello di non farne copie digitali da conservare su dispositivi connessi alla rete? Non a caso la quasi totalità dei documenti emersi nel corso del tempo, documenti ufficiali divulgati dagli Stati Uniti e da molti altri paesi, nell’ambito del Free Of Information Act (FOIA), che attestano il fenomeno Ufo come un fenomeno reale, confermano l’esistenza di programmi segreti per lo studio degli stessi e della loro tecnologia, che attestano il recupero di dischi volanti precipitati, sono sempre rappresentati da fotocopie di documenti cartacei. Di documenti ufficiali ne esistono migliaia, lo sappiamo con certezza perché il governo USA li ha divulgati, di ciò non possiamo non tener conto quando formiamo la nostra opinione sulla vicenda, eppure Snowden non li ha trovati.

Solo poche settimane fa (settembre 2019) gli Stati Uniti hanno ufficialmente confermato l’autenticità dei filmati divulgati nel dicembre del 2017 (ripresi da aerei dell’aeronautica militare statunitense, che immortalano oggetti non identificati non terrestri), confermando al contempo l’esistenza del fenomeno UFO e di un nuovo (l’ennesimo) programma segreto (ne ho parlato in quest’articolo) nell’ambito del quale le riprese erano state compiute.

Più specificatamente, in merito all’attività nell’Area 51, c’è da ricordare poi alcuni aspetti. L’Area 51 è entrata a far parte della cronaca ufologica solo alla fine degli anni ’80 del secolo scorso, quando l’ingegnere Bob Lazar rivelò di aver preso parte all’attività di retro ingegneria su dischi volanti presenti nella base di cui fino allora, molti ignoravano l’esistenza. Fino a quel momento, l’Area 51 era una base segreta sconosciuta al mondo, dove gli Stati Uniti, a partire dagli anni ’50, avevano sviluppato la tecnologia di veicoli per lo spionaggio durante la guerra fredda. All’indomani delle sue dichiarazioni, Bob Lazar fu screditato e cancellata qualunque traccia del suo lavoro nella base, tracce che avrebbero potuto avvalorare, agli occhi dell’opinione pubblica, i suoi racconti. Il Governo USA dichiarò che l’Area 51 non esisteva .La vicenda di Bob Lazar attrasse l’attenzione di molti e le immagini che testimoniavano l’esistenza della base e strane attività sui cieli della stessa si moltiplicarono di giorno in giorno. Successivamente con la nascita di internet, anche su Google Earth apparvero le immagini satellitari che attestavano l’esistenza dell’Area ’51 (ne ho parlato nel mio libro del 2015). Ciò nonostante, solo nel 2013, gli Stati Uniti ammisero pubblicamente l’esistenza dell’Area 51, pur precisando che fosse adibita solo a scopi militari.

Chi conosce un minimo la materia ufologica, sa che il clamore suscitato dal racconto di Lazar, spinsero verosimilmente gli USA a spostare l’eventuale attività di studio della tecnologia aliena in altri siti, già negli anni immediatamente successivi. Non è un caso che è proprio tra la metà degli anni ’70 e quella degli anni ’80, secondo quanto rivelato nei decenni passati da molti addetti ai lavori, l’eventuale attività su tecnologia aliena era stata quasi completamente spostata nella costruenda base sotterranea di Dulce, nel New Mexico (vedi quanto riportato sempre nel mio libro del 2015). È bene ricordare poi, che ci trovavamo in un’epoca in cui i computer avevano, capacità di memorizzazione e archiviazione ancora molto limitate e non esisteva internet. Ogni documento quindi era rigorosamente conservato esclusivamente su carta. Come poteva quindi Snowden trovare documenti digitali riguardo l’attività “aliena” nell’area 51 se tutta l’attività eventualmente in essa svolta, era stata spostata anni prima della “rivoluzione digitale” e dell’avvento d’internet, in altro loco? Come poteva Snowden trovare documenti digitali sull’attività dell’area 51, se questi probabilmente non esistono? È poi logico supporre che informazioni di questa portata non si trovino archiviate su server con sistemi di sicurezza “ridicoli” come detto dallo stesso Snowden. Se volessi celare un’informazione in modo sicuro, è chiaro che non ne farei copie digitali, e se decidessi di farne, le terrei solo su dispositivi che non hanno alcun tipo di possibilità di essere connessi alla rete. Solo così sarei certo di poter custodire i miei segreti e di poterne controllare l’accesso.

Facciamo un esempio. Supponiamo che Snowden volesse trovare in rete, o su un qualunque computer a essa connesso, la foto di mio nonno o del mio bisnonno (tutti scomparsi prima dell’avvento di internet). Per quanto Snowden sia un abile esperto informatico e possa disporre delle tecnologie in mano alla NSA alla CIA e al FBI, non riuscirebbe a trovare nulla, perché nessuna foto di questi miei parenti è stata mai presente in forma digitale. Ciò non significa che mio nonno o il mio bisnonno non siano esistiti, che tutti quelli che li ricordano e ne parlano non siano attendibili e raccontino il falso. Qualunque conclusione che affermasse il contrario, sarebbe certamente errata. Sebbene dunque, sia un concetto facile da comprendere, forse qualcuno ha difficoltà a contestualizzare gli eventi, è incapace di immaginare un mondo diverso da quello di oggi, si è dimenticato di come era il mondo solo poco più di un paio di decenni fa o, cosa più probabile, sta strumentalizzando Snowden e le sue dichiarazioni.

Per concludere, per quanto io ritenga serio e affidabile Snowden, penso sia sempre necessario ponderare la veridicità delle affermazioni di chiunque, in funzione di tutte quelle che sono le informazioni disponibili provenienti anche da altre fonti e già ufficialmente accertate, e non solo fermarsi a considerare l’attendibilità di quell’unica fonte. Viviamo in un mondo complesso e la realtà che incontriamo quotidianamente, lo è altrettanto. È sempre necessario incrociare i dati e le informazioni per cercare di capire la complessa realtà dei nostri giorni e avvicinarsi il più possibile alla verità.

Il modus operandi con il quale le dichiarazioni di Snowden sono state filtrate o addirittura ignorate dai mass media mainstream, denota chiaramente l’esistenza di un pensiero preconcetto su talune tematiche probabilmente considerate tutte fantasia. È chiaro altresì l’intento di utilizzare una figura antisistema come Snowden, per sminuire l’importanza di alcune tesi, accumunando in modo semplicistico e superficiale, alcune palesi e bizzarre teorie, con altre situazioni ben più strutturate, documentate e argomentate. Il fine è quello di dare credito alle verità di stato e supportare l’attendibilità delle Autorità politiche, militari, scientifiche, ecc. Insomma, tutto sembra essere stato fatto in modo da confermare la veridicità del proprio punto di vista, quello delle verità ufficiali. Per queste persone il mistero non esiste, le autorità agiscono sempre bene e nell’interesse dei cittadini, e gli uomini al poteri sono tutti onesti e incorruttibili. In questo idilliaco mondo, in cui ovviamente non c’è posto per chi prova ad utilizzare la propria testa, probabilmente esiste anche Babbo Natale, la fata del dentino e il coniglietto di pasqua, chissà. Giunti ormai alle porte del 2020, è abbastanza triste vedere ancora qualcuno che, tra compiacimento, soddisfazione e una buona dose di presunzione, pensa di riuscire ad imporre la propria "verità". Pensando a queste miserie prettamente umane, tornano alla mente le parole dello psicologo e filosofo austriaco (naturalizzato statunitense) Paul Watzlawick, che diceva: “La credenza che la realtà che ognuno vede sia l’unica realtà, è la più pericolosa delle illusioni”.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Rosario Smart, anche il Vaticano entra nel mercato della raccolta dati e dell’hi-tech indossabile

Viviamo in un’era di raccolta dati. La rete, abbinata alla tecnologia wireless, ha creato la cosiddetta internet delle cose che ha, di fatto, messo fine alla privacy delle persone. Attraverso la moltitudine di oggetti smart oggi disponibili, le vite di miliardi di persone sono sorvegliate e controllate continuamente sotto ogni aspetto.

Il salto di “qualità” si è avuto con lo smartphone, vera e propria microspia che quasi ogni persona porta sempre con sé. Le app installate accedono a microfono e videocamera (registrando e scattando foto) e a qualunque altro dato presente non solo sul dispositivo, ma anche alle informazioni raccolte dai vari oggetti smart a esso connessi, o alle informazioni presenti negli account dei social network (Facebook, Linkedin, Istagram, Twitter e account google su tutti) nei quali le persone inseriscono quasi ogni aspetto delle loro vite, e che spesso sono utilizzati per “loggarsi” velocemente alle varie app, senza dover creare un nuovo account o digitare password. Nonostante che con cadenza quasi quotidiana, giungano notizie di continue violazioni dei server che conservano questi dati, delle norme di utilizzo delle informazioni raccolte da parte delle stesse aziende che ne avevano assicurato la tutela o, ancor peggio, delle autorità che dovevano vigilare, la maggioranza delle persone continua a utilizzare con superficialità la tecnologia smart. La tecnologia connessa alla rete sarebbe un ottimo modo per la diffusione d’idee e cultura, per discutere e trovare soluzione a problemi sociali e mondiali, invece è utilizzata prevalentemente per compiacere il proprio ego.

Il problema dunque non è la tecnologia in sé, ma l’uso che se ne fa. L’uso inconsapevole può avere conseguenze devastanti, sia dal punto di vista sociale, sia individuale. I dati condivisi dagli utenti hanno un enorme valore per molti settori industriali, per i governi e anche per la criminalità. Non parliamo semplicemente di username e password di conti bancari, ma d’informazioni molto più preziose e non modificabili in caso di furto, come i dati biometrici. Le persone però, sembrano ben gradire il fatto di essere “schedate” consegnando le proprie impronte digitali, la scansione della propria iride, la propria impronta vocale o i parametri del proprio volto.

Esiste un fiorente mercato della compravendita di dati. Ad alimentare questo mercato non sono soltanto i dati personali usati per scopi criminali, furti d’identità ecc., ma anche i dati sanitari (quelli che sono i più costosi da acquistare sul mercato) e tanti altri dati (abitudine di consumo, opinioni politiche, preferenze sessuali e religiose, dati di geolocalizzazione, ecc) considerati erroneamente meno importati rispetto a quelli di accesso a un conto bancario o di un numero di carta di credito. La possibilità di filtrare i dati per influenzare e controllare intere popolazioni è interesse di moltissime aziende e Governi (anche quelli che si definiscono “democratici”).

La Cina, secondo quanto emerso da un articolo del New York Times di febbraio 2019 (notizia che ha poi trovato diverse conferme nei mesi successivi), starebbe sorvegliando la popolazione uiguri (una minoranza presente n Cina) anche raccogliendo i loro campioni di dna e le impronte digitali, oltre a scansionarne il volto e la voce.

Tra il 2016 e il 2017, circa 36 milioni di persone hanno partecipato al programma noto come Esami per tutti: una sorta di specchietto per le allodole sfruttato, con la scusa di check-up sanitari, per effettuare una raccolta di dati sensibili, ampliando così il database informativo attraverso il quale la popolazione degli uiguri è tracciata e sorvegliata.

La raccolta del dna è stata eseguita utilizzando anche strumentazioni e competenze fornite da aziende e genetisti statunitensi.

“Il data banking obbligatorio dei dati anagrafici di una popolazione intera, incluso il dna, è una grave violazione delle norme internazionali sui diritti umani”, ha spiegato Sophie Richardson, direttrice di Human Rights Watch in Cina. “È ancora più inquietante se tutto questo è fatto di nascosto, sotto l’apparenza di un programma sanitario gratuito”.Secondo quanto scrive il sito Notizie Geopolitiche, “il controllo sulla popolazione ha raggiunto livelli inaccettabili: alle persone capita di essere costrette a sottoporsi a controlli di polizia più volte al giorno. Prima di accedere ai distributori di benzina, agli hotel e alle banche è necessario sottoporsi a procedimenti di riconoscimento facciale; le autorità hanno il potere di registrare in maniera arbitraria tutte le telefonate provenienti dall’estero e di obbligare privati cittadini a installare sul telefono un’app per controllare tutti i messaggi in entrata e in uscita”. Il distopico mondo di stampo orwelliano instaurato in alcune aree della Cina, non deve trarre in inganno, poiché non rappresenta certamente un inedito.

Gli Stati Uniti (come dimostrato già nel 2012 da Edward Snowden e confermato da altre informazioni emerse ufficialmente negli anni seguenti) non fanno già la stessa cosa da anni?
Gli USA, dal punto di vista della violazione dei diritti umani, dello sterminio delle minoranze, del controllo silenzioso della popolazione, della sistematica violazione della privacy, ecc, non hanno certamente nulla da apprendere da altri, essendo nei fatti (e non a parole) uno degli stati più antidemocratici che esistano.

La raccolta d’informazioni personali può essere sfruttata in vari modi e per vari scopi. Continuamente vengono inventati e messi sul mercato sempre più oggetti smart, in grado di carpire informazioni di vario genere, in modo da fornire a chi detiene i dati, notizie preziose sulle abitudini delle persone. Ciò consente di monitorare i propri interessi e adottare politiche, anche semplicemente comunicative, per conservare o acquisire nuove “quote di mercato” (e non mi riferisco propriamente e solo agli aspetti economici).

L'immagine depositata all'ufficio brevetti USA, dell'anello smart di Apple

In temi di nuovi oggetti smart, è notizia di poche settimane che Apple ha intenzione di spingersi oltre l'iPhone e l'Apple Watch, poiché in futuro potrebbe lanciare anche un anello smart. E' quanto si apprende da un brevetto pubblicato dall'ufficio brevetti americano (Uspto) in cui è descritto dall'azienda di Cupertino il funzionamento di un piccolo dispositivo da indossare al dito, in grado di monitorare l'attività fisica e di gestire diverse funzionalità. L'anello integra un processore, un microfono e un modulo wireless. E sono presenti alcuni sensori per la registrazione dei movimenti, una piccola superficie touch e una ghiera per l'accesso ad alcune funzioni. L'anello potrebbe essere impiegato anche per l'autenticazione biometrica e quindi ipoteticamente per lo sblocco di un altro dispositivo Apple senza il bisogno di digitare password.

Echo Loop, l'anello smart lanciato da Amazon

Non siamo neanche in questo caso, di fronte ad una novità assoluta. Amazon di recente ha lanciato Echo Loop, un anello intelligente che include l'assistente virtuale Alexa. Sfruttando lo smartphone dell’utente per la connettività, l’anello di Amazon, offre più o meno le stesse funzionalità di un “altoparlante intelligente” ma va messo al dito.

La maggioranza della sempre più ignara, distratta, superficiale e disinteressata popolazione mondiale, sembra ben gradire questi oggetti smart, sempre più piccoli e miniaturizzati. Una bella Finestra di Overton per l’accettazione di dispositivi impiantabili.

Secondo gli analisti dell’Idc (acronimo di International Data Corporation, la prima società mondiale specializzata in ricerche di mercato, servizi di consulenza e organizzazione di eventi nei settori ICT e dell’innovazione digitale), nel 2019 c’è stato in Europa un vero e proprio boom dell’hitech indossabile. Nel secondo trimestre, le consegne sono più che raddoppiate, con un incremento del 154% su base annua a quota 13,4 milioni di unità. A livello geografico, l'80% delle consegne si registra in Europa Occidentale. Il primo mercato è quello britannico. A seguire Francia e Germania, mentre l'Italia è quinta. Al quarto posto c'è la Russia, che mette a segno il tasso di crescita più alto. In generale, le consegne in Europa Orientale sono aumentate del 216%, a fronte del +145% dell'area occidentale. Tra i prodotti, a fare la parte del leone sono gli auricolari e le cuffie, che rappresentano il 52,3% del totale grazie a una crescita del 400%. Seguono gli orologi (26,7% del totale) e i bracciali (20,7%).

E se Apple guida saldamente la classifica delle aziende con più pezzi venduti in questo settore, precedendo nell’ordine Samsung, Fitbit, Garmin e Huawei, il terzo trimestre del 2019 ha visto l’ingresso diretto, in questo mercato, di uno degli stati più piccoli al mondo (in assoluto il più piccolo), ma più ricchi e potenti e influenti del mondo: il Vaticano.

Compresa l’importanza di raccogliere, detenere e gestire dati, lo Stato Pontificio, ha deciso di gettare le basi per un proprio progetto di controllo della popolazione, e ha lanciato sul mercato il primo “rosario Smart”, con un testimonial certamente d’eccezione: Jorge Mario Bergoglio. È stato lo stesso pontefice, Papa Francesco durante il suo viaggio a Panama nei mesi scorsi, a chiedere ai giovani di pregare per la pace nel mondo, tramite la rete Mondiale di Preghiera durante il Mese Missionario Straordinario.

La dichiarazione può essere oggi considerata una vera e propria mossa di marketing, propedeutica al lancio sul mercato dell’eRosary, presentato in Vaticano lo scorso 15 ottobre (2019) dal gesuita padre Frédéric Fornos, direttore internazionale della Rete mondiale di preghiera del Papa. “Negli ultimi anni, Papa Francesco ha chiesto soprattutto ai giovani di pregare il rosario per la pace nel mondo – recita la descrizione dell’App su Google Play Store - Click To Pray eRosary risponde a quest’appello con l'urgente necessità di pregare per un mondo che soffre profondamente di molti conflitti, divisioni e violenza. Il Click To Pray eRosary mira a raggiungere persone di tutte le età, ma soprattutto i giovani, che vivono principalmente in ambienti digitali. È un approccio pedagogico per imparare a recitare il rosario e pregare per la pace nel mondo”.

Già, perché come tutti sanno, come la storia insegna e come la stessa Chiesa Cattolica ha dimostrato nel corso dei secoli, è pregando che si può raggiungere quest’obiettivo … (ironia).

Dopo l’app DinDonDan (per Android e Apple), l’app che mostra le messe pianificate nella propria zona, dopo lo sbarco del Papa su Twitter, ecco l’ennesima mossa “smart” e “social” della Chiesa 3.0.

Connesso all’app gratuita “Click to Pray” il rosario smart (prodotto dalla Gadgetek – azienda consociata di Acer) si presenta come un elegante bracciale composto da dieci grani realizzati con ematite e agata nera, con una croce smart che memorizza i dati tecnologici dell’app connessa. Il dispositivo contiene un sensore giroscopico, tipo quello degli smartphone, e una CPU che fanno sì che il rosario smart si attivi dopo che i fedeli si sono fatti il segno della croce. Per ricaricarlo basta poggiarlo sulla sua stazione di ricarica (wireless).

“Conforme allo standard IP67 per l'impermeabilità alla polvere e all'acqua - (come si legge da Amazon - ottimo per l'uso quotidiano, nelle attività all'aperto ed anche nelle giornate di pioggia”), una volta attivata facendosi il segno della croce, permette di accedere ad audioguida, immagini esclusive e contenuti personalizzati in base al rosario scelto, da quello tradizionale, a quello contemplativo o tematico (di volta in volta per i giovani, per i migranti e i rifugiati, la Laudato si’, le missioni, ecc.) e quindi a quel punto pregare.

L’app naturalmente aggiornerà e memorizzerà tutti i dati e consentirà anche di raccogliere offerte in denaro che potranno essere elargiti dai “tecnologici e sempre connessi, fedelissimi di tutto il mondo”.

Il dispositivo già disponibile in Italia e in Europa, in vendita al momento solo sul sito ufficiale e in esclusiva su Amazon (attraverso il quale il Vaticano ci fa sapere che il dispositivo è unisex, ma non potrebbe essere altrimenti …) per la “modica” cifra di 99 euro, sarà commercializzato nelle Americhe e nel resto del mondo solo a partire dal 2020. Ma raccogliere i dati relativi alla frequenza delle preghiere, ai singoli bisogni delle persone, oltre che tutti i dati che si condividono automaticamente installando l’app ClickToPray sul proprio smartphone, e a quelli presenti sul proprio account social (se si sceglie di accedere con Facebook, o account Google), probabilmente non era ritenuto sufficiente.

Il Vaticano ha quindi pensato di inserire una funzione “health” per curare non solo lo spirito, ma anche il corpo. La “funzione terrena” – testuale – “aiuta gli utenti a tenere traccia della distanza da percorrere giornalmente, del conteggio dei passi, del calcolo delle calorie e di un promemoria per raggiungere l’obiettivo designato. Oltre alla preghiera quotidiana, il dispositivo registra e mostra i dati sulla tua salute, per incoraggiarti ad avere un migliore stile di vita - (migliore in base a cosa?) - Il tuo assistente per monitorare la tua salute”.

Insomma, un modo per tracciare anche altri comportamenti e gli spostamenti dei fedeli. Dovessero disertare qualche funzione, il Vaticano saprebbe dove andare a riprenderli. Chissà se in futuro sarà implementato con un contatore che indica i casi di pedofilia accertati. Chissà se il ricavato di questa nuovo prodotto “made in City of Vatican” sarà utilizzato per risarcire le vittime degli abusi sessuali perpetrati dai ministri del culto o se invece saranno impiegati per pagare gli onorari degli avvocati che li difendono nei processi.

Ironia a parte, con oltre 1 miliardo e 285 milioni di fedeli cattolici stimati (e un potenziale quasi doppio poiché i cristiani nel mondo sono circa 2,4 miliardi, un terzo della popolazione mondiale), con il rosario smart il Vaticano entra prepotentemente nel mercato della raccolta dati e nel business dell’hi-tech indossabile. Un business della fede che sembra per certi versi richiamare la vendita delle indulgenze che, nel 1521 diede origine alla riforma luterana e al protestantesimo. Questa volta però, in un’epoca di relativismo ed egocentrismo conclamato, in un modo in balia del consumismo più sfrenato, ormai storditi dalla continua e ipocrita propaganda buonista religiosa e politica, distratti dai gadget tecnologici e assuefatti alla commercializzazione di qualunque cosa, i fedeli probabilmente non protesteranno ma accoglieranno di buon grado (basta leggere alcune entusiastiche recensioni dell’App, già apparse su Google Play Store).

Indipendentemente da quale sarà il destino della chiesa cattolica e dello Stato Vaticano, di cui dovrebbe interessarci il giusto, bisognerebbe riflettere sul fatto che ogni soggetto pubblico o privato, autorità politica, economica o religiosa, che sia, è interessata ai dati delle persone. È bene ricordarsi che l’accentramento di troppe informazioni in poche mani, conferisce un potere quasi illimitato di questi “controllori” sui “controllati”, e non ci sarà divinità o qualunque altra superstizione nella quale confidare per la risoluzione di problemi che è la stessa popolazione sta generando. La tecnologia si evolve non solo in termini di raccolta ma, come avevo avuto modo di far presente diversi anni fa in un precedente articolo, anche nello sviluppo di nuovi e più efficienti sistemi di filtraggio. Si dovrebbe comprendere che a rischio ci sono democrazia, libertà e, in alcuni casi, anche la propria vita.

Continuare a utilizzare con superficialità queste tecnologie, ignorando tale rischio, è sintomo di un’immaturità sociale che non promette nulla di buono per il futuro. Continuiamo a illuderci di vivere in una società più progredita e socialmente più matura, solo perché la nostra tecnologia è superiore a quella di 30,50, 100 o 1.000 anni fa, ma non è così. Molte civiltà del passato, certamente tecnologicamente più arretrate di noi, avevano un maggiore equilibrio tra capacità tecnologica e consapevolezza sociale. Non può esserci alcun progresso sociale e tecnologico senza un’adeguata crescita culturale e di consapevolezza.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Business dei vaccini: il vaccino per la dengue si dimostra più dannoso che utile

Gli scolari immunizzati con Dengvaxia accendono candele durante una protesta del febbraio 2018 a Manila

NB: La cronaca della vicenda che segue è tratta da un articolo apparso sul portale dell’autorevole rivista Science. Le informazioni di carattere medico e terapeutico sono tratte dai libri dell’Organizzazione Mondiale della Sanità e in particolare da WHO, Dengue Guidelines for Diagnosis, Treatment, Prevention and Control , Ginevra, World Health Organization, 2009, ISBN 92-4-154787-1, dal libro di Ranjit S, Kissoon N, Dengue hemorrhagic fever and shock syndromes, in Pediatr. Crit. Care Med., vol. 12, nº 1 e dallo studio di  Whitehorn J, Farrar J, Dengue, in Br. Med. Bull., vol. 95, 2010, pp. 161–73, DOI:10.1093/bmb/ldq019, PMID 20616106.

Esperti di medicina e sanità pubblica stanno discutendo su come aiutare il milione di persone, (per lo più bambini) che nelle Filippine, hanno ricevuto un nuovo vaccino contro la dengue e che, in alcuni casi, ha aumentato i rischi di morte anziché proteggerli dalla malattia. Ma cos’è la dengue?

La febbre dengue, nota ai più semplicemente come dengue, è una malattia infettiva tropicale causata dal virus Dengue. Il virus esiste in cinque specie differenti (DENV-1, DENV-2, DENV-3, DENV-4, DENV-5). Così come accade per tutte le altre malattie infettive che meglio conosciamo anche in Italia (morbillo, rosolia, varicella, ecc.), anche nel caso della dengue generalmente la guarigione dall'infezione garantisce un'immunità a vita (ciò non avviene con i vaccini che garantiscono, nel migliore dei casi, un’immunità non superiore ai 5 anni, con le conseguenze che si è poi dipendenti a vita dal vaccino, se si vuole essere immuni) per quella specie di dengue, mentre comporta solamente una breve e non duratura immunità nei confronti delle altre varianti della malattia. L’eventuale e successiva infezione con un'altra specie di dengue comporta un aumento del rischio di complicanze gravi.

La malattia è trasmessa da zanzare del genere Aedes, in particolar modo la specie Aedes aegypti (detta anche “zanzara della febbre gialla”). Si manifesta con i sintomi classici delle comuni influenze (febbre, mal di testa, dolore muscolare e articolare) ma, a differenza di queste, sfoga anche con una caratteristica eruzione cutanea simile a quello del morbillo. Così come accade per il morbillo, la varicella e le altre malattie virali comuni anche nel nostro paese, la dengue di per sé solitamente non è mortale, ma lo può diventare se contratta da persone con uno stato di salute già provato o compromesso da altre malattie (ma ciò avviene, anche se una semplice influenza si somma a una polmonite, ad esempio). La maggior parte di chi contrae la dengue si riprende senza problemi, mentre la mortalità è dell'1–5% qualora non venga instaurato alcun regime terapeutico e inferiore all'1% nel caso di trattamento adeguato. Insomma, come anche nei casi delle malattie infettive che ben conosciamo, le classiche e adeguate cure e raccomandazioni, sono largamente sufficienti per superare la malattia e sviluppare un’immunità a vita, senza necessità di dover dipendere da farmaci (come i vaccini) per il resto della propria esistenza.

Solo in una piccola percentuale dei casi, infatti, la dengue provoca una febbre emorragica pericolosa per la vita, con un brusco calo della concentrazione di piastrine nel sangue, emorragie e perdita di liquidi, che può evolvere in shock circolatorio e morte.

A oggi non esistendo una vaccinazione efficace, la prevenzione si ottiene mediante l'eliminazione delle zanzare e del loro habitat, per limitare l'esposizione al rischio di trasmissione.

Tuttavia, nel 2016, un gruppo dell'Organizzazione mondiale della sanità (OMS)  ha approvato un nuovo vaccino ritenendolo idoneo per la somministrazione nella fascia di età compresa tra i 9 a 45 anni. Ciò ha portato il governo delle Filippine (forse per i motivi che tra poco vedremo) a lanciare una campagna di vaccinazione per i bambini in età scolare, contro il virus trasmesso dalle zanzare, inizialmente solo sull'isola di Luzon.

Un anno dopo circa, a novembre 2017, l’azienda produttrice e del vaccino Dengvaxia, la francese Sanofi Pasteur (che non aveva indicato alcuna precauzione particolare nella somministrazione del vaccino), si rende conto che i dati raccolti mostravano che i bambini sieronegativi che erano stati vaccinati avevano un aumentato rischio contrarre malattie gravi, indipendentemente dalla loro età, oltre al fatto che erano stati comunque infettati dal virus della dengue, nonostante la loro vaccinazione. A quel punto, la stessa Sanofi Pasteur e l’OMS hanno immediatamente raccomandato di non utilizzare più il vaccino Dengvaxia nei sieronegativi.

Resosi conto che era stata, di fatto, attuata e legalizzata una vera e propria sperimentazione di massa del vaccino sull’ignara popolazione delle Filippine, il governo fu costretto a interrompere la campagna di vaccinazione. In seguito, revocò la licenza alla Sanofi Pasteur per Dengvaxia (vicenda analoga a quanto accaduto in India riguardo ai vaccini, gli stessi adesso utilizzati in Italia, prodotti dalla britannica GSK GlaxoSmithKline, rivelatesi dannosi per la salute – almeno è quanto sostenuto dalle autorità indiane).  

I politici, funzionari sanitari e ricercatori filippini sono stati accusati di colludere con l'azienda affinché il prodotto (il primo per questa malattia e dunque senza concorrenti) arrivasse sul mercato. (anche qui troviamo un’analogia con quanto avvenuto in Italia con la condanna dell’allora Ministro della Salute De Lorenzo reo di aver percepito tangenti da numerose case farmaceutiche per”favorire” la commercializzazione dei loro prodotti, vaccini compresi, in Italia).  Nelle Filippine sono tuttora in corso azioni legali intentate da alcuni genitori, nei confronti di politici, funzionari sanitari e ricercatori, accusati di aver consentito la somministrazione del vaccino Dengvaxia, senza prima assicurarsi della non dannosità dello stesso, che avrebbe portato alla morte dei loro figli.

A oggi (ottobre 2019), trascorsi ormai circa due anni dal ritiro del vaccino, i ricercatori da sempre critici nei confronti del vaccino Dengvaxia, si stanno battendo affinché i ricercatori della Sanofi Pasteur, quelli pro vax e gli altri funzionari sanitari governativi, s’impegnino a cercare di identificare i bambini vaccinati con questo medicinale e che sono tuttora a maggior rischio di danno, attività d’identificazione che potrebbero salvare delle vite.

Come sovente accade, dopo aver lucrato e sperimentato ai danni dell’ignara popolazione, anche la Sanofi Pasteur si guarda bene dall’intraprendere azioni di ricerca che potrebbero ritorcerglisi contro. Accettare di condurre queste attività significherebbe ammettere implicitamente, la propria responsabilità riguardo ai danni provocati dal vaccino Dengvaxia, esponendo il colosso farmaceutico al rischio di un potenziale risarcimento di milioni di euro di danni.

La Sanofi Pasteur quindi, non ha in programma di condurre uno studio ampio e complesso, sebbene dichiari di seguire il destino di circa l'1% dei bambini vaccinati, da 5 anni. La mancanza d’interesse in ambito internazionale e il lassismo evidenziato dal governo Filippino in questa fase, hanno preoccupato il ricercatore (ormai in pensione) Scott Halstead, che ha lavorato per molti anni presso l'Uniformed Services University of the Health Sciences di Bethesda, nel Maryland. Halstead ha dichiarato al portale Science "Sono piuttosto allarmato dalla mancanza d’interesse verso il destino di queste persone”. Sebbene l’epidemia attualmente in corso nelle Filippine abbia fatto ammalare quasi 170.000 persone, probabilmente avrà un impatto limitato sulla frequenza di questo raro evento generato dagli effetti collaterali del Dengvaxia, poiché le vaccinazioni sono sospese dal 2017.

Ciò nonostante, Halstead ha calcolato che circa 500 bambini filippini ogni anno potrebbero sviluppare una grave dengue a causa della loro precedente vaccinazione con Dengvaxia.

Il pericolo deriva dal fatto che, come detto all’inizio dell’articolo, il virus della dengue ha quattro varianti distinte o sierotipi. Più di 40 anni fa, Halstead ha scoperto che le persone che avevano anticorpi contro un sierotipo avevano un rischio molto più elevato di sviluppare malattie potenzialmente letali, tra cui shock o febbre emorragica, se in seguito fossero state infettate da un secondo sierotipo. Il ricercatore statunitense ha spiegato che quest’aumento della dengue in forma grave, è causato da un insolito fenomeno immunitario chiamato potenziamento anticorpale (ADE). Halstead aveva per lungo tempo avvisato il governo e le autorità sanitarie Filippine e la stessa Sanofi Pasteur, che la Dengvaxia, che innesca la produzione di questi anticorpi, avrebbe potuto causare lo stesso effetto nelle persone non completamente protette dal vaccino. Tuttavia, forse gli interessi in gioco erano troppi, e le sue parole sono rimaste inascoltate, quasi le sue affermazioni fossero prive di fondamento. Forse per gli attori della vicenda, le vite umane non sono più importanti di altri interessi privati.

Tutto il mondo è paese e anche nelle Filippine, esistono persone che rispondono a logiche diverse e difendono interessi di lobby, tant’è che continuano addirittura i dibattiti sul fatto che l'ADE sia un fenomeno reale. Halstead sostiene che gli studi sugli effetti collaterali del vaccino Dengvaxia, condotti in 10 paesi, hanno confermato la sua preoccupazione: i bambini più piccoli, in particolare quelli di età compresa tra 2 e 5 anni, che non avevano anticorpi contro la dengue prima di ricevere il vaccino - i cosiddetti sieronegativi - erano a maggior rischio di finire in ospedale se avessero ricevuto il vaccino e avessero poi comunque contratto la dengue. Così come accade per molti vaccini, anche quelli commercializzati in Italia, non c’è garanzia di copertura al 100% verso quella specifica malattia. Nel caso del vaccino Dengvaxia contro la dengue, il medicinale offre solo circa il 60% di protezione.

Ormai, di fronte all’evidenza dei dati (e delle morti), anche la Sanofi Pasteur ha convenuto che il vaccino non dovrebbe essere usato in questa fascia di età, sebbene continui a sostenere (senza fornire elementi concreti a supporto) che l'ADE generato dal Dengvaxia, potrebbe non essere la causa dell'aumento delle malattie gravi.

Che il vaccino sia stato autorizzato, commercializzato e somministrato senza le adeguate verifiche, appare ormai evidente, anche quando s’intervistano ricercatori pro vax. “Sanofi segue la salute di oltre 10.000 bambini vaccinati nelle Filippine da 5 anni” afferma Cesar Mascareñas, che lavora negli affari medici globali presso l'ufficio di Città del Messico e che ripete, ancora una volta in modo quasi mnemonico, le dichiarazioni pubbliche di Sanofi Pasteur. Si lascia poi sfuggire queste parole, abbastanza eloquenti ”…Ma il loro sierato (Dengvaxia) prima della vaccinazione non è stato valutato, quindi Sanofi non saprà se chi sviluppa la dengue grave, sono stati messi a rischio più elevato dall'ADE generato dal vaccino”.

Leonila e Antonio Dans, epidemiologi clinici, lavorano all'Università delle Filippine a Manila, sostengono che ogni bambino vaccinato dovrebbe essere testato per identificare coloro che rimangono sieronegativi per il virus dengue. (Gli anticorpi innescati da virus sono distinti da quelli creati dalla vaccinazione, sebbene distinguere i due richiederebbe un test nuovo e complicato.)

Uno studio su 1500 bambini che hanno ricevuto il vaccino incriminato Dengvaxia sull'isola di Cebu, potrebbe potenzialmente offrire alcuni indizi sui rischi provocati dal medicinale. I ricercatori dello studio, parzialmente finanziati dal National Institutes of Health (NIH), hanno prelevato campioni di sangue prima dell'inizio della vaccinazione, in modo da poter determinare chi fosse sieronegativo. I test anticorpali potrebbero però, non fornire indicazioni rilevanti, poiché l'incidenza della dengue su Cebu è elevata, ed è probabile che meno di 200 bambini compresi in questo studio siano sfuggiti alle infezioni precedenti di dengue. Ciò significa che avrebbero già potuto sviluppare autonomamente delle difese immunitarie. “Ciò renderà ADE generata dal vaccino Dengvaxia difficile da rilevare”, afferma In-Kyu Yoon, che dirige il consorzio Global Dengue & Aedes-Transmiss Diseases a Bethesda ed è consulente dello studio.

Incredibilmente e nonostante i danni alla salute di migliaia di persone, alcuni medici nelle Filippine vorrebbero dare a Dengvaxia un'altra possibilità, nascondendosi dietro il fatto che il paese sta ora combattendo una grande epidemia. Sarà forse solo un caso, infatti, che l’azienda produttrice del vaccino Sanofi Pasteur, a fine luglio aveva lanciato un appello al governo affinché ridistribuisse il vaccino, da somministrare questa volta però, solo dopo test anticorpali. Vedere il ritrovato slancio verso l’utilizzo di un vaccino, da parte di alcuni medici nelle Filippine, all’indomani di un appello dell’unica casa farmaceutica produttrice del vaccino stesso è solo una coincidenza? Si sbaglia a vedere analogie con quanto successo in Italia riguardo all’introduzione dell’obbligo vaccinale, dopo incontri tra case farmaceutiche ed esponenti del governo allora in carica, il tutto supportato da una campagna mediatica senza precedenti che riportava di fantomatiche epidemie (di cui a oggi ancora non c’è traccia) sparse per la nostra penisola?

Torniamo alla vicenda in atto nelle Filippine.

Fortunatamente c’è anche un fronte del no, che antepone i valori umani e la vita delle persone agli interessi personali, motivando, tra l’altro, la propria posizione con argomenti scientifici assolutamente validi. Infatti, “Il vaccino Dengvaxia richiede tre dosi, da somministrare nell’arco di 1 anno, periodo troppo lungo perché abbia un impatto immediato sull’epidemia in atto” - dice Anthony Dans - “Non voglio vedere la storia ripetersi, e perciò la scelta sul riutilizzare o meno il vaccino non deve rappresentare un dilemma nell’immediato. Abbiamo avuto fretta in passato, e il vaccino al momento non è di alcuna utilità per l'attuale epidemia. Prendiamoci tutto il tempo necessario per valutare i reali benefici".

Nonostante l’attuale, ma non definitiva, messa al bando nelle Filippine, il Dengvaxia è ancora commercializzato in altre parti del mondo, sebbene con alcune “raccomandazioni”. La Food and Drug Administration degli Stati Uniti, ad esempio, il ​​1 ° maggio 2019 ha approvato il vaccino con severe restrizioni, limitandone l'uso a bambini di età compresa tra 9 e 16 anni, dopo adeguati test anticorpali, che e vivono in aree in cui il virus è endemico. Puerto Rico e una manciata di altri territori degli Stati Uniti hanno una dengue endemica.

Il NIAID (National Istitute of Allergy and Infectus Diseases) in collaborazione con l’Istituto Butantan, (un produttore senza scopo di lucro di prodotti immunobiologici per il Brasile), sta testando un nuovo vaccino contro la dengue. La sperimentazione (si spera questa volta trasparente e consapevole) sta avvenendo su larga scala, addirittura su circa 17.000 persone. Halsted sostiene che il nuovo vaccino potrebbe offrire protezione anche ai bambini filippini vaccinati e danneggiati oggi a rischio di ADE.

Se c’è una cosa che ci insegna questa vicenda, al di là di come la si pensi in tema di obbligo vaccinale, è che le autorità pubbliche non sempre prendono decisioni giuste e corrette nell’interesse della popolazione. I medicinali andrebbero assunti e somministrati solo in modo consapevole e solo quando è realmente necessario. Ogni medicinale ha effetti collaterali e contro indicazioni. Personalmente ritengo che dovrebbe spettare sempre al singolo individuo, informato in modo completo e trasparente, decidere cosa assumere o no per tutelare la propria salute.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Nuovo studio: Venere abitabile per 3 miliardi di anni. Potrebbe aver ospitato la vita?

Mappa della superficie di Venere

Secondo un nuovo studio, condotto dal Nasa Goddard Institute of Space Science, Venere potrebbe aver avuto in passato e per un periodo lunghissimo, circa 3 miliardi di anni, temperature sufficientemente basse da permettere la presenza di acqua in superficie.  Appare legittimo dunque chiedersi: Venere in passato può aver ospitato la vita? L’ipotesi già considerata in passato dalla comunità scientifica, era stata però scartata per via della vicinanza del pianeta al Sole.

Venere, Terra e Marte, se non possono essere definiti pianeti “gemelli”, possono certamente essere considerati quantomeno pianeti “fratelli”. Sotto alcuni aspetti sono simili, si sono formati tutti nello stesso periodo, circa 4,5 miliardi di anni fa, e grossomodo con le stesse modalità (accrescimento). Venere è l’unico altro pianeta del nostro sistema solare, assieme alla Terra e Marte, a orbitare nella cosiddetta “fascia abitabile”, cioè né troppo lontano né troppo vicino alla nostra stella, il Sole, alla distanza giusta insomma, per avere acqua allo stato liquido sulla sua superficie. Ciò nonostante, oggi osserviamo però, tre situazioni completamente diverse.

La Terra, lo sappiamo con certezza, dopo il suo raffreddamento avvenuto circa 3,9/4 miliardi di anni fa, ha poi presentato condizioni favorevoli alla vita, alternando periodi glaciali a periodi più caldi, periodi con più ossigeno in atmosfera a periodi con ossigeno molto scarso. La vita qui ha attecchito in pratica subito, non è chiaro come sia apparsa (probabilmente giunta dall’esterno tramite panspermia oppure, meno probabilmente nata spontaneamente dal nulla), ma ha prosperato e si è evoluta in miliardi di forme diverse.

Su Marte, che tra i tre pianeti è quello che orbita più lontano dal Sole ed è anche il più piccolo (circa il 40% degli altri due), ha certamente un presente completamente diverso dalla Terra e da Venere. Tuttavia oggi sappiamo che il suo passato è stato, con ogni probabilità, molto simile a quello della Terra. Sappiamo che, considerata la maggior distanza dal Sole e le minori dimensioni, si è raffreddato verosimilmente prima della Terra, cioè già 4,2 miliardi di anni fa e ha dunque presentato condizioni per ospitare la vita almeno 250 milioni di anni prima del nostro pianeta. Grazie ai dati raccolti in questi ultimi anni dalle sonde orbitali, dai lander e dai rover, decine di studi hanno dimostrato che anche Marte ha avuto periodi caldi e umidi, alternati a periodi più freddi e secchi. Se delle tracce lasciate dai fiumi, dai laghi e dagli oceani su Marte, non ci sono dubbi, oggi sappiamo che nel sottosuolo l’acqua è ancora presente ovunque sul pianeta rosso. Grazie sempre alle stesse missioni, ormai ci sono pochi dubbi sul fatto che Marte abbia ospitato forme di vita (fatto ancora poco noto e poco divulgato all’opinione pubblica), tant’è che l’interrogativo più grande della comunità scientifica oggi, riguarda se Marte ospiti ancora forme di vita, se queste si siano evolute e in che forma. Già, perché alcuni studi, infatti, hanno concluso che grandi oceani (e comunque grandi bacini di acqua liquida) erano presenti sul pianeta rosso ancora solo 200.000 anni fa! Da 4,2 miliardi di anni fa ad appena 200.000, c’è n’è stato di tempo per considerare un’eventuale evoluzione di forme di vita marziana. Altri studi hanno recentemente rivalutato e riconsiderato, alla luce di tutto questo, la possibilità che la vita sia apparsa su Marte ancor prima che sulla Terra, e che quest’ultima sia giunta proprio dal pianeta rosso attraverso un processo chiamato litopanspermia. Oggi però, Marte non presente un clima temperato e umido come la Terra, ma notevolmente freddo, con temperature che oscillano tra i + 20°C di giorno e i -110°C durante la notte.

Venere come appare oggi

Venere, che è il pianeta tra i tre che orbita più vicino al Sole, pare aver avuto un destino certamente diverso. Secondo la teoria prevalente in ambito astronomico, Venere di dimensioni simili alla Terra, si dovrebbe essere raffreddato più lentamente (data la minor distanza dal Sole) e presentato quindi una crosta solida, presumibilmente circa 3,7 miliardi di anni fa. Se ci dovessimo fermare alle apparenze, dovremmo però concludere, come fecero gli scienziati decenni or sono, che le condizioni che oggi presenta, sono incontrovertibilmente non idonee alla vita, almeno quella di tipo terrestre. Con un’atmosfera molto densa che determina una pressione al suolo di quasi 90 atmosfere, un vento a livello del suolo quasi assente (venti forti ci sono solo a quote elevate) e temperature superficiali che si aggirano attorno ai 450 °C, Venere non presenta alcun oceano o specchio di acqua liquida. Oggi Venere ci appare certamente inospitale.

Eppure, così com’e stato anche per Marte, grazie a nuove scoperte, a nuovi dati o alla rielaborazione di quelli già raccolti alla luce delle nostre nuove tecnologie e conoscenze, questa idea potrebbe dover essere accantonata.

L’esplorazione di Venere è stata forse ancor più intensa di quella di Marte, sebbene questa si sia concentrata soprattutto nelle prime fasi della corsa allo spazio (quella di Marte prevalentemente negli ultimi 20 anni).

Dal 1961 (anno della prima missione) a oggi, le missioni inviate verso il pianeta a noi più vicino sono state ben 42, un’altra è in corso (la missione Planet-C del Giappone) e altre due (una dell’ESA con la sonda Bepi Colombo, e l’altra Russa, Venera-D) sono in programma nei prossimi anni. Così come le altrettante inviate su Marte, anche per le missioni con destinazione Venere i risultati sono stati alterni. Ben 17 sono i fallimenti registrati, molti dei quali già in fase di lancio o pochi minuti dopo. Tuttavia, non tutti sanno che è stato proprio Venere (e non Marte) a vedere il primo veicolo umano toccare il proprio suolo, grazie alla sonda sovietica Venera 7, il 15 dicembre 1970. Se gli Stati Uniti sono il paese che ha fornito maggior contributo nella conoscenza del pianeta rosso, l’Urss prima e la Russia poi, sono i paesi che ci hanno regalato maggiori informazioni su Venere. Addirittura dieci sonde sovietiche hanno portato a termine un atterraggio morbido sulla superficie, con più di 110 minuti di comunicazioni dalla superficie. L’URSS è anche stato il primo paese al mondo a inviare una sonda verso Venere, con la missione (fallita) Sputnik 7. L’ultima missione completata è stata quella dell’ESA, terminata nel dicembre 2014, Venus Express.

Grazie ai dati raccolti e oggi rielaborati, forse sappiamo qualcosa in più.

Simile per dimensioni alla Terra, Venere per tre miliardi di anni è stato un pianeta con un clima temperato e oceani, come la Terra, nonostante la sua vicinanza al Sole. Lo indicano i risultati dello studio svolto dai ricercatori coordinati da Michael Way, del Goddard Space Flight Center della Nasa, presentate a Ginevra, al congresso Europeo di Planetologia, svoltosi nel settembre 2019.

Quarant'anni fa, la missione Pioneer Venus della Nasa aveva trovato gli indizi della presenza sul pianeta di un oceano poco profondo. Venere ha infatti un rapporto insolitamente elevato tra deuterio e atomi di idrogeno, segno che ospitava una notevole quantità di acqua, poi perduta nel corso del tempo.

Per verificare quei dati, i ricercatori hanno utilizzato cinque simulazioni: tutte indicano che, per circa tre miliardi di anni, Venere ha avuto temperature comprese tra +20°C e i +50°C e un oceano profondo in media di 310 metri. Un'altra simulazione indica che l'oceano che avvolgeva tutto il pianeta e che era profondo circa 160 metri. Le simulazioni indicano inoltre che ancora oggi il pianeta avrebbe avuto un clima temperato, se fra 700 e 750 milioni di anni fa non ci fossero stati gli eventi che hanno liberato dalle sue rocce, grandi quantità di CO2 causando l'effetto serra e facendo alzare le temperature fino a 460 gradi.

Se il pianeta si fosse evoluto in modo simile alla Terra, come ipotizzano gli scienziati, per i successivi 3 miliardi di anni dal suo raffreddamento, l’anidride carbonica sarebbe stata assorbita da rocce di silicato e bloccata in superficie.

Venere fotografato a distanza ravvicinata dalla sonda giapponese Akatsuki nel 2015

Poi, 700 milioni di anni fa, è cambiato qualcosa: l’anidride carbonica sarebbe stata re immessa nell’atmosfera, senza poi essere riassorbita dalle rocce, causando un effetto serra in grado di provocare un cambiamento climatico disastroso. Le cause di questo cambiamento sono ancora ignote. Gli scienziati ipotizzano che le motivazioni siano legate alle attività vulcaniche sul pianeta. Grandi quantità di magma avrebbero rilasciato anidride carbonica dalle rocce fuse, nell’atmosfera. Il magma si sarebbe solidificato prima di raggiungere la superficie, creando una barriera che ha impedito il riassorbimento del gas. La presenza di grandi quantità di anidride carbonica ha quindi innescato un devastante effetto serra, che ha provocato l’aumento esponenziale della temperatura che tutt’oggi è presente su Venere.

Così come avvenuto sulla Terra e, come detto, verosimilmente anche su Marte, se Venere è stato ospitale alla vita, con un clima mite (o comunque ospitale per la vita) protrattosi per oltre 3 miliardi di anni (da 3,7 miliardi di anni fa – data presunta del suo raffreddamento – e fino a 700 milioni di anni fa - data stimata del suo disastroso riscaldamento), potrebbe aver accolto e ospitato forme di vita e, addirittura, aver assistito a una loro evoluzione?

Difficile poterlo affermare con certezza. Sappiamo però che se è vero, come sostengono i ricercatori Nasa, che acqua liquida e temperatura sono state idonee quasi da subito, e che queste condizioni si sono avute per circa 3 miliardi di anni, appare oggi insensato e scientificamente assurdo escludere la possibilità che la vita abbia fatto la su comparsa anche su Venere. Tanto più se prendiamo in considerazione quanto sappiamo essere avvenuto sulla Terra, e quanto è verosimilmente avvenuto anche su Marte. La vita sulla Terra è apparsa certamente troppo precocemente affinché si possa essere generata da sola (3,9 miliardi di anni fa, solo 100 milioni di anni dal suo raffreddamento). Su Marte s’ipotizza che la vita possa aver fatto la sua comparsa in modo analogo (4,1/4 miliardi di anni fa, sempre 100 milioni di anni dopo il raffreddamento del pianeta) ma decisamente in anticipo rispetto alla Terra, poiché Marte si è raffreddato prima. Non c’è a oggi alcun elemento che possa portarci a escludere una situazione analoga anche per Venere, che con Marte e Terra ha molti elementi in comune. Così come ipotizzato per la Terra, anche Venere potrebbe essere stata interessata dal processo di panspermia e di litopanspermia. Anche perché qualche piccolo indizio forse già c’è.

Un altro studio, pubblicato sulla rivista Astrobiology nel marzo del 2018, ha riconsiderato l’ipotesi dell’esistenza di microbi nelle dense nubi che costituiscono l’atmosfera del nostro vicino planetario. Dal titolo “Is there life adrift in the clouds of Venus?” (“C’è vita alla deriva tra le nubi di Venere?”) l’ipotesi è stata formulata non su base squisitamente teorica ma grazie ai dati raccolti della sonda giapponese  Akatsuki  (la missione giapponese a cui accennavo sopra, ancora in corso – ottobre 2019). Nello studio si sostiene che nelle nuvole venusiane ci siano regioni con una strana concentrazione di nanoparticelle, che potrebbero essere ricondotte a qualche forma di vita microbica.

Venere è stata potenzialmente abitabile per almeno due miliardi di anni dopo la sua formazione – affermava Sanjay Limaye dell’Università del Wisconsin a Madison, leader dello studio – e questo è un periodo persino più lungo rispetto all’esistenza dell’acqua su Marte - (secondo la teoria scientifica tradizionale e prevalente - NDR). Non possiamo quindi escludere la presenza di vita su Venere, che potrebbe essersi adattata alle nuove condizioni del pianeta". Un’idea affascinante, che secondo gli autori dello studio merita di essere approfondita: “Dobbiamo andare laggiù e analizzare alcuni campioni delle nubi – propone Rakesh Mogul della California State Polytechnic University, co-autore dello studio. – Venere potrebbe essere un emozionante nuovo capitolo dell’esplorazione astrobiologica”.

Le incognite sono ancora moltissime e sarebbe azzardato giungere a qualunque conclusione, sia in un senso sia nell’altro. Non ci resta che attendere altre missioni e altri dati. Nel frattempo, sospendere il giudizio è la cosa più seria e opportuna da fare, aspettando anche che le acque si plachino perché, come ormai dovremmo aver imparato, le idee tradizionali sono dure a morire, e non tutti gradiscono queste nuove ipotesi.

A differenza di Marte, gli studi su Venere sono assai meno numerosi e sono pubblicati con meno frequenza, certamente anche per via dei minori dati a disposizione. Appare dunque assai singolare, e non posso non porre l’accento su come, ad appena un paio di settimane di distanza dalla pubblicazione dello studio della Nasa che ipotizza un passato acquoso di Venere per oltre 3 miliardi di anni (e con tutto ciò che questo implica, come sopra accennato), è stato pubblicato uno studio che sembra affermare l’esatto contrario e smentire il tutto.

Pubblicata questa volta su Journal of Geophysical Research, lo studio torna a smentire la teoria del passato acquoso di Venere. Da lettura attenta della ricerca però, la conclusione dei ricercatori appare piuttosto pretestuosa e superficiale. Sia chiaro, lo studio è certamente accurato in termini di geomorfologici, nessuno vuole discutere questo, ma sono le conclusioni a lasciare perplessi.

Per via dell’atmosfera composta per lo più da anidride carbonica, Venere è molto difficile da studiare. Infatti, è solo attraverso rilevamenti radar che è possibile osservare la sua superficie. Lo studio, condotto dai ricercatori del Lunar and Planetary Institute, ha scoperto che la composizione di un flusso di lava presente nella regione dell’altopiano Ovda Regio (foto qui sopra), è costituita da roccia basaltica e non granitica, come si è pensato finora. Il basalto è una roccia magmatica effusiva la cui composizione può essere variabile. La sua solidificazione può avvenire a contatto con aria o acqua. Questo elemento, che in sé non significa nulla perché non dimostra necessariamente l’assenza di acqua, sembra invece essere stato talmente rilevante al punto da generare implicazioni significative sulla storia evolutiva del pianeta, ed esclude ogni somiglianza tra la composizione interna di Venere e quella della Terra. Tra l’altro, c’è anche da aggiungere che, oltre a trattarsi dell’analisi di un’area circoscritta di Venere, stiamo parlando per di più, solo di un’analisi morfologica (e non chimico fisica) di alcune rocce. Sarebbe come a dire che, facendo dei rilevamenti radar dall’orbita terrestre di un’area vulcanica, ad esempio quella nelle immediate vicinanze del vulcano Kilauea alle Hawaii (paragone calzante, poiché l’altopiano Ovda Regio su Venere è una regione di 5.250 km2, mentre il Kilauea, assieme agli altri vulcani attivi Manua Loa e Manua Kea, occupa almeno la metà dei 10.400 km2 circa, dell’isola di Hawaii, quindi un’area per estensione paragonabile a quella presa in esame su Venere), giungessi alla conclusione che sulla Terra non c’è acqua e non c’è mai stata. Chiunque potrebbe giustamente affermare che la mia conclusione sarebbe alquanto azzardata, forzata se non addirittura errata. Possiamo ritenere scientificamente plausibili le conclusioni di questi ultimi ricercatori? C'è una differenza enorme tra calcolo di un modello più sofisticato come quello elaborato dei ricercatori del Goddard Space Flight Center della Nasa e descritto all’inizio di questo articolo, e un “calcolo grossolano” (conclusioni dei ricercatori del Lunar and Planetary Institute).

Il primo si basa sull’elaborazione di dati complessi che tengono in considerazione molteplici informazioni (geologiche, atmosferiche, climatiche, ecc.), il secondo solo su pochi elementi di carattere esclusivamente geomorfologico, circoscritti in un area ristretta. Eppure entrambi sono considerati “scientifici”.

In ambito astrofisico e astrobiologico, si continua sovente ad assistere ai medesimi atteggiamenti. Si analizza un’area circoscritta di un corpo celeste e si applicano superficialmente e frettolosamente i risultati per tutto il resto del pianeta e per tutta la durata della sua esistenza (4,5 miliardi di anni), quasi si avesse intenzione di dimostrare qualcosa, e non semplicemente di comprendere.

Sarà forse soltanto una casualità, ma spesso questo tipo di “libere estensioni” di risultati di studi in aree circoscritte di corpi celesti applicate all’intero pianeta, finiscono nella quasi totalità dei casi, per andare a “confermare” le teorie tradizionali e prevalenti (quelle che vedono la vita terrestre come rara o unica nel nostro sistema solare e che annichiliscono qualunque possibilità di presenza di vita altrove), e mai a confutarle o a sostenere visioni più possibiliste.

Tutto considerato, con la pubblicazione dello studio che smentisce il passato acquoso di Venere, siamo dunque di fronte all’ennesima levata di scudi preventiva e pretestuosa a difesa delle teorie tradizionali e dominanti? Su Venere ci sono state invece condizioni ospitali alla vita (come sostengono oggi molte ricerche)? C’è stata o c’è addirittura ancora vita (come teorizzato da altri scienziati)?

Se è vero che le verità scientifiche non si decidono a maggioranza e che sono i dati oggettivi a dire chi ha torto e chi ragione, il futuro ci risponderà. Noi continuiamo ad attendere fiduciosi di conoscere la verità, in un senso o nell’altro, e a sperare che gli interessi personali di alcuni, non continuino a essere anteposti alle verità scientifiche, rallentando la conoscenza umana e il progresso scientifico.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

I "furbetti" della scienza italiana

(Questo articolo è stato inserito e ampliato nel libro Fact Cheking - la realtà dei fatti la forza delle idee)

Che la scienza non avanzi nel modo più auspicabile possibile è certezza, almeno per chi la vive, la frequenta o anche soltanto prova a seguirla assiduamente. Qualcuno potrebbe affermare che, in buona sostanza, è sempre stato così. Gli interessi di pochi sono sempre stati lo “stimolo” e l’obiettivo del progresso scientifico o del suo rallentamento, quando in ballo c’era da tutelare lo status quo. Ciò nonostante se è vero com’è vero, che da sempre, nelle varie epoche, pochi individui divenuti “autorità scientifiche”, hanno orientato, sospinto, promosso ma anche ostacolato e rallentato la ricerca, forti del potere acquisito e certamente per troppo tempo mantenuto, a partire dalla fine della seconda metà del secolo scorso, in alcuni paesi, si è cercato di smantellare questo sistema ostruzionistico, poco meritocratico e molto penalizzante per gli interessi collettivi. Ciò è avvenuto, sia chiaro, non perché qualcuno si è reso conto che bisognava anteporre gli interessi collettivi e il progresso dell’umanità davanti agli interessi personali, no, tutt’altro.

La spinta al cambiamento è avvenuta dall’interno della comunità scientifica stessa, cresciuta in modo enorme, con lo sviluppo e la diversificazione delle tradizionali discipline scientifiche.

Solo per fare un esempio, accanto alle tradizionali branche della scienza come, medicina, fisica, astronomia, archeologia, l’ingegneria, ecc, sono apparsi e si sono imposti nel secondo dopoguerra, complici le scoperte scientifiche stesse, dei sottocampi specialistici che spesso combinano discipline diverse, come la biologia molecolare, le biotecnologie, la robotica, la fisica quantistica, l’astrofisica, l’astrobiologia, astro archeologia, l’ingegneria aeronautica e spaziale, ecc.

Con il proliferare delle discipline è cresciuto, di pari passo, anche il numero dei ricercatori, che prima della fine della seconda guerra mondiale si potevano contare in poche migliaia, mentre oggi sono certamente nell’ordine di diverse decine di migliaia (o anche più).

Per le “superstar della scienza”, che controllavano il sapere e il progresso scientifico, era quindi divenuta impresa ardua riuscire a mantenere le proprie posizioni di potere di fronte ad un numero così elevato di scalpitanti ricercatori che avevano ambizione e volontà di affermarsi, o anche semplicemente, ritagliarsi un piccolo e meritato spazio nel solo affascinante mondo della scienza. Già, il mondo della scienza, un mondo solo in apparenza idilliaco poiché, al contrario, spesso controllato come detto, in modo dittatoriale e con un assolutismo anacronistico, quasi di stampo medievale, in cui dal re dipendevano, a cascata, vassalli, valvassori e valvassini. Il sistema pesiste ed è ancora ben visibile a chi abbia frequentato, anche solo per pochi anni, ma in modo attento, le università, anche italiane.

Si è dunque deciso di introdurre criteri apparentemente più “democratici” (ma la scienza non dovrebbe esserlo, poiché le verità scientifiche non si decidono a maggioranza) e soprattutto più oggettivi e meritocratici.

Nel tentativo di togliere potere discrezionale alle superstar della scienza, sì è deciso di “misurare” l’importanza di uno scienziato, di un ricercatore, non sulla base semplicemente qualitativa (la qualità è spesso un qualcosa di molto soggettivo) ma su base quantitativa, adottando prevalentemente due indici di misurazione. Il primo è il numero delle pubblicazioni (risultati di ricerca, articoli scientifici, ecc) che ciascun ricercatore riesce a far pubblicare in un dato intervallo. Il secondo indice è il numero delle citazioni che gli studi pubblicati dal ricercatore preso in esame, riceve nel corso del tempo, da parte di altri scienziati di tutto il mondo.

Così facendo, combinando i due risultati, si poteva secondo le intenzioni di chi ha inventato questo sistema di valutazione, “misurare” oggettivamente l’importanza di un ricercatore e l’incidenza dei risultati delle ricerche da esso compiute.  

In un settore, quello della ricerca scientifica, dove da sempre, ma in special modo dal secondo dopoguerra, il precariato l’ha fatto da padrone, quello che doveva essere una misura è però divenuto un obiettivo. In ballo non c’era (e non c’è tuttora) soltanto una posizione di prestigio nel mondo scientifico, ma la propria sopravvivenza dal punto di vista lavorativo.

In precedenti articoli di questo blog, ho già trattato in modo specifico l’argomento dei  mali della scienza,  evidenziando come il nuovo sistema di valutazione ha portato a ll’adozione del principio “pubblica o muori”, principio che ha trovato terreno fertile con il proliferare delle riviste ad accesso libero, sorte con il nobile intento di stroncare il business delle pubblicazioni scientifiche e rendere la conoscenza scientifica ad appannaggio di tutti, ma poi trasformatesi in alcuni casi in riviste predatorie.

In Italia, da sempre fucina di talenti in ambito scientifico, il sistema antiquato dei baronati scientifici ha resistito a lungo, complice anche la compiacente politica che ha deciso di adottare il sistema apparentemente più meritocratico e oggettivo sopra descritto, soltanto nel 2010.

La legge Gelmini ridisegnò il sistema della ricerca in Italia, adeguandolo a quello degli altri paesi del G10, tagliando i finanziamenti (già di per sé scarsi) e introducendo dei criteri di valutazione basati su indici bibliometrici (numero di pubblicazioni, di citazioni, e h-index del ricercatore - una misura combinata della produttività e dell'impatto della citazione). Il compito di raccolta dei dati bibliometrici e di stilare le classifiche dei ricercatori in base agli indici stabiliti per legge, è stato attribuito all’Anvur, (l’Agenzia nazionale di valutazione del sistema universitario e della ricerca), che accentra diverse competenze tra cui anche il compito di stabilire le soglie minime di accesso ai finanziamenti e altre possibilità di ricerca e carriera.

Così come già avveniva negli altri paesi, da quel momento in poi, anche in Italia se non si superano le soglie bibliometriche imposte da tale sistema, non si può accedere a fondi per i laboratori, niente abilitazione scientifica nazionale per i ricercatori, zero possibilità di vedersi assegnare fondi per ricerche, nessuna speranza di essere anche solo presi in considerazione per entrare a far parte (con ruoli secondari o marginali) in team di ricerca di scienziati o ricercatori più “quotati”, per non parlare poi della possibilità di poter essere valutati per ricoprire ruoli di prestigio in aziende statali o parastatali (come vedersi assegnare una cattedra universitaria) o in aziende private di rilevante importanza. Possibilità zero, nulla, niente! Più publish or perish di così!

Anche la riforma Gelmini, così come tutte le precedenti e analoghe riforme già avvenute negli altri paesi, aveva come obiettivi quello di ottimizzare le poche risorse economiche (di fonte statale) disponibili ed eliminare la piaga del nepotismo (ancora molto diffusa soprattutto in ambito accademico), puntando sulla meritocrazia e quindi sulla valorizzazione delle risorse umane e, al contempo, magari riuscir anche a dare nuovo slancio al settore della ricerca scientifica nazionale.

Oggi un nuovo studio pubblicato (settembre 2019) dalla rivista Plos One e compiuto da Alberto Baccini, Giuseppe De Nicolao e Eugenio Petrovich dell’’Università di Siena e dell’Università di Pavia, sembra indicarci ancora una volta e soprattutto per l’Italia, che la “cura” sembra essere stata più dannosa della malattia che voleva o doveva curare.

Precedenti studi avevano certificato finalmente la presenza di alcuni “mali” che affliggono il mondo scientifico. Si tratta di situazioni poco note al grande pubblico ma ben chiare a chi di scienza si occupa e si interessa assiduamente già da anni. In questi precedenti studi si rilevava un crescente atteggiamento di frazionamento, “alterazione”, e addirittura falsificazione dei risultati degli studi (le vere fake news scientifiche provengono dall'interno della comunità scientifica), al fine di aumentare il numero delle pubblicazioni e ottenere citazioni, anteponendo gli interessi personali legati alla logica del “publish or perish” a quelli scientifici più puri (il conseguimento della conoscenza al fine di perseguire un maggior benessere per l’umanità), atteggiamento tra l’altro favorito spesso da enormi interessi economici di lobby (in special modo quello del settore chimico-farmaceutico). Come se ciò non bastasse, la ricerca appena pubblicata ha posto in evidenza una nuova tendenza, in apparenza prevalentemente italiana.

Del resto soprattutto nel nostro paese, intriso d’ideologia capitalista e consumista e progressista, con tutto ciò che essa porta e comporta, l’ipocrisia, l’egoismo e l’egocentrismo sono ormai il fulcro della vita della stragrande maggioranza delle persone. Ne sono evidenza i social network e il modo in cui sono continuamente utilizzati in tutto il mondo, senza distinzione sociale alcuna, sia ben chiaro!

Tutti (o quasi), indipendentemente dal titolo di studio, dalla posizione lavorativa ricoperta, dall’estrazione culturale e/o politica, utilizzano i social network per mettere al centro della scena se stessi. Misurano il proprio ego in base al numero dei propri “followers”. Usano valutare il proprio comportamento sulla base dei “like” ricevuti e delle “condivisioni” che i propri post hanno. E’ pratica sempre più frequente e diffusa soprattutto su Facebook e Youtube (ma anche sugli altri social), quella di chiedere esplicitamente di mettere un like e condividere i loro post in modo incondizionato, spesso in virtù di una “amicizia” del tutto virtuale o di un ricambio di favore alla prima occasione, in modo da “emergere” reciprocamente ed essere così premiati dagli algoritmi che governano i motori di ricerca e i social. Più di qualcuno nella comunità scientifica probabilmente si è chiesto: “Perché non adottare lo stesso stratagemma in ambito scientifico?”

Lo studio pubblicato da Plos One evidenzia proprio l’adozione di questa metodologia un po’ furbetta, in special modo per l’Italia dove sembra valere sempre il detto popolare “fatta la legge, trovato l’inganno!”.

In Italia, a seguito dell’entrata in vigore della legge Gelmini, la ricerca italiana sembrava aver messo il turbo e, negli ultimi anni, sembra aver superato “per peso” quella di quasi tutti i paesi europei.

Sulla base degli indici bibliometrici introdotti con la riforma, infatti, l’impatto della ricerca italiana è aumentato talmente tanto che nel 2016 il rapporto di SciVal Analytics (SciVal è un’analisi dei risultati scientifici effettuato dalla società Elsevier, azienda globale di analisi delle informazioni, specializzata in scienza e salute) dava il nostro paese al secondo posto nella classifica dei paesi del G10, inferiore solo al Regno Unito. Stando a questa classifica, addirittura la ricerca italiana” pesa “di più di quella statunitense.

Più di qualcuno, dall’interno della comunità scientifica, non aveva perso occasione di magnificare risultati ottenuti, principalmente attraverso i mass media mainstream e sovente con ampio appoggio politico, soprattutto della corrente progressista (benché non autrice della riforma) ma che da sempre si autoproclama musa ispiratrice e divinità protettrice della comunità scientifica italiana (nella quale trova, non a caso, notevoli consensi che tornano utili di tanto in tanto per giustificare leggi impositive insensate – vedi legge sull’obbligo vaccinale). Così facendo si è cavalcata l’onda, illudendo (in modo consapevole o in modo colposamente inconsapevole, ciò non è possibile saperlo) il pubblico di esser riusciti a trovare la ricetta giusta per i mali che affliggono la scienza, anche italiana, per tornare a conferirle quell’aurea di infallibilità, oggettività, imparzialità, onestà e quindi, d’indiscutibilità che tanto fa comodo di questi tempi. Il messaggio era chiaro “Nessuno si permetta di criticare le autorità scientifiche!”.

Una così rapida ascesa dell’Italia nel ranking mondiale non poteva però, non sollevare la curiosità di molti, che giustamente si sono messi a studiare il caso, facendo le pulci al sistema e avanzando il sospetto che ci sia qualcosa che alteri le valutazioni.

Ciò che è emerge dall’analisi dei dati, è che in Italia sembra emergere una “anomala” tendenza ad auto citarsi o a citare prevalentemente gli studi di ricercatori “amici”, quasi ci fossero dei veri e propri club, dove è fatto obbligo ai soci di preferire, e dunque “favorire” citandoli, gli studi di altri soci dello stesso club, in occasione della pubblicazione di un proprio studio. La finalità di questi “club scientifici”sarebbe quella di aiutarsi a vicenda a superare le soglie bibliometriche dell’Anvur.

L’autoreferenzialità potrebbe sembrare un peccato veniale, invece non lo è. Alterando volutamente il sistema di misurazione con queste pratiche da “furbetti” si vanifica, di fatto, il tentativo di premiare chi davvero fa studi di potenziale utilità collettiva e nessuna giustificazione dovrebbe essere accettata.

In ambito economico, le aziende che adottano analoghi comportamenti di cooperazione per trarre reciproco vantaggio si chiamano “cartelli” e sono vietati per legge. In politica le forze pubblicamente contrapposte che invece in segreto formano gruppi d’interesse si chiamiamo “lobby”, e per definire gli accordi che regolano questi patti (talvolta temporanei), in Italia è ormai utilizzata una parola dialettale, cioè “inciucio”. Le forze che segretamente costituiscono lobby e che inciuci ano, sono spesso biasimate e condannate almeno moralmente, dall’opinione pubblica.

E adesso che è stato accertato che ciò avviene anche nel mondo scientifico? Quale sarà la reazione dell’opinione pubblica? Quale sarà il giudizio delle forze politiche benpensanti composte dall’intellighenzia del nostro paese? Governi, Ministri e altre istituzioni cosa faranno? Quali provvedimenti prenderanno nei confronti di chi ha attuato queste pratiche? Quale sarà la reazione dei mass media? Visibilità della notizia, commenti o reazioni sono state molto poche e quasi sottovoce.

Analizzando le pubblicazioni contenute nel database Scopus di Elsevier tra il 2000 e il 2016 per i paesi del G10, i tre ricercatori italiani delle Università di Siena e di Pavia hanno sviluppato un nuovo indice bibliometrico, l’inwardness, che misura quante delle citazioni totali ricevute da un paese provengono dal paese stesso e ha diviso questa cifra per il numero totale di citazioni accumulate dal paese.

Tutte le nazioni del G10 prese in esame, hanno mostrato nel tempo un modesto aumento d’interiorità (vale a dire di citazioni in date e ricevuto in ambito nazionale o da ricercatori “amici”, cioè che hanno collaborato a un medesimo studio), che può essere, in alcuni casi, paradossalmente spiegato da una crescita delle collaborazioni internazionali. Queste, infatti, ampliano il numero di articoli dai paesi partecipanti che potrebbero essere citati. Prendiamo, ad esempio, un articolo scritto da collaboratori di ricerca in Italia e Francia: qualsiasi citazione a quest’articolo da una pubblicazione di autori italiani o francesi verrà considerata come una citazione intranazionale sia per l'Italia sia per la Francia.

Dai risultati è emerso che in tutti i paesi considerati, l’autoreferenzialità è aumentata nel tempo, ma per l’Italia c’è stata una vera e propria impennata dal 2010, l’anno della riforma. Al 2016, circa il 31% delle citazioni italiane proveniva da autori all’interno dei confini italiani, più di qualsiasi altro paese (a eccezione degli Stati Uniti, la cui situazione però non è comparabile a quella dell’Italia).

L'impennata non può essere attribuita alle collaborazioni internazionali, perché il tasso di crescita dell'Italia per le collaborazioni internazionali tra il 2000 e il 2016 è stato anemico se paragonato a quello di altre nazioni.

I risultati sono "inquietanti", afferma Ludo Waltman, un esperto bibliometrico alla Leiden University nei Paesi Bassi che non era coinvolto nello studio. “Per limitare le discutibili pratiche di citazione, afferma Waltman, il sistema di valutazione italiano dovrebbe escludere le citazioni personali e considerare fattori come l'esperienza e le attività di un ricercatore oltre ai conteggi delle citazioni”.

Secondo gli autori dello studio appena pubblicato su Plos One, infatti, la responsabilità andrebbe probabilmente cercata anche nel modo in cui la ricerca in Italia viene valutata. Mettono quindi in discussione i criteri dell’Anvur che utilizzano le referenze come parametro per dare un punteggio alle performance di dipartimenti, atenei e scienziati stessi, e assegnare fondi e posizioni accademiche.

È indiscutibilmente vero che il legislatore ha affidato all’Anvur troppi compiti e competenze che spesso sono in conflitto d’interesse tra loro, oltre al fatto che anche la struttura interna dell’Anvur stessa rappresenta un’anomalia rispetto a quanto avviene in analoghe agenzie degli altri paesi. All’estero non c’è mai solo un ente ad accentrare tutte le attività di valutazione, misurazione e affidamento ma ci sono più agenzie, ciascuna con una propria struttura e competenza specifica.

Come dicevo poc’anzi, ora che è emerso il malcostume, non tutto, ma prevalentemente italiano di aggirare le regole del gioco, la comunità scientifica stessa (di cui gli autori italiani della ricerca fanno parte) cercano di giustificarsi spostando l’obiettivo sul piano politico, anziché biasimare senza appello, i loro colleghi e chi è abituato a far uso di questo tipo di pratica deontologicamente poco professionale e corretta.

Non tragga in inganno il fatto che sia oggi una ricerca italiana a denunciare tale malcostume. La questione stava comunque venendo fuori in ambito internazionale.

Marco Seeber, un ricercatore di politica scientifica all'Università di Gand in Belgio, intervistato sul tema dal portale web della rivista Science, afferma che la crescita dell'interiorità italiana è "sorprendente". A marzo, Seeber ha studiato l'uso nel nostro paese, delle metriche relative alle citazioni e ha riscontrato anch’esso, aumenti sostanziali delle auto citazioni dopo la riforma del 2010 . "La politica è stata motivata da intenzioni meritevoli" – ha detto Seeber - "Ma gli indicatori bibliometrici dovrebbero essere utilizzati per informare piuttosto che determinare le valutazioni."

Seeber ha affermato anche che non è chiaro quanta interiorità dell'Italia provenga dall'autocitazione e quanta dai “club di citazione”. Per scoprire per certo l’esistenza di questi club, bisognerebbe esaminare i singoli documenti per poter distinguere le citazioni “false” (o per meglio dire frutto di amicizie) da quelle “legittime”.

John Ioannidis, medico-scienziato dell'Università di Stanford a Palo Alto, in California, anch’esso interpellato nella medesima circostanza, sospetta invece che i club di citazione esistano e siano effettivamente responsabili della tendenza prevalentemente italiana.

Ioannidis, aveva già creato un database con cui che ha rivelato l’esistenza di centinaia di ricercatori veramente citati, in modo quasi anomalo. In conformità a quest’ulteriore risultanza, Ioannidis sostiene che il nuovo studio pubblicato da Plos One fornisce è solo un'altra prova di come gli indici di misurazione possano essere utilizzate in modo improprio. Infatti, fa notare come le citazioni di sé sono necessarie se uno studio si basa su precedenti lavori degli autori o dei loro colleghi. "Ma se qualcuno ha accumulato più della metà delle citazioni da se stesso o dai suoi coautori, è piuttosto strano" – ha detto - "Devi dare un'occhiata più da vicino."

Infine, l’associazione italiana Roars (Return on academic research) interpellata stavolta dal portale Wired, non è d’accordo con le soluzioni e le valutazioni proposte, in special modo con quella di Ludo Waltman che, come abbiamo visto, punta il dito anziché sulla pratica deontologicamente poco lusinghiera dei ricercatori italiani, sul sistema di valutazione auspicandone il cambiamento.

Secondo Roars, si tratta di una soluzione semplicistica e destinata a fallire. Anche nel caso di Roars tuttavia, si cerca di distogliere l’attenzione dalle responsabilità dei ricercatori, addossandole invece in toto chi fa le regole, ma senza lasciarsi sfuggire all’occasione (come da buon costume delle associazioni italiane di categoria) per chiedere più soldi. Per Roars, infatti, “i ricercatori sono estremamente veloci ad adattarsi ai cambiamenti nella science policy - (quasi a dire che sia normale cercare di aggirare le regole per trarre un vantaggio personale – NDR) e qualsiasi nuovo indicatore non farebbe altro che stimolare strategie di amina più raffinate, in accordo con la famosa legge di Goodhart ‘Quando una misura diventa un obiettivo, cessa di essere una buona misura’. Noi pensiamo – ha fatto sapere Roars - al contrario che l’insegnamento da ricavare sia che non esiste alcuna bacchetta magica, bibliometrica o di altro tipo che possa gonfiare la performance scientifica di un Paese. Soltanto un massiccio investimento nella ricerca può farlo” (considerazione condivisibile se non fosse altro che è stata certamente fatta in modo non disinteressato- NDR).

Insomma, qualora non l’abbiate ancora capito, il mondo della ricerca scientifica è lo specchio della società. Ricordatelo la prossima volta che sentite parlare un “esperto”, uno scienziato o un’autorità scientifica. Non vi aspettate maggiore onestà, moralità, senso di responsabilità e imparzialità di quella che attendete di trovare nei discorsi di un qualsiasi politico. Non pensate che le sue affermazioni siano necessariamente oggettive e disinteressate. Continuate ad ascoltare tutto in modo critico accogliendo tutto con “il ragionevole dubbio”. Analizzate e valutate sempre il contenuto delle informazioni senza farvi influenzare troppo dall’autorietarietà e/o dalla spesso presunta autorevolezza della fonte. Pretendete sempre di comprendere le risposte che ricevete e pretendete sempre risposte complete, ragionevoli e coerenti con l’oggettività dei fatti.

Sebbene sia sempre sbagliato fare di tutta l’erba un fascio, e dunque pur dovendo necessariamente precisare che come nella società in generale esistono persone serie, esistono anche scienziati e ricercatori intellettualmente onesti e moralmente integri, la comunità scientifica che il mondo scientifico, lo popola, lo vive e lo governa, non segue logiche diverse da quelle proprie ormai, purtroppo, di ogni altro settore della vita. Logiche fatte d’interessi privati e personali, economici e di lobby, di difesa delle proprie posizioni di privilegio o di strategie eticamente biasimabili, attuate per emergere in modo sistematico, automatico e quasi “naturale”, non solo da sgomitatori e arrampicatori sociali che antepongono se stessi a tutto il resto, ma anche da una nutrita schiera di ricercatori precari che tentano di sfuggire alle logiche di “schiavitù” a cui spesso devono sottostare se vogliono rimanere nell’affascinante ma poco limpido mondo scientifico. Un mondo insomma composto in prevalenza da una massa eterogenea di persone, in cui è possibile trovare sia individui senza valori morali e senza scrupoli, sia persone che valori e morale e dignità ne avrebbero ma che decidono a un certo punto di accantonarli per adeguarsi al sistema e poter “sopravvivere”, sia altri che con non poche difficoltà, si muovono come un elefante in un negozio di cristalli, e riescono a “galleggiare” senza poter emergere ma senza dover scendere a compromessi.

Smettetela dunque, di pensare che la Scienza abbia come fine la conoscenza e il miglioramento delle condizioni umane. L’idea, molto romantica, molto romanzata e quasi “cinematografica” dello scienziato che vive per la scoperta, per il sapere al fine di migliorare il mondo, dovrebbe ormai essere cancellata dalla nostre menti. Ciò non vuole essere una condanna dell’intera categoria.

Lo scienziato è una persona come le altre, che fa, talvolta meritatamente e con non pochi sacrifici, un lavoro certamente affascinante e interessante. Un lavoro che racchiude in se stesso, in modo implicito, una grande importanza e una grande responsabilità dal punto di vista sociale, alla stregua di tanti altri come ad esempio quello del medico, dell’insegnante, del pompiere, del poliziotto, del giudice, ecc. Come in ogni categoria, anche tra gli scienziati c’è chi prende il lavoro con responsabilità, passione e dedizione, e chi invece lo fa solo per portare uno stipendio a casa e basta. Non importa come e a che prezzo.

La Scienza (quella con la S maiuscola) quella che si basa sui dati oggettivi, quelli ottenuti attraverso l’applicazione di un metodo scientifico che riporta solo i dati oggettivi e non decide le “verità scientifiche” a maggioranza, è ormai divenuta cosa estremamente rara. Sovente i risultati delle ricerche di questa sempre più sparuta schiera di scienziati più “puri” e sempre più isolati, non arriva a conoscenza dell’opinione pubblica, sia perché il sistema scientifico “drogato” e “malato” non consente loro di raccogliere i giusti meriti, sia perché l’opinione pubblica è anch’essa troppo distratta a magnificare il proprio ego, troppo concentrata su se stessa per rendersi conto di cose diverse da quelle che gli vengono messe davanti agli occhi.

Per queste persone essere dentro alla massa e aderire anima e corpo al pensiero unico è fondamentale! Non ci sono più valori e principi fondamentali e inalienabili, tutto è in qualche misura giustificabile. Per loro il fine giustifica sempre i mezzi! Non c’è spazio per schierarsi a favore della sana scienza e dei sani ricercatori, perché questi sono fuori dal coro, fuori dal sistema. Per essi, la scienza di regime è la sola da prendere in considerazione, anche quando si contraddice, anche quando è oggettivamente irragionevole.

Per la sparuta minoranza delle persone (forse le sole che saranno arrivate a leggere anche queste ultime righe) che non appartengono a questa categoria, non appartengono alla massa sempre mutevole, irragionevole, irrazionale sempre più strumentalizzata e manipolata, e che hanno ancora la forza di andare avanti, senza rinunciare ai propri valori, alla propria intelligenza, per questi, e solo per questi,  la Scienza (quella vera) ci sarà sempre a conciliare la razionalità e la coerenza del proprio pensiero con la realtà oggettiva delle cose. Continuare a divulgare la scienza vera, farlo sempre onestamente e disinteressatamente, esercitando un legittimo spirito critico verso la “scienza di stato”, ancor più oggi che certi mali della scienza sono stati certificati, è l’unico modo di rimanere coesi. Forse così facendo saremo tutti meno soli e un po’ più liberi.

Approfondimento su questo ed altri temi riguardanti il mondo della comunità scientifica leggi qui

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Per la prima volta la scienza ufficiale contempla la teoria degli antichi alieni

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Febbraio 2021)

È successo! Membri attivi della comunità scientifica hanno aperto a una possibilità mai presa seriamente in considerazione prima d’ora. Sia subito chiaro però, ciò non significa nulla dal punto di vista delle prove che ciò sia realmente accaduto. 

Sono passati oltre cinquant’anni dal 1967, quando lo scrittore svizzero Erich von Däniken avanzo per la prima volta nei suoi libri, la possibilità, oggi nota con il nome di “teoria degli antichi alieni”, che gli extraterrestri avrebbero fatto visita alla Terra nel nostro passato. Fin dal primo istante la comunità scientifica tutta, rigettò questa possibilità nonostante la teoria fosse ben argomentata e supportata quantomeno da indizi di cui sarebbe valsa sicuramente la pena prendere nota. Ma nulla da fare.

La comunità scientifica era troppo chiusa su se stessa per poter quantomeno cogliere stimoli e spunti di riflessioni, riguardo le sue tante teorie incongruenti con i dati oggettivi. I preconcetti di cui era (e in buona parte è ancora) intrisa la comunità scientifica, hanno impedito fino ad ora di aprire la mente e considerare, anche per un solo attimo, la verosimiglianza della teoria degli antichi alieni, che riusce a spiegare, almeno in apparenza, in modo coerente e logico i tanti vuoti e le anomalie presenti nelle ricostruzioni ufficiali del nostro passato.

L’ipotesi alla base di questa teoria, cioè quella della visita di civiltà aliene nel nostro passato, era ritenuto assolutamente impossibile al punto da far coniare il termine “pseudoscenziato” e “pseudoscienza”, con cui sono stati etichettati per la prima volta nella storia, proprio Erich von Däniken e la sua teoria degli antichi alieni.

Solo una settimana fa (il 6/9/2019) in un articolo apparso su questo blog, facevo presente di quanto fosse anacronistico e assurdo, considerate le nostre attuali conoscenze scientifiche, continuare a disquisire sull’esistenza o meno di civiltà extraterrestri ponendo al centro della discussione il paradosso di Fermi, da un lato, e l’equazione di Drake, dall’altro. Nel farlo, rilevavo in particolar modo, come tutte le soluzioni proposte al paradosso di Fermi fossero tanto inattuali quanto preconcette, poiché intrise di quella limitata e limitante visione antropica dell’universo.

Neanche mi avessero ascoltato, un gruppo di ricercatori dell’Università di Rochester coordinato da Jonathan Carroll-Nellenback, ha così provato a dare una nuova e inedita soluzione al famoso paradosso di Enrico Fermi sulle probabilità di contatto con forme di vita intelligente extraterrestre.

Ma cosa hanno affermato come sono giunti a questa conclusione?

Andiamo con ordine.

Considerando la moltitudine di stelle nell'universo, Fermi riteneva naturale che forme di vita avrebbero potuto formarsi su altri pianeti, fino a dare vita a civiltà extraterrestri. La domanda allora era: "Dove sono tutti quanti?" La mancanza di segnali "non significa che siamo soli", è la risposta di Carroll-Nellenback. "Significa soltanto che i pianeti abitabili sono probabilmente rari e difficili da raggiungere".

Nel loro studio pubblicato sull'autorevole e prestigiosa rivista Astronomical Journal, il gruppo di ricerca è giunto alla conclusione che gli alieni potrebbero già essere nella nostra galassia: non ce ne saremmo accorti semplicemente perché la starebbero esplorando con tutta calma, sfruttando il movimento delle stelle per saltare più agevolmente da una all'altra alla ricerca di pianeti abitabili.

I parametri presi in considerazione nello sviluppo della simulazione rappresentano certamente una novità. La teoria dei ricercatori ruota attorno al fatto che le stelle e i loro pianeti orbitano attorno al centro della galassia a velocità diverse e in direzioni diverse.

In questo caso, le stelle e i pianeti s’incrociano di tanto in tanto, quindi gli scienziati pensano che gli alieni potrebbero decidere di viaggiare nello spazio e visitare altri pianeti, solo quando la destinazione scelta si avvicina alla loro. Ovviamente, sebbene stelle e pianeti si muovano a velocità elevatissime all’interno della galassia, considerate le enormi distanze questo eventuale tipo di approccio per l’esplorazione spaziale, richiederebbe alle civiltà aliene, più tempo di quanto si pensasse in precedenza per diffondersi tra le stelle.

Se è vero che non considerare il parametro dei movimenti stellari costituisce un limite decisivo per tutte le altre soluzioni proposte in precedenza, e averlo fatto rappresenta certamente un passo in avanti nella ricerca della soluzione al paradosso di Fermi, è anche vero che permangono nello studio in questione, molti altri parametri considerati in modo “convenzionale”. Ad esempio sono stati considerati tra i parametri la possibile frequenza dei lanci, nonché la possibilità di percorrenza delle distanze interstellari in rapporto ad un grado di capacità tecnologica e di conoscenza scientifica rapportata alla nostra. Voglio dire che un’eventuale civiltà extraterrestre in grado di viaggiare nello spazio, avrà certamente sviluppato mezzi adeguati per coprire rapidamente le enormi distanze. Noi però non conosciamo per niente questo tipo di tecnologia. Come possiamo stimarne in modo attendibile e verosimile le prestazioni al punto di parametrarle e inserirle nei nostri modelli matematici?

Chiaramente non possiamo!

Pensiamo oggi di conoscere la scienza e la fisica ma i nostri studi ci dimostrano in continuazione che nonostante abbiamo fatto grandi passi in avanti, sono ancora più le cose che non sappiamo rispetto a quelle di cui siamo a conoscenza. Riguardo a quest’ultime, siamo certi che siano esatte? E se sì, le nostre attuali conoscenze scientifiche teoriche, sono state prese in considerazione nell’elaborazione dei modelli che nel corso del tempo hanno provato a dare una risposta al paradosso di Fermi? Anche in questo caso la risposta è decisamente negativa.

Ad esempio, in tutte le soluzioni preposte che contemplano la possibilità di viaggiare da una stella all’altra, agli extraterrestri sono attribuite capacità tecnologiche certamente superiori alle nostre ma che rientrano comunque in parametri o che rispettano principi fisici per noi “convenzionali” o che escludono l’utilizzo di tecnologie per noi a oggi inarrivabili. Si ritiene che gli alieni abbiano sviluppato sistemi per viaggiare a velocità prossime a quella della luce, poiché si ritiene questo un limite invalicabile. Tuttavia, a livello per noi attualmente solo teorico, la teoria della relatività di Einstein afferma che è possibile coprire le enormi distanze che separano le stelle anche in altro modo, aggirando il problema. Sarebbe possibile sfruttare cunicoli spazio-temporali (Tunnel di Einstein-Rosen). Tale possibilità non viene mai minimamente contemplata da chi prova a fornire spiegazioni al paradosso di Fermi, eppure si tratta di una possibilità scientificamente plausibile benché in questo momento ben lontana dalla nostra portata. Potrebbe non essere altrettanto così per civiltà più evolute. Un altro esempio, questa volta legato alla mancata ricezione di segnali di civiltà aliene, potrebbe essere quello riguardante la tecnologia utilizzata per l’invio di segnali. Anche in questo caso ho fatto presente sia nel mio primo lavoro editoriale, sia in altri articoli apparsi su questo blog, che aspettarsi di captare segnali radio extraterrestri è di per sé sbagliato o, almeno, limitante poiché presuppone la contemporanea esistenza di altre civiltà con un livello tecnologico pari e non superiore a quello nostro attuale. Già oggi ci accingiamo a cambiare questo sistema di trasmissione dei dati, passando dalle onde radio alla luce. Forse se fossimo stati in grado di “guardare” oltre che “ascoltare” il cosmo, come fa ad esempio il famoso progetto SETI, avremmo già trovato segnali di civiltà extraterrestre o forse no. Forse potrebbero utilizzare forme di comunicazioni che noi oggi non sappiamo neanche immaginare.

Tornando allo studio appena pubblicato su Astronomical Journal, secondo i ricercatori quindi, una possibile spiegazione alla domanda “Dove sono tutti quanti” potrebbe essere che altre civiltà ci sono ma che stanno prendendosi il loro tempo per visitare con tutta calma, altri sistemi stellari e l’intera galassia.

Un’altra possibilità paventata nello stesso studio è quella che gli alieni non facciano scientemente visita alla Terra poiché già abitata, preferendo evitare di entrare in contatto con noi. Potrebbe anche darsi che gli alieni siano passati nei paraggi della Terra dopo la comparsa dell'uomo perché non avrebbero avuto probabilità di sopravvivere (il cosiddetto “effetto Aurora”, dall'omonimo romanzo di Kim Stanley Robinson). Tra le varie ipotesi, anche quella per cui gli alieni potrebbero evitare di proposito i pianeti che già ospitano vita, con un atteggiamento opposto rispetto allo spirito di conquista tipico degli esseri umani.

Fin qui però sebbene con un approccio un pochino più aperto, lo studio non sembra particolarmente rilevante rispetto a tutti quelli analoghi fatti in passato, poiché, come detto, presenta gli stessi limiti di tipo concettuale.

L’unico vero aspetto importante di questo studio risiede nell’affermazione che si legge tra le possibili altre soluzioni proposte. In particola modo nel fatto che gli alieni potrebbero aver già visitato la Terra, lasciando tracce ormai cancellate dal tempo”.

“Se una civiltà aliena fosse approdata sulla Terra milioni di anni fa - scrivono i ricercatori - probabilmente non ci sarebbero più tracce del suo passaggio”.

Per la prima volta quindi, nei risultati di uno studio compiuto da membri effettivi e attivi della comunità scientifica, si contempla la possibilità che gli alieni abbiano fatto già visita alla Terra, concetto alla base della teoria degli antichi alieni.

Ciò non significa che questo studio, tra l’altro basato esclusivamente su modelli teorici e matematici, al fine di ottenere risultati probabilistici, stia avvalorando la teoria degli antichi alieni giacché, quasi a voler esplicitamente prenderne le distanze, confina la possibile visita aliena della Terra, a milioni di anni fa all’epoca dei dinosauri e prima della comparsa dell’uomo, “scongiurando” così qualunque tipo di possibile contatto. In ballo ci sono una reptazione e il proprio posto di lavoro da difendere. Il coordinatore dello studio Jonathan Carroll-Nellenback e il suo team, non vogliono certamente correre il rischio di essere etichettati come pseudo scienziati, né tantomeno che il loro lavoro sia definito pseudoscienza.

Chiunque con un minimo di granus salis però, dovrebbe porsi a questo punto legittimamente una domanda: sulla base di quali elementi e per quale motivo la possibile visita aliena della Terra dovrebbe essere avvenuta eventualmente, solo prima della comparsa dell’uomo?

Leggendo attentamente i risultati di questo studio, non esiste alcun tipo di parametro che può far circoscrivere il periodo di una visita aliena della Terra a periodi giurassici e non invece anche a periodi storici o preistorici.

Del resto, non sono proprio i racconti di tutte le civiltà del passato, in tutti gli angoli della Terra, a narrare dell’arrivo di esseri delle stelle che giungono sul nostro pianeta con scopi e in periodi differenti? Perché, poiché oggi alcuni membri della comunità scientifica ufficiale contemplano la possibilità di una visita aliena avvenuta nel passato, non possiamo rivalutare queste storie (che tra l’altro sono spesso all’origine delle antiche, ma anche odierne, religioni)? Perché dobbiamo continuare da un lato a relegare queste storie a miti e leggende, e dall’altro sostenere che se gli alieni hanno fatto visita in passato al nostro pianeta le loro “tracce” sono state cancellate dal tempo? La memoria dei popoli, tramanda attraverso varie forme, i racconti orali, documenti scrittura, le pitture rupestri, bassorilievi e sculture e strutture architettoniche non potrebbero essere le “tracce” cui fanno riferimento i ricercatori dell’Università di Rochester? Tutti questi aspetti, se interpretati in modo non preconcetto, potrebbero realmente rappresentare la documentazione di visite extraterrestri.

Accontentiamoci per il momento, di questa prima apertura da parte della comunità scientifica, rimandando l’eventuale dibattito e la conseguente necessaria revisione della storia ufficiale in altri momenti, quando forse i tempi saranno maggiormente maturi.

Nel frattempo, per chi avesse fretta e intenzione nell’intraprendere questo viaggio di conoscenza e contemplare le possibilità sopra accennate, non posso che consigliare di cliccare qui.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Ecco come potrebbe essere la Terra vista dagli alieni

Da quando gli scienziati hanno scovato il primo esopianeta nel 1995, i pianeti extrasolari hanno superato quota 4100. Si tratta di un campo ancora nuovo e negli ultimi anni, abbiamo assistito allo sviluppo di nuovi strumenti che potranno aiutarci a trovare una Terra 2.0, in futuro. Già perché non tutti gli esopianeti scoperti sono rocciosi, e non tutti quelli rocciosi sono abitabili, almeno e quelle che tradizionalmente si ritengono siano le caratteristiche essenziali alla presenza di vita. Ho già fatto presente in precedenti articoli come già quest’ultimo punto rappresenti un limite preconcetto alla ricerca, considerato ciò che sappiamo oggi sull’esistenza d forme di vita estremofile.

In questo caso però, il limite concettuale sembra essere meno influente nella ricerca di mondi potenzialmente abitabili, poiché l’obiettivo di molti astronomi non è semplicemente quello di trovarne con certezza uno ma quello di trovare un vero e proprio sosia della Terra, un posto, tanto per intenderci, dove non solo ci siano forme di vita, ma dove anche tutte le forme di vita terrestri potrebbero sopravvivere.

La ricerca non è affatto facile. Quando gli astronomi terrestri puntano i loro telescopi verso stelle lontane alla scoperta di pianeti oltre il nostro sistema solare, sono fortunati se riescono a vedere anche un solo punto di luce (o meglio di ombra, poiché la maggior parte dei pianeti scoperti avviene con la tecnica del “transito”). Come possono capire se l’esopianeta scoperto potrebbe avere condizioni adeguate per la vita?

Per capire come avrebbero potuto saperne di più, due diversi gruppi di scienziati hanno provato a risolvere il problema cambiando punto di osservazione e chiedendosi: se civiltà aliene con pari nostre capacità tecnologiche, dai loro pianeti osservassero la Terra, cosa vedrebbero?  Così, da punto di osservazione, la Terra è divenuta l’oggetto da osservare con occhi diversi.

I risultati di entrambi gli studi sono stati pubblicati a fine Agosto 2019.

Il primo team di ricerca, composto da ricercatori del California Istitute of Technology e del NASA Jet Propulsion Laboratory, hanno preso le immagini di un pianeta certamente abitabile - la Terra - e le hanno trasformate in qualcosa che gli astronomi alieni vedrebbero a distanza di anni luce da noi.

Il team ha iniziato con circa 10.000 immagini del nostro pianeta catturate dal satellite NASC Deep Space Climate Observatory (DSCOVR), che si trova in un punto di equilibrio gravitazionale (o punto di Lagrange) tra la Terra e il Sole. Ciò ha permesso ai ricercatori di vedere solo il lato della Terra durante il giorno, simulando così un punto di vista “alieno”. Le immagini sono state scattate a 10 lunghezze d'onda differenti ma specifiche, e ogni 1-2 ore durante tutto il 2016 e il 2017.

Per simulare in modo più compiuto un possibile punto di vista alieno, i ricercatori hanno ridotto le immagini in un'unica lettura di luminosità per ogni lunghezza d'onda: 10 "punti" che, se tracciati nel tempo, producono 10 curve di luce che rappresentano ciò che un osservatore distante potrebbe vedere se guardassero costantemente l'esopianeta Terra per 2 anni. La luce, infatti, viene riflessa in modo differente a seconda della superficie su cui “rimbalza”. Il terreno ha prodotto perciò, luminosità differente rispetto all’acqua o alle nuvole.

Quando i ricercatori hanno analizzato le curve di luminosità ottenuta e le hanno confrontate con le immagini originali, hanno capito quali parametri delle curve corrispondevano al terreno e alla copertura nuvolosa nelle immagini. Dopo aver compreso questa relazione, hanno scelto il parametro più strettamente correlato all'area terrestre, l'hanno adattato per la rotazione terrestre di 24 ore e hanno costruito la mappa di contorno riportata all’inizio di quest’articolo, mappa pubblicata nel volume 882 numero 1 della rivista The Astrophysical Journal Letters .

Nella mappa, le linee nere, che segnano i valori mediani per il parametro terra, fungono da costa approssimativa. I contorni approssimativi di Africa (centro), Asia (in alto a destra) e Americhe (a sinistra) sono “chiaramente” visibili. Sebbene questo modello non sia ovviamente un sostituto di un'immagine reale di un mondo alieno, può consentire ai futuri astronomi di valutare se un esopianeta ha oceani, nuvole e calotte polari, requisiti chiave per un mondo abitabile di tipo terrestre e se ha caratteristiche geologiche e / o sistemi climatici che ne influenzano l'abitabilità.

Il secondo studio di questo tipo è stato compiuto da un team di astronomi canadesi della McGill University. Anche i ricercatori canadesi hanno scelto la Terra come modello, per ottenere quello che hanno definito “impronta digitale di un mondo abitabile”.

Per farlo, hanno utilizzato i dati raccolti per oltre un decennio dal satellite SciSat-1 ACE (acronimo di Science Satellite/Atmospheric Chemistry Experiment) comunemente noto solo come SciSat. Sviluppato dalla Canadian Space Agency, SciSat è stato creato per aiutare gli scienziati a comprendere l'esaurimento dello strato di ozono terrestre studiando le particelle nell'atmosfera mentre la luce solare lo attraversa. In generale con questo metodo, applicato all’osservazione di esopianeti, gli astronomi possono dire quali molecole si trovano nell'atmosfera di un pianeta osservando come la luce delle stelle cambia mentre splende attraverso l'atmosfera. Per fare quest’osservazione, gli strumenti devono attendere che un pianeta passi (o transiti) davanti alla propria stella. Con telescopi abbastanza sensibili, gli astronomi potrebbero potenzialmente identificare molecole come anidride carbonica, ossigeno o vapore acqueo che potrebbero indicare se un pianeta è abitabile o addirittura abitato. In attesa di avere questi strumenti, i ricercatori canadesi hanno applicato questo metodo alla Terra, ottenendo così uno spettro di transito della Terra, vale a dire “un’impronta digitale” per l’atmosfera nella luce infrarossa, che mostra la presenza di molecole chiave per la ricerca di mondi abitabili. Ciò include la presenza simultanea di ozono e metano, che gli scienziati si aspettano di vedere solo quando esiste una fonte organica di questi composti sul pianeta. Tale rilevamento è chiamato "Biosignature".

I risultati dello studio, pubblicati sulla rivista Monthly of the Royal Astronomical Society nel mese di Agosto 2019, potrebbero aiutare gli scienziati a determinare quale tipo di segnale può identificare un pianeta simile al nostro.

I due gruppi di ricerca hanno avuto quindi il medesimo approccio, utilizzando però dati differenti e ottenendo modelli distinti per identificare mondi simili al nostro, oltre a fornirci un interessante punto di vista “alieno” della Terra. Entrambi i modelli, sia presi singolarmente, sia combinati assieme, aiuteranno nei prossimi anni gli astronomi a scovare nuovi mondi abitabili o abitati, grazie anche all’utilizzo di nuovi telescopi spaziali come il James Webb Telescope, la cui costruzione costellata d’innumerevoli ritardi dovuti a tagli del budget e a problemi con le aziende costruttrici, è giunta finalmente al capitolo finale. Frutto di una collaborazione tra la NASA, l'Agenzia spaziale canadese e l'Agenzia spaziale europea, il lancio del JWT è previsto nel 2021.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Il mistero (quasi) svelato del metano marziano.

L’origine misteriosa del metano marziano sta per essere ufficialmente svelata. Le evidenze dei dati raccolti sul pianeta rosso sono ormai talmente tante che ogni spiegazione “convenzionale” all’origine del metano marziano non è più sostenibile. L’annuncio potrebbe avvenire in tempi bevi ma, poiché le conseguenze della portata di tal evidenza sarebbero a dir poco rivoluzionarie non solo dal punto di vista strettamente scientifico ma anche sociale, più verosimilmente le autorità scientifiche la tireranno ancora un po’ per le lunghe, in attesa di trovare la “pistola fumante” sul pianeta rosso. Ciò avverrà, se tutto procederà come previsto, alla fine del prossimo anno (2020) quando giungeranno su Marte le missioni di Esa e Nasa.

Ad avvisare i membri più conservatori della comunità scientifica del prossimo rivoluzionario annuncio è lo studio supportato dalla Canadian Space Agency e dal Mars Science Laboratory, pubblicato sull’ultimo numero (agosto 2019) della rivista Geophysical Research Letters. Nella ricerca, si spiega che gli scienziati hanno perfezionato le stime del gas presente nell’atmosfera di Marte, proveniente dall’enorme cratere Gale che vanta un diametro di circa 154 chilometri e un’età stimata di 3,8 miliardi di anni. La scoperta è stata compiuta grazie ai dati messi a disposizione dal Trace Gas Orbiter della missione ExoMars dell’Esa e del rover Curiosity della Nasa.

Gli scienziati cercano di individuare la fonte del metano marziano da più di un decennio e la novità portata dal nuovo studio è che la concentrazione del gas sembra variare durante la giornata e non solo stagionalmente come già noto da anni. In questi dieci anni, i ricercatori hanno presentato diverse ipotesi, all’inizio tutte in apparenza plausibili, sull’origine del metano.

Molte di queste, quelle che hanno subito e fino ad ora riscosso maggior consenso presso la comunità scientifica, erano quelle che vedevano il gas generato da reazioni chimiche tra le rocce  (prima dell’annuncio della presenza di acqua su Marte ), quelle che vedevano il gas periodicamente presente nell’atmosfera marziana come prodotto delle reazioni che avvengono tra rocce e acqua o da materiali in decomposizione che lo contengono (dopo l’annuncio del ritrovamento di vasti depositi d’acqua salata sul pianeta rosso) e quella che sosteneva la presenza di depositi di metano originatesi nel passato e liberati nell’atmosfera a causa di movimenti sismici (solo dopo che si è accettata l’evidenza di un’attività geologica, ancora presente), da attività vulcanica (ma il cratere Gale, dove è stato rilevato metano, non è di origine vulcanica) o dall’erosione delle rocce generata dal vento (ipotesi venuta a cadere non più tardi di un paio di mesi fa).

In ultima era stata contemplata anche l’ipotesi che il gas possa essere generato dalla presenza di alcuni microbi nel sottosuolo di Marte, che proprio come accade anche sulla Terra, possono sopravvivere senza ossigeno e rilasciano metano come parte dei loro rifiuti. Questa ipotesi benché fin dall’inizio fosse la più coerente con le rilevazioni e i dati raccolti, e fosse in grado di spiegare sia la circoscritta presenza del metano solo in alcune aree di Marte, sia la sua variabilità a livello stagionale, era stata quella meno presa in considerazione, se non addirittura scartata dalla comunità scientifica. Questo perché avrebbe implicitamente stravolto tutte le affermazioni della comunità scientifica riguardo all’inabitabilità del pianeta rosso, oltre che cambiato per sempre uno degli assunti più longevi della storia, riguardo la visione centrale, preminente e quasi esclusiva della vita sulla Terra e dell’uomo in particolare. Scoprire o meglio, accettare l’idea, che su un altro pianeta esiste una forma di vita extraterrestre, significa, di fatto, aprire la porta a tutta una serie di possibilità che oggi le autorità scientifiche (e non solo) hanno sempre rigettato.

Un primo colpo assestato alla prevalente teoria dell’origine abiotica del metano marziano era avvenuta lo scorso anno, quando gli scienziati avevano notato che le concentrazioni di metano cambiavano nel corso delle stagioni con un ciclo annuale ripetibile. Da qui erano partite le nuove misurazioni, ancora più precise, che hanno permesso di calcolare un singolo numero per il tasso d’infiltrazioni di metano nel cratere Gale che equivale a una media di 2,8 chilogrammi al giorno marziano. I ricercatori sono stati  così in grado di conciliare i dati di ExoMars e di Curiosity che, all’inizio, sembravano contraddirsi a vicenda.

John Moores, uno degli autori del nuovo studio ha dichiarato: “Siamo stati in grado di risolvere queste differenze mostrando come le concentrazioni di metano erano molto più basse nell’atmosfera durante il giorno e significativamente più alte vicino alla superficie del pianeta durante la notte, poiché il trasferimento di calore diminuisce". Il metano sarebbe quindi emesso costantemente durante l’intero Sol (giornata marziana), ma nelle ore di luce, complice la radiazione solare e il maggior calore, si diluirebbe rapidamente nell’atmosfera, sfuggendo alle rilevazioni delle sonde orbitali ma non ai rover presenti sul posto.

Sebbene lo studio non lo affermi esplicitamente, ciò è compatibile esclusivamente con l’ipotesi che il metano marziano sia realmente prodotto da forme di vita presenti nel sottosuolo marziano. Di fatto, procedendo per esclusione, è l’unica ipotesi plausibile e coerente con tutti idati fon qui raccolti, che rimane sul tavolo. Come ricorda anche il portale dell’ASI (Agenzia spaziale Italiana e quello dell’house organ della stessa, la rivista Global Science) “… il prossimo anno la missione ExoMars 2020 dell’Esa potrebbe portare nuovi elementi a queste ricerche, con la possibilità di scavare in profondità nel sottosuolo fino a due metri, alla ricerca di eventuali forme di vita batteriche …” trovando così conferma che potrebbero essere queste ultime, (che saranno ufficialmente le prime forme di vita extraterrestri trovate) responsabili della produzione del metano.

A quel punto tutto ciò che la maggior parte delle persone pensava di sapere su Marte, sulla Terra, sull’origine della vita e la visione sul nostro posto nel nostro sistema solare e nell’universo, cambierà. In molti saranno costretti a seppellire le anacronistiche teorie tradizionali e rivalutare possibilità o evidenze che ancora oggi, sembrano fantasie. Del resto ormai si sa “la scienza avanza un funerale alla volta” (Max Plank).

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

L’alternativa agli OGM è vaccinare le piante?

Il constante ed esponenziale aumento della popolazione mondiale ha portato la domanda alimentare a livelli finora ineguagliati. Ciò ha portato l’industria agroalimentare ad attingere alle nuove scoperte fatte in capo biotecnologico per cercare di massimizzare i raccolti minacciati da insetti e, soprattutto, da malattie. Anche le piante infatti, come ogni altro essere vivente, può ammalarsi, compromettendo in tutto o in parte, il lavoro fatto dagli agricoltori nei mesi precedenti, con danni economici rilevanti.

Poche cose sono più spaventose per un coltivatore di zucca rispetto alle lettere CMV. Queste rappresentano il virus del mosaico del cetriolo, un agente patogeno che distrugge interi campi di zucche, cetrioli e meloni. I virus rappresentano una minaccia in continua evoluzione per la sicurezza alimentare globale, e la nuova tecnica potrebbe aiutare gli agricoltori a tenere il passo con i patogeni in costante cambiamento.  L’industria agroalimentare si è da anni rivolta alla genetica, facendo creare piante geneticamente modificate in modo da renderle più resistenti a certe malattie. Se è vero che in tal modo i raccolti sono stati maggiormente protetti dal rischio di perdere tutto a causa di malattie, nessuno studio di lungo periodo è stato fatto sugli effetti che questi OGM (Organismi Geneticamente Modificati) possono avere sulla salute di chi li consuma, uomo o animali che siano. I dubbi riguardo alla reale sicurezza degli OGM sono talmente tanti che anche dal punto di vista politico, non tutti gli stati consentono coltivazioni di questo tipo. Una parte della popolazione mondiale che ha la fortuna di poter scegliere cosa mangiare e cosa no, ha deciso di non consumare cibi OGM facendo nascere così un mercato alternativo e molto remunerativo (poiché i prezzi dei prodotti No OGM sono decisamente superiori per via della minore resa dei raccolti.)

Le malattie delle piante però, sono in continua evoluzione, così come quelle dell’uomo. I virus che colpiscono frutta, verdura e ortaggi, mutano quasi alla stessa velocità con cui muta il virus dell’influenza nell’uomo. L’industria degli OGM quindi, non riesce a stare al passo nel creare cereali, ortaggi, frutta e verdura immuni (o più resistenti) a certe cangianti malattie. La strada della modificazione genetica si sta rivelando oltre che incerta per quanto riguarda gli effetti sulla salute dell’uomo, non sempre efficace oltre che molto complessa in alcune circostanze.

L’industria agroalimentare chiede soluzioni e l’industria chimico farmaceutica ne studia continuamente di nuove. Quali però le alternative agli OGM?

La nuova “medicina” propone oggi di vaccinare le piante contro i virus più devastanti. Il biochimico Sven-Erik Behrens dell'Università Martin Luther di Halle-Wittenberg, in Germania, e i suoi colleghi hanno trovato un modo per sviluppare rapidamente vaccini in grado di proteggere le colture dai patogeni virali.

I vaccini sono un tema su cui si discute tantissimo negli ultimi anni e potrebbe non essere una buona notizia doverne discutere anche per quel che riguarda le piante. Tuttavia è bene parlarne ancor prima che certe nuove “tecnologie” siano applicate su larga scala, nella speranza di dar vita a un dibattito informato e quindi meno soggetto a manipolazione, evitando così imposizioni legislative, che vanno a circoscrivere le libertà individuali come nel caso dei vaccini sull’uomo. Ricordiamo, infatti, che i vaccini sono dei medicinali e, come ogni altro medicinale ha delle controindicazioni e degli effetti indesiderati, e andrebbe assunto solo se necessario. L’assunzione forzata e ingiustificata oltre ad essere un atto antidemocratico degno dei regimi assolutisti, poiché lede quelli che sono i diritti fondamentali dell’uomo, può esporre a rischi per la salute più elevati di quelli a cui il provvedimento coercitivo sostiene di voler limitare.

Nel caso dei vaccini delle piante potrebbe ripresentarsi, di fatto, e nel migliore dei casi, la stessa situazione già vissuta con gli OGM o, al peggio, potremmo trovarci nella condizione di non poter scegliere se consumare piante “vaccinate” o no. L’impossibilità di scegliere a fronte dell’emanazione di leggi frutto di decisioni prese dall’alto senza un adeguato e informato dibattito e senza il consenso dell’opinione pubblica, configura, di fatto, una restrizione delle libertà individuali. È bene quindi sapere fin da subito, di cosa stiamo parlando quando si dice di voler vaccinare le piante.

Quando un virus infetta una cellula vegetale, rilascia spesso RNA, sotto forma di RNA messaggero o RNA a doppio filamento. Questo viaggia attraverso la cellula, aiutando il virus a replicarsi. Le proteine ​​di difesa all'interno della cellula vegetale riconoscono questi RNA virali. Scattano quindi le difese immunitarie e gli enzimi della pianta agiscono come piccole forbici e dividono i filamenti di RNA virale. Alcuni dei pezzi di RNA così generati, chiamati piccoli RNA interferenti (siRNA), si uniscono a un gruppo di proteine delle piante, ​​chiamato complesso Argonaute, fungendo come identificatori che portano il complesso Argonaute a RNA sul genoma del virus. Identificato il virus, il complesso Argonaute e le altre proteine ​​lo distruggono.

La tattica è micidiale, ma non sempre efficace. Delle molte migliaia di vari siRNA prodotti dalla pianta, pochissimi hanno le giuste proprietà chimiche per combattere l'RNA virale. I ricercatori tedeschi, compreso questo meccanismo, hanno iniziato a semplificare il processo.

Hanno sviluppato test molecolari per identificare quali siRNA sono efficaci nella lotta contro i virus. In esperimenti di laboratorio con piante di tabacco, hanno dimostrato di poter identificare e selezionare i siRNA “vincenti” e usarli come vaccino contro il virus acrobatico del pomodoro, che rallenta la crescita e danneggia le foglie nelle piante di tabacco. Il miglior siRNA, spruzzato sulle foglie, ha protetto il 90% delle piante, il team riferisce questo mese sulla rivista Nucleic Acids Research.

Stando a quanto riportato nell’articolo, almeno questa volta non si tratta quindi, di vaccini convenzionali, fatti di sostanze chimiche o altro, ma soltanto di materiale endemico della pianta che è risultato più resistente e reattivo per sconfiggere la malattia. Si tratta una tecnica più simile ai primi vaccini messi a punto per l’uomo, che miravano a stimolare le difese immunitarie in modo semplice e “pulito”, senza aggiunta di additivi, metalli e altre sostanze estranee al corpo umano, come invece avviene oggi (stando a quanto riportato nei bugiardini).

La tecnica messa a punto dai ricercatori tedeschi non sfrutta un principio inedito. Esistono altri modi per prevedere quali siRNA potrebbero essere efficaci contro un virus vegetale, ma la maggior parte di questi sono modelli di computer che non funzionano sempre come previsto, afferma il principale autore dello studio Sven-Erik Behrens.

Un aspetto interessante dello studio è che il team, in alternativa alla classica iniezione, ha semplicemente spruzzato i siRNA sulla pianta o li ha strofinati sulle foglie. Ciò rende questo sistema molto più semplice e veloce rispetto all'ingegneria genetica di una pianta per la resistenza virale, che genera OGM il cui DNA sarà modificato per sempre ma che, al contempo, non assicura un altrettanto perpetua protezione dal virus. Questo metodo invece consente agli scienziati e agli agricoltori di tenere il passo con la rapida evoluzione dei patogeni virali. Tutto bene allora, qual è il problema?

Come al solito non è tutto oro ciò che luccica. I ricercatori stanno ora lavorando per trovare il modo più efficiente ed economico di somministrare il vaccino alle piante. Una delle soluzioni proposte suggerisce vaccinare le piante con uno spray che utilizza, come additivo o "vettore", nanoparticelle di sostanze, in questo caso, non meglio specificate (spesso in altre situazioni, ma sempre in ambito biotecnologico, sono utilizzati nanoparticelle di bario o altri metalli) per fornire i siRNA. Le nanoparticelle (di qualunque tipo) hanno la caratteristica di essere talmente piccole da poter superare qualunque filtro biologico e penetrare addirittura la membrana cellulare. Non hanno quindi la possibilità di essere smaltite dall’organismo, come avviene con altre sostanze assunte in forme (intesa come scala molecolare) più grande. L’uomo potrebbe assumere quindi queste nanoparticelle depositate irreversibilmente nelle piante che hanno subito questo trattamento. Nessuno studio è in programma per comprendere se questa pratica potrebbe comportare rischi per la salute dell’uomo nel breve o nel lungo periodo. Appare dunque legittimo cominciare a chiedersi se la soluzione della vaccinazione delle piante è veramente una soluzione a uno dei problemi dell’umanità, quello della soddisfazione della domanda di cibo, o rischia invece di essere l’inizio di un nuovo problema, quello di vedere aumentare in modo apparentemente inspiegabile, malattie rare o sconosciute. Se prevenire è meglio che curare, sarebbe opportuno studiare bene tutto quanto, prima di applicare qualunque nuova tecnologia. Se il rapporto rischi/benefici è spesso una questione etico - morale (aspetti che non sono oggettivi ma come si sa, cambiano con i tempi) la scienza a cui tutti richiediamo oggettività e nulla più, dovrebbe ben guardarsi dall’intraprendere strade che possano in qualche modo comportare dei danni all’uomo o all’ambiente, piccoli o grandi che siano.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Dove sono tutti quanti? Forse oggi abbiamo un'idea

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Maggio 2021)

“Dove sono tutti quanti?” Questa è ciò che si chiedeva, ormai settant’anni fa Enrico Fermi, conversando con alcuni colleghi riguardo la possibilità di vita intelligente extraterrestre. In molti hanno provato a rispondere alla domanda (che costituisce, di fatto, il famoso Paradosso di Fermi) che forse, potrebbe non avere neanche necessità di risposta se non si partisse da taluni preconcetti che sono propri, tra l’altro, della sua formulazione. Volendo in questa sede rimanere nell’ambito delle teorie scientifiche ufficiali e prevalenti (ma non per questo necessariamente esatte), se oggi non possiamo ancora indicare il luogo dove si annida la vita extraterrestre (o ancor meglio extrasolare), senza scontrarsi con l’ideologia della comunità scientifica (ma non con l’evidenza della Scienza), oggi abbiamo un’idea più precisa di dove poterla cercare.

Per noi, abitanti della Terra del XXI secolo, fin dagli esordi dei telescopi spaziali Harps e Kepler gli esopianeti non sono più una novità. A oggi (6 settembre 2019 ndr) gli esopianeti ufficialmente scoperti sono 4108. Più si scoprono nuovi esopianeti però, più appare difficile trovarne simili alla Terra, simili non per dimensioni o orbita ma per capacità di ospitare la vita. Un recente studio su The Astronomical Journal ha cercato di fare il punto.

Secondo Eric B. Ford, professore di astronomia e astrofisica a Penn State e uno dei leader del gruppo di ricerca “contare semplicemente esopianeti di una determinata dimensione o con una determinata distanza orbitale è fuorviante, poiché è molto più difficile trovare piccoli pianeti lontani dalla loro stella piuttosto che trovare pianeti grandi vicino alla loro stella”.

La stima del numero dei pianeti con un clima abbastanza temperato da avere acqua allo stato liquido in superficie si deve all'università della Pennsylvania, che ha utilizzato i dati del telescopio spaziale Kepler della Nasa.

Per superare quest’ostacolo, i ricercatori hanno progettato un nuovo modello che simula “universi” di stelle e pianeti e poi “osserva” questi universi simulati per determinare quanti pianeti sarebbero stati scoperti da Keplero in ciascun “universo”.

La missione di Keplero ha scoperto migliaia di piccoli pianeti, la maggior parte sono così lontani che è difficile per gli astronomi apprendere dettagli sulla loro composizione e atmosfere.

“Abbiamo utilizzato il catalogo finale dei pianeti identificati da Keplero e migliorato le proprietà stellari del satellite Gaia dell’Agenzia spaziale europea per costruire le nostre simulazioni”, ha dichiarato Danley Hsu, il primo autore dello studio. “Confrontando i risultati con i pianeti catalogati da Keplero, abbiamo caratterizzato il tasso di pianeti per stella e il modo in cui ciò dipende dalle dimensioni del pianeta e dalla distanza orbitale. Il nostro nuovo approccio ha permesso al team di spiegare diversi effetti che non erano stati inclusi negli studi precedenti”.

I risultati di questo studio sono particolarmente rilevanti per la pianificazione di future missioni spaziali per caratterizzare pianeti potenzialmente simili alla Terra.

Sulla base delle loro simulazioni, i ricercatori stimano che i pianeti di dimensioni molto vicine alla Terra, da tre quarti a una volta e mezza, con periodi orbitali che vanno da 237 a 500 giorni, sono circa uno ogni quattro stelle. In pratica, secondo i calcoli una stella simile al Sole ogni quattro potrebbe accogliere un pianeta con caratteristiche simili a quelle della Terra.

Ok, ma quanti sarebbero i mondi potenzialmente abitabili simili nella sola nostra galassia? Il nuovo calcolo dei mondi potenzialmente abitabili costituisce una sorta di rivoluzione nello studio della Via Lattea e questo passo, rilevano gli autori della ricerca, sarebbe stato impossibile senza i dati del telescopio Kepler, che ha permesso di scoprire 2.600 pianeti nella Via Lattea e di capire che molti di essi sono simili alla Terra. L'analisi basata sui dati di Kepler, andato in pensione nell'ottobre 2018, "ha delle incertezze, ma fornisce una stima ragionevole di come i pianeti simili alla Terra nella nostra galassia siano compresi fra cinque e dieci miliardi", ha osservato il coordinatore della ricerca, Eric Ford.

La stima è considerata dagli esperti un passo importante per andare in cerca di possibili forme di vita aliena, per esempio indirizzando la 'caccia' del futuro cacciatore di mondi Wfirst (Wide-Field Infrared Survey Telescope) della Nasa, il cui lancio è in programma entro i prossimi dieci anni. "Avremo un ritorno decisamente maggiore dei nostri investimenti, sapendo dove andare a cercare", ha detto ancora Ford.

C’è inoltre da far rilevare come questo studio fornisca una stima molto limitata, poiché parte dal presupposto che la vita possa essersi sviluppata, o ancor meglio possa essere ospitata, soltanto su pianeti con caratteristiche simili alla Terra, che orbitano attorno a stelle simili al nostro Sole. Oggi però sappiamo che la vita non è una prerogativa esclusiva del nostro pianeta. Il movimento ideologico che permeava la comunità scientifica e rispondeva al quesito di Enrico Fermi, con la cosiddetta “ipotesi della rarità della Terra” deve ragionevolmente essere accantonato di fronte alle evidenze scientifiche raccolte negli ultimi vent’anni.

Il prossimo anno (2020) partiranno ben due missioni spaziali per cercare (altre) prove di vita attuale su Marte (evidenze di quella passata ne sono già state trovate, come vedremo e ascolteremo ufficialmente tra alcuni mesi). Sono in preparazione diverse missioni per il prossimo decennio alla ricerca di tracce di vita sulle lune ghiacciate di Giove e Saturno. Sappiamo, dunque, che la vita extraterrestre non è poi così improbabile com’è stato sempre ritenuto dalla comunità scientifica, fino nel recente passato. Al contempo le condizioni per la sua presenza altrove non sono circoscritte al ripetersi delle sole condizioni terrestri e non deve essere circoscritta ai soli pianeti rocciosi, ma anche ai miliardi di lune (il cui numero non è neanche minimamente stimabile a causa dei nostri limiti tecnologici che non ci consentono ancora di scoprirne in numero statisticamente sufficiente) che circondano sia i pianeti rocciosi sia quelli gassosi. Esistono poi pianeti (e un numero ancor maggiore di lune) che appartengono a sistemi con stelle di tipo diverso dal Sole, come ad esempio quelli che orbitano intorno a stelle nane rosse, stelle più fredde ma che si ritiene possano comunque garantire le condizioni necessarie al sostenimento di vita (e della sua eventuale evoluzione). Appartiene a questo tipo di sistemi stellari la maggioranza dei 4018 esopianeti fin qui scoperti, senza dimenticare che le stelle nane rosse sono quattro volte più numerose delle stelle simili al nostro Sole.

Se nelle simulazioni più recenti, come quella oggetto dello studio sopra menzionato, dovessimo aggiungere questi dati e queste variabili, verosimilmente raggiungeremmo numeri dieci, cento o mille volte più grandi di quelli determinati con i calcoli effettuati dagli scienziati della Pennsylvania. Analogo discorso può essere fatto per la famosa Equazione di Drake a cui spesso è contrapposto il Paradosso di Fermi. Anche in questo caso, portare i risultati dell’Equazione di Drake (che non sebbene complessa, non contempla tutte le possibilità sopra citate) come “prova” a sostegno dell’ipotesi extraterrestre, non costituisce elemento sufficiente e significativo.

Dal punto di vista esclusivamente ideologico (e non pratico, poiché sovente i “negazionisti” della vita extraterrestre disconoscono talune evidenze) quindi, la risoluzione della questione è molto più complessa di quella che la semplicistica contrapposizione tra Paradosso di Fermi ed Equazione di Drake fa apparire. Alla domanda “Dove sono tutti quanti?” oggi potremo rispondere, anche alla luce di questo studio, “Tutto a torno a noi”. È inutile rispondere a chi insiste nel dire non che non ci sono prove, ricordando che l’eventuale assenza di prove ( ma ce ne sono) non è prova d’assenza. Eppure talvolta, sarebbe sufficiente mettere da parte assurdi e ormai anacronistici “pensieri pseudoscientifici” (come quelli suggeriti da Fermi) e guardare un po’ più in la del proprio naso …

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Bere acqua fluorurata durante la gravidanza, può abbassare il QI nei figli. Lo afferma uno studio pubblicato sulla rivista JAMA Pediatrics.

Lo studio appena pubblicato su Jama Pediatrics (una rivista medica mensile, pubblicata dalla American Medical Association, che copre tutti gli aspetti della pediatria) rappresenta una potenziale "bomba" per le conseguenze che potrebbe avere (ma che probabilmente non avrà, considerati gli interessi in ballo) sull'industria, sulla politica e nelle abitudini di vita di miliardi di persone. Tuttavia è necessaria una premessa al fine di informare chi non conosce questo argomento, poco discusso e poco noto.

Il fluoro è un elemento presente in natura non in forma singola ma a causa della sua elevata reattività, è spesso presente combinato con altre sostanze che danno origine ai fluoriti. Il fluoro rappresenta circa lo 0,065% della massa della crosta terrestre.

Si tratta di un elemento potenzialmente dannoso se assunto in dosi superiori a una certa quantità giornaliera e per lunghi periodi. Infatti, La scienza ha inequivocabilmente scoperto che il fluoro uccide le cellule celebrali èd è definito senza mezze misure una sostanza “neuro tossica”. Non a caso, come spesso avviene, uno dei suoi primi impieghi fu quello nell’industria bellica. Il gas nervino costituì il primo impiego di composti chimici fluorurati per scopi militari. Come molti gas velenosi, era in grado di rilasciare nell'organismo considerevoli quantità di fluoruro che portano a un effetto bloccante sull'attività enzimatica e sul sistema nervoso centrale, generando danni a livello cerebrale (riduzioni del quoziente d'intelligenza e ritardi mentali), depressione polmonare e cardiaca (fino alla morte se assunto in dosi eccessive).

Oggi si conosce bene il potenziale dannoso di questo elemento, tant’è che il fluoro e l'acido fluoridrico devono essere maneggiati con grande attenzione e qualsiasi contatto con la pelle e gli occhi deve essere evitato. Procedure di sicurezza molto rigide permettono il trasporto di fluoro liquido o gassoso in grandi quantità.

Il fluoro ha un forte odore pungente rilevabile già a basse concentrazioni (20 parti per miliardo o ppm), simile a quello degli altri alogeni (come cloro, bromo e iodio) e paragonabile a quello dell'ozono. Esso è altamente tossico e corrosivo. È raccomandabile che l'esposizione massima giornaliera sia di una parte per milione. La più bassa dose letale nota è venticinque ppm. L'esposizione continua al fluoro e ai suoi sali porta a fluorosi del tessuto osseo e danni al sistema nervoso centrale. Questa è certezza scientifica e non complottismo.

Eppure come se non bastasse quello già presente in natura, alla cui esposizione non possiamo sottrarci, poiché il fluoro è presente in piccole quantità anche in piante insospettabili come il tè ad esempio oltre che in alcune acque potabili, siamo ormai circondati di prodotti a cui dichiaratamente è stato aggiunto del fluoro.

Dentifrici, gomme da masticare e molti altri alimenti o sostanze che molti utilizzano giornalmente, contribuiscono alla continua esposizione e al potenziale superamento dei limiti (1 ppm) sopra i quali si possono manifestarsi danni fisici. Guai però a farlo presente, si viene subito etichettati come complottisti! Basta sintetizzare il discorso scientifico fatto fin ora, nella frase ridicola “Mi vuoi dire che l’acqua fa male?” ed il gioco è fatto. Chi si trova ad ascoltare questo discorso tra chi parla di scienza e chi non ne sa nulla e presume di sapere (non spendo neanche una parola riguardo chi non è in grado di comprendere tale discorso), verrà magicamente persuaso sul fatto che i rischi derivanti all’assunzione del fluoro sono teorie complottiste, grazie anche alla complicità, spesso inconsapevole ma comunque colposa, di chi avanza ipotesi sulla fluorizzazione dell’acqua quali quelle del controllo mentale.

Ciò nonostante, i rischi per la salute derivanti dall’assunzione eccessiva e continuata di fluoro, sono evidenti e scientificamente provati. Le persone però, non sono sufficientemente informate riguardo questo quasi onnipresente e potenzialmente letale veleno.

Al contrario siamo spesso incoraggiati dalla pubblicità all’utilizzo di prodotti che contengono fluoro. Pensate alle pubblicità di dentifrici e gomme da masticare. La manipolazione operata attraverso il martellamento pubblicitario ha ribaltato completamente la situazione, al punto che la maggioranza delle persone è oggi convinta che il fluoro sia un elemento “positivo” per la nostra salute. La convinzione è talmente radicata che sovente è la presenza di questo elemento a determinare la scelta di acquisto di un prodotto anziché di un altro che ne è privo! Tant'è che la presenza di fluoro è riportata in modo enfatizzato su questi prodotti, come fosse un plus valore.

Com’è possibile tutto questo?

Gli interessi economici in ballo sono altissimi, poiché il fluoro è un elemento molto utilizzato nell’industria chimica, farmaceutica e alimentare.

Ci hanno isegnato che il fluoro è noto per proteggere i denti dalla carie, rafforzando lo smalto dei denti. Ma le sue presunte proprietà benefiche sono state scientificamente provate?

Durante gli anni '40 e '50, i ricercatori della sanità pubblica e i funzionari governativi delle città di tutto il mondo hanno aggiunto sperimentalmente (e all’insaputa della popolazione) fluoro all'acqua potabile pubblica. Hanno poi rilevato statisticamente che il numero di pazienti che a seguito della fluorizzazione dell’acqua era ricorso a cure mediche dentali per problemi di carie, si era ridotto del 60%.

Soddisfatti del risultato, solo pochissimi altri studi sono stati condotti riguardo all’efficacia di questa pratica e quasi nessuno ha preso in cosiderazione gli effetti collaterali che potrebbe aver comportato. Se la politica spesso si muove su base etica, la scienza che sovente ne supporta le scelte non dovrebbe farlo. Il rapporto rischi/benefici è infatti un problema scientifico ancor prima che etico.

Esistono pochissime prove contemporanee, che soddisfano i moderni e attuali criteri scientifici, che hanno valutato l'efficacia della fluorurazione dell'acqua per la prevenzione della carie.
I dati disponibili provengono principalmente da studi condotti prima del 1975 e indicano che la fluorurazione dell'acqua è efficace nel ridurre i livelli di carie sia nella dentizione provvisoria sia permanente nei bambini. Tuttavia la fiducia in questi studi e dai risultati relativi, dovrebbe essere ben circoscritta, proprio per la limitata dalla natura osservativa (cioè solo su base statistica) dei progetti di studio che spesso hanno semplicemente raccolto dei dati a livello statistico (come quello del minor numero di pazienti che ricorrono alle cure mediche in un determinato periodo), senza tener conto della presenza di altri fattori che avrebbero potuto falsare il risultato.

Gli “studi” degli anni ’40 e ’50 ad esempio non hanno tenuto conto dell’uso di dentifricio al fluoro, della disponibilità e sull'adozione di altre strategie di prevenzione della carie dei cittadini oggetto della sperimentazione, di informazioni riguardo la loro dieta e il consumo di acqua di rubinetto e sul movimento di migrazione della popolazione. Insomma, non ci sono prove scientifiche sufficienti per determinare se la fluorizzazione dell'acqua provoca un cambiamento nelle disparità nei livelli di carie nella pratica di fluorizzazione delle acque, senza contare l'elevato rischio di parzialità all'interno degli studi che hanno condotto queste ricerche e, soprattutto, dall'applicabilità delle prove agli stili di vita attuali.

Oggi infatti, molto più che in passato, abbiamo a disposizione un numero molto più elevato di prodotti che contengono fluoro. Potenzialmente quindi, se non adeguatamente consapevoli dei danni che un’eccessiva assunzione potrebbe comportare, siamo esposti maggiormente a questo rischio.

Abbiamo detto che il fluoro si trova naturalmente in basse concentrazioni sia in acqua dolce sia in acqua di mare, nonché in materiale vegetale, in particolare foglie di tè.

Dagli esperimenti sull’ignara popolazione, svolti per la prima volta nel tentativo di ridurre le carie a Grand Rapids, nel Michigan, nel 1945, il sistema di fluorizzazione dell’acqua potabile pubblica è stato salutato dai Centri statunitensi per il controllo e la prevenzione delle malattie riunitosi ad Atlanta come "una delle più grandi storie di successo della salute pubblica".

Oggi, l'acqua fluorizzata scorre attraverso i rubinetti di circa il 5% della popolazione mondiale sebbene i dati non siano del tutto disponibili e aggiornati. L’adozione di questa pratica varia da paese a paese e spesso, anche all’interno dello stesso in ragione di alcune specificità legate sia alla qualità naturale dell’acqua immessa in quello specifico acquedotto, sia a ragioni di tipo politico.

Il governo del Sudafrica sostiene ufficialmente la fluorizzazione dei rifornimenti idrici. In Brasile, circa il 45% delle città ha un rifornimento idrico fluorurato.

Nel maggio del 2000, 42 delle 50 metropoli statunitensi utilizzano il sistema della fluorizzazione. Secondo uno studio del 2002, il 67% degli americani sta consumando acqua fluorizzata. A partire dal 2001, si è stabilito che il 75% della popolazione riceve acqua fluorurata. Tuttavia, come accennavo, esistono all’interno del paese delle eccezioni. L'emissione ai rifornimenti idrici del fluoruro è controllato periodicamente dagli enti pubblici territoriali. Per esempio, l'8 novembre 2005, i cittadini di Mt. Pleasant nel Michigan hanno votato 63% a 37% per la reintegrazione della fluorizzazione dell'acqua potabile dopo che un'iniziativa alle schede elettorali del 2004 fece cessare la fluorizzazione dell'acqua nella città. Contemporaneamente alle urne di Xenia e a Springfield nell'Ohio, a Bellingham e a Tooele, è stata rifiutata la fluorizzazione.

In Canada, gli ultimi dati disponibili (quelli del 2006) indicavano che circa il 40% della popolazione canadese riceveva l'acqua fluorurata.

E nel resto del mondo?

L'Australia ha dichiarato che la fluorizzazione non è attiva solamente nel Queensland, dove è sotto il controllo dell'ente pubblico territoriale. In Nuova Zelanda quasi tutto il rifornimento idrico è soggetto alla fluorizzazione, tranne quelle zone distanti dalle aree metropolitane e piccoli borghi e/o città.

La maggior parte del rifornimento idrico europeo non è soggetto alla fluorizzazione.

Anche qui però si osservano situazioni abbastanza eterogenee.

Ad esempio, mentre l’Irlanda è l’unico paese dell’Unione Europea in cui la fluorizzazione dell’acqua è obbligatoria per legge, Nel Regno Unito soltanto il 10% della popolazione riceve acqua fluorata (tra le città più importanti: Birmingham e Newcastle).

In Svizzera l’acqua pubblica è fluorata ad eccezione dell’area della città di Basilea.

In Svezia la fluorizzazione dell’acqua è vietata per legge e la Norvegia l'ha vietata dal 2000.

La Francia è contraria alla fluorizzazione del proprio rifornimento idrico. Molteplici "prodotti chimici" incluso il fluoro sono esclusi dalla "Lista dei prodotti chimici per il trattamento dell'acqua potabile".Tuttavia consente (così come succede in Svizzera nell’area di Basilea e in Germania, il consumo di sale fluorato.)

La Germania non consente la fluorizzazione dell'acqua potabile, come stabilito dal ministro federale tedesco della salute, sebbene con delle eccezioni.

E in Italia?

I primi studi sperimentali sull'efficacia del fluoro come mezzo profilattico, in Italia, risalgono ai primi anni cinquanta e furono avviati dalla Clinica Odontoiatrica dell'Università di Pavia, diretta da Silvio Palazzi, in collaborazione con Alessandro Seppilli, direttore dell'Istituto di Igiene dell'Università di Perugia; le ricerche delle due Scuole sembrarono confermare il potere batteriostatico e antifermentativo del fluoro applicato direttamente sullo smalto, oltre che quello preventivo e profilattico delle paste dentifricie fluorate. Già all’epoca però, il mondo scientifico accademico era diviso sull’attendibilità di questi risultati. Vari studiosi italiani all’epoca, come Albanese, Fiorentini e Tempestini, si erano infatti schierati nettamente contro le paste dentifricie fluorate, ritenendole assolutamente inefficaci.

Fortunatamente in Italia non ci si orientò quindi, verso la fluorazione delle acque potabili, che era in atto già da alcuni anni in altre Nazioni. Oggi sappiamo che tale scelta inconsapevole ha una giustificazione scientifica sebbene poco rassicurante. Le acque italiane sono, infatti, in genere sufficientemente (e in alcuni casi eccessivamente) ricche in fluoro, tanto da non rendere consigliabile un’addizione farmacologia o nelle acque potabili. Si stima che la media nazionale di fluoro nelle acque sia di circa 1 mg/l (quindi già molto vicina alla dose massima giornaliera). Ciò forse spiega la carenza di provvedimenti e normative riguardanti l’addizione artificiale di fluoro nelle acque potabili.

Vi sono però differenze locali, talvolta sensibili. Alcuni scostamenti rispetto alla media tendono verso l’eccesso. Per esempio nella zona dei Castelli Romani le acque sono particolarmente ricche in fluoro, tanto da determinare casi di fluorosi. Nell'interesse e per la tutela della salute pubblica, si dovrebbe agire in senso opposto, adottando misure di defluorazione delle acque, ma ciò purtroppo non avviene, con possibili ricadute sulla salute dell'ignara popolazione.

Si deve inoltre notare che in Italia vi è un largo consumo di acque minerali imbottigliate. Secondo ISTAT il 46.5 % degli italiani non beve acqua di rubinetto. Il ricorso ad acque minerali imbottigliate è particolarmente comune da parte dei genitori che la usano per i loro bambini. Considerando la buona qualità delle acque erogate dagli acquedotti locali, la pratica è, per la maggior parte del territorio italiano, almeno parzialmente ingiustificata. Il consumo di acque minerali imbottigliate medio di 155 l/persona/anno rende il consumo italiano superiore a qualunque altra nazione europea.

In Italia quindi, non è mai stata praticata la fluorizzazione artificiale dell'acqua. Sebbene l'assunzione di fluoro sia consigliata, forse in modo azzardato considerata la scarsità di studi scientifici a riguardo, dai medici per i pazienti in età pediatrica, al momento non esistono leggi in tema; l'unica disposizione è il d.lgs. 2 febbraio 2001 n. 31, che recepisce la direttiva dell'Unione Europea 98/83/CE. Il decreto stabilisce in 1.5 mg/l la concentrazione massima di fluoro nelle acque potabili, conformemente a quanto indicato nella direttiva.

A proposito delle acque minerali, una Direttiva del 2003, la 2003/40/CE, impone di indicare le concentrazioni di fluoro superiori a 1,5 milligrammi/litro. Non impone però un limite alla concentrazione di fluoro che può essere presente nelle acque in commercio, determinando questa anomala situazione sotto riportata in cui ci sono acque molto pubblicizzate, che hanno livelli 7-8 volte superiori alla dose massima giornaliera.

Se questa era la situazione a oggi, ora, un nuovo studio collega la fluorizzazione al QI inferiore nei bambini piccoli, in particolare i ragazzi le cui madri hanno bevuto acqua fluorurata durante la gravidanza, trasformando quella che per molti era una teoria complottista in ulteriore evidenza scientifica.

Lo studio pubblicato su JAMA Pediatrics (Agosto 2019) e ripreso anche sul portale della rivista Science, offre finalmente la critica di più alto profilo scientifico fino ad oggi esistente, riguardo ai danni potenziali che derivano dalla pratica di fluorizzazione dell’acqua.

Gli psicologi e i ricercatori della salute pubblica hanno esaminato i dati del programma canadese di ricerca sull’esposizione dei bambini alle sostanze chimiche ambientali finanziato dal governo federale. Si tratta di uno studio a lungo termine su donne in gravidanza e i loro bambini in sei città canadesi, iniziato addirittura nel 2008, che ha tenuto conto di tutto, dalla dieta ai livelli d’istruzione, fino alle tracce di piombo e arsenico nelle urine.

Dai dati è emerso che circa il 40% delle quasi 600 donne viveva in città con acqua potabile fluorurata; avevano un livello medio di fluoro urinario di 0,69 milligrammi per litro, rispetto a 0,4 milligrammi per le donne che vivevano in città senza acqua fluorizzata. Tre o quattro anni dopo il parto, i ricercatori hanno sottoposto ai loro figli un test QI adeguato all'età. Dopo aver controllato variabili come il livello di educazione parentale, il peso alla nascita, il consumo di alcool prenatale e il reddito familiare, nonché l'esposizione a sostanze tossiche ambientali come piombo, mercurio e arsenico, hanno scoperto che se i livelli di fluoro urinario della madre aumentavano di 1 milligrammo per litro, il punteggio QI di suo figlio (ma non quello di sua figlia) scendeva di circa 4,5 punti. Tal effetto è alla pari con gli altri recenti studi che hanno esaminato il QI dell'infanzia e l'esposizione al piombo di basso livello.

Usando un metodo secondario per misurare l'assunzione di fluoro (L’auto-segnalazione, in altre parole le dichiarazioni delle madri su quanta acqua di rubinetto e tè ricchi di fluoro hanno bevuto durante la gravidanza) hanno scoperto che un aumento di 1 milligrammo per litro di fluoro era associato a un calo del QI di 3,7 punti sia nei ragazzi sia nelle ragazze. L'auto-segnalazione è un metodo meno ampiamente accettato perché considerato meno affidabile e soggetto a richiami imprecisi rispetto a rilevazioni oggettive.

I ricercatori ne sono coscienti e, sebbene non disconoscano i risultati del loro studio, ammettono di non essere sicuri del perché vi sia una differenza sessuale tra i due metodi, e affermano che potrebbe derivare dai diversi modi in cui i ragazzi e le ragazze assorbono le tossine ambientali nell'utero.

Nonostante i risultati possano essere imprecisi, (sono già sottoposti a un attento esame) potrebbe avere serie implicazioni per l'ordine pubblico. Secondo le raccomandazioni del Dipartimento della salute e dei servizi umani degli Stati Uniti, bere un litro di acqua fluorurata dovrebbe fornire circa 0,7 milligrammi di fluoro. Se bevi solo 1 litro di acqua di rubinetto e poi hai anche un paio di tazze di tè, allora la concentrazione di fluoruro nel tè è sufficiente per superare il limite proposto, senza contare quello assunto con l’utilizzo di un dentifricio al fluoro e/o masticando gomme o caramelle che lo contengono.

Consapevole che le scoperte dello studio avrebbero suscitato ondate di proteste tra la schiera di scienziati favorevoli alla fluorizzazione, oltre che nelle lobby chimiche e alimentari che producono prodotti al fluoro, JAMA Pediatrics ha fatto il passo insolito di pubblicare una nota del redattore che accompagna il documento. "Questa decisione di pubblicare questo articolo non è stata facile", scrive l'editore della rivista, pediatra ed epidemiologo Dimitri Christakis del Seattle Children's Hospital di Washington. Aggiunge che il documento è stato "sottoposto a ulteriore controllo per i suoi metodi e la presentazione dei suoi risultati". Daltro canto, come ho già avuto modo di far rilevare in precedenti articoli, "La scienza avanza un funerale alla volta" (Max Plank).

Aspettiamo ora di ascoltare qualcuno che pur di tenere il punto, affermerà certamente che la scienza è complottista!

Il senso di quest’articolo non è quello di avvalorare talune tesi o fare del terrorismo, ma solo quello di informare sulla base delle evidenze scientifiche ufficiali (sebbene poco divulgate nei mass media mainstram) e far riflettere su alcune “storture” presenti nel nostro presunto sistema democratico.

Nel contesto sociale contemporaneo, in cui, tra i vari valori dell’etica, si enfatizza particolarmente l’autonomia, si può sostenere che l’addizione di fluoro nelle acque rappresenti un impedimento alla libera scelta individuale. Il fluoro potrebbe infatti essere assunto in altri modi (per esempio con integratori farmaceutici), lasciati alla libera scelta individuale. A questa considerazione si può obiettare che in genere i preparati farmaceutici sono dispendiosi, e le fasce più vulnerabili della popolazione potrebbero essere dissuase dall’acquisto. La fluorazione, al contrario, raggiunge tutti, indipendentemente dallo stato socio-economico, dall’età, dal livello scolare. Occorre anche notare che le acque potabili sono in molti casi oggetto di trattamenti per renderle idonee ed ottimali al loro uso.
La violazione del principio di autonomia che la fluorazione comporta, senza alcuna tutela e campagna di informazione della popolazione, si allinea alle crescente limitazione delle libertà personali (e quindi democratiche) quale ad esempio quella relativa all’obbligo vaccinale.

Concludendo e riassumendo:

  • Il fluoro è un elemento assai pericoloso per l’organismo umano.
  • Diventa certamente dannoso se assunto in dosi superiori a un certo limite e in modo continuativo.
  • Essendo un elemento già presente in natura, siamo giocoforza inconsapevolmente e quotidianamente esposti all’assunzione di questa sostanza il che può determinare un facile superamento del limite massimo.
  • Poiché le istituzioni difficilmente tutelano in modo serio la salute pubblica, poichè spesso in balia di interessi privati e di lobby, dovremmo vivere in modo più attento e consapevole.
  • La consapevolezza di tutto ciò dovrebbe determinare almeno un cambio o un controllo sulle proprie abitudini e sui propri consumi cercando:
    • di evitare anzitutto, di consumare cibi con fluoro (come ad esempio le pubblicizzatissime gomme da masticare con Xilitolo, Fluoro e Calcio) o altri prodotti come i dentifrici al fluoro.
    • In secondo luogo ci si dovrebbe informare sui livelli di fluoro contenuti sull’acqua di rubinetto poiché, anche se si consuma acqua in bottiglia, con l’acqua di rubinetto ci si cucina (ad esempio la quantità d’acqua assorbita dalla pasta durante la cottura è elevatissima). Quindi l'acqua del rubinetto viene comunque assunta in qualche misura.
    • Sarebbe addirittura opportuno avere dei sistemi di filtraggio (a osmosi o comunque con carbone di origine vegetale) per diminuire il fluoro nell’acqua di rubinetto.
    • Infine, se si beve acqua in bottiglia, è bene verificare sull’etichetta il quantitativo di fluoro contenuto.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...