Blog

Vita extraterrestre: guida all’uso dei modelli climatici terrestri e nuovi metodi di ricerca

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Marzo 2021)

C’è vita oltre il nostro Sistema solare? Per la comunità scientifica ufficiale, e per tutti quelli che pendono dalle sue labbra per formulare i propri pensieri e accettare possibilità o evidenze logiche e tangibili, questa domanda ha acquistato ufficialmente piena legittimità, soltanto dal 1995, quando è stata confermata per la prima volta l’esistenza di esopianeti.

Da quel momento, gli astronomi hanno trovato migliaia di mondi extrasolari (a oggi, 8/2/2020 sono 4.177, dando così il via alla caccia ai migliori candidati per l’abitabilità. Come scrivevo ormai oltre cinque anni fa (2015), nel mio primo libro e poi in successivo articolo su questo blog, con il procedere della scoperta di nuovi esopianeti, era apparso ormai chiaro che la maggioranza dei pianeti in fascia abitabile scoperti orbitasse attorno a stelle più fredde rispetto al nostro Sole. Si tratta delle cosiddette nane rosse, stelle tra le più frequenti nella nostra galassia (circa il 67% di tutte le stelle sono di questo tipo). I pianeti rocciosi e potenzialmente abitabili orbitano molto più vicini a queste stelle rispetto a quanto la Terra faccia con il Sole. Esempi recenti come TRAPPIST-1 e Proxima b hanno ridato smalto a quella che molti chiamano the Big Question, la grande domanda sulla vita aliena.

Al tempo stesso però alcuni scienziati hanno cominciato a mettere in discussione il metodo comunemente utilizzato per la ricerca di mondi abitabili. Questo perché le condizioni presenti su questo tipo di esopianeti, benché la vicinanza con il loro sole sia ridotta proprio perché la stella è molto più fredda consentendo così la presenza di acqua allo stato liquido, ciò non costituisce la condizione esclusiva in cui la vita può sussistere. Finalmente la comunità scientifica lo comincia a capire, non fosse altro per le scoperte di forme di vita in habitat estremi sul nostro pianeta, la scoperta di ambienti ospitali alla vita stesse in condizioni completamente diverse da quelle presenti sulla Terra (come Mercurio, Cerere e le lune ghiacciate di Giove e Saturno, dove Europa, con i suoi oceani di metano, ed Encelado, con i suoi oceani caldi e salati sotto uno spesso strato ghiacciato, è considerata i posti più probabili dove si annidano forme di vita extraterrestre più vicine a noi), o le evidenze della presenza certamente passata (ma probabilmente anche presente) di vita su Marte (il cui annuncio ufficiale avverrà entro pochi anni, certamente prima del 2025, come ho fatto presente nel secondo mio libro). Questo nuovo movimento di pensiero, sta trovando negli ultimi due/tre anni, sempre più diffusione e dalla teoria si comincia a passare alla pratica, soprattutto per trovare al più presto una risposta alla domanda più che sulla vita extraterrestre (sappiamo che è esistita, e forse esiste ancora, su Marte), sulla vita extrasolare.

In sintesi, quello che si è fatto fino oggi è stato puntare verso il cielo telescopi spaziali e terrestri, scandagliare regioni di cosmo più o meno ampie e tirare fuori lunghe liste di pianeti potenzialmente adatti a ospitare la vita. Una tecnica che finora si è rivelata efficace solo per trovare pianeti potenzialmente abitabili, ma senza alcuna evidenza che realmente lo siano. Tra l’altro è una modalità di ricerca che è molto dispendiosa e soprattutto lenta.

Per questo da qualche tempo c’è chi propone di adottare un approccio statistico per la ricerca di ‘Terre 2.0’, basandosi sul calcolo della probabilità piuttosto che sui dati osservativi. Mondi abitabili tradotti in numeri, dunque: questa proposta è descritta in un articolo redatto dall’Università di Chicago e apparso su Astrophysical Journal Letters nel 2017, secondo cui gli astronomi dovrebbero iniziare a fare ricerca utilizzando anche la statistica. In pratica, secondo gli autori dell’articolo, la grande domanda sull’abitabilità dovrebbe essere declinata in questo modo: che cosa riusciamo a dire sulla frequenza con cui un insieme di pianeti può ospitare un ambiente abitabile? Un approccio certamente interessante.

Secondo gli autori, infatti, con i mezzi fino allora a disposizione riuscire a confermare l’abilità di un singolo pianeta era, ed è, un risultato molto raro; al contrario, la statistica può aiutare a valutare più rapidamente tutti i pianeti potenzialmente abitabili, arrivando così a valutare le diverse probabilità di vita aliena su mondi lontani. Il nuovo metodo tuttavia se da un lato può restringere il numero di pianeti su cui concentrarsi nella caccia alla vita aliena, dall’altro non risolve la questione.

A tre anni dalla pubblicazione di quest’articolo, la caccia alla vita su mondi extrasolari continua a essere un obiettivo chiave per la comunità scientifica. Considerato già l’enorme numero di pianeti potenzialmente abitabili scoperti a oggi, ci si è cominciato a porre la domanda di come poter fare un’altra scrematura e di quali altri parametri prendere in considerazione. Si è quindi pensato che il clima di un pianeta possa essere indicativo sulla probabilità di presenza di forme di vita.

All’interno di uno degli edifici del Goddard Space Flight Center della Nasa migliaia di computer automatizzati lavorano giorno e notte, producendo quadrilioni di calcoli al secondo. Queste macchine sono i supercomputer Discover e il loro compito è di elaborare raffinati modelli climatici per prevedere l’evoluzione del clima terrestre.

Da qualche mese, gli astrofisici e gli astrobiologi hanno sfruttato le potenzialità di questi supercomputer per analizzare qualcosa di molto più distante da noi. Sono finiti sotto osservazione proprio gli oltre 4.100 pianeti scoperti negli ultimi due decenni oltre il nostro Sistema Solare. A essere presi in considerazioni sono stati in particolare gli esopianeti rocciosi, che si pensa possano avere acqua liquida sulla superficie. Lo scopo di questa nuovo studio è scoprire, attraverso nuovi modelli climatici terrestri, se la vita potrebbe svilupparsi in mondi lontani. I dati prodotti dai Discover hanno rivelato, con sorpresa per molti scienziati amanti delle teorie tradizionali, che la vita così come la conosciamo, non solo potrebbe esistere, ma potrebbe svilupparsi in condizioni sorprendentemente diverse rispetto a quelle terrestri, come tra l’altro abbiamo già osservato sulla Terra e, in parte, nel nostro sistema solare.

Si è accesa finalmente nella testa di molti una domanda tanto ovvia ed evidente, quanto ormai legittima: È possibile, dunque, che le nostre nozioni su ciò che renda un pianeta adatto alla vita siano troppo limitanti?

Sicuramente grazie alla prossima generazione di telescopi e osservatori spaziali potremmo avere molti più dati e informazioni più chiare, poiché questi strumenti saranno in grado di analizzare per la prima volta l’atmosfera degli esopianeti.

Negli ultimi anni gli studi in tal senso non sono mancati. Solo un anno fa (febbraio 2019), il portale scientifico ArXiv ha pubblicato i dettagli di un dispositivo in grado di rilevare la vita vegetale dal modo unico in cui essa riflette la luce, una “firma” non confondibile con quella di materiali abiotici (come le rocce ad esempio) e che dunque potrebbe essere montata su sonde spaziali per la ricerca di vita aliena su mondi lontani. Il principio di base è il medesimo con cui gli scienziati F. Hoyle, C. Wickramasinghe individuarono negli anni’70, le prime molecole organiche nello spazio, metodo prima contestato perché dava nuovo impulso alla teoria della panspermia quale origine della vita sulla Terra, e oggi invece ampiamente utilizzato. Il dispositivo si chiama “spettropolarimetro TreePol” ed è stato sottoposto a diversi esami e aggiornamenti da parte del suo creatore, il biologo olandese Lucas Patty dell'Università Vrije di Amsterdam.

Il ricercatore, assieme ai colleghi dell'ateneo olandese, è al lavoro per la realizzazione e il perfezionamento di questo macchinario dal 2015, quando ha compreso che gli strumenti di laboratorio di cui era in possesso, erano già in grado di rilevare la peculiarità della luce riflessa dalle piante. Ma l'ambiente controllato è ben diverso dal mondo reale, a causa dei disturbi legati agli agenti esterni, ai movimenti del bersaglio e anche alle variazioni d’illuminazione. Dopo anni lavori di perfezionamento lo spettropolarimetro TreePol adesso riesce a individuare la vita vegetale anche a chilometri di distanza. La tecnologia del biologo olandese è ancora in fase di perfezionamento ma è la medesima che le agenzie spaziali stanno sviluppando e pensando di installare sui prossimi telescopi spaziali.

Come accennato, il segreto è nella chiralità, cioè il modo in cui gli organismi biologici riflettono la luce in modo specifico, determinando la cosiddetta polarizzazione circolare. È questa la “firma univoca” che il super dispositivo riesce a individuare.

In attesa di avere questi nuovi strumenti, con le tecnologie ora a disposizione lo studio delle atmosfere degli esopianeti è tanto difficile quanto inviare un veicolo spaziale a una tale distanza. E se ciò è arduo per i telescopi spaziali, la situazione è addirittura peggiore per i telescopi sulla Terra, che non sono sufficientemente avanzati per riuscire ad analizzare l’atmosfera di questi mondi lontani, perché visibilmente troppo piccoli e avvolti dalla luce delle loro stelle per essere osservati con maggior dettaglio. Al momento quindi, lo sviluppo di modelli climatici appare essere fondamentale per l’esplorazione, poiché essi sono in grado di eseguire previsioni specifiche e verificabili (sempre nelle simulazioni al computer) dati le poche informazioni di cui oggi disponiamo.

Come ricordato all’inizio di quest’articolo, i pianeti rocciosi più simili alla Terra osservati finora sono stati scovati attorno a nane rosse, una tipologia di stelle predominante nella nostra galassia. Poiché queste stelle sono più piccole e meno luminose del Sole rilevare il transito del pianeta attorno ad esse è più facile rispetto ad altri mondi. È interessante ricordare che alcuni astrobiologi Nasa a cui sono state sottoposte alcune rappresentazioni di possibili visitatori alieni, hanno individuato nella razza dei cosiddetti “grigi”, creature dalle caratteristiche fisiche compatibili con il probabile sviluppo su pianeti rocciosi più piccoli della nostra Terra, orbitanti attorno a stelle nane rosse. Questo ancor prima che la scienza si rendesse conto di quanti pianeti rocciosi potenzialmente abitabili ci fossero attorno a questo tipo di stelle.

Quest’opinione non ha avuto molto credito nell’ambito della comunità scientifica ufficiale, un po’ per motivi ideologici preconcetti (non si ritiene ufficialmente reale alcun tipo di contatto extraterrestre), un po’ per motivazioni di carattere scientifico. Le nane rosse possono emettere, infatti, radiazioni ultraviolette e raggi x fino a 500 volte in più rispetto al Sole. Questo dato ha portato a pensare che un tale ambiente potesse influenzare drasticamente e in senso negativo, il clima di un pianeta roccioso, rendendo difficile la comparsa e la sopravvivenza della vita.

Oggi invece, i nuovi modelli climatici terrestri creati dai supercomputer Discover dimostrano che gli esopianeti rocciosi attorno alle nane rosse potrebbero essere abitabili nonostante l’alta dose di radiazioni.

I sistemi planetari potenzialmente abitabili di maggior rilievo per la comunità scientifica, tutti scovati attorno a nane rosse, sono principalmente quattro dei sette pianeti orbitanti attorno a Trappist-1, uno attorno a LHS1140, Teegarden b e Teegarden C del sistema Teegarden e Proxima b, del sistema Proxima Centauri (che a probabilmente anche un secondo pianeta roccioso in fascia abitabile, Proxima c, individuato di recente ma la cui scoperta va ancora confermata). Il team di scienziati Nasa ha iniziato l’indagine simulando le possibili condizioni climatiche su Proxima b tali da renderlo adatto alla vita.

Le informazioni che abbiamo oggi su questo esopianeta ci dicono che esso orbita attorno a Proxima Centauri, un sistema di tre stelle situato a 4,2 anni luce dal Sole, ed ha una massa leggermente più grande di quella terrestre.

Proxima b, inoltre, è venti volte più vicino alla sua stella rispetto alla distanza Terra-Sole, pertanto impiega solo 11 giorni per compiere un’orbita. Secondo i calcoli effettuati, la vicinanza con la stella, renderebbe Proxima b bloccato gravitazionalmente, in rotazione sincrona (come la nostra Luna con la Terra), ma con un emisfero sempre illuminato ed esposto quindi all’intensa radiazione, e l’altro perennemente al buio, esposto alle rigide temperature dello spazio (ciò non avviene per la Luna perché è in rotazione sincrona con la Terra e non con il Sole). Apparentemente quindi, tutto ciò costituirebbe un altro ostacolo a condizioni ottimali per lo sviluppo della vita.

Le nuove simulazioni mostrano però che Proxima b, o qualsiasi altro pianeta con caratteristiche simili, potrebbe essere comunque abitabile.  In che modo? A giocare un ruolo cruciale sarebbero le nuvole e gli oceani.

Alla base del nuovo studio c’è l’aggiornamento di modello climatico terrestre sviluppato negli anni ’70 (in grado di calcolare i dettagli dell’orbita di qualsiasi pianeta), che era servito a realizzare un simulatore planetario chiamato Rocke-3d, per studiare anche i pianeti bloccati gravitazionalmente. In questo modo il team di scienziati ha potuto simulare la temperatura, la durata del giorno e della notte e la salinità degli oceani per capire come questi dati influenzino il clima del pianeta. Simulatori come Rocke-3d può produrre informazioni importanti partendo da pochi dati: dimensioni, massa e distanza dalla stella. Questi dettagli, seppur scarsi, attraverso le analisi del citato supercomputer Discover possono diventare informazioni necessarie per costruire modelli climatici più raffinati.

Le simulazioni su Proxima b sono state condotte nello stesso modo in cui sono applicati i modelli climatici terrestri per studiare il modo in cui le nuvole e gli oceani si muovono e s’influenzano tra loro, e come le radiazioni interagiscono con l’atmosfera e la superficie del pianeta.

I risultati rivelano che le possibili nuvole presenti sul pianeta potrebbero fare da scudo alle radiazioni, mitigando le temperature sul lato esposto alla stella. L’atmosfera e la circolazione oceanica, inoltre, potrebbero spostare aria calda e acqua in tutto il pianeta, trasportando così calore sul lato freddo. Insomma, grazie a questo nuovo metodo di studio, oggi sappiamo che i pianeti rocciosi in fascia abitabile attorno a nane rosse sono, se possibile ancor più di prima, i luoghi dove potrebbe aver fatto la sua comparsa, la vita. Ciò rafforza anche la possibilità che i racconti riguardanti gli alieni grigi siano veri?

Indagini come questa pongono nuove basi sull’abitabilità planetaria, fornendo agli scienziati nuovi strumenti per la caccia alla vita su mondi lontani e a tutti coloro interessati alla vita extraterrestre l’opportunità di fare con maggiore consapevolezza, le proprie valutazioni sulla veridicità dei racconti di contatti, presenti e passati, con creature delle stelle.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Scoperte 143 nuove linee Nazca

Uno dei 143 nuovi geoglifi scoperti a Nazca

(Questo articolo è stato pubblicato anche sulla rivista ARCHEO MISTERI MAGAZINE nel numero di Maggio 2021)

Nazca, Perù. A circa 320 chilometri a sud est della capitale del Perù, Lima, si trova la moderna città di Nazca. Nell’area oggi desertica della pampa peruviana che circonda la città, viveva una misteriosa popolazione: i Nazca. Di questa popolazione conosciamo ben poco. Sappiamo era solita seppellire i morti, sappiamo che alcuni delle mummie ritrovate avevano il cranio allungato, sappiamo che hanno occupato questa zona desertica per quasi un millennio (dal 300 a.C. al 500 d.C.) e sappiamo che adorava divinità scese dal cielo.

Tra i pochissimi reperti archeologici che sono stati a oggi ritrovati, quelli che rimangono più misteriosi, non sono i gioielli d’oro o i resti dei vasi in terracotta rinvenuti nelle tombe, e neanche i curiosi e particolari pozzi, tutti allineati, a forma di spirale (i puquios) scavati nel deserto. Ciò per cui quest’antica popolazione è oggi conosciuta in tutto il mondo è un qualcosa che rimane ancora avvolto nel mistero.

Tra la fine degli anni venti e l’inizio degli anni trenta del secolo scorso, iniziano i primi voli commerciali in Perù. Mentre gli aerei volano alto sopra la pampa peruviana, sempre più piloti cominciano ad accorgersi che nei pressi della città di Nazca, il deserto cambia forma. L’anonimo e sbiadito paesaggio desertico, con le sue rocce e le sue distese di sabbia rossa sembra farsi sempre più organizzato, man mano che ci si addentra in quest’area. Ed ecco che dall’onnipresente rosso della sabbia, cominciano ad apparire linee bianche, che si evolvono gradualmente. Sempre più strisce s’incrociano nel secco e arido deserto peruviano. Il paesaggio cambia completamente mentre sempre più linee prendono forma, per realizzare semplici ma precisi, disegni geometrici: trapezi, linee rette, rettangoli, triangoli.

Montagna con cima spianata (Nazca)

Anche alcune montagne sembrano diverse. Cime perfettamente piatte e livellate si distinguono in modo chiaro dai finestrini degli aerei. Sono montagne dalla cima piatta, in mezzo a montagne con cime più naturali. Impossibile pensare che tale perfetto e ripetuto livellamento sia opera di casuali forze della natura. Sono state rimosse da qualcuno? Da chi? Come? Perché un simile dispendio di tempo ed energia? E dove è finito tutto il materiale rimosso? Le domande sono moltissime.

L’anomalia è ancor più evidente se si considera, che da queste cime, si dipanino altre linee, perfettamente dritte, che continuano per decine di chilometri. Sembrano essere strade che s’incrociano, ma non siamo in una città, siamo in pieno deserto. Non ci sono resti di edifici o altri ostacoli naturali che possano giustificare la costruzione di così tante strade che s’incrociano in un’area così vasta. Le linee, larghe anche decine di metri, proseguono perfettamente dritte, anche sopra alle montagne, senza che il profilo o le asperità delle stesse sembra aver influito nella realizzazione delle linee.

Mentre il traffico aereo diventava più intenso, appariva chiaro che quelle che si stagliavano sul deserto, non potevano essere semplici strade.

Ciò fu confermato quando furono scoperte alcune linee che, a differenza delle altre, non erano dritte, ma curvavano e zigzagavano in modo apparentemente casuale, finché ecco apparire figure ben distinguibili: scimmie, colibrì, ragni, uccelli, lama, fiori e misteriose figure umanoidi, tutte enormi, lunghe anche oltre 300 metri, impossibili da distinguere a livello del suolo. È così che il mondo ha scoperto le linee di Nazca, designati Patrimonio dell'Umanità dall'UNESCO nel 1994. Non si tratta di solchi scavati nel terreno ma, al contrario di geoglifi realizzati dalle antiche popolazioni in un modo certamente molto più lungo.

Le linee sono state realizzate rimuovendo le parti del terreno roccioso e scuro di ossido di ferro in superficie, scoprendo così il terreno calcareo più chiaro che si nascondeva sotto. Il contrasto il suolo più chiaro sottostante e le rocce più scure circostanti, ha reso quindi possibile realizzare le linee.

Grazie alla scarsa presenza di venti e al clima stabile essenzialmente secco e privo di piogge, ha permesso di conservare le figure intatte per più di 2.000 anni.  La domanda su cui tutti, nessuno escluso, si sono sempre posti riguardo alle linee è: perché tacciare linee e disegni così grandi al punto che è possibili apprezzarli soltanto dall’alto (moltissimi a livello del suolo sono pressoché invisibile e appaiono più che altro come semplici “strade” o “aree recintate” con delle pietre)? In molti, nel corso del tempo, hanno provato a cercare un’oggettiva risposta a questa domanda. Le molte teorie formulate negli anni, hanno però dato risposte parziali, anche perché si sono concentrate sulle sole informazioni e sui soli geoglifi conosciuti in fino quello specifico momento.  Ma nel corso dei decenni, i misteri e le domande anziché dissiparsi e trovare risposta, si sono infittiti e sono aumentati con l’aumentare degli studi sui geoglifi scoperti.

Il Ragno di Nazca

Tra quelli più particolari è più misteriosi (e anche uno tra i primi scoperti) c’è il ragno.  Quello che apparentemente sembra essere la raffigurazione di un semplice ragno, da un’analisi più accurata emerge una particolarità molto interessante. Questa figura, dalla lunghezza di 45 metri, rappresenta infatti, un ragno “Ricinulei”, originario del cuore della foresta Amazzonica, che si trova a oltre 1.500 chilometri di distanza dall'altopiano di Nazca. Com’è stata identificata questa specifica specie di ragno? L’aracnide caratteristico dell’Amazzonia, è molto piccolo, misura solamente 6 millimetri, ma ha una caratteristica molto rara. Presenta, infatti, l'organo genitale separato dall'apparato riproduttivo. In questa specie di ragni, sono i maschi a deporre le uova, mediante un'escrescenza appuntita che si trova sulla terza gamba. Il ragno di Nazca presenta questa peculiare caratteristica, ed è qui che cresce il mistero. Essendo il ragno molto piccolo, Tale escrescenza, nel Ricinulei, è visibile solamente mediante l’utilizzo del microscopio, strumento ovviamente non disponibile tra le popolazioni precolombiane.


La Scimmia di Nazca

C’è poi la Scimmia con una coda a spirale, delle ragguardevoli dimensioni di 135 metri. Secondo l’interpretazione degli archeologi, la spirale è un simbolo molto diffuso in tutte le antiche popolazioni della Terra, fin dal paleolitico, e si ritiene sia associata all’acqua. Più tardi infatti, nella cultura Maya, la scimmia, sarà considerata un animale divino, associato proprio all'acqua. Rimane da spiegare però, perché quasi tutte le più antiche popolazioni del mondo, benché non fossero mai entrate in contatto tra loro (almeno secondo l’archeologia e la storia ufficiale) abbiano utilizzato gli stessi simboli per indicare le stesse cose.

L'Astronauta di Nazca

Il geoglifo dell’Astronauta, lungo 30 metri, è un altro geoglifo interessante e tra i più famosi e controversi. È così chiamato a causa della curiosa forma della testa, simile a un casco da astronauta. Secondo l’archeologia tradizionale rappresenterebbe uno sciamano o un sacerdote. Anche qui sono moltissime le somiglianze tra questo geoglifo e i petroglifi del paleolitico presenti in Valcamonica (in Italia) o quelli presenti nello Utah (Negli Stati Uniti) o nei dipinti rupestri in Australia. Le domande che sorgono sono le stesse di quelle formulate per i geoglifi precedenti.

 

A destra  - Gli Astronauti della Valcamonica (Italia) - a sinistra i Wandjina nelle pitture rupestri degli aborigine (Australia)

Tra i più famosi e iconici c’è infine il Colibrì. Questo stupendo geoglifo è lungo addirittura 94 metri e largo 66, ed è apprezzabile soltanto dall’alto.

Il Colibrì di Nazca

La maggior parte degli archeologi ritiene che i geoglifi presenti in quest’area del Perù, siano stati realizzati in due tappe successive: prima le figure e poi i disegni geometrici. SI tratta tuttavia soltanto di ipotesi  poiché, a causa delle caratteristiche del suolo, è molto difficile poter datare con sicurezza il periodo in cui furono costruite, specialmente per la difficoltà di applicare il sistema di datazione con il Carbonio 14 (la datazione con al radiocarbonio è possibile solo per i materiali organici e non per le pietre).

Gli scienziati quindi, si sono avvalsi di altri metodi, come il confronto tra le figure dei geoglifi e quelle trovate sul vasellame della civiltà Nazca. Ai margini della Pampa, gli archeologi hanno scoperto la città cerimoniale dei Nazca, Cahuachi, da cui si ritiene provenissero gli artefici delle linee. Non si può escludere tuttavia, che le linee siano antecedenti a queste due civiltà, e che Nazca, Cahuachi, Paracas e altre popolazioni dell’area abbiano ricopiato i disegni sul loro vasellame, anche se ciò appare improbabile considerata l’assenza di tracce di altre civiltà precedenti.

Benché la scoperta avesse attratto da subito l’interesse non solo dell’opinione pubblica, ma soprattutto degli archeologi, fino al 1994, in quasi settant’anni di studi, erano stati identificati appena 30 geoglifi raffiguranti flora fauna e altri oggetti. Nel corso degli anni successivi il numero delle linee scoperte è aumentato. Grazie all’utilizzo d’immagini satellitari e, in seguito di droni, lo studio sistematico e la mappatura dell’area interessata dalle “linee di Nazca” è divenuta più facile, portando alla scoperta di numerose altre figure e facendo comprendere che il fenomeno ha riguardato un territorio molto più esteso di quanto inizialmente immaginato. I geoglifi nella Nasca Pampa si trovano distribuiti in un'area che si estende per circa 20 chilometri quadrati, ma fanno parte di un’area ancor più vasta (di circa 80 chilometri) che arriva nei pressi di un altro importante centro di un’antica e altrettanto misteriosa civiltà della zona: i Paracas.

La presa di coscienza che le “linee Nazca” fossero un fenomeno molto più esteso, sia a livello territoriale, sia a livello temporale, e la scoperta di nuovi geoglifi, ha influito nella ricerca della risposta alla domanda riguardo ai motivi che hanno portato le antiche popolazioni di quest’area a realizzare questi disegni?

L'Università di Yamagata ha analizzato le immagini satellitari dal 2004 e ha svolto attività sul campo per chiarire la distribuzione delle Linee di Nasca e per studiare le ceramiche trovate nei geoglifi dal 2010. Fino al 2015, questi sforzi di ricerca hanno identificato con successo oltre 40 geoglifi biomorfici. Tuttavia, era subito apparso chiaro come ci fosse ancora molto lavoro necessario per rilevare la distribuzione di tutti i geoglifi.

Nell’agosto del 2014 il ricercatore Eduardo Herrán Gómez de la Torre, nel corso di un'ispezione aerea dell'altopiano di Nazca, aveva fatto una scoperta inaspettata, come spesso capita, e importantissima.
Mentre sorvolava il famoso deserto di Nazca, aveva notato alcuni geoglifi che non erano mai stati rilevati in precedenza. Secondo quanto riportato dal quotidiano El Comercio, i geoglifi, sarebbero emerse a seguito di alcune tempeste di sabbia che avevano compito la zona tra il Mercoledì e il Sabato della settimana precedente la scoperta, tempeste tra le più intense degli ultimi 25 anni, con una velocità che ha raggiunto i 60 km orari, molti per un’area solitamente quasi priva di vento.
Le formazioni appena individuate raffigurano un serpente lungo 60 metri e largo 4 metri, un uccello, un animale, che potrebbe essere un lama, e alcune linee a zig-zag.

Le immagini si trovano su due colline situate ai margini sinistro e destro della Valle di El Ingenio, vicini a San Jose e Pampas di Jumana, dove si concentrano altri geoglifi già noti. La scoperta fu importante non tanto per i disegni in sé, quanto piuttosto perché dimostrava che, nonostante l’apparente e costante tranquillità del clima in quell’area (che spesso è paragonata da questo punto di vista ad alcune aree del pianeta Marte) nel corso del tempo, si parla di migliaia di anni, alcuni eventi eccezionali possono aver cancellato o nascosto altri disegni nel terreno.

La conferma si ebbe appena pochi mesi dopo, quando con l'aiuto dei droni nell'ambito dell'iniziativa GlobalXplorer e finanziato dalla fondazione National Geographic, e partendo dall’analisi d’immagini satellitari, furono scoperti altri 50 geoglifi anche in un’area inesplorata del deserto di Nazca, questa volta tra le città di Nazca e di Palpa. Anche in questo caso, si trattava di geoglifi rimasti sepolti da un sottile strato di sabbia, spazzato via da venti poco più forti di quelli che solitamente sono presenti in quel luogo. I nuovi disegni scoperti, ritraggono prevalentemente profili stilizzati di animali e linee geometriche, raffigurano anche esseri umanoidi. Per uno degli autori della scoperta, Johny Isla, archeologo del ministero della Cultura del Perù, "Alcuni disegni sono precedenti alla cultura Nazca e questo indica che la tradizione delle linee nel deserto è vecchia di migliaia di anni. La scoperta - ha aggiunto - apre la strada a nuove ipotesi sulla loro funzione e significato".

Si comprese dunque, che i geoglifi potrebbero essere ancor più di quelli che erano stati fin allora trovati. Nonostante gli scarsi venti e il clima secco, nel corso del tempo molti disegni potevano essere stati semplicemente nascosti. Non trovarli avrebbe potuto metterne in pericolo la stessa esistenza. L'espansione delle aree urbane ha causato danni alle linee, attirando l'attenzione sulla protezione delle linee Nasca come questione sociale. Geoglifi come l’Alligatore (quasi del tutto cancellato dall'incuria) e la Lucertola (questa figura ha subito gravi danni, essendo stata tagliata in due dai lavori dell'autostrada Panamericana), solo per citarne alcuni, sono già stati seriamente compromessi e ne rimangono solamente poche tracce.

Scoprirle e mapparle tutte il prima possibile è dunque necessario per proteggere questo sito e per avere più informazioni possibili per comprendere il significato delle linee nella cultura delle antiche popolazioni precolombiane di quest’area.

Dal 2017 un team di ricerca giapponese, ha messo in campo addirittura l’intelligenza Artificiale (IA), nella ricerca di nuovi geoglifi. Masato Sakai (antropologo culturale a capo del progetto e che lavora dell'Università di Yamagata, in Giappone) ha passato anni a dare la caccia ai geoglifi durante le sue spedizioni in sito, scandagliando anche, nel frattempo, immagini ad alta risoluzione delle Linee di Nazca fatte dallo spazio. Nel 2019, i dettagli sulle nuove 143 linee di Nazca scoperte durante questa ricerca, sono stati pubblicati su un documento diffuso alla stampa e messo on-line sul sito web dall'Università di Yamagata.

Grazie a una serie di tecniche avanzate, un gruppo di scienziati ha rinvenuto ben 143 nuovi geoglifi finora sconosciuti. Uno di questi, che sembra ritrarre una figura umanoide, è stato identificato solo grazie ad un modello di IA.

I nuovi geoglifi scoperti ritraggono esseri viventi e oggetti di tutti i tipi: persone, uccelli, scimmie, pesci, rettili e una varietà di corpi astratti.

Nello studio dell’Università di Yamagata, i ricercatori hanno classificato i nuovi geoglifi ritrovati in due categorie A e B, in base alla dimensione. Quelle di tipo A sono generalmente di grandi dimensioni e tutte le figure che si estendono per più di 50 metri (la più grande tra quelle di nuova identificazione supera i 100 metri). Quelle di tipo B sono sempre inferiori a 50 metri, tra cui la più piccola di appena 5. Il team nipponico ha poi rilevato come i geoglifi più grandi, chiamati di Tipo A, tendessero a rappresentare animali. Per gli studiosi le rappresentazioni dovevano essere enormi per renderle ben visibili alle divinità in cielo.

Le nuove figure di questo tipo appena scoperte, sono state datate come risalenti alle fasi più tardive della civiltà Nazca, tra il 100 e il 300 d.C. Secondo i ricercatori giapponesi, le figure di tipo A, in cui sovente sono stati rinvenuti cocci di vaso, sarebbero stati teatro di cerimonie rituali.

I geoglifi più piccoli invece, chiamati di Tipo B, risalirebbero a qualche secolo più vecchi dei primi, e sarebbero stati creati tra il 100 a.C. e il 100 d.C. Il team di Sakai ritiene che le figure di Tipo B, spesso collocate su chine e sentieri, potessero avere la funzione di punti di riferimento che aiutavano le persone a orientarsi. Sarebbero stati utilizzati come “indicazioni stradali”, per indirizzare i pellegrini verso le figure più grandi, attorno alle quali s’ipotizza che le persone si radunassero per tenere cerimonie religiose.

Di quest’ultimo tipo (B) fa parte la figura umanoide scoperta con l’aiuto di un sistema di IA, addestrata attraverso un metodo di deep learning di IBM il Watson Machine Learning Community Edition.

Il team di Sakai ha lavorato con il Thomas J. Watson Research Center di IBM, negli Stati Uniti, per allenare l'intelligenza artificiale a setacciare le immagini satellitari della regione e segnalare i siti papabili dove potevano nascondersi nuovi geoglifi. La piattaforma ha individuato un potenziale geoglifo (che poi si è rivelato essere tale) in un'area a ovest delle Linee di Nazca. Il team dell’università di Yamagata ha potuto così, trovare il glifo umanoide, che misura solo cinque metri di lunghezza. Questa figura è relativamente piccola, si estende per circa 5 metri di diametro e raffigura una figura umanoide in piedi.

Si pensa che sia stato creato durante il primo periodo della civiltà Nasca, poiché è un geoglifo di tipo B. Anche questa figura appena scoperta è situata vicino a un sentiero, indicando che probabilmente era usata come una specie di punto di osservazione. È la prima volta nella storia che una IA ha saputo indicare con esattezza la posizione di un geoglifo nella regione di Nazca, ma i ricercatori vogliono continuare a usarla per trovare, mappare e categorizzare nuove figure.

I ricercatori stanno ancora conducendo ricerche sul campo in diversi siti, comprese le aree non ancora esaminate utilizzando AI. Si ritiene possibile che alcuni geoglifi si trovino in aree esterne a quelle considerate nell'ipotesi iniziale. Tuttavia, le immagini 3D ad alta risoluzione raccolte con i nuovi satelliti e con i droni, si sommano a un'immensa quantità di dati già esistente e ci vorrebbe molto tempo per un essere umano, per identificare i geoglifi tra tutti questi dati.

Per espandere il progetto, la Yamagata University utilizzerà IBM PAIRS per organizzare i dati prodotti nelle ricerche sul campo negli ultimi 10 anni e utilizzerà l'IA per aggregare, cercare e analizzare questi insiemi di dati complessi e di grandi dimensioni. Al contempo, l'università giapponese implementerà l'intelligenza artificiale per svolgere indagini preliminari sulla distribuzione dei geoglifi, oltre a continuare a svolgere attività sul campo in loco. I risultati combinati delle due iniziative consentiranno all'università giapponese di produrre una mappa geografica di localizzazione dei geoglifi per l'intera pampa di Nazca. L'università cercherà poi di utilizzare questa mappa di localizzazione per proseguire gli sforzi per preservare le linee di Nazca, con la collaborazione del Ministero della Cultura in Perù.

Solo acquisendo una comprensione dettagliata di dove si trovano le figure e quando sono state utilizzate, i ricercatori potranno provare a fornire risposte alle tante domande che ancora circondano le linee di Nazca, nel tentativo di avvicinarci a comprendere la visione del mondo delle persone che hanno creato e usato questi geoglifi.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/marte-l-annuncio-dell-entomologo-william-romoser-insetti-sul-pianeta-rosso/

 

Continua...

Marte, l’annuncio dell’entomologo William Romoser: «Insetti e serpenti sul pianeta rosso»

 

William Romoser, uno dei più stimati entomologi americani, ha studiato per anni le fotografie scattate dai rover della Nasa su Marte. In occasione del meeting annuale dell'Entomological Society of America a St. Louis, nel Missouri, il professore dell'Università dell'Ohio ha esposto le conclusioni della sua ricerca, sostenendo l'esistenza di numerosi esempi di forme simili a insetti, viventi e fossili. La ricerca, che fatto molto parlare anche all’interno della comunità scientifica ufficiale, è stata pubblicata ed è disponibile sul portale scientifico Researchgate.net, con tanto di foto e relative annotazioni.

Romoser ha affermato che “la vita su Marte c’è stata e c’è ancora”. Nello specifico, sostiene di aver riconosciuto la presenza di creature simili ad api, bombi e serpenti. Per l’identificazione degli insetti marziani, l’entomologo statunitense ha adottato i medesimi parametri utilizzati per identificare e classificare gli insetti presenti sulla Terra.  “Tre regioni del corpo, una sola coppia di antenne e sei zampe — ha spiegato — sono tradizionalmente sufficienti per stabilire l’identificazione come insetto sulla Terra. Per gli artropodi bastano invece un esoscheletro e appendici articolate. Queste caratteristiche dovrebbero essere valide anche per identificare un organismo su Marte. Su queste basi, nelle foto dei rover si possono vedere forme simili ad artropodi e insetti terrestri”.

Nella sua analisi, Romoser ha poi tenuto conto anche di altri parametri per riconoscere gli insetti, quali la differenza di colore con le rocce circostanti, la simmetria del corpo, i raggruppamenti di forme diverse, la postura, l’evidenza di movimento, il volo, l’interazione apparente e gli occhi lucenti. “Una volta identificata e descritta una chiara immagine di una determinata forma, questa è stata utile per facilitare il riconoscimento di altri scatti meno chiari, ma comunque validi, che presentano la stessa forma base” ha continuato lo scienziato.

"La presenza di organismi metazoi superiori su Marte implica la presenza di fonti e processi di nutrienti / energia, catene e reti alimentari e acqua come elementi che funzionano in un ambiente ecologico, seppur estremo, sufficiente a sostenere la vita", si legge ancora nel paper della ricerca. "Ho osservato casi suggestivi di acqua stagnante o piccoli corsi d'acqua. Noto piccole rocce sommerse, rocce più grandi, un'area umida a riva e un'area più asciutta oltre l'area umida. L'acqua su Marte – ha ricordato l’entomologo - è stata segnalata più volte, compresi i rilievi fatti dalle strumentazioni di Viking, Pathfinder, Phoenix e Curiosity. Le prove della vita su Marte presentate qui forniscono una base solida per molte altre importanti questioni biologiche, nonché sociali e politiche. Rappresentano anche una solida giustificazione per ulteriori studi".

Non è la prima volta che, osservando con attenzione le foto raccolte dai rover sul pianeta rosso e poi pubblicate dalla Nasa, qualcuno evidenzia la possibilità che siano state immortalate creature viventi (uccelli o insetti volanti, granchi, ratti, ecc.) o fossili. Non sono mancate neanche le segnalazioni di possibili resti di costruzioni, e altri elementi architettonici artificiali. In tutti questi casi precedenti però, la comunità scientifica non si è neanche degnata di intervenire in prima persona per far sentire, attraverso suoi autorevoli membri, la posizione della “scienza ufficiale” a riguardo.

Tutti i casi precedenti sono stati aprioristicamente declassati a fake news o al fenomeno della pareidolia (fenomeno per cui la mente umana tenderebbe a vedere in rocce o formazioni naturali, volti, oggetti o esseri viventi con cui ha più familiarità). A emettere queste “sentenze” la comunità scientifica ha “mandato” i numerosissimi e “attivissimi” (sul web) portaborse che, sebbene non abbiano alcun titolo accademico per potersi pronunciare su questioni che riguardano praticamente tutto lo scibile umano, hanno, di fatto, ribadito al pubblico che quelle notizie non erano attendibili, soprattutto perché non provenivano da personale qualificato, cioè da persone di scienza.

Per tale motivo si è detto al pubblico che queste tutte le persone che avevano riscontrato anomalie nelle foto marziane, erano state tratte in inganno dal fenomeno della pareidolia, proprio perché non abituate a valutare scientificamente le cose, non avendo familiarità con la geologia, l’entomologia e la biologia in generale. Altro elemento su cui gli irriflessivi ossequiosi della scienza hanno sempre posto l’accento, era la tradizionale (ma ormai anacronistica) immagine di Marte che ancora oggi viene diffusa, quella cioè di pianeta inospitale alla vita, oggi come in passato.

Se tutto ciò è avvenuto in precedenti situazioni simili a quelle di Romoser, allora perché questo caso ha suscitato tanto clamore in ambito scientifico, facendo intervenite a più riprese, numerosi esponenti della comunità scientifica sulla questione?

Per rispondere a questa domanda è necessario valutare diversi aspetti.

La principale differenza con i casi passati sta, innanzitutto, nel fatto che ad avanzare la possibilità che i rover su Marte abbiano realmente immortalato forme di vita, questa volta sia stato uno scienziato accademico che fa parte a tutti gli effetti della comunità scientifica ufficiale, e non un “improvvisato” ricercatore.

Dal mio punto di vista, se un’osservazione è onesta, documentata e coerente con tutte i dati disponibili è degna di nota, indipendentemente dal fatto che ha farla sia un membro o meno della comunità scientifica ufficiale o un cittadino comune (ciò non significa, sia chiaro, che debba essere considerata vera ogni teoria, sovente assurda, che si trova in rete). Ma la comunità scientifica ha dato più volte dimostrazione di non pensarla allo stesso modo.

Ho già avuto modo di far presente, in precedenti articoli su questo blog, come la comunità scientifica non gradisca che qualcuno possa “metter bocca” su materie che ritiene siano ad appannaggio esclusivo degli scienziati accademici, né tantomeno che si vada contro le teorie tradizionali. Secondo l’idea “progressista” di cui gran parte della comunità scientifica è intrisa, solo gli esperti possono pronunciarsi su certe questioni. Secondo questa visione, il cittadino comune non deve pensare, ma solo accettare (o credere), senza se e senza ma, alle affermazioni delle autorità (in questo caso scientifiche).

Ma se esiste forse qualcosa di ancor meno tollerato nella comunità scientifica ufficiale, sono le cosiddette “invasioni di campo”, cioè i casi in cui uno scienziato si pronunci su argomenti di altre materie, diverse da quella in cui opera direttamente o è specializzato.

Le invasioni di campo sono mal digerite perché creano enormi imbarazzi a chi opera quotidianamente nel campo oggetto dell’invasione, perché non si può far finta di nulla o rispondere in modo perentorio dando, senza mezzi termini, dell’incompetente al collega che ha operato l’invasione.

In questo caso ci troviamo proprio di fronte ad un’invasione di campo: un entomologo che si pronuncia in tema di astrobiologia. È stato un membro della comunità scientifica ufficiale a sollevare obiezioni alla tradizionale visione della vita marziana. Non era possibile dunque, sguinzagliare i soliti e irriflessivi e “attivissimi” ossequiosi delle autorità, che non hanno alcun titolo per controbattere a un illustre e stimato scienziato accademico.

Era necessario “scomodarsi” in prima persona, per effettuare un intervento diretto a difesa dell’idea tradizionale (o forse d’interessi personali o nazionali). Sono quindi scesi in campo, anche in Italia molti membri, esponenti o portavoce, della comunità scientifica ufficiale, e l’hanno fatto intervenendo in tutte le principali testate giornalistiche mainstream.

La Repubblica e il Corriere della Sera (tanto per citare quelle più lette e diffuse nel nostro paese) sono solo alcune delle testate che si sono occupate della vicenda in modo a dir poco preconcetto, manifestando palesemente una dipendenza cognitiva di stampo progressista, basata esclusivamente sull’accettazione incondizionata delle affermazioni delle autorità e sulle “verità ufficiali”.

Tanto per fare un esempio, l’articolo (di appena venti righe) che si è occupato dello studio di Romoser (che il redattore dell'articolo storpia in "Rosomer" più volte in tutto l'articolo, evidenziando il suo livello di professionalità nonchè l'attendibilità del gionale su cui scrive),  apparso sul Correre della Sera il 20 novembre 2019, dopo aver illustrato con palese scetticismo le affermazioni dell’entomologo statunitense (probabilmente una delle competenze richieste per diventare giornalista del Corriere è la laurea in entomologia … - ironia), si conclude così: “Il rischio, tuttavia, è che l’illustre entomologo si sia fatto “abbagliare” dalla familiarità delle sagome rocciose, finendo vittima di ripetute pareidolie. Ad oggi - va detto - la Nasa non ha mai annunciato di essersi imbattuta in forme di vita marziane. Tuttavia, è proprio per fare luce sulla questione che tra pochi mesi prenderà il via Mars 2020, missione che prevederà l’invio sul pianeta di un nuovo rover incaricato di rintracciare strutture biologiche fossili quali conchiglie, coralli e stromatoliti”.

Da ciò si evince, secondo il Corriere della Sera, che la realtà è formata esclusivamente su ciò che le autorità (in qual caso la Nasa) affermano. Siccome la Nasa non ha mai affermato di essersi imbattuta in forme di vita marziane, affermazione già di per sé non del tutto corretta (vedi annuncio della Nasa e dell’allora presidente Bill Clinton nel 1996 sul rinvenimento di batteri fossili nel meteorite marziano ALH84001, e quello riguardante la rivalutazione degli esperimenti della missione Viking 2 del 1977, a cui un altro importante quotidiano come La Stampa aveva dedicato un articolo), ciò è sufficiente per declassare a pareidolia le affermazioni di un importante entomologo accademico.

Un'altra affermazione alquanto pittoresca contenuta nell’articolo, e che testimonia l’evidente difficoltà intellettiva dell’estensore nel formulare un pensiero autonomo e coerente, è quella relativa al fatto che la missione Mars2020 in partenza nei prossimi mesi, ha come obiettivo quello di cercare “strutture biologiche fossili quali conchiglie, coralli e stromatoliti”.

Ora, come ho già fatto notare nel mio ultimo libro (il lato oscuro di Marte dal mito alla colonizzazione), le prove sull’esistenza passata di vita su Marte sono già state trovate, come dimostrato dai numerosi studi pubblicati in merito (tutti citati nel mio lavoro editoriale), studi di cui ovviamente l’estensore ignora l’esistenza. È proprio per questo che la Nasa (ma lo farà anche l’ESA – Agenzia Spaziale Europea - con la missione a guida italiana EXOMARS 2020) andrà sul pianeta rosso a caccia non di forme di vita semplici, come batteri o altro (poiché già trovate), ma di forme di vita già più complesse come quelle che generano conchiglie, coralli ecc., o andrà addirittura “a caccia dell’evoluzione”, come affermato da alcuni addetti ai lavori e riportato nella rivista Golbal Science, House Organ dell’ASI (leggi l’articolo su questo blog “Exomars2020: su Marte in cerca dell’evoluzione”). L’estensore dell’articolo del Corriere della Sera avrebbe dovuto ragionevolmente porsi la domanda: com’è possibile cercare i resti di forme di vita complesse se la vita semplice non è stata trovata (almeno per quanto di sua conoscenza)? È come affermare di voler cercare i resti dei dinosauri su sulla Luna, senza che aver evidenze dell’esistenza di altre forme di vita più semplici!

È sorprendente ma altrettanto significativo, trovare una così evidente contraddizione in termini logici, in così poche righe di un articolo di stampa!

Possibile che su testate giornalistiche così importanti lavorino “giornalisti” (le virgolette sono obbligatorie in questi casi) così impreparati su questi argomenti, al contempo così superbi da ergersi a giudici del vero e del falso e con una percezione cognitiva così limitata da non rendersi conto di contraddire se stessi in poche righe? Oppure bisogna pensare che la redazione dell’articolo sia stata compiuta in ossequio ad altre logiche e interessi?

Il richiamo alla prossima missione (Mars 2020) forse non è un caso e, come vedremo tra breve, potremmo trovare una risposta alle domande appena poste, dopo aver valutato le dichiarazioni rilasciate “sull’affaire Romoser” a La Repubblica, dai membri italiani della comunità scientifica ufficiale.

L’articolo apparso su questo quotidiano, sempre in data 20 novembre 2019, è certamente più circostanziato di quello pubblicato dal Corriere della sera. Tuttavia, il tenore dell’articolo è pressoché lo stesso, mirante a sminuire, ma in modo più sottile e raffinato, l’attendibilità dello studio. Sia chiaro, lo studio di Romoser dal mio punto di vista non toglie o aggiunge nulla a quanto sappiamo sulla vita marziana, ma un giornalista vero e serio, ancorché totalmente impreparato per parlare di certi argomenti, si dovrebbe limitare a fare cronaca, riportando i fatti, senza aggiungere alcun commento.

Il titolo (“Insetti su Marte, la strana teoria dell’entomologo USA”), l’onnipresente sottolineatura che le annotazioni di Romoser siano espressione di un suo convincimento personale (come a sottintendere che il professore universitario statunitense sia un folle), combinata con l’uso del condizionale che accompagna i virgolettati dello scienziato statunitense, la sottolineatura che nelle immagini sono stati usati “freccette e cerchietti di colore rosso” quasi a volerne evidenziare la poca professionalità e serietà, testimonia lo scetticismo (o il tentativo di trasferire la stessa sensazione al lettore) presente in chi ha redatto l’articolo (probabilmente anche a La Repubblica assumono soltanto persone altamente specializzate in entomologia e astrobiologia).

Oltre alle opinioni del tutto personali del “giornalista”, l’articolo de La Repubblica è interessante poiché contiene le opinioni di tre membri della comunità scientifica ufficiale. Inutile dire che, anche in questo caso, si tratta di opinioni a senso unico (volendo dare per scontato che siano state riportate correttamente dall’estensore dell’articolo che fatico a definire “cronista”, il cronista riporta e non esprime opinioni proprie), sulla falsa riga del titolo e del tenore dell’intero articolo.

La prima opinione riportata (introdotta dall’esplicativo titolo di “Dai vermi all'uomo nella roccia: i 'fake' su Marte“) è quella di Raffaele Mugnuolo dell'Unità Esplorazione e Osservazione dell'Universo dell' ASI (Agenzia Spaziale Italiana) che ha detto: “Bisogna essere molto cauti nel giungere a conclusioni sulla base di così pochi dati. Già alcuni decenni fa ci fu un’ipotesi simile (i vermi marziani) fatta da scienziati russi che avevano analizzato alcune immagini particolari e identificato alcune strutture simili a microbatteri. Le risposte, si spera le avremo con le prossime missioni ExoMars e mars2020. Certo la presenza di metano rilevata da Curiosity e in passato dal nostro PFS (Planetary Fourier Spectometer) su Mars Express, insieme alla recente rilevazione di ossigeno sempre fanno ben sperare in scoperte clamorose".

Il riferimento di Mugnolo alla vicenda dei “vermi marziani” fatta dai russi decenni fa è da intendersi assolutamente faziosa. Oggi, a differenza di alcuni decenni fa, abbiamo moltissime altre informazioni oggettive sulle condizioni riguardanti il passato e il presente di Marte, informazioni che rendono certamente più plausibili certe ipotesi. Perché citare solo questo caso di probabile errore (?) fatto dai ricercatori russi, e non citare invece altre ricerche ben più valide dal punto di vista scientifico, come quella dei ricercatori del CNR Nicola Cantasano e Vincenzo Rizzo, pubblicata sull’International Journal of Astrobiology nel settembre del 2016 (ne ho parlato sempre nel mio libro e in quest’altro articolo del mio blog), che hanno confrontato, trovando corrispondenza pressoché assoluta, i segni lasciati nelle rocce sulla Terra da batteri terrestri, con quelli presenti nelle rocce marziane, sia a livello microscopico sia macroscopico in quasi tutte le oltre 40.000 foto analizzate?  Questa ricerca conferisce certamente più attendibilità alle possibilità avanzate da Romoser. Possibile che Mugnuolo, che ricopre un ruolo di assoluta importanza in ASI, non conosca questa ricerca così importante? Perché vengono ricordate al pubblico soltanto le ricerche che sono “funzionali” alla propria idea e all’idea tradizionale? Da notare anche in questo caso, il “richiamo” alle prossime missioni ESA e Nasa. Un caso?

Il secondo intervento riportato sulle pagine de La Repubblica, è quello dell’astrobiologa dell’Università di Roma Tor Vergata, Daniela Billi, che spesso collabora con i “vicini di casa” dell’ASI (l’Università di Roma Tor Vergata, dista poche centinaia di metri dalla sede dell’ASI) e con la NASA. Le dichiarazioni dell’astrobiologa italiana sono introdotte da La Repubblica con queste parole: “Le speranze di trovare conferma della tesi di Romoser è assai più remota per Daniela Billi…”, tanto per evitare che le parole di Mugnuolo apparentemente più possibiliste, possano aver distratto il lettore portandolo a considerare, anche solo per un attimo, la possibilità avanzata da Romoser.

"Non possiamo basarci sulla morfologia per affermare l'esistenza di vita, - ha affermato Billi - perché quelle forme che vediamo nelle immagini potrebbero essere il risultato di reazioni chimiche che niente hanno a che fare con la biologia. Parlare di organismi che possono vivere sulla superficie di un pianeta così ostile, così come lo conosciamo, sembra molto difficile. Possiamo immaginare che la vita possa essere esistita un tempo su Marte, ma anche nel caso si trattasse di fossili sarebbe necessario analizzarli prima di arrivare a tali conclusioni. Anche perché ciò presupporrebbe un'evoluzione biologica ben più veloce di quanto accaduto sulla Terra. Basti pensare che gli insetti sulla Terra sono comparsi non prima del Devoniano - e in presenza di un’atmosfera ossigenata, - quindi in un periodo molto successivo a quando Marte presentava condizioni di abitabilità superficiale. Abbiamo avuto solo prove recenti dell'esistenza di composti organici, - conclude Billi - ma che la loro origine sia chimica o biologica è ancora tutta da verificare. Per ammettere dunque l'esistenza di organismi viventi, abbiamo bisogno di prove ben più consistenti".

Anche in questo caso, c’è molto da dire circa l’onesta intellettuale di queste affermazioni.

Cominciamo col dire che non si può che essere d’accordo con Daniela Billi sul fatto che in scienza ci vogliono prove concrete, e che lo studio attento e circostanziato di Romoser, si basa soltanto su poche immagini, che sono state per di più “lavorate” al computer per poter evidenziare gli elementi su cui ha elaborato le sue conclusioni.

Tuttavia Daniela Billi omette di ricordare (o l’estensore dell’articolo non l’ha riportato) alcune cose. Anzitutto che le immagini che la Nasa pubblica sul suo sito, sono spesso rielaborate al PC prima della divulgazione, perché spesso sono raccolte con strumenti che percepiscono lo spettro visivo luminoso in modo molto più ampio dell’occhio umano, poiché mirano a evidenziare la composizione chimica delle rocce marziane, informazione importante per i geologi Nasa. Così, al fine di rendere le immagini più fruibili al pubblico, prima della pubblicazione la Nasa le rielabora, riportandole ai colori che un uomo potrebbe percepire se si trovasse sulla superficie del pianeta rosso, o come dichiarato da alcuni scienziati Nasa, ai colori che il pubblico si aspetta e/o a cui è più abituato quando si tratta del pianeta Marte (tanto per essere chiari, spesso il rosso viene “caricato” come si dice in gergo, in modo da rendere, ad esempio, il terreno o il cielo più rosso di quanto siano realmente). Ciò ovviamente, non avviene sempre, ma in molti più casi di quanto si pensi. Rielaborare le immagini Nasa aumentando e diminuendo contrasti e luminosità, per provare a riportarle allo “stato originario”, non significa necessariamente falsare l’immagine o il contenuto della stessa.

Dobbiamo certamente convenire con Daniela Billi che la valutazione del solo studio di Romoser non è assolutamente sufficiente ad affermare che su Marte ci sia e ci sia stata vita, così come non lo sarebbe anche se volessimo prendere per buone (e certamente non tutte lo sono) tutte le altre analoghe segnalazione di strane forme geologiche marziane fatte negli anni precedenti da ricercatori indipendenti.

Così come avvenuto per le dichiarazioni di Mugnuolo, però, dobbiamo altresì rilevare il fatto che l’astrobiologa italiana, che collabora attivamente con ASI e Nasa, non può non conoscere le decine di studi scientifici, basati sui dati raccolti in situ dai rover e dalle sonde presenti sul pianeta rosso, che hanno provato la presenza di materia organica, di acqua e di altri composti ideali e idonei a sostenere la vita. Non può non conoscere i numerosissimi studi che hanno ridisegnato la nostra conoscenza sul passato caldo e umido di Marte, al punto da rendere plausibile l’ipotesi che sia stato addirittura la  culla della vita nel nostro sistema solare , e dunque che la vita possa aver fatto la sua comparsa prima su Marte e solo dopo sulla Terra.

Si tratta di tutti studi scientifici compiuti dalle maggiori università e istituti di ricerca al mondo, pubblicati sulle principali e più importanti riviste scientifiche al mondo e basati su dati oggettivi e non su ipotesi. Possiamo pensare che un’astrobiologa così importante non conosca i progressi e le scoperte compiute negli ultimi vent’anni nella propria materia di competenza? Senza contare quanto già detto sui ritrovamenti di batteri fossi nei meteoriti (studi Nasa), sulla rivalutazione dei risultati degli esperimenti PR e LR della missione Viking 2 del 1977 e dello studio dei ricercatori italiani del CNR. Queste sono evidenze concrete. Perché non citarli o considerarli nelle sue affermazioni? Perché far finta di nulla, e ricordare all’intervistatore e al pubblico, sempre e solo informazioni obsolete, miranti a preservare l’immagine tradizionale del Marte inospitale?

Mi chiedo ancora perché, durante le sue lezioni di astrobiologia all’Università Roma Tre, insegna e non “rigetta” anche nozioni che fanno parte di teorie scientifiche supportate da scarse prove o ancora del tutto da provare, benché siano ampiamente condivise in ambito scientifico (ma non per questo necessariamente esatte)?

Se, come siamo tutti d’accordo, la scienza dovrebbe basarsi su prove concrete e oggettive in assenza delle quali è opportuno sospendere il giudizio, perché si richiedono prove inconfutabili solo di fronte a teorie che sono contro l’idea tradizionale e prevalente in ambito scientifico, e non si ha la stessa fermezza nel chiedere prove altrettanto incontrovertibili, di fronte alla moltitudine di teorie scientifiche ufficiali, ma pur sempre teorie e non verità oggettive?

Uno dei requisiti fondamentali di un uomo di scienza, dovrebbe essere anzitutto la coerenza! È paradossale vedere che la coerenza non ci sia in chi la scienza la insegna.

Nell’articolo de La Repubblica, il culmine del paradosso si raggiunge forse, nelle dichiarazioni della docente di fisica dell’Università Roma Tre, Elena Pettinelli. La ricercatrice collabora attivamente con l’ASI e l’ESA e, in passato, ha analizzato i dati del radar italiano Marsis, strumento che ha scandagliato il cuore del pianeta rosso alla ricerca di tracce di acqua.

Le sue dichiarazioni hanno dell’inverosimile!

"Non abbiamo prove di esistenza di acqua allo stato liquido e stabile sulla superficie del pianeta – ha dichiarato Elena Pettinelli - e questo, insieme alle intense radiazioni cosmiche, fa escludere la presenza di organismi viventi su tale superficie. E' capitato più di una volta che le immagini arrivate dai rover e dalle sonde in missione intorno a Marte venissero interpretate male, come quando qualcuno pensò di avere avvistato la faccia di un uomo scolpita nella roccia. Non vuol dire che ciò che vediamo sia una prova di esistenza in vita: la biologia su un pianeta è fatta di molecole, non di suggestioni".

Elena Pettinelli, in barba all’annuncio della Nasa del settembre del 2016 che ha comunicato che in certi periodi e in certe circostanze, l’acqua liquida ancora scorre sulla superficie marziana (anche se per brevi periodi, ma comunque in modo stabile e ricorrente), ci dice che su Marte non c’è acqua liquida e stabile in superficie!

Sebbene non siano oggettivamente presenti specchi d’acqua o fiumi in superficie (ma nel sottosuolo c’è un vasto sistema di laghi di acqua salta, rilevato proprio dal radar Marsis, e più in generale depositi d’acqua sono pressoché ovunque), la presenza ricorrente e periodica di rigagnoli d’acqua non consente di affermare che su Marte non ci sia acqua in superficie. Quella di Elena Pettinelli è una forzatura e una semplificazione fuorviante, soprattutto per il grande pubblico che non è informato e/o non segue continuamente l’evolversi dell’esplorazione marziana. Perché fare affermazioni tanto estreme quanto imprecise e fuorvianti? Dobbiamo pensare forse, che anche la docente di fisica dell’Università Roma Tre non sia aggiornata sulle nuove scoperte della materia di cui si occupa?

La sensazione che in queste reazioni, che appaiono un po’ scomposte e bizzarre, sembra esserci qualcosa che non va, sembra poter aver trovato poi conferma qualche giorno dopo.

Cinque giorni dopo la pubblicazione degli articoli che hanno “bollato” come folle lo studio di Romoser su tutti i mass media mainstream, il 25 novembre 2019, il portale della rivista Global Science, l’House Organ dell’ASI, che non aveva dedicato neanche una sillaba allo studio dell’entomologo statunitense, ha pubblicato, a firma del suo direttore Francesco Rea, un video articolo.

Nell’articolo del 25 novembre (2019), Rea prende spunto da uno studio pubblicato su Nature Geoscience da parte di un team di ricercatori europei, che poco o nulla a che fare con Marte, sostenendo che tale studio “concede poche chance all’entomologo statunitense”.  Nello studio pubblicato su Nature Geoscience, i ricercatori hanno concentrato la loro attenzione su un’area particolare del nostro pianeta, un cratere vulcanico pieno di sale, che emette gas tossici e nel quale l’acqua bolle in un’intensa attività idrotermale. Si tratta delle sorgenti etiopi di Dallol, l’unico luogo della Terra a oggi scoperto, dove non sono state trovate tracce di vita, neanche batterica.

Il luogo in questione, presentato da Rea come “molto simile a quella che dovrebbe essere la realtà ambientale marziana”, presenta sì alcune caratteristiche simili ad alcuni luoghi di Marte, ma anche sostanziali differenze.

Le sorgenti di Dallol sono, infatti, un luogo così torrido che in inverno le temperature superano i 45 gradi e dove abbondano pozze d'acqua saline e ricche di acidità. Composti salini e acidi sono certamente presenti in alcune aree di Marte, sebbene sia difficile poter stabilire se il grado di acidità e salinità sia lo stesso con quello delle sorgenti etiopi, ma di pozze d’acqua sul pianeta rosso, complice il fenomeno della sublimazione, certamente non ce ne sono in superficie o, come paradossalmente e anacronisticamente sostiene Elena Pettinelli, l’acqua liquida non c’è proprio. Inoltre, in Etiopia, le temperature nel luogo in questione sono molto alte e per questo assolutamente diverse, se non addirittura opposte a quelle su Marte. Nel Dallol le temperature variano da un minimo di 45 °C e massimi di 60 °C. Su Marte la temperatura  media di -63 °C, con minimi di -143 °C e massimi anche di 25 °C all'equatore in estate. Sotto questo punto di vista dunque, non potrebbe esserci luogo più diverso da comparare a Marte!

C’è poi da far presente che è un esercizio intellettualmente disonesto prendere un luogo così particolare e unico sulla Terra, che presenta condizioni simili solo in parte a quelle di alcuni specifici luoghi di Marte, e applicare questo “modello” a tutto il pianeta rosso. Se io fossi un alieno e stessi studiando la Terra, potrei prendere le condizioni presenti in un solo luogo specifico, magari proprio quello delle sorgenti del Dallol o quello di un deserto arido e inospitale come quello di Atacama in Cile, per poi applicare quanto osservato in questi singoli luoghi a tutto il nostro pianeta, giungendo alla conclusione che è privo di vita? Certamente potrei farlo, ma altrettanto sicuramente la mia “osservazione scientifica” sarebbe al quanto opinabile se non del tutto errata. Ciò che ha fatto Rea sul portale di Global Science non è poi tanto diverso.

È quindi chiaro il tentativo di Rea di utilizzare strumentalmente uno studio che nega la presenza di vita in certe condizioni, per gettare acqua sul fuoco sulle affermazioni di Romoser (che anche Rea storpia più volte in "Rosomer", probabilmente perchè parla per sentito dire? Oppure non sa neanche di cosa sta parlando?).

Anche in questo caso c’è viene da chiedersi: perché il direttore dell’House Organ dell’Agenzia Spaziale Italiana, si è sentito in dovere di intervenire strumentalmente su una vicenda a cui non era stata data in precedenza la minima importanza? Perché spingersi a fare paragoni tra luoghi terrestri tanto particolari e il pianeta Marte, citando la ricerca di Romoser, per di più riportando anche il nome sbagliato? Un semplice “abbaglio” del direttore di Global Science?

La risposta ai tanti comportamenti anomali fin qui riscontrati, va cercata nel “comun denominatore” che sembrano avere tutti i protagonisti di questa vicenda.

Infatti, tutti lavorano o hanno ruoli di rilevanza nelle prossime missioni Nasa (MARS 2020) ed ESA (EXOMARS 2020). Entrambe le missioni hanno l’obiettivo della ricerca di prove di forme di vita, non solo passata, ma adesso presente su Marte. Non a caso, entrambi i rover delle due missioni hanno strumenti per cercare nel sottosuolo marziano, luogo in cui si ritiene più probabile trovare forme di vita ancora vive. I risultati di queste missioni sono attesi non prima del 2021.

Prendete, se preferite, quanto sto per dire, non come un’indiscrezione o una rivelazione, quanto invece semplicemente per una deduzione.

Ho fatto già presente in molti articoli su questo blog, e ancor prima e più dettagliatamente nel mio libro su Marte (ma anche sommariamente in quest’articolo), che la vita sul pianeta rosso è già stata trovata. Tuttavia nessun annuncio in “pompa magna” come quello dell’annuncio del ritrovamento di acqua liquida su Marte fatto dalla Nasa (che era a conoscenza, in modo inconfutabile, di questa informazione fin dal 2008) è stato fatto. Questo perché le evidenze della presenza di forme di vita su Marte sono venute alla luce in modo differito e frammentato.

La rivalutazione degli esperimenti della missione Viking 2 è stata oggetto di una lunghissima diatriba tra la Nasa e il responsabile dell’esperimento, lo scienziato Gilbert Levin. La Nasa ha fatto parziali, e non ufficiali, ammissioni sull’esito positivo dei risultati degli esperimenti effettuati nel 1977 sul pianeta rosso dalla sonda Viking2, solo negli ultimi anni.

Le evidenze delle similitudini delle impronte fossili presenti nelle rocce marziane con quelle presenti sulle rocce terrestri, evidenziate dallo studio dei ricercatori del CNR, è stata eseguita sulla base dei dati raccolti molti anni prima dalle sonde, dati mai analizzati prima di quel momento. Solo pochi mesi fa si sono definitivamente escluse tutte le possibili ipotesi fino ad allora formulate, circa l’origine abiotica del metano marziano, lasciando sul tavolo come unica ipotesi, l’origine biologica, a ulteriore conferma dei risultati dei test effettuati dalla Viking 2. Nel frattempo abbiamo scoperto che le condizioni presenti su Marte non sono state, e non sono tuttora, così inospitali come si pensava, sebbene certamente estreme.

Tutto ciò considerato, è chiaro che la vita su Marte ci sia stata e ci sia, probabilmente in forme elementari, ancora oggi, sebbene non ci sia ancora un’evidenza inconfutabile ma solo una somma di elementi.

L’arrivo diluito del tempo di tali informazioni, non ha consentito di sfruttare mediaticamente le notizie, e dunque non si è ritenuto opportuno dare alcun annuncio ufficiale in tal senso. Dobbiamo, infatti, considerare che il settore della ricerca scientifica sia mosso prevalentemente in ragione d’interessi economici e politici. La “corsa allo spazio” degli anni ’60 conclusasi con gli allunaggi è avvenuta prevalentemente per motivi propagandistici, così come oggi l’esplorazione di Marte. Il ritorno d’immagine derivante dal successo delle missioni, è un elemento assolutamente importante e non secondario, a cui la comunità scientifica e la politica che la finanzia, tengono molto.

La notizia della scoperta di forme di vita aliene è un qualcosa di epocale, che deve essere sfruttato a pieno dal punto di vista mediatico. L’obiettivo è quello di cogliere il primo risultato positivo che sarà raccolto dalle sonde Nasa ed Esa nell’ambito delle missioni previste con partenza 2020, per dare finalmente l’annuncio ufficiale. Come ho già più volte anticipato infatti, l’annuncio riguardo il ritrovamento della prima forma di vita extraterrestre sarà dato entro e non oltre il 2025.

In attesa di avere quindi lo spunto giusto per fare l’annuncio, la parte della comunità scientifica che gestisce la scienza in ambito di astrofisica, astrobiologia e tutti gli altri settori coinvolti nell’esplorazione spaziale, non consentiranno a nessuno di “bruciare” una notizia così importante, forse la più grande scoperta nella storia dell’umanità. Men che meno a un altro scienziato che opera in un altro settore.

Immaginate l’imbarazzo tra gli astrobiologi e gli altri addetti ai lavori, di fronte a un entomologo, un esperto d’insetti, che fa un annuncio epocale come quello del ritrovamento della vita extraterrestre. Sarebbe uno smacco troppo grande. Che cosa penserebbe l’opinione pubblica di questi astrobiologi, sovente pagati con soldi pubblici, che non riescono a vedere una cosa così importante come una forma di vita aliena, mentre lo fa “l’ultimo arrivato”?

È chiaro che a fare l’annuncio del ritrovamento della vita extraterrestre sarà un astrobiologo e nessun altro. Aggiungo che, con ogni probabilità e per ragioni di opportunità, sarà la missione europea a guida italiana ad avere quest’onore. Dipenderà molto dalla situazione politica del momento. Si ritiene che l’immagine della Nasa sia stata molto compromessa negli ultimi anni. Infatti, la Nasa sembra essere ormai considerata, da una parte dell’opinione pubblica mondiale, il “deus ex machina” di molte teorie della cospirazione, dai falsi allunaggi alla terra piatta, passando per quelle che sostengono che l’ISS non esista e che le sonde su Marte non siano mai arrivate.  Basti pensare che sui social, alla notizia della pubblicazione dello studio di Rosomer riguardo eventuali insetti marziani, sono apparsi commenti di questo tipo: “Perché vi stupite? Certo, in Arizona ci sono gli insetti!” lasciando intendere che non ci sono sonde umane su Marte e che tutte le foto sono false.

Sebbene personalmente consideri poco rilevanti tali teorie, è altresì evidente che  la Nasa, così come quasi tutte le autorità statunitensi, si sono fatte pizzicare con le dita nella marmellata parecchie volte e che le loro affermazioni siano ormai sempre, da prendere con le molle .

C’è dunque chi ritiene che se l’eventuale annuncio del ritrovamento della vita marziana fosse fatto dalla Nasa, susciterebbe scetticismo in parte dell’opinione pubblica, sminuendo i meriti e gli onori della comunità scientifica, anch’essa bisognosa di un rilancio d’immagine dopo i numerosi scandali che la stanno caratterizzando negli ultimi anni (leggi gli articoli su questo blog dedicati all’argomento).

In quest’ottica c’è chi ritiene sia più opportuno lasciare all’ESA l’onore di fare quest’annuncio epocale. Al contrario, c’è anche chi sostiene che quello dell’annuncio del ritrovamento di vita extraterrestre possa essere una buona opportunità per la Nasa per rilanciare la sua immagine.

Concludendo, lo studio di Romoser, sebbene interessante, non costituisce un inedito assoluto ed è da considerarsi solo uno dei possibili tasselli a sostegno della probabilità della presenza di vita sul pianeta rosso, e non certamente una prova. Dal mio punto di vita non aggiunge e non togli nulla a quanto già noto ufficialmente e certamente più interessante. Tuttavia, grazie a questo studio e all’invasione di campo effettuata da Rosomer, abbiamo potuto osservare le razioni scomposte di alcuni esponenti della comunità scientifica ufficiale e dei mass media mainstream, a tutela di posizioni di potere e privilegio, presente passato e futuro, reazioni che ci hanno comunque consentito di evidenziare ancora una volta, come la scienza spesso non sia guidata dalla voglia di conoscenza, ma da interessi personali e di lobby.

 Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Vita su Marte: dall’ossigeno nuovi indizi.

Che Marte un tempo possa esser stato, e possa essere ancora oggi un luogo favorevole alla vita è ormai un’ipotesi più che accreditata nella comunità scientifica, che trova sempre nuove conferme attraverso i dati inviati a terra da orbiter e rover sulla superficie del pianeta rosso che i ricercatori analizzano e studiano scrupolosamente. Per la prima volta nella storia dell'esplorazione dello spazio, gli strumenti del laboratorio marziano Curiosity hanno permesso agli scienziati di misurare i cambiamenti stagionali nei gas che riempiono l'aria direttamente sopra la superficie del cratere Gale su Marte.

In particolare, nel corso di tre anni marziani (quasi sei anni terrestri) lo strumento Sample Analysis at Mars (SAM) situato all'interno del rover Curiosity, al lavoro sul pianeta rosso dall’agosto 2012, ha "annusato" l'aria del cratere Gale e ne ha analizzato la composizione.

I ricercatori che lavorano alla missione, coordinati da Melissa Trainer, del Goddard Space Flight Center della Nasa, hanno pubblicato i primi risultati sul Journal of Geophysical Research: Planets.

La rilevazione in situ ha consentito da un lato di confermare quanto già si sapeva riguardo la composizione media dell’atmosfera marziana, dall’altra ha portato alla luce delle “anomalie” che potrebbero rappresentare una nuova conferma alla presenza, ancora oggi, di forme vita sul pianeta rosso. In particolare, ciò che è risultato anomalo è il comportamento dell’ossigeno. Ma procediamo per gradi.

Innanzitutto i risultati delle rilevazioni hanno confermato la composizione dell'atmosfera marziana in superficie, già nota in precedenza: 95 per cento in volume di anidride carbonica (CO2), 2,6 per cento azoto molecolare (N2), 1,9 per cento argon (Ar), 0,16 per cento ossigeno molecolare (O2) e monossido di carbonio (CO) 0,06 per cento.

Gli strumenti di Curiosity hanno anche rivelato che su Marte le molecole si mescolano e circolano nell'aria seguendo le variazioni della pressione durante tutto l'anno.

Questi cambiamenti sono causati dalla CO2: il gas si congela sui poli in inverno, riducendo così la pressione dell'aria in tutto il pianeta. Quando la CO2 evapora in primavera e in estate e si mescola su Marte, aumenta la pressione dell'aria. All'interno di quest’ambiente, gli scienziati hanno scoperto che l'azoto e l'argon seguono un modello stagionale prevedibile, crescendo e diminuendo in concentrazione nel cratere Gale durante tutto l'anno rispetto alla quantità di CO2 presente nell'aria.

In precedenza gli strumenti avevano rilevato le fluttuazioni stagionali del metano. Numerosi studi, nel corso degli ultimi mesi, hanno combinato diversi dati, riuscendo man mano a escludere possibili cause delle fluttuazioni del metano. Se inizialmente l’origine abiotica (vale a dire da processi chimico-geologici) sembrava essere la soluzione più probabile (o era considerata tale, forse perché preconcetta e conforme all'idea di un Marte inospitale), la valutazione di tutti i vari fattori a oggi noti, hanno, di fatto, lasciato sul tavolo la sola possibilità che il metano sia di origine biologica, originato da batteri ancora oggi presenti su Marte (leggi i precedenti articoli a riguardo, pubblicati su questo blog).

Nulla aveva mai fatto  pensare che anche altri gas potessero seguire le stesse fluttuazioni. La comunità scientifica riteneva che, come rilevato da Curiosity in precedenza, tutti i gas seguissero il modello stagionale prevedibile. Gli scienziati si aspettavano che l'ossigeno facesse lo stesso. Ma non è così. Infatti, lo studio appena pubblicato ha evidenziato che la quantità di ossigeno nell'aria è aumentata di ben il 30 per cento durante la primavera e l'estate, per poi tornare ai livelli previsti dalla chimica nota solo in autunno.

Questo schema si è ripetuto ogni primavera, anche se la quantità di ossigeno aggiunta all'atmosfera variava di anno in anno, suggerendo che qualcosa lo stia producendo, e qualcos’altro poi lo disperda.

E' così che è stato trovato sorprendentemente ossigeno, il gas che molte creature terrestri usano per respirare. Cone accennato, gli scienziati che studiano Marte, sono rimasti sorpresi nel costatare che la storia dell'ossigeno è curiosamente simile a quella del metano. Almeno occasionalmente, infatti, i due gas sembrano fluttuare in tandem. Il metano è presente costantemente nell'aria all'interno del cratere Gale in così piccole quantità (0,00000004 per cento in media) che è appena percettibile anche dagli strumenti più sensibili su Marte. Tuttavia, è stato misurato da SAM. Anche l’ossigeno quindi, si comporta in un modo che finora gli scienziati non sono stati in grado di spiegare attraverso alcun processo chimico noto.

"La prima volta che l'abbiamo visto, è stato strabiliante. Abbiamo visto questa sorprendente correlazione tra l’ossigeno molecolare e il metano per buona parte dell’anno marziano, e ci ha sorpreso molto”, ha spiegato Sushil Atreya, dell’Università americana del Michigan, ad Ann Arbor, tra gli autori dello studio. "Stiamo iniziando a vedere questa correlazione allettante tra metano e ossigeno per buona parte dell'anno su Marte. Penso che ci sia qualcosa perché nell’atmosfera non ci sono abbastanza atomi di ossigeno per creare il comportamento che osserviamo. I due fenomeni devono essere collegati, ma non so dire in che modo. Nessuno lo sa al momento”, ha continuato l’esperto. "Il fatto che il comportamento dell'ossigeno non sia perfettamente ripetibile ogni stagione ci fa pensare che non sia un problema che ha a che fare con la dinamica atmosferica. Deve essere una fonte chimica e un pozzo che non possiamo ancora spiegare" ha concluso.

Nuvole nel cielo di Marte catturate da Curiosity

I ricercatori continuano a prendere in considerazione ogni ipotesi. anche se non hanno prove convincenti della presenza di attività biologica su Marte. Curiosity non ha strumenti in grado di dire definitivamente se la fonte del metano o dell'ossigeno su Marte sia biologica o geologica.

L'ossigeno e il metano possono essere prodotti sia biologicamente (dai microbi, ad esempio) che abioticamente (dalla chimica relativa all'acqua e alle rocce).

Per il metano però, abbiamo già visto che, nonostante ci si limiti a dire che tutte le ipotesi sull’origine abiotica sono state scartate, non affermando ufficialmente e palesemente che l’unica scelta rimasta sul tavolo, è quella dell’origine biologica, non è poi rimasto molto da discutere, almeno sulla base dei dati fino ad oggi raccolti e analizzati.

Tenuto conto di questo e unendo quanto emerso in merito al metano a tutti gli altri studi scientifici pubblicati nel corso degli ultimi due decenni (che ho raccolto ed esposto nel mio ultimo libro) riguardo la reale situazione passata e presente del pianeta Marte, la possibilità che l’ossigeno, così come il metano, siano evidenza di una qualche attività biologica, ancora in atto sul pianeta rosso, sembrano ormai diventate delle probabilità più che delle possibilità.

È legittimo e doveroso pensare, a questo punto che non sia certamente un caso che solo pochi mesi fa, uno studio del California Institute of Technology (Caltech), pubblicato nell’ottobre 2018 su "Nature Geoscience", ha concluso che l'ossigeno si trova nell'acqua salata sotto la superficie del pianeta rosso, potrebbe supportare la vita di microorganismi e forme di vita anche più complesse.

Come ho già avuto modo di esporre in un precedente post, secondo i ricercatori e gran parte della comunità scientifica con questa "scoperta" lo scenario cambia completamente perché aumentano le probabilità che nell'acqua marziana ci siano le condizioni per ospitare microrganismi con un metabolismo basato sull'ossigeno. Gli scienziati del Caltech autori dello studio, hanno dichiarato: "Anche ai limiti delle incertezze, i nostri risultati suggeriscono che su Marte ci possono essere ambienti in superficie con sufficiente O2 disponibile per far respirare i microbi aerobici”. È dunque questa la soluzione al mistero delle fluttuazioni di metano e ossigeno nell’atmosfera marziana?

Maggiori dettagli potranno arrivare da due missioni in programma nel 2020: ExoMars 2020, dell’Agenzia Spaziale Europea (Esa) e Mars 2020 della Nasa, che andranno a caccia di tracce di possibili forme di vita, presente o passata, su Marte. In particolare con la missione ESA-Roscomos ExoMars 2020 che effettuerà analisi geologiche e biochimiche del suolo marziano utilizzando un trapano costruito in Italia in grado di perforare la superficie del pianeta rosso fino a due metri di profondità. Obiettivo del rover europeo, le cui operazioni saranno guidate dal centro di controllo Rocc sito a Torino, sarà indagare non solo la presenza di eventuali condizioni favorevoli alla vita ma, come affermato dagli stessi scienziati, quello di trovare forme di vita e tracce della sua evoluzione!

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Edward Snowden: nell'Area 51 non ci sono alieni, ma l’11 settembre …

Edward Snowden, l’ex tecnico informatico della CIA e collaboratore della NSA (National Security Agency), dopo una serie di libri e di film che hanno narrato la sua vicenda e la decisione di rivelare i programmi top-secret di sorveglianza di massa del governo americano, ha pubblicato (il 20 settembre scorso – 2019) un libro dal titolo “Permanent Record” (titolo italiano “Errore di sistema”), nel quale racconta la sua versione dello scandalo “Datagate” e il perché ha deciso di rivelare i piani (e non solo) di sorveglianza di massa messi in atto dal governo statunitense. Nel libro espone anche il suo punto di vista su molte altre vicende della storia recente americana e mondiale, opinioni maturate sulla base delle indagini da lui stesso effettuate, in anni di “consultazione” più o meno autorizzata, dei supersegreti server di NSA, CIA e FBI e di tutte le altre agenzie di Stato. I temi toccati vanno dagli attentati dell’11 settembre 2011, alle scie chimiche, passando per gli allunaggi, il cambiamento climatico e gli alieni nell’area 51. Cosa ha scoperto?

Iniziamo prima con il riassumere velocemente perché oggi il nome di Edward Snowden è conosciuto (o ci sia augura lo sia) in tutto il mondo e perché oggi è esiliato in Russia.

Snowden è abituato a nascondersi  fin da ragazzino, quando come hacker adolescente si era già dimostrato capace di entrare nei sistemi governativi. Da semplice tecnico informatico della CIA, la sua attività all’interno dell’apparato di intelligence governativa si intensifica dopo gli attentati dell'11 Settembre, quando decide di mettere a tempo pieno le sue abilità al servizio del Governo. Ad appena 22 anni, era già operativo con la licenza di maneggiare materiale Top Secret, lo stesso tipo di materiale, che alla fine, da analista della NSA (National Security Agency) farà trapelare per inchiodare gli Stati Uniti alle proprie responsabilità.

Durante la sua attività spionistica, terminata nel 2013, per conto dei servizi segreti statunitensi, Snowden si rese conto, infatti, che il governo USA sorvegliava illegalmente i cittadini statunitensi, europei e di altri paesi, in aperta e palese violazione di ogni accordo internazionale o legge costituzionale. Scoperto quell’abuso e dopo aver raccolto prove inoppugnabili, decise di collaborare con i giornalisti Glenn Greenwald, Laura Poitras, ed Ewen MacAskill, consegnando loro documenti classificati riguardanti i sistemi d’intercettazione e sorveglianza delle comunicazioni telefoniche e Internet, documenti che provavano inequivocabilmente le sue dichiarazioni.

Quando i quotidiani The Guardian, Washington Post, Der Spiegel e New York Times, iniziarono a pubblicare articoli basati su quel materiale da lui consegnato, Snowden si trovava in un albergo di Hong Kong, ma sentendo sul collo il fiato della CIA, fuggì. Nel giugno 2013, infatti, il Dipartimento della giustizia degli Stati Uniti d’America accusò Snowden di violazione dell’Espionage Act del 1917, cioè furto di proprietà del governo.

Con le sue rivelazioni, tutte documentate da prove tangibili e inoppugnabili, aveva mostrato al mondo il vero volto degli Stati Uniti. Altro che paese libero ed esempio di democrazia. L’attività di spionaggio di massa non si limitava alla ricerca di potenziali cellule terroristiche che potessero mettere a rischio la sicurezza nazionale, ma riguardava tutti. L’intera popolazione mondiale era potenzialmente e sostanzialmente, sotto controllo senza distinzione alcuna. Paesi “nemici”, paesi alleati, cittadini statunitensi, cittadini europei e di altri paesi, semplici cittadini, primi ministri, capi di stato e di governo, generali ed esponenti delle forze armate e di altri apparati d’intelligence di altri paesi, nessuno era al sicuro. Snowden dimostrò che già dal 2008, gli Stati Uniti potevano intercettare qualunque comunicazione, scritta o vocale, trasmessa con qualunque mezzo, telefono, fax, email, messaggi sui social. Gli Stati Uniti, infatti, erano (e sono tuttora) in grado di accedere e utilizzare qualunque sistema connesso alla rete. PC, smartphone e ogni altro dispositivo “smart” poteva (e può) essere attivato anche se spento e registrare conversazioni, girare filmati, e scattare foto utilizzando i microfoni contenuti nei dispositivi stessi, senza che il proprietario se ne potesse (e se ne possa) rendere conto.  Insomma, un vero e proprio “Grande Fratello” in stile Orwell. Le rivelazioni di Snowden sulle continue violazioni della privacy degli USA, portarono l'amministrazione Bush prima, e quell’Obama poi, a considerarlo un traditore e ad accusarlo di spionaggio per aver rivelato segreti di Stato.

Braccato dagli Stati Uniti, Snowden riuscì comunque a partire per Mosca, dove le autorità lo fermarono a causa del passaporto invalidato (che gli era stato annullato in contumacia dagli USA, nel tentativo di impedirgli la fuga), confinandolo nel terminal del Šeremet’evo airoport della capitale russa.

La scelta della Russia avvenne solo per mancanza di alternative, dato che tutti i Paesi occidentali e “democratici” (teoricamente), fra cui l'Italia, nonostante avessero ricevuto richiesta di asilo, glielo negarono (come confermato dallo stesso Snowden in un'intervista rilasciata a Roberto Saviano per la Repubblica a metà del 2019).

Dopo un mese di permanenza presso lo scalo aeroportuale, la Federazione Russa lo fece liberare e gli concesse il diritto di asilo temporaneo rinnovabile. Dal 2013 Edward Snowden vive in Russia, a Mosca, dove si è sposato ed è divenuto scrittore e giornalista.

All’epoca dei fatti, la vicenda dello spionaggio di cittadini europei da parte degli USA fece clamore, ma mediaticamente l’eco della vicenda si spese dopo poche settimane. Incredibilmente, nonostante Snowden abbia mostrato al mondo l’ipocrisia e l’inaffidabilità degli Stati Uniti, sacrificando la sua vita e agendo quindi a tutela di tutta la popolazione mondiale, in particolare anche di quella europea, i cui leader politici erano costantemente spiati dal subdolo e infido alleato americano, nessun cambiamento c’è stato nei rapporti diplomatici e commerciali con il paese natale di Snowden. Ancor peggio, Snowden è mal visto dai politici italiani e, a cascata da tutti i mass media mainstream che ne parlano di rado e malvolentieri. È chiaro che parlare di Snowden significherebbe dover poi, per coerenza, agire di conseguenza e diffidare di ogni cosa quando si intrattengono rapporti con gli Stati Uniti.

Come se nulla fosse, i politici italiani ed europei, si recano sovente oltre oceano, ben contenti di ricevere indicazioni sulle politiche da adottare, soprattutto in tema di politica estera, dimostrando chiaramente il rapporto di sudditanza verso gli Stati Uniti. Paradossalmente, anziché rivedere radicalmente i rapporti con lo zio Sam, i paesi europei, Italia in primis, sembrano invece aver adottato lo stesso sistema già in voga negli USA. La violazione della privacy in barba a qualunque legge o principio democratico, avviene sistematicamente ormai anche nel nostro paese (ne ho parlato su questo blog nell’articolo “Polizia di Stato o Stato di polizia?”). Tutte le persone di buon senso, a questo punto dovrebbero porsi delle domande, a partire dalla più importante: com’è possibile far finta di nulla e continuare a vivere sapendo che tutte le informazioni della nostra vita, le nostre foto, anche quelle più intime, le nostre chat di WhatsApp, le nostre ricerche su internet possano essere a disposizione dei governi (e anche imprese private)? Com’è possibile accettare che ogni nostro dispositivo connesso alla rete che può essere utilizzato per spiarci, spesso con la complicità delle aziende telefoniche? È assurdo e paradossale costatare come quotidianamente, miliardi di persone vivano la violazione della nostra privacy come un aspetto normale della propria vita, e non ci sia nessun politico che cerchi di contrastare realmente quest’abuso.

Nel libro appena pubblicato e divenuto subito un bestseller, Snowden fa nuove rivelazioni, toccando argomenti considerati, spesso a torto, complottismo. Dagli attentati dell’11 settembre 2001 agli allunaggi del 1969, per arrivare ai cambiamenti climatici, alle scie chimiche passando per i misteri dell’Area 51 sugli alieni. Sono molti i temi su cui l’ex agente CIA, esprime le sue opinioni, frutto dell’attività d’indagine effettuata ai tempi in cui era un agente attivo, e in cui poteva, più o meno liberamente o lecitamente, girovagare per i server delle varie agenzie statunitensi.

Alcune delle principali testate e agenzie giornalistiche italiane (Ansa, Agi, Aska news, SkyTG24, ecc.) hanno dedicato dei piccoli articoli annunciando l’uscita del libro nelle settimane precedenti. Ma pochissime tra quelle qui citate, hanno poi dedicato servizi al contenuto del libro, una volta pubblicato. Nei rari casi in cui lo hanno fatto, hanno selezionato con “cura” gli argomenti. Del resto è comprensibile che l’annuncio del l’uscita di un libro di un personaggio così importante trovi spazio nei media, ma sia chiaro, che ciò accade soltanto per scopi commerciali, per fare pubblicità del libro insomma, così come accade per tanti altri personaggi nostrani che vengono invitati in trasmissioni televisive soltanto per il lancio del proprio libro. Ci si dovrebbe interrogare sul perché poi, non è stato dato spazio alle questioni importanti, cioè alle dichiarazioni del libro stesso, che ricordiamo, non è un romanzo di fantasia. Il motivo della poca visibilità data alle dichiarazioni di Snowden è perché non sono gradite?

A conferma di quanto detto in precedenza, tra le cose scritte nel libro di Snowden che sembrano aver attratto l’attenzione dei pochi media che hanno ritenuto interessante le nuove rivelazioni, ci sono soltanto alcune informazioni, e non altre. La selezione delle informazioni rivelate da Snowden e il modo di presentarle, è estremamente indicativo dell’atteggiamento che i mass media mainstream hanno nei confronti dell’ex agente CIA e di taluni argomenti.

Snowden ha dichiarato nella prefazione del libro, e poi più recentemente (il 24 ottobre 2010) durante il podcast "The Joe Rogan Experience" (commentatore televisivo statunitense), che le difese informatiche a protezione dei server dove è andato a curiosare erano ridicole e per lui è stato abbastanza semplice potervi accedere (aspetto da tenere a mente).  Ma cosa ha detto Snowden di interessante?

Iniziamo con il puntualizzare che nel suo libro, Snowden fa delle affermazioni che possono essere considerate, nella maggioranza dei casi, semplici opinioni. Questo perché tali opinioni sono sì maturate sulla base dell’attività di ricerca che Snowden ha condotto, ma la ricerca non sempre ha dato i frutti sperati. Andiamo però con ordine, iniziando con l’affermazione che, a mio modesto parere, è quella più significativa e riguarda gli attentati dell’11 settembre 2001.

Snowden ha dichiarato di aver trovato evidenza oggettiva che nei giorni immediatamente prima degli eventi “terroristici” che hanno colpito gli Stati Uniti all’inizio del nuovo millennio, per motivi non chiari era stata comandata e disposta la sospensione delle attività spionistiche di tutte le agenzie d’intelligence. Nel libro, l’ex agente CIA s’interroga sul perché la rete spionistica statunitense fu tagliata fuori proprio alla vigilia di quel momento critico. Solitamente l’establishment statunitense, e tutti Governi occidentali e i mass-media mainstream relegano le varie ipotesi sul coinvolgimento degli apparati statunitensi negli attentati dell’11 settembre fatte in questi anni, a improbabili e congetturali teorie della cospirazione. Nel libro, Snowden dichiara apertamente di non avere intenzione di farsi coinvolgere in teorie cospirazioniste, pur continuando a domandarsi perché i direttori delle agenzie abbiano sospeso temporaneamente gli agenti in servizio proprio a ridosso degli attentati. Solo una casualità? È stata proprio l’analisi dei fatti di quei giorni a portarlo a convincimento che se gli agenti fossero stati in ascolto, gli attacchi avrebbero potuto essere prevenuti ed evitati. Dunque, sebbene non abbia trovato le prove di un coinvolgimento degli Stati Uniti nell’organizzazione degli attentati (come alcune teorie hanno supposto), le prove trovate da Snowden certificano quantomeno una responsabilità indiretta sugli accadimenti. Se Gli Stati Uniti non hanno organizzato loro stessi gli attentati, li hanno certamente non ostacolati e, dunque favoriti. La sospensione del servizio, il far si che le agenzie d’intelligence non potessero condividere le informazioni lavorando in rete, gettano dunque una luce nuova sulla vicenda.

Ha seguito di quanto accaduto l’11 settembre 2001, con l’emanazione dal Patriot Act (che ha legittimato la sorveglianza di massa e circoscritto le libertà democratiche e individuali dei cittadini americani e di riflesso di tutti gli altri paesi del mondo), si è susseguito quasi ventennio di guerre. Nel corso di questi anni, un fiume di denaro pubblico è affluito nelle tasche di appaltatori della difesa e politici guerrafondai, che hanno inventato prove per spingere i paesi alleati a partecipare a guerre immotivate, inutili e sanguinose. Veri e propri attacchi deliberati alla sovranità di altri stati. In base a questa evidenza, nel libro Snowden denuncia il fatto che nei tre rami del governo degli Stati Uniti sono presenti funzionari corrotti, che lungi dal sorvegliare l’operato delle agenzie appaltatrici della difesa, nascondono la verità al popolo americano. Gli iniziali sospetti di Snowden diventano dunque tutt’altro che illazioni.

Di tutto queste nuove informazioni e dichiarazioni contenute nel libro appena pubblicato da Snowden, i mass media mainstream non hanno fatto menzione. L’agenzia ANSA (la 5a agenzia giornalistica più importante al mondo, che “produce” notizie e “indirizza” buona parte della stampa italiana), non ha dedicato una sola parola alla questione. Le altre hanno preferito concentrarsi (ma Tra le testate italiane che ho citato in precedenza, soltanto l’AGI ha dedicato poche righe al contenuto del libro, ignorando la questione 11 settembre e scegliendo di concentrarsi su aspetti molto che appaiono meno importanti. Non perché questi temi lo siano in assoluto, ma piuttosto perché le dichiarazioni di Snowden sulle altre tematiche, non sono affatto rilevanti e/o non sono supportate da documenti che ha trovato. Le opinioni di Snowden su cui i pochi mass media mainstream interessati si sono concentrati riguardano si basano su quello che NON ha trovato.

AGI ad esempio (e tutti gli altri siti che con il classico “copia e incolla” hanno ripreso l’articolo), ha titolato il suo articolo così “Nell'Area 51 non ci sono alieni. Parola di Edward Snowden” per poi porre l’accento anche su altre questioni, con un taglio giornalistico molto significativo ad evidenza della finalità per cui, a differenza altre testate, abbia deciso di dare spazio all’inviso Snowden. Nell’articolo di Agi si legge infatti: “…"Non esistono alieni conservati dalla Nasa e sulla Luna, ci siamo andati davvero". Un brutto colpo per tutti i cospirazionisti arriva da Edward Snowden… a che aggiunge altre due "rivelazioni". "Il cambiamento climatico è reale, le scie chimiche no".  

Appare abbastanza chiaro che le appena 21 righe dedicate alla vicenda mirino ad accumunare strumentalmente teorie o visioni che non hanno alcun punto di contatto tra loro e che hanno sostenitori e gradi di veridicità o verosimiglianza completamente differenti, oltre al fatto che le opinioni (perché di questo si tratta) di Snowden non certificano nulla.

Si tratta quindi di un articolo redatto, se volessimo considerare la buona fede, con una visione preconcetta delle cose, un articolo che mira alla ricerca dei “bias di conferma” tipici degli analfabeti funzionali e degli irriflessivi ossequiosi delle autorità e delle verità di Stato.

Accumunare l’argomento “Alieni e Area 51” con la teoria dei finti Allunaggi del ’69, è un esercizio intellettualmente disonesto e scorretto. Così come lo è accumunare superficialmente la teoria della presunta negazione dei cambiamenti climatici, con quella delle scie chimiche.

C’è, infatti, da sottolineare come Snowden abbia maturato le sue idee sulla base di quello che ha trovato ma, soprattutto, di quello che non ha trovato. Anche in questo caso procediamo con ordine e per gradi.

Ha trovato evidenze e documenti che attestano gli allunaggi. La teoria dei falsi allunaggi è una teoria che, sebbene sia molto popolare (probabilmente perché rilanciata in occasione del cinquantesimo anniversario degli allunaggi che è ricorso quest’anno, nel 2019), è una teoria da sempre poco credibile. Il suo eventuale fascino o “credibilità”, termina immediatamente, non appena ci si addentra nelle nozioni di fisica, astronomia, astrofisica e ingegneria aerospaziale. Le evidenze che gli allunaggi siano reali sono talmente tante, da rendere abbastanza ovvio e scontato il fatto che Snowden abbia trovato evidenze e abbia fatto dichiarazioni in tal senso.

Medesimo discorso può essere fatto per quanto concerne il cambiamento climatico. Il cambiamento climatico è qualcosa di oggettivo che tutti possiamo constatare. Le teorie che discutono lo stesso sono diverse e variegate. Si va dalla negazione pura (ma che come detto lascia il tempo che trova) a quelle certamente più oggettive che non negano il cambiamento in sé, malo spiegano in modo scientificamente più plausibile di quanto comunemente è fatto dai politici, dai meteorologi (che non sono climatologi) e dai mass media mainstream. In queste teorie si sostiene solo l’evidenza scientifica della questione e cioè che il nostro pianeta ha sempre subito nel corso del tempo cambiamenti climatici, anche in periodi in cui l’uomo era assente o la sua attività non era significativa. Eventi naturali quali eruzioni vulcaniche, impatti asteroidali e, come oggi sappiamo (ma solo da pochi anni) soprattutto l’attività solare, influiscono in modo determinante sul clima terrestre. Il fatto che ci troviamo in un periodo di cambiamento è evidente, le teorie prevalenti in tema di discussione del cambiamento climatico, riguardano piuttosto la quantificazione dell’incidenza dell’attività antropica sul clima e, eventualmente quanto questo dipenda da attività involontarie (effetti collaterali dell’attività umana, inquinamento atmosferico, sfruttamento delle risorse, ecc.) e quanto invece dall’attuazione volontaria di sistemi di geoingegneria. Accumunare volutamente tutte queste teorie diverse come fossero una sola, e volendo ergere a rappresentativa solo la più assurda (quella della negazione) è chiaramente un esercizio intellettualmente disonesto, che mira soltanto a screditare ogni teoria non ufficiale.

Anche per il cambiamento climatico quindi, le dichiarazioni di Snowden non sorprendono, così come non sorprende che possa aver trovato documenti che evidenziano la situazione.

Ma ciò che sembra aver avuto maggior gradimento da parte dei media mainstream, sono certamente le dichiarazioni di Snowden riguardo agli alieni. Anche in questo caso però, le dichiarazioni sono state riportate in modo capzioso. Si è data enfasi al fatto che l’ex agente CIA abbia detto di non aver trovato nulla riguardo al fatto che nell’Area 51 ci fossero dischi volanti alieni o copri di alieni, così come di non aver trovato alcuna evidenza di contatti tra il governo americano e gli alieni. Non si stato riportato o è stata data meno enfasi, alla puntualizzazione fatta dallo stesso Snowden che ha, infatti, precisato che il fatto di non aver trovato nulla non significhi che le teorie (che poi tanto teorie non sono) sono false, aggiungendo che se fossero vere, il segreto è molto ben custodito.

Quest’ultima parte però, evidentemente non era funzionale, a confermare le verità di Stato a cui i mass media mainstream fanno riferimento, dunque la notizia è diventata che gli USA non hanno avuto contatti con alieni e non ne nascondono l’esistenza.

Abbiamo però detto, che è stato lo stesso Snowden ha dire che non bisogna giungere a conclusioni definitive e, in precedenza, ci aveva detto che l’accesso ai server su cui aveva cercato evidenze a queste teorie, avevano misure di sicurezza “ridicole” (cito testualmente).

Non dovrebbe sorprendere quindi, che Snowden non abbia trovato nulla a riguardo. Del resto quale modo migliore c’è di conservare un segreto oggi, se non quello di non farne copie digitali da conservare su dispositivi connessi alla rete? Non a caso la quasi totalità dei documenti emersi nel corso del tempo, documenti ufficiali divulgati dagli Stati Uniti e da molti altri paesi, nell’ambito del Free Of Information Act (FOIA), che attestano il fenomeno Ufo come un fenomeno reale, confermano l’esistenza di programmi segreti per lo studio degli stessi e della loro tecnologia, che attestano il recupero di dischi volanti precipitati, sono sempre rappresentati da fotocopie di documenti cartacei. Di documenti ufficiali ne esistono migliaia, lo sappiamo con certezza perché il governo USA li ha divulgati, di ciò non possiamo non tener conto quando formiamo la nostra opinione sulla vicenda, eppure Snowden non li ha trovati.

Solo poche settimane fa (settembre 2019) gli Stati Uniti hanno ufficialmente confermato l’autenticità dei filmati divulgati nel dicembre del 2017 (ripresi da aerei dell’aeronautica militare statunitense, che immortalano oggetti non identificati non terrestri), confermando al contempo l’esistenza del fenomeno UFO e di un nuovo (l’ennesimo) programma segreto (ne ho parlato in quest’articolo) nell’ambito del quale le riprese erano state compiute.

Più specificatamente, in merito all’attività nell’Area 51, c’è da ricordare poi alcuni aspetti. L’Area 51 è entrata a far parte della cronaca ufologica solo alla fine degli anni ’80 del secolo scorso, quando l’ingegnere Bob Lazar rivelò di aver preso parte all’attività di retro ingegneria su dischi volanti presenti nella base di cui fino allora, molti ignoravano l’esistenza. Fino a quel momento, l’Area 51 era una base segreta sconosciuta al mondo, dove gli Stati Uniti, a partire dagli anni ’50, avevano sviluppato la tecnologia di veicoli per lo spionaggio durante la guerra fredda. All’indomani delle sue dichiarazioni, Bob Lazar fu screditato e cancellata qualunque traccia del suo lavoro nella base, tracce che avrebbero potuto avvalorare, agli occhi dell’opinione pubblica, i suoi racconti. Il Governo USA dichiarò che l’Area 51 non esisteva .La vicenda di Bob Lazar attrasse l’attenzione di molti e le immagini che testimoniavano l’esistenza della base e strane attività sui cieli della stessa si moltiplicarono di giorno in giorno. Successivamente con la nascita di internet, anche su Google Earth apparvero le immagini satellitari che attestavano l’esistenza dell’Area ’51 (ne ho parlato nel mio libro del 2015). Ciò nonostante, solo nel 2013, gli Stati Uniti ammisero pubblicamente l’esistenza dell’Area 51, pur precisando che fosse adibita solo a scopi militari.

Chi conosce un minimo la materia ufologica, sa che il clamore suscitato dal racconto di Lazar, spinsero verosimilmente gli USA a spostare l’eventuale attività di studio della tecnologia aliena in altri siti, già negli anni immediatamente successivi. Non è un caso che è proprio tra la metà degli anni ’70 e quella degli anni ’80, secondo quanto rivelato nei decenni passati da molti addetti ai lavori, l’eventuale attività su tecnologia aliena era stata quasi completamente spostata nella costruenda base sotterranea di Dulce, nel New Mexico (vedi quanto riportato sempre nel mio libro del 2015). È bene ricordare poi, che ci trovavamo in un’epoca in cui i computer avevano, capacità di memorizzazione e archiviazione ancora molto limitate e non esisteva internet. Ogni documento quindi era rigorosamente conservato esclusivamente su carta. Come poteva quindi Snowden trovare documenti digitali riguardo l’attività “aliena” nell’area 51 se tutta l’attività eventualmente in essa svolta, era stata spostata anni prima della “rivoluzione digitale” e dell’avvento d’internet, in altro loco? Come poteva Snowden trovare documenti digitali sull’attività dell’area 51, se questi probabilmente non esistono? È poi logico supporre che informazioni di questa portata non si trovino archiviate su server con sistemi di sicurezza “ridicoli” come detto dallo stesso Snowden. Se volessi celare un’informazione in modo sicuro, è chiaro che non ne farei copie digitali, e se decidessi di farne, le terrei solo su dispositivi che non hanno alcun tipo di possibilità di essere connessi alla rete. Solo così sarei certo di poter custodire i miei segreti e di poterne controllare l’accesso.

Facciamo un esempio. Supponiamo che Snowden volesse trovare in rete, o su un qualunque computer a essa connesso, la foto di mio nonno o del mio bisnonno (tutti scomparsi prima dell’avvento di internet). Per quanto Snowden sia un abile esperto informatico e possa disporre delle tecnologie in mano alla NSA alla CIA e al FBI, non riuscirebbe a trovare nulla, perché nessuna foto di questi miei parenti è stata mai presente in forma digitale. Ciò non significa che mio nonno o il mio bisnonno non siano esistiti, che tutti quelli che li ricordano e ne parlano non siano attendibili e raccontino il falso. Qualunque conclusione che affermasse il contrario, sarebbe certamente errata. Sebbene dunque, sia un concetto facile da comprendere, forse qualcuno ha difficoltà a contestualizzare gli eventi, è incapace di immaginare un mondo diverso da quello di oggi, si è dimenticato di come era il mondo solo poco più di un paio di decenni fa o, cosa più probabile, sta strumentalizzando Snowden e le sue dichiarazioni.

Per concludere, per quanto io ritenga serio e affidabile Snowden, penso sia sempre necessario ponderare la veridicità delle affermazioni di chiunque, in funzione di tutte quelle che sono le informazioni disponibili provenienti anche da altre fonti e già ufficialmente accertate, e non solo fermarsi a considerare l’attendibilità di quell’unica fonte. Viviamo in un mondo complesso e la realtà che incontriamo quotidianamente, lo è altrettanto. È sempre necessario incrociare i dati e le informazioni per cercare di capire la complessa realtà dei nostri giorni e avvicinarsi il più possibile alla verità.

Il modus operandi con il quale le dichiarazioni di Snowden sono state filtrate o addirittura ignorate dai mass media mainstream, denota chiaramente l’esistenza di un pensiero preconcetto su talune tematiche probabilmente considerate tutte fantasia. È chiaro altresì l’intento di utilizzare una figura antisistema come Snowden, per sminuire l’importanza di alcune tesi, accumunando in modo semplicistico e superficiale, alcune palesi e bizzarre teorie, con altre situazioni ben più strutturate, documentate e argomentate. Il fine è quello di dare credito alle verità di stato e supportare l’attendibilità delle Autorità politiche, militari, scientifiche, ecc. Insomma, tutto sembra essere stato fatto in modo da confermare la veridicità del proprio punto di vista, quello delle verità ufficiali. Per queste persone il mistero non esiste, le autorità agiscono sempre bene e nell’interesse dei cittadini, e gli uomini al poteri sono tutti onesti e incorruttibili. In questo idilliaco mondo, in cui ovviamente non c’è posto per chi prova ad utilizzare la propria testa, probabilmente esiste anche Babbo Natale, la fata del dentino e il coniglietto di pasqua, chissà. Giunti ormai alle porte del 2020, è abbastanza triste vedere ancora qualcuno che, tra compiacimento, soddisfazione e una buona dose di presunzione, pensa di riuscire ad imporre la propria "verità". Pensando a queste miserie prettamente umane, tornano alla mente le parole dello psicologo e filosofo austriaco (naturalizzato statunitense) Paul Watzlawick, che diceva: “La credenza che la realtà che ognuno vede sia l’unica realtà, è la più pericolosa delle illusioni”.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Rosario Smart, anche il Vaticano entra nel mercato della raccolta dati e dell’hi-tech indossabile

Viviamo in un’era di raccolta dati. La rete, abbinata alla tecnologia wireless, ha creato la cosiddetta internet delle cose che ha, di fatto, messo fine alla privacy delle persone. Attraverso la moltitudine di oggetti smart oggi disponibili, le vite di miliardi di persone sono sorvegliate e controllate continuamente sotto ogni aspetto.

Il salto di “qualità” si è avuto con lo smartphone, vera e propria microspia che quasi ogni persona porta sempre con sé. Le app installate accedono a microfono e videocamera (registrando e scattando foto) e a qualunque altro dato presente non solo sul dispositivo, ma anche alle informazioni raccolte dai vari oggetti smart a esso connessi, o alle informazioni presenti negli account dei social network (Facebook, Linkedin, Istagram, Twitter e account google su tutti) nei quali le persone inseriscono quasi ogni aspetto delle loro vite, e che spesso sono utilizzati per “loggarsi” velocemente alle varie app, senza dover creare un nuovo account o digitare password. Nonostante che con cadenza quasi quotidiana, giungano notizie di continue violazioni dei server che conservano questi dati, delle norme di utilizzo delle informazioni raccolte da parte delle stesse aziende che ne avevano assicurato la tutela o, ancor peggio, delle autorità che dovevano vigilare, la maggioranza delle persone continua a utilizzare con superficialità la tecnologia smart. La tecnologia connessa alla rete sarebbe un ottimo modo per la diffusione d’idee e cultura, per discutere e trovare soluzione a problemi sociali e mondiali, invece è utilizzata prevalentemente per compiacere il proprio ego.

Il problema dunque non è la tecnologia in sé, ma l’uso che se ne fa. L’uso inconsapevole può avere conseguenze devastanti, sia dal punto di vista sociale, sia individuale. I dati condivisi dagli utenti hanno un enorme valore per molti settori industriali, per i governi e anche per la criminalità. Non parliamo semplicemente di username e password di conti bancari, ma d’informazioni molto più preziose e non modificabili in caso di furto, come i dati biometrici. Le persone però, sembrano ben gradire il fatto di essere “schedate” consegnando le proprie impronte digitali, la scansione della propria iride, la propria impronta vocale o i parametri del proprio volto.

Esiste un fiorente mercato della compravendita di dati. Ad alimentare questo mercato non sono soltanto i dati personali usati per scopi criminali, furti d’identità ecc., ma anche i dati sanitari (quelli che sono i più costosi da acquistare sul mercato) e tanti altri dati (abitudine di consumo, opinioni politiche, preferenze sessuali e religiose, dati di geolocalizzazione, ecc) considerati erroneamente meno importati rispetto a quelli di accesso a un conto bancario o di un numero di carta di credito. La possibilità di filtrare i dati per influenzare e controllare intere popolazioni è interesse di moltissime aziende e Governi (anche quelli che si definiscono “democratici”).

La Cina, secondo quanto emerso da un articolo del New York Times di febbraio 2019 (notizia che ha poi trovato diverse conferme nei mesi successivi), starebbe sorvegliando la popolazione uiguri (una minoranza presente n Cina) anche raccogliendo i loro campioni di dna e le impronte digitali, oltre a scansionarne il volto e la voce.

Tra il 2016 e il 2017, circa 36 milioni di persone hanno partecipato al programma noto come Esami per tutti: una sorta di specchietto per le allodole sfruttato, con la scusa di check-up sanitari, per effettuare una raccolta di dati sensibili, ampliando così il database informativo attraverso il quale la popolazione degli uiguri è tracciata e sorvegliata.

La raccolta del dna è stata eseguita utilizzando anche strumentazioni e competenze fornite da aziende e genetisti statunitensi.

“Il data banking obbligatorio dei dati anagrafici di una popolazione intera, incluso il dna, è una grave violazione delle norme internazionali sui diritti umani”, ha spiegato Sophie Richardson, direttrice di Human Rights Watch in Cina. “È ancora più inquietante se tutto questo è fatto di nascosto, sotto l’apparenza di un programma sanitario gratuito”.Secondo quanto scrive il sito Notizie Geopolitiche, “il controllo sulla popolazione ha raggiunto livelli inaccettabili: alle persone capita di essere costrette a sottoporsi a controlli di polizia più volte al giorno. Prima di accedere ai distributori di benzina, agli hotel e alle banche è necessario sottoporsi a procedimenti di riconoscimento facciale; le autorità hanno il potere di registrare in maniera arbitraria tutte le telefonate provenienti dall’estero e di obbligare privati cittadini a installare sul telefono un’app per controllare tutti i messaggi in entrata e in uscita”. Il distopico mondo di stampo orwelliano instaurato in alcune aree della Cina, non deve trarre in inganno, poiché non rappresenta certamente un inedito.

Gli Stati Uniti (come dimostrato già nel 2012 da Edward Snowden e confermato da altre informazioni emerse ufficialmente negli anni seguenti) non fanno già la stessa cosa da anni?
Gli USA, dal punto di vista della violazione dei diritti umani, dello sterminio delle minoranze, del controllo silenzioso della popolazione, della sistematica violazione della privacy, ecc, non hanno certamente nulla da apprendere da altri, essendo nei fatti (e non a parole) uno degli stati più antidemocratici che esistano.

La raccolta d’informazioni personali può essere sfruttata in vari modi e per vari scopi. Continuamente vengono inventati e messi sul mercato sempre più oggetti smart, in grado di carpire informazioni di vario genere, in modo da fornire a chi detiene i dati, notizie preziose sulle abitudini delle persone. Ciò consente di monitorare i propri interessi e adottare politiche, anche semplicemente comunicative, per conservare o acquisire nuove “quote di mercato” (e non mi riferisco propriamente e solo agli aspetti economici).

L'immagine depositata all'ufficio brevetti USA, dell'anello smart di Apple

In temi di nuovi oggetti smart, è notizia di poche settimane che Apple ha intenzione di spingersi oltre l'iPhone e l'Apple Watch, poiché in futuro potrebbe lanciare anche un anello smart. E' quanto si apprende da un brevetto pubblicato dall'ufficio brevetti americano (Uspto) in cui è descritto dall'azienda di Cupertino il funzionamento di un piccolo dispositivo da indossare al dito, in grado di monitorare l'attività fisica e di gestire diverse funzionalità. L'anello integra un processore, un microfono e un modulo wireless. E sono presenti alcuni sensori per la registrazione dei movimenti, una piccola superficie touch e una ghiera per l'accesso ad alcune funzioni. L'anello potrebbe essere impiegato anche per l'autenticazione biometrica e quindi ipoteticamente per lo sblocco di un altro dispositivo Apple senza il bisogno di digitare password.

Echo Loop, l'anello smart lanciato da Amazon

Non siamo neanche in questo caso, di fronte ad una novità assoluta. Amazon di recente ha lanciato Echo Loop, un anello intelligente che include l'assistente virtuale Alexa. Sfruttando lo smartphone dell’utente per la connettività, l’anello di Amazon, offre più o meno le stesse funzionalità di un “altoparlante intelligente” ma va messo al dito.

La maggioranza della sempre più ignara, distratta, superficiale e disinteressata popolazione mondiale, sembra ben gradire questi oggetti smart, sempre più piccoli e miniaturizzati. Una bella Finestra di Overton per l’accettazione di dispositivi impiantabili.

Secondo gli analisti dell’Idc (acronimo di International Data Corporation, la prima società mondiale specializzata in ricerche di mercato, servizi di consulenza e organizzazione di eventi nei settori ICT e dell’innovazione digitale), nel 2019 c’è stato in Europa un vero e proprio boom dell’hitech indossabile. Nel secondo trimestre, le consegne sono più che raddoppiate, con un incremento del 154% su base annua a quota 13,4 milioni di unità. A livello geografico, l'80% delle consegne si registra in Europa Occidentale. Il primo mercato è quello britannico. A seguire Francia e Germania, mentre l'Italia è quinta. Al quarto posto c'è la Russia, che mette a segno il tasso di crescita più alto. In generale, le consegne in Europa Orientale sono aumentate del 216%, a fronte del +145% dell'area occidentale. Tra i prodotti, a fare la parte del leone sono gli auricolari e le cuffie, che rappresentano il 52,3% del totale grazie a una crescita del 400%. Seguono gli orologi (26,7% del totale) e i bracciali (20,7%).

E se Apple guida saldamente la classifica delle aziende con più pezzi venduti in questo settore, precedendo nell’ordine Samsung, Fitbit, Garmin e Huawei, il terzo trimestre del 2019 ha visto l’ingresso diretto, in questo mercato, di uno degli stati più piccoli al mondo (in assoluto il più piccolo), ma più ricchi e potenti e influenti del mondo: il Vaticano.

Compresa l’importanza di raccogliere, detenere e gestire dati, lo Stato Pontificio, ha deciso di gettare le basi per un proprio progetto di controllo della popolazione, e ha lanciato sul mercato il primo “rosario Smart”, con un testimonial certamente d’eccezione: Jorge Mario Bergoglio. È stato lo stesso pontefice, Papa Francesco durante il suo viaggio a Panama nei mesi scorsi, a chiedere ai giovani di pregare per la pace nel mondo, tramite la rete Mondiale di Preghiera durante il Mese Missionario Straordinario.

La dichiarazione può essere oggi considerata una vera e propria mossa di marketing, propedeutica al lancio sul mercato dell’eRosary, presentato in Vaticano lo scorso 15 ottobre (2019) dal gesuita padre Frédéric Fornos, direttore internazionale della Rete mondiale di preghiera del Papa. “Negli ultimi anni, Papa Francesco ha chiesto soprattutto ai giovani di pregare il rosario per la pace nel mondo – recita la descrizione dell’App su Google Play Store - Click To Pray eRosary risponde a quest’appello con l'urgente necessità di pregare per un mondo che soffre profondamente di molti conflitti, divisioni e violenza. Il Click To Pray eRosary mira a raggiungere persone di tutte le età, ma soprattutto i giovani, che vivono principalmente in ambienti digitali. È un approccio pedagogico per imparare a recitare il rosario e pregare per la pace nel mondo”.

Già, perché come tutti sanno, come la storia insegna e come la stessa Chiesa Cattolica ha dimostrato nel corso dei secoli, è pregando che si può raggiungere quest’obiettivo … (ironia).

Dopo l’app DinDonDan (per Android e Apple), l’app che mostra le messe pianificate nella propria zona, dopo lo sbarco del Papa su Twitter, ecco l’ennesima mossa “smart” e “social” della Chiesa 3.0.

Connesso all’app gratuita “Click to Pray” il rosario smart (prodotto dalla Gadgetek – azienda consociata di Acer) si presenta come un elegante bracciale composto da dieci grani realizzati con ematite e agata nera, con una croce smart che memorizza i dati tecnologici dell’app connessa. Il dispositivo contiene un sensore giroscopico, tipo quello degli smartphone, e una CPU che fanno sì che il rosario smart si attivi dopo che i fedeli si sono fatti il segno della croce. Per ricaricarlo basta poggiarlo sulla sua stazione di ricarica (wireless).

“Conforme allo standard IP67 per l'impermeabilità alla polvere e all'acqua - (come si legge da Amazon - ottimo per l'uso quotidiano, nelle attività all'aperto ed anche nelle giornate di pioggia”), una volta attivata facendosi il segno della croce, permette di accedere ad audioguida, immagini esclusive e contenuti personalizzati in base al rosario scelto, da quello tradizionale, a quello contemplativo o tematico (di volta in volta per i giovani, per i migranti e i rifugiati, la Laudato si’, le missioni, ecc.) e quindi a quel punto pregare.

L’app naturalmente aggiornerà e memorizzerà tutti i dati e consentirà anche di raccogliere offerte in denaro che potranno essere elargiti dai “tecnologici e sempre connessi, fedelissimi di tutto il mondo”.

Il dispositivo già disponibile in Italia e in Europa, in vendita al momento solo sul sito ufficiale e in esclusiva su Amazon (attraverso il quale il Vaticano ci fa sapere che il dispositivo è unisex, ma non potrebbe essere altrimenti …) per la “modica” cifra di 99 euro, sarà commercializzato nelle Americhe e nel resto del mondo solo a partire dal 2020. Ma raccogliere i dati relativi alla frequenza delle preghiere, ai singoli bisogni delle persone, oltre che tutti i dati che si condividono automaticamente installando l’app ClickToPray sul proprio smartphone, e a quelli presenti sul proprio account social (se si sceglie di accedere con Facebook, o account Google), probabilmente non era ritenuto sufficiente.

Il Vaticano ha quindi pensato di inserire una funzione “health” per curare non solo lo spirito, ma anche il corpo. La “funzione terrena” – testuale – “aiuta gli utenti a tenere traccia della distanza da percorrere giornalmente, del conteggio dei passi, del calcolo delle calorie e di un promemoria per raggiungere l’obiettivo designato. Oltre alla preghiera quotidiana, il dispositivo registra e mostra i dati sulla tua salute, per incoraggiarti ad avere un migliore stile di vita - (migliore in base a cosa?) - Il tuo assistente per monitorare la tua salute”.

Insomma, un modo per tracciare anche altri comportamenti e gli spostamenti dei fedeli. Dovessero disertare qualche funzione, il Vaticano saprebbe dove andare a riprenderli. Chissà se in futuro sarà implementato con un contatore che indica i casi di pedofilia accertati. Chissà se il ricavato di questa nuovo prodotto “made in City of Vatican” sarà utilizzato per risarcire le vittime degli abusi sessuali perpetrati dai ministri del culto o se invece saranno impiegati per pagare gli onorari degli avvocati che li difendono nei processi.

Ironia a parte, con oltre 1 miliardo e 285 milioni di fedeli cattolici stimati (e un potenziale quasi doppio poiché i cristiani nel mondo sono circa 2,4 miliardi, un terzo della popolazione mondiale), con il rosario smart il Vaticano entra prepotentemente nel mercato della raccolta dati e nel business dell’hi-tech indossabile. Un business della fede che sembra per certi versi richiamare la vendita delle indulgenze che, nel 1521 diede origine alla riforma luterana e al protestantesimo. Questa volta però, in un’epoca di relativismo ed egocentrismo conclamato, in un modo in balia del consumismo più sfrenato, ormai storditi dalla continua e ipocrita propaganda buonista religiosa e politica, distratti dai gadget tecnologici e assuefatti alla commercializzazione di qualunque cosa, i fedeli probabilmente non protesteranno ma accoglieranno di buon grado (basta leggere alcune entusiastiche recensioni dell’App, già apparse su Google Play Store).

Indipendentemente da quale sarà il destino della chiesa cattolica e dello Stato Vaticano, di cui dovrebbe interessarci il giusto, bisognerebbe riflettere sul fatto che ogni soggetto pubblico o privato, autorità politica, economica o religiosa, che sia, è interessata ai dati delle persone. È bene ricordarsi che l’accentramento di troppe informazioni in poche mani, conferisce un potere quasi illimitato di questi “controllori” sui “controllati”, e non ci sarà divinità o qualunque altra superstizione nella quale confidare per la risoluzione di problemi che è la stessa popolazione sta generando. La tecnologia si evolve non solo in termini di raccolta ma, come avevo avuto modo di far presente diversi anni fa in un precedente articolo, anche nello sviluppo di nuovi e più efficienti sistemi di filtraggio. Si dovrebbe comprendere che a rischio ci sono democrazia, libertà e, in alcuni casi, anche la propria vita.

Continuare a utilizzare con superficialità queste tecnologie, ignorando tale rischio, è sintomo di un’immaturità sociale che non promette nulla di buono per il futuro. Continuiamo a illuderci di vivere in una società più progredita e socialmente più matura, solo perché la nostra tecnologia è superiore a quella di 30,50, 100 o 1.000 anni fa, ma non è così. Molte civiltà del passato, certamente tecnologicamente più arretrate di noi, avevano un maggiore equilibrio tra capacità tecnologica e consapevolezza sociale. Non può esserci alcun progresso sociale e tecnologico senza un’adeguata crescita culturale e di consapevolezza.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Business dei vaccini: il vaccino per la dengue si dimostra più dannoso che utile

Gli scolari immunizzati con Dengvaxia accendono candele durante una protesta del febbraio 2018 a Manila

NB: La cronaca della vicenda che segue è tratta da un articolo apparso sul portale dell’autorevole rivista Science. Le informazioni di carattere medico e terapeutico sono tratte dai libri dell’Organizzazione Mondiale della Sanità e in particolare da WHO, Dengue Guidelines for Diagnosis, Treatment, Prevention and Control , Ginevra, World Health Organization, 2009, ISBN 92-4-154787-1, dal libro di Ranjit S, Kissoon N, Dengue hemorrhagic fever and shock syndromes, in Pediatr. Crit. Care Med., vol. 12, nº 1 e dallo studio di  Whitehorn J, Farrar J, Dengue, in Br. Med. Bull., vol. 95, 2010, pp. 161–73, DOI:10.1093/bmb/ldq019, PMID 20616106.

Esperti di medicina e sanità pubblica stanno discutendo su come aiutare il milione di persone, (per lo più bambini) che nelle Filippine, hanno ricevuto un nuovo vaccino contro la dengue e che, in alcuni casi, ha aumentato i rischi di morte anziché proteggerli dalla malattia. Ma cos’è la dengue?

La febbre dengue, nota ai più semplicemente come dengue, è una malattia infettiva tropicale causata dal virus Dengue. Il virus esiste in cinque specie differenti (DENV-1, DENV-2, DENV-3, DENV-4, DENV-5). Così come accade per tutte le altre malattie infettive che meglio conosciamo anche in Italia (morbillo, rosolia, varicella, ecc.), anche nel caso della dengue generalmente la guarigione dall'infezione garantisce un'immunità a vita (ciò non avviene con i vaccini che garantiscono, nel migliore dei casi, un’immunità non superiore ai 5 anni, con le conseguenze che si è poi dipendenti a vita dal vaccino, se si vuole essere immuni) per quella specie di dengue, mentre comporta solamente una breve e non duratura immunità nei confronti delle altre varianti della malattia. L’eventuale e successiva infezione con un'altra specie di dengue comporta un aumento del rischio di complicanze gravi.

La malattia è trasmessa da zanzare del genere Aedes, in particolar modo la specie Aedes aegypti (detta anche “zanzara della febbre gialla”). Si manifesta con i sintomi classici delle comuni influenze (febbre, mal di testa, dolore muscolare e articolare) ma, a differenza di queste, sfoga anche con una caratteristica eruzione cutanea simile a quello del morbillo. Così come accade per il morbillo, la varicella e le altre malattie virali comuni anche nel nostro paese, la dengue di per sé solitamente non è mortale, ma lo può diventare se contratta da persone con uno stato di salute già provato o compromesso da altre malattie (ma ciò avviene, anche se una semplice influenza si somma a una polmonite, ad esempio). La maggior parte di chi contrae la dengue si riprende senza problemi, mentre la mortalità è dell'1–5% qualora non venga instaurato alcun regime terapeutico e inferiore all'1% nel caso di trattamento adeguato. Insomma, come anche nei casi delle malattie infettive che ben conosciamo, le classiche e adeguate cure e raccomandazioni, sono largamente sufficienti per superare la malattia e sviluppare un’immunità a vita, senza necessità di dover dipendere da farmaci (come i vaccini) per il resto della propria esistenza.

Solo in una piccola percentuale dei casi, infatti, la dengue provoca una febbre emorragica pericolosa per la vita, con un brusco calo della concentrazione di piastrine nel sangue, emorragie e perdita di liquidi, che può evolvere in shock circolatorio e morte.

A oggi non esistendo una vaccinazione efficace, la prevenzione si ottiene mediante l'eliminazione delle zanzare e del loro habitat, per limitare l'esposizione al rischio di trasmissione.

Tuttavia, nel 2016, un gruppo dell'Organizzazione mondiale della sanità (OMS)  ha approvato un nuovo vaccino ritenendolo idoneo per la somministrazione nella fascia di età compresa tra i 9 a 45 anni. Ciò ha portato il governo delle Filippine (forse per i motivi che tra poco vedremo) a lanciare una campagna di vaccinazione per i bambini in età scolare, contro il virus trasmesso dalle zanzare, inizialmente solo sull'isola di Luzon.

Un anno dopo circa, a novembre 2017, l’azienda produttrice e del vaccino Dengvaxia, la francese Sanofi Pasteur (che non aveva indicato alcuna precauzione particolare nella somministrazione del vaccino), si rende conto che i dati raccolti mostravano che i bambini sieronegativi che erano stati vaccinati avevano un aumentato rischio contrarre malattie gravi, indipendentemente dalla loro età, oltre al fatto che erano stati comunque infettati dal virus della dengue, nonostante la loro vaccinazione. A quel punto, la stessa Sanofi Pasteur e l’OMS hanno immediatamente raccomandato di non utilizzare più il vaccino Dengvaxia nei sieronegativi.

Resosi conto che era stata, di fatto, attuata e legalizzata una vera e propria sperimentazione di massa del vaccino sull’ignara popolazione delle Filippine, il governo fu costretto a interrompere la campagna di vaccinazione. In seguito, revocò la licenza alla Sanofi Pasteur per Dengvaxia (vicenda analoga a quanto accaduto in India riguardo ai vaccini, gli stessi adesso utilizzati in Italia, prodotti dalla britannica GSK GlaxoSmithKline, rivelatesi dannosi per la salute – almeno è quanto sostenuto dalle autorità indiane).  

I politici, funzionari sanitari e ricercatori filippini sono stati accusati di colludere con l'azienda affinché il prodotto (il primo per questa malattia e dunque senza concorrenti) arrivasse sul mercato. (anche qui troviamo un’analogia con quanto avvenuto in Italia con la condanna dell’allora Ministro della Salute De Lorenzo reo di aver percepito tangenti da numerose case farmaceutiche per”favorire” la commercializzazione dei loro prodotti, vaccini compresi, in Italia).  Nelle Filippine sono tuttora in corso azioni legali intentate da alcuni genitori, nei confronti di politici, funzionari sanitari e ricercatori, accusati di aver consentito la somministrazione del vaccino Dengvaxia, senza prima assicurarsi della non dannosità dello stesso, che avrebbe portato alla morte dei loro figli.

A oggi (ottobre 2019), trascorsi ormai circa due anni dal ritiro del vaccino, i ricercatori da sempre critici nei confronti del vaccino Dengvaxia, si stanno battendo affinché i ricercatori della Sanofi Pasteur, quelli pro vax e gli altri funzionari sanitari governativi, s’impegnino a cercare di identificare i bambini vaccinati con questo medicinale e che sono tuttora a maggior rischio di danno, attività d’identificazione che potrebbero salvare delle vite.

Come sovente accade, dopo aver lucrato e sperimentato ai danni dell’ignara popolazione, anche la Sanofi Pasteur si guarda bene dall’intraprendere azioni di ricerca che potrebbero ritorcerglisi contro. Accettare di condurre queste attività significherebbe ammettere implicitamente, la propria responsabilità riguardo ai danni provocati dal vaccino Dengvaxia, esponendo il colosso farmaceutico al rischio di un potenziale risarcimento di milioni di euro di danni.

La Sanofi Pasteur quindi, non ha in programma di condurre uno studio ampio e complesso, sebbene dichiari di seguire il destino di circa l'1% dei bambini vaccinati, da 5 anni. La mancanza d’interesse in ambito internazionale e il lassismo evidenziato dal governo Filippino in questa fase, hanno preoccupato il ricercatore (ormai in pensione) Scott Halstead, che ha lavorato per molti anni presso l'Uniformed Services University of the Health Sciences di Bethesda, nel Maryland. Halstead ha dichiarato al portale Science "Sono piuttosto allarmato dalla mancanza d’interesse verso il destino di queste persone”. Sebbene l’epidemia attualmente in corso nelle Filippine abbia fatto ammalare quasi 170.000 persone, probabilmente avrà un impatto limitato sulla frequenza di questo raro evento generato dagli effetti collaterali del Dengvaxia, poiché le vaccinazioni sono sospese dal 2017.

Ciò nonostante, Halstead ha calcolato che circa 500 bambini filippini ogni anno potrebbero sviluppare una grave dengue a causa della loro precedente vaccinazione con Dengvaxia.

Il pericolo deriva dal fatto che, come detto all’inizio dell’articolo, il virus della dengue ha quattro varianti distinte o sierotipi. Più di 40 anni fa, Halstead ha scoperto che le persone che avevano anticorpi contro un sierotipo avevano un rischio molto più elevato di sviluppare malattie potenzialmente letali, tra cui shock o febbre emorragica, se in seguito fossero state infettate da un secondo sierotipo. Il ricercatore statunitense ha spiegato che quest’aumento della dengue in forma grave, è causato da un insolito fenomeno immunitario chiamato potenziamento anticorpale (ADE). Halstead aveva per lungo tempo avvisato il governo e le autorità sanitarie Filippine e la stessa Sanofi Pasteur, che la Dengvaxia, che innesca la produzione di questi anticorpi, avrebbe potuto causare lo stesso effetto nelle persone non completamente protette dal vaccino. Tuttavia, forse gli interessi in gioco erano troppi, e le sue parole sono rimaste inascoltate, quasi le sue affermazioni fossero prive di fondamento. Forse per gli attori della vicenda, le vite umane non sono più importanti di altri interessi privati.

Tutto il mondo è paese e anche nelle Filippine, esistono persone che rispondono a logiche diverse e difendono interessi di lobby, tant’è che continuano addirittura i dibattiti sul fatto che l'ADE sia un fenomeno reale. Halstead sostiene che gli studi sugli effetti collaterali del vaccino Dengvaxia, condotti in 10 paesi, hanno confermato la sua preoccupazione: i bambini più piccoli, in particolare quelli di età compresa tra 2 e 5 anni, che non avevano anticorpi contro la dengue prima di ricevere il vaccino - i cosiddetti sieronegativi - erano a maggior rischio di finire in ospedale se avessero ricevuto il vaccino e avessero poi comunque contratto la dengue. Così come accade per molti vaccini, anche quelli commercializzati in Italia, non c’è garanzia di copertura al 100% verso quella specifica malattia. Nel caso del vaccino Dengvaxia contro la dengue, il medicinale offre solo circa il 60% di protezione.

Ormai, di fronte all’evidenza dei dati (e delle morti), anche la Sanofi Pasteur ha convenuto che il vaccino non dovrebbe essere usato in questa fascia di età, sebbene continui a sostenere (senza fornire elementi concreti a supporto) che l'ADE generato dal Dengvaxia, potrebbe non essere la causa dell'aumento delle malattie gravi.

Che il vaccino sia stato autorizzato, commercializzato e somministrato senza le adeguate verifiche, appare ormai evidente, anche quando s’intervistano ricercatori pro vax. “Sanofi segue la salute di oltre 10.000 bambini vaccinati nelle Filippine da 5 anni” afferma Cesar Mascareñas, che lavora negli affari medici globali presso l'ufficio di Città del Messico e che ripete, ancora una volta in modo quasi mnemonico, le dichiarazioni pubbliche di Sanofi Pasteur. Si lascia poi sfuggire queste parole, abbastanza eloquenti ”…Ma il loro sierato (Dengvaxia) prima della vaccinazione non è stato valutato, quindi Sanofi non saprà se chi sviluppa la dengue grave, sono stati messi a rischio più elevato dall'ADE generato dal vaccino”.

Leonila e Antonio Dans, epidemiologi clinici, lavorano all'Università delle Filippine a Manila, sostengono che ogni bambino vaccinato dovrebbe essere testato per identificare coloro che rimangono sieronegativi per il virus dengue. (Gli anticorpi innescati da virus sono distinti da quelli creati dalla vaccinazione, sebbene distinguere i due richiederebbe un test nuovo e complicato.)

Uno studio su 1500 bambini che hanno ricevuto il vaccino incriminato Dengvaxia sull'isola di Cebu, potrebbe potenzialmente offrire alcuni indizi sui rischi provocati dal medicinale. I ricercatori dello studio, parzialmente finanziati dal National Institutes of Health (NIH), hanno prelevato campioni di sangue prima dell'inizio della vaccinazione, in modo da poter determinare chi fosse sieronegativo. I test anticorpali potrebbero però, non fornire indicazioni rilevanti, poiché l'incidenza della dengue su Cebu è elevata, ed è probabile che meno di 200 bambini compresi in questo studio siano sfuggiti alle infezioni precedenti di dengue. Ciò significa che avrebbero già potuto sviluppare autonomamente delle difese immunitarie. “Ciò renderà ADE generata dal vaccino Dengvaxia difficile da rilevare”, afferma In-Kyu Yoon, che dirige il consorzio Global Dengue & Aedes-Transmiss Diseases a Bethesda ed è consulente dello studio.

Incredibilmente e nonostante i danni alla salute di migliaia di persone, alcuni medici nelle Filippine vorrebbero dare a Dengvaxia un'altra possibilità, nascondendosi dietro il fatto che il paese sta ora combattendo una grande epidemia. Sarà forse solo un caso, infatti, che l’azienda produttrice del vaccino Sanofi Pasteur, a fine luglio aveva lanciato un appello al governo affinché ridistribuisse il vaccino, da somministrare questa volta però, solo dopo test anticorpali. Vedere il ritrovato slancio verso l’utilizzo di un vaccino, da parte di alcuni medici nelle Filippine, all’indomani di un appello dell’unica casa farmaceutica produttrice del vaccino stesso è solo una coincidenza? Si sbaglia a vedere analogie con quanto successo in Italia riguardo all’introduzione dell’obbligo vaccinale, dopo incontri tra case farmaceutiche ed esponenti del governo allora in carica, il tutto supportato da una campagna mediatica senza precedenti che riportava di fantomatiche epidemie (di cui a oggi ancora non c’è traccia) sparse per la nostra penisola?

Torniamo alla vicenda in atto nelle Filippine.

Fortunatamente c’è anche un fronte del no, che antepone i valori umani e la vita delle persone agli interessi personali, motivando, tra l’altro, la propria posizione con argomenti scientifici assolutamente validi. Infatti, “Il vaccino Dengvaxia richiede tre dosi, da somministrare nell’arco di 1 anno, periodo troppo lungo perché abbia un impatto immediato sull’epidemia in atto” - dice Anthony Dans - “Non voglio vedere la storia ripetersi, e perciò la scelta sul riutilizzare o meno il vaccino non deve rappresentare un dilemma nell’immediato. Abbiamo avuto fretta in passato, e il vaccino al momento non è di alcuna utilità per l'attuale epidemia. Prendiamoci tutto il tempo necessario per valutare i reali benefici".

Nonostante l’attuale, ma non definitiva, messa al bando nelle Filippine, il Dengvaxia è ancora commercializzato in altre parti del mondo, sebbene con alcune “raccomandazioni”. La Food and Drug Administration degli Stati Uniti, ad esempio, il ​​1 ° maggio 2019 ha approvato il vaccino con severe restrizioni, limitandone l'uso a bambini di età compresa tra 9 e 16 anni, dopo adeguati test anticorpali, che e vivono in aree in cui il virus è endemico. Puerto Rico e una manciata di altri territori degli Stati Uniti hanno una dengue endemica.

Il NIAID (National Istitute of Allergy and Infectus Diseases) in collaborazione con l’Istituto Butantan, (un produttore senza scopo di lucro di prodotti immunobiologici per il Brasile), sta testando un nuovo vaccino contro la dengue. La sperimentazione (si spera questa volta trasparente e consapevole) sta avvenendo su larga scala, addirittura su circa 17.000 persone. Halsted sostiene che il nuovo vaccino potrebbe offrire protezione anche ai bambini filippini vaccinati e danneggiati oggi a rischio di ADE.

Se c’è una cosa che ci insegna questa vicenda, al di là di come la si pensi in tema di obbligo vaccinale, è che le autorità pubbliche non sempre prendono decisioni giuste e corrette nell’interesse della popolazione. I medicinali andrebbero assunti e somministrati solo in modo consapevole e solo quando è realmente necessario. Ogni medicinale ha effetti collaterali e contro indicazioni. Personalmente ritengo che dovrebbe spettare sempre al singolo individuo, informato in modo completo e trasparente, decidere cosa assumere o no per tutelare la propria salute.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Nuovo studio: Venere abitabile per 3 miliardi di anni. Potrebbe aver ospitato la vita?

Mappa della superficie di Venere

Secondo un nuovo studio, condotto dal Nasa Goddard Institute of Space Science, Venere potrebbe aver avuto in passato e per un periodo lunghissimo, circa 3 miliardi di anni, temperature sufficientemente basse da permettere la presenza di acqua in superficie.  Appare legittimo dunque chiedersi: Venere in passato può aver ospitato la vita? L’ipotesi già considerata in passato dalla comunità scientifica, era stata però scartata per via della vicinanza del pianeta al Sole.

Venere, Terra e Marte, se non possono essere definiti pianeti “gemelli”, possono certamente essere considerati quantomeno pianeti “fratelli”. Sotto alcuni aspetti sono simili, si sono formati tutti nello stesso periodo, circa 4,5 miliardi di anni fa, e grossomodo con le stesse modalità (accrescimento). Venere è l’unico altro pianeta del nostro sistema solare, assieme alla Terra e Marte, a orbitare nella cosiddetta “fascia abitabile”, cioè né troppo lontano né troppo vicino alla nostra stella, il Sole, alla distanza giusta insomma, per avere acqua allo stato liquido sulla sua superficie. Ciò nonostante, oggi osserviamo però, tre situazioni completamente diverse.

La Terra, lo sappiamo con certezza, dopo il suo raffreddamento avvenuto circa 3,9/4 miliardi di anni fa, ha poi presentato condizioni favorevoli alla vita, alternando periodi glaciali a periodi più caldi, periodi con più ossigeno in atmosfera a periodi con ossigeno molto scarso. La vita qui ha attecchito in pratica subito, non è chiaro come sia apparsa (probabilmente giunta dall’esterno tramite panspermia oppure, meno probabilmente nata spontaneamente dal nulla), ma ha prosperato e si è evoluta in miliardi di forme diverse.

Su Marte, che tra i tre pianeti è quello che orbita più lontano dal Sole ed è anche il più piccolo (circa il 40% degli altri due), ha certamente un presente completamente diverso dalla Terra e da Venere. Tuttavia oggi sappiamo che il suo passato è stato, con ogni probabilità, molto simile a quello della Terra. Sappiamo che, considerata la maggior distanza dal Sole e le minori dimensioni, si è raffreddato verosimilmente prima della Terra, cioè già 4,2 miliardi di anni fa e ha dunque presentato condizioni per ospitare la vita almeno 250 milioni di anni prima del nostro pianeta. Grazie ai dati raccolti in questi ultimi anni dalle sonde orbitali, dai lander e dai rover, decine di studi hanno dimostrato che anche Marte ha avuto periodi caldi e umidi, alternati a periodi più freddi e secchi. Se delle tracce lasciate dai fiumi, dai laghi e dagli oceani su Marte, non ci sono dubbi, oggi sappiamo che nel sottosuolo l’acqua è ancora presente ovunque sul pianeta rosso. Grazie sempre alle stesse missioni, ormai ci sono pochi dubbi sul fatto che Marte abbia ospitato forme di vita (fatto ancora poco noto e poco divulgato all’opinione pubblica), tant’è che l’interrogativo più grande della comunità scientifica oggi, riguarda se Marte ospiti ancora forme di vita, se queste si siano evolute e in che forma. Già, perché alcuni studi, infatti, hanno concluso che grandi oceani (e comunque grandi bacini di acqua liquida) erano presenti sul pianeta rosso ancora solo 200.000 anni fa! Da 4,2 miliardi di anni fa ad appena 200.000, c’è n’è stato di tempo per considerare un’eventuale evoluzione di forme di vita marziana. Altri studi hanno recentemente rivalutato e riconsiderato, alla luce di tutto questo, la possibilità che la vita sia apparsa su Marte ancor prima che sulla Terra, e che quest’ultima sia giunta proprio dal pianeta rosso attraverso un processo chiamato litopanspermia. Oggi però, Marte non presente un clima temperato e umido come la Terra, ma notevolmente freddo, con temperature che oscillano tra i + 20°C di giorno e i -110°C durante la notte.

Venere come appare oggi

Venere, che è il pianeta tra i tre che orbita più vicino al Sole, pare aver avuto un destino certamente diverso. Secondo la teoria prevalente in ambito astronomico, Venere di dimensioni simili alla Terra, si dovrebbe essere raffreddato più lentamente (data la minor distanza dal Sole) e presentato quindi una crosta solida, presumibilmente circa 3,7 miliardi di anni fa. Se ci dovessimo fermare alle apparenze, dovremmo però concludere, come fecero gli scienziati decenni or sono, che le condizioni che oggi presenta, sono incontrovertibilmente non idonee alla vita, almeno quella di tipo terrestre. Con un’atmosfera molto densa che determina una pressione al suolo di quasi 90 atmosfere, un vento a livello del suolo quasi assente (venti forti ci sono solo a quote elevate) e temperature superficiali che si aggirano attorno ai 450 °C, Venere non presenta alcun oceano o specchio di acqua liquida. Oggi Venere ci appare certamente inospitale.

Eppure, così com’e stato anche per Marte, grazie a nuove scoperte, a nuovi dati o alla rielaborazione di quelli già raccolti alla luce delle nostre nuove tecnologie e conoscenze, questa idea potrebbe dover essere accantonata.

L’esplorazione di Venere è stata forse ancor più intensa di quella di Marte, sebbene questa si sia concentrata soprattutto nelle prime fasi della corsa allo spazio (quella di Marte prevalentemente negli ultimi 20 anni).

Dal 1961 (anno della prima missione) a oggi, le missioni inviate verso il pianeta a noi più vicino sono state ben 42, un’altra è in corso (la missione Planet-C del Giappone) e altre due (una dell’ESA con la sonda Bepi Colombo, e l’altra Russa, Venera-D) sono in programma nei prossimi anni. Così come le altrettante inviate su Marte, anche per le missioni con destinazione Venere i risultati sono stati alterni. Ben 17 sono i fallimenti registrati, molti dei quali già in fase di lancio o pochi minuti dopo. Tuttavia, non tutti sanno che è stato proprio Venere (e non Marte) a vedere il primo veicolo umano toccare il proprio suolo, grazie alla sonda sovietica Venera 7, il 15 dicembre 1970. Se gli Stati Uniti sono il paese che ha fornito maggior contributo nella conoscenza del pianeta rosso, l’Urss prima e la Russia poi, sono i paesi che ci hanno regalato maggiori informazioni su Venere. Addirittura dieci sonde sovietiche hanno portato a termine un atterraggio morbido sulla superficie, con più di 110 minuti di comunicazioni dalla superficie. L’URSS è anche stato il primo paese al mondo a inviare una sonda verso Venere, con la missione (fallita) Sputnik 7. L’ultima missione completata è stata quella dell’ESA, terminata nel dicembre 2014, Venus Express.

Grazie ai dati raccolti e oggi rielaborati, forse sappiamo qualcosa in più.

Simile per dimensioni alla Terra, Venere per tre miliardi di anni è stato un pianeta con un clima temperato e oceani, come la Terra, nonostante la sua vicinanza al Sole. Lo indicano i risultati dello studio svolto dai ricercatori coordinati da Michael Way, del Goddard Space Flight Center della Nasa, presentate a Ginevra, al congresso Europeo di Planetologia, svoltosi nel settembre 2019.

Quarant'anni fa, la missione Pioneer Venus della Nasa aveva trovato gli indizi della presenza sul pianeta di un oceano poco profondo. Venere ha infatti un rapporto insolitamente elevato tra deuterio e atomi di idrogeno, segno che ospitava una notevole quantità di acqua, poi perduta nel corso del tempo.

Per verificare quei dati, i ricercatori hanno utilizzato cinque simulazioni: tutte indicano che, per circa tre miliardi di anni, Venere ha avuto temperature comprese tra +20°C e i +50°C e un oceano profondo in media di 310 metri. Un'altra simulazione indica che l'oceano che avvolgeva tutto il pianeta e che era profondo circa 160 metri. Le simulazioni indicano inoltre che ancora oggi il pianeta avrebbe avuto un clima temperato, se fra 700 e 750 milioni di anni fa non ci fossero stati gli eventi che hanno liberato dalle sue rocce, grandi quantità di CO2 causando l'effetto serra e facendo alzare le temperature fino a 460 gradi.

Se il pianeta si fosse evoluto in modo simile alla Terra, come ipotizzano gli scienziati, per i successivi 3 miliardi di anni dal suo raffreddamento, l’anidride carbonica sarebbe stata assorbita da rocce di silicato e bloccata in superficie.

Venere fotografato a distanza ravvicinata dalla sonda giapponese Akatsuki nel 2015

Poi, 700 milioni di anni fa, è cambiato qualcosa: l’anidride carbonica sarebbe stata re immessa nell’atmosfera, senza poi essere riassorbita dalle rocce, causando un effetto serra in grado di provocare un cambiamento climatico disastroso. Le cause di questo cambiamento sono ancora ignote. Gli scienziati ipotizzano che le motivazioni siano legate alle attività vulcaniche sul pianeta. Grandi quantità di magma avrebbero rilasciato anidride carbonica dalle rocce fuse, nell’atmosfera. Il magma si sarebbe solidificato prima di raggiungere la superficie, creando una barriera che ha impedito il riassorbimento del gas. La presenza di grandi quantità di anidride carbonica ha quindi innescato un devastante effetto serra, che ha provocato l’aumento esponenziale della temperatura che tutt’oggi è presente su Venere.

Così come avvenuto sulla Terra e, come detto, verosimilmente anche su Marte, se Venere è stato ospitale alla vita, con un clima mite (o comunque ospitale per la vita) protrattosi per oltre 3 miliardi di anni (da 3,7 miliardi di anni fa – data presunta del suo raffreddamento – e fino a 700 milioni di anni fa - data stimata del suo disastroso riscaldamento), potrebbe aver accolto e ospitato forme di vita e, addirittura, aver assistito a una loro evoluzione?

Difficile poterlo affermare con certezza. Sappiamo però che se è vero, come sostengono i ricercatori Nasa, che acqua liquida e temperatura sono state idonee quasi da subito, e che queste condizioni si sono avute per circa 3 miliardi di anni, appare oggi insensato e scientificamente assurdo escludere la possibilità che la vita abbia fatto la su comparsa anche su Venere. Tanto più se prendiamo in considerazione quanto sappiamo essere avvenuto sulla Terra, e quanto è verosimilmente avvenuto anche su Marte. La vita sulla Terra è apparsa certamente troppo precocemente affinché si possa essere generata da sola (3,9 miliardi di anni fa, solo 100 milioni di anni dal suo raffreddamento). Su Marte s’ipotizza che la vita possa aver fatto la sua comparsa in modo analogo (4,1/4 miliardi di anni fa, sempre 100 milioni di anni dopo il raffreddamento del pianeta) ma decisamente in anticipo rispetto alla Terra, poiché Marte si è raffreddato prima. Non c’è a oggi alcun elemento che possa portarci a escludere una situazione analoga anche per Venere, che con Marte e Terra ha molti elementi in comune. Così come ipotizzato per la Terra, anche Venere potrebbe essere stata interessata dal processo di panspermia e di litopanspermia. Anche perché qualche piccolo indizio forse già c’è.

Un altro studio, pubblicato sulla rivista Astrobiology nel marzo del 2018, ha riconsiderato l’ipotesi dell’esistenza di microbi nelle dense nubi che costituiscono l’atmosfera del nostro vicino planetario. Dal titolo “Is there life adrift in the clouds of Venus?” (“C’è vita alla deriva tra le nubi di Venere?”) l’ipotesi è stata formulata non su base squisitamente teorica ma grazie ai dati raccolti della sonda giapponese  Akatsuki  (la missione giapponese a cui accennavo sopra, ancora in corso – ottobre 2019). Nello studio si sostiene che nelle nuvole venusiane ci siano regioni con una strana concentrazione di nanoparticelle, che potrebbero essere ricondotte a qualche forma di vita microbica.

Venere è stata potenzialmente abitabile per almeno due miliardi di anni dopo la sua formazione – affermava Sanjay Limaye dell’Università del Wisconsin a Madison, leader dello studio – e questo è un periodo persino più lungo rispetto all’esistenza dell’acqua su Marte - (secondo la teoria scientifica tradizionale e prevalente - NDR). Non possiamo quindi escludere la presenza di vita su Venere, che potrebbe essersi adattata alle nuove condizioni del pianeta". Un’idea affascinante, che secondo gli autori dello studio merita di essere approfondita: “Dobbiamo andare laggiù e analizzare alcuni campioni delle nubi – propone Rakesh Mogul della California State Polytechnic University, co-autore dello studio. – Venere potrebbe essere un emozionante nuovo capitolo dell’esplorazione astrobiologica”.

Le incognite sono ancora moltissime e sarebbe azzardato giungere a qualunque conclusione, sia in un senso sia nell’altro. Non ci resta che attendere altre missioni e altri dati. Nel frattempo, sospendere il giudizio è la cosa più seria e opportuna da fare, aspettando anche che le acque si plachino perché, come ormai dovremmo aver imparato, le idee tradizionali sono dure a morire, e non tutti gradiscono queste nuove ipotesi.

A differenza di Marte, gli studi su Venere sono assai meno numerosi e sono pubblicati con meno frequenza, certamente anche per via dei minori dati a disposizione. Appare dunque assai singolare, e non posso non porre l’accento su come, ad appena un paio di settimane di distanza dalla pubblicazione dello studio della Nasa che ipotizza un passato acquoso di Venere per oltre 3 miliardi di anni (e con tutto ciò che questo implica, come sopra accennato), è stato pubblicato uno studio che sembra affermare l’esatto contrario e smentire il tutto.

Pubblicata questa volta su Journal of Geophysical Research, lo studio torna a smentire la teoria del passato acquoso di Venere. Da lettura attenta della ricerca però, la conclusione dei ricercatori appare piuttosto pretestuosa e superficiale. Sia chiaro, lo studio è certamente accurato in termini di geomorfologici, nessuno vuole discutere questo, ma sono le conclusioni a lasciare perplessi.

Per via dell’atmosfera composta per lo più da anidride carbonica, Venere è molto difficile da studiare. Infatti, è solo attraverso rilevamenti radar che è possibile osservare la sua superficie. Lo studio, condotto dai ricercatori del Lunar and Planetary Institute, ha scoperto che la composizione di un flusso di lava presente nella regione dell’altopiano Ovda Regio (foto qui sopra), è costituita da roccia basaltica e non granitica, come si è pensato finora. Il basalto è una roccia magmatica effusiva la cui composizione può essere variabile. La sua solidificazione può avvenire a contatto con aria o acqua. Questo elemento, che in sé non significa nulla perché non dimostra necessariamente l’assenza di acqua, sembra invece essere stato talmente rilevante al punto da generare implicazioni significative sulla storia evolutiva del pianeta, ed esclude ogni somiglianza tra la composizione interna di Venere e quella della Terra. Tra l’altro, c’è anche da aggiungere che, oltre a trattarsi dell’analisi di un’area circoscritta di Venere, stiamo parlando per di più, solo di un’analisi morfologica (e non chimico fisica) di alcune rocce. Sarebbe come a dire che, facendo dei rilevamenti radar dall’orbita terrestre di un’area vulcanica, ad esempio quella nelle immediate vicinanze del vulcano Kilauea alle Hawaii (paragone calzante, poiché l’altopiano Ovda Regio su Venere è una regione di 5.250 km2, mentre il Kilauea, assieme agli altri vulcani attivi Manua Loa e Manua Kea, occupa almeno la metà dei 10.400 km2 circa, dell’isola di Hawaii, quindi un’area per estensione paragonabile a quella presa in esame su Venere), giungessi alla conclusione che sulla Terra non c’è acqua e non c’è mai stata. Chiunque potrebbe giustamente affermare che la mia conclusione sarebbe alquanto azzardata, forzata se non addirittura errata. Possiamo ritenere scientificamente plausibili le conclusioni di questi ultimi ricercatori? C'è una differenza enorme tra calcolo di un modello più sofisticato come quello elaborato dei ricercatori del Goddard Space Flight Center della Nasa e descritto all’inizio di questo articolo, e un “calcolo grossolano” (conclusioni dei ricercatori del Lunar and Planetary Institute).

Il primo si basa sull’elaborazione di dati complessi che tengono in considerazione molteplici informazioni (geologiche, atmosferiche, climatiche, ecc.), il secondo solo su pochi elementi di carattere esclusivamente geomorfologico, circoscritti in un area ristretta. Eppure entrambi sono considerati “scientifici”.

In ambito astrofisico e astrobiologico, si continua sovente ad assistere ai medesimi atteggiamenti. Si analizza un’area circoscritta di un corpo celeste e si applicano superficialmente e frettolosamente i risultati per tutto il resto del pianeta e per tutta la durata della sua esistenza (4,5 miliardi di anni), quasi si avesse intenzione di dimostrare qualcosa, e non semplicemente di comprendere.

Sarà forse soltanto una casualità, ma spesso questo tipo di “libere estensioni” di risultati di studi in aree circoscritte di corpi celesti applicate all’intero pianeta, finiscono nella quasi totalità dei casi, per andare a “confermare” le teorie tradizionali e prevalenti (quelle che vedono la vita terrestre come rara o unica nel nostro sistema solare e che annichiliscono qualunque possibilità di presenza di vita altrove), e mai a confutarle o a sostenere visioni più possibiliste.

Tutto considerato, con la pubblicazione dello studio che smentisce il passato acquoso di Venere, siamo dunque di fronte all’ennesima levata di scudi preventiva e pretestuosa a difesa delle teorie tradizionali e dominanti? Su Venere ci sono state invece condizioni ospitali alla vita (come sostengono oggi molte ricerche)? C’è stata o c’è addirittura ancora vita (come teorizzato da altri scienziati)?

Se è vero che le verità scientifiche non si decidono a maggioranza e che sono i dati oggettivi a dire chi ha torto e chi ragione, il futuro ci risponderà. Noi continuiamo ad attendere fiduciosi di conoscere la verità, in un senso o nell’altro, e a sperare che gli interessi personali di alcuni, non continuino a essere anteposti alle verità scientifiche, rallentando la conoscenza umana e il progresso scientifico.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

I "furbetti" della scienza italiana

(Questo articolo è stato inserito e ampliato nel libro Fact Cheking - la realtà dei fatti la forza delle idee)

Che la scienza non avanzi nel modo più auspicabile possibile è certezza, almeno per chi la vive, la frequenta o anche soltanto prova a seguirla assiduamente. Qualcuno potrebbe affermare che, in buona sostanza, è sempre stato così. Gli interessi di pochi sono sempre stati lo “stimolo” e l’obiettivo del progresso scientifico o del suo rallentamento, quando in ballo c’era da tutelare lo status quo. Ciò nonostante se è vero com’è vero, che da sempre, nelle varie epoche, pochi individui divenuti “autorità scientifiche”, hanno orientato, sospinto, promosso ma anche ostacolato e rallentato la ricerca, forti del potere acquisito e certamente per troppo tempo mantenuto, a partire dalla fine della seconda metà del secolo scorso, in alcuni paesi, si è cercato di smantellare questo sistema ostruzionistico, poco meritocratico e molto penalizzante per gli interessi collettivi. Ciò è avvenuto, sia chiaro, non perché qualcuno si è reso conto che bisognava anteporre gli interessi collettivi e il progresso dell’umanità davanti agli interessi personali, no, tutt’altro.

La spinta al cambiamento è avvenuta dall’interno della comunità scientifica stessa, cresciuta in modo enorme, con lo sviluppo e la diversificazione delle tradizionali discipline scientifiche.

Solo per fare un esempio, accanto alle tradizionali branche della scienza come, medicina, fisica, astronomia, archeologia, l’ingegneria, ecc, sono apparsi e si sono imposti nel secondo dopoguerra, complici le scoperte scientifiche stesse, dei sottocampi specialistici che spesso combinano discipline diverse, come la biologia molecolare, le biotecnologie, la robotica, la fisica quantistica, l’astrofisica, l’astrobiologia, astro archeologia, l’ingegneria aeronautica e spaziale, ecc.

Con il proliferare delle discipline è cresciuto, di pari passo, anche il numero dei ricercatori, che prima della fine della seconda guerra mondiale si potevano contare in poche migliaia, mentre oggi sono certamente nell’ordine di diverse decine di migliaia (o anche più).

Per le “superstar della scienza”, che controllavano il sapere e il progresso scientifico, era quindi divenuta impresa ardua riuscire a mantenere le proprie posizioni di potere di fronte ad un numero così elevato di scalpitanti ricercatori che avevano ambizione e volontà di affermarsi, o anche semplicemente, ritagliarsi un piccolo e meritato spazio nel solo affascinante mondo della scienza. Già, il mondo della scienza, un mondo solo in apparenza idilliaco poiché, al contrario, spesso controllato come detto, in modo dittatoriale e con un assolutismo anacronistico, quasi di stampo medievale, in cui dal re dipendevano, a cascata, vassalli, valvassori e valvassini. Il sistema pesiste ed è ancora ben visibile a chi abbia frequentato, anche solo per pochi anni, ma in modo attento, le università, anche italiane.

Si è dunque deciso di introdurre criteri apparentemente più “democratici” (ma la scienza non dovrebbe esserlo, poiché le verità scientifiche non si decidono a maggioranza) e soprattutto più oggettivi e meritocratici.

Nel tentativo di togliere potere discrezionale alle superstar della scienza, sì è deciso di “misurare” l’importanza di uno scienziato, di un ricercatore, non sulla base semplicemente qualitativa (la qualità è spesso un qualcosa di molto soggettivo) ma su base quantitativa, adottando prevalentemente due indici di misurazione. Il primo è il numero delle pubblicazioni (risultati di ricerca, articoli scientifici, ecc) che ciascun ricercatore riesce a far pubblicare in un dato intervallo. Il secondo indice è il numero delle citazioni che gli studi pubblicati dal ricercatore preso in esame, riceve nel corso del tempo, da parte di altri scienziati di tutto il mondo.

Così facendo, combinando i due risultati, si poteva secondo le intenzioni di chi ha inventato questo sistema di valutazione, “misurare” oggettivamente l’importanza di un ricercatore e l’incidenza dei risultati delle ricerche da esso compiute.  

In un settore, quello della ricerca scientifica, dove da sempre, ma in special modo dal secondo dopoguerra, il precariato l’ha fatto da padrone, quello che doveva essere una misura è però divenuto un obiettivo. In ballo non c’era (e non c’è tuttora) soltanto una posizione di prestigio nel mondo scientifico, ma la propria sopravvivenza dal punto di vista lavorativo.

In precedenti articoli di questo blog, ho già trattato in modo specifico l’argomento dei  mali della scienza,  evidenziando come il nuovo sistema di valutazione ha portato a ll’adozione del principio “pubblica o muori”, principio che ha trovato terreno fertile con il proliferare delle riviste ad accesso libero, sorte con il nobile intento di stroncare il business delle pubblicazioni scientifiche e rendere la conoscenza scientifica ad appannaggio di tutti, ma poi trasformatesi in alcuni casi in riviste predatorie.

In Italia, da sempre fucina di talenti in ambito scientifico, il sistema antiquato dei baronati scientifici ha resistito a lungo, complice anche la compiacente politica che ha deciso di adottare il sistema apparentemente più meritocratico e oggettivo sopra descritto, soltanto nel 2010.

La legge Gelmini ridisegnò il sistema della ricerca in Italia, adeguandolo a quello degli altri paesi del G10, tagliando i finanziamenti (già di per sé scarsi) e introducendo dei criteri di valutazione basati su indici bibliometrici (numero di pubblicazioni, di citazioni, e h-index del ricercatore - una misura combinata della produttività e dell'impatto della citazione). Il compito di raccolta dei dati bibliometrici e di stilare le classifiche dei ricercatori in base agli indici stabiliti per legge, è stato attribuito all’Anvur, (l’Agenzia nazionale di valutazione del sistema universitario e della ricerca), che accentra diverse competenze tra cui anche il compito di stabilire le soglie minime di accesso ai finanziamenti e altre possibilità di ricerca e carriera.

Così come già avveniva negli altri paesi, da quel momento in poi, anche in Italia se non si superano le soglie bibliometriche imposte da tale sistema, non si può accedere a fondi per i laboratori, niente abilitazione scientifica nazionale per i ricercatori, zero possibilità di vedersi assegnare fondi per ricerche, nessuna speranza di essere anche solo presi in considerazione per entrare a far parte (con ruoli secondari o marginali) in team di ricerca di scienziati o ricercatori più “quotati”, per non parlare poi della possibilità di poter essere valutati per ricoprire ruoli di prestigio in aziende statali o parastatali (come vedersi assegnare una cattedra universitaria) o in aziende private di rilevante importanza. Possibilità zero, nulla, niente! Più publish or perish di così!

Anche la riforma Gelmini, così come tutte le precedenti e analoghe riforme già avvenute negli altri paesi, aveva come obiettivi quello di ottimizzare le poche risorse economiche (di fonte statale) disponibili ed eliminare la piaga del nepotismo (ancora molto diffusa soprattutto in ambito accademico), puntando sulla meritocrazia e quindi sulla valorizzazione delle risorse umane e, al contempo, magari riuscir anche a dare nuovo slancio al settore della ricerca scientifica nazionale.

Oggi un nuovo studio pubblicato (settembre 2019) dalla rivista Plos One e compiuto da Alberto Baccini, Giuseppe De Nicolao e Eugenio Petrovich dell’’Università di Siena e dell’Università di Pavia, sembra indicarci ancora una volta e soprattutto per l’Italia, che la “cura” sembra essere stata più dannosa della malattia che voleva o doveva curare.

Precedenti studi avevano certificato finalmente la presenza di alcuni “mali” che affliggono il mondo scientifico. Si tratta di situazioni poco note al grande pubblico ma ben chiare a chi di scienza si occupa e si interessa assiduamente già da anni. In questi precedenti studi si rilevava un crescente atteggiamento di frazionamento, “alterazione”, e addirittura falsificazione dei risultati degli studi (le vere fake news scientifiche provengono dall'interno della comunità scientifica), al fine di aumentare il numero delle pubblicazioni e ottenere citazioni, anteponendo gli interessi personali legati alla logica del “publish or perish” a quelli scientifici più puri (il conseguimento della conoscenza al fine di perseguire un maggior benessere per l’umanità), atteggiamento tra l’altro favorito spesso da enormi interessi economici di lobby (in special modo quello del settore chimico-farmaceutico). Come se ciò non bastasse, la ricerca appena pubblicata ha posto in evidenza una nuova tendenza, in apparenza prevalentemente italiana.

Del resto soprattutto nel nostro paese, intriso d’ideologia capitalista e consumista e progressista, con tutto ciò che essa porta e comporta, l’ipocrisia, l’egoismo e l’egocentrismo sono ormai il fulcro della vita della stragrande maggioranza delle persone. Ne sono evidenza i social network e il modo in cui sono continuamente utilizzati in tutto il mondo, senza distinzione sociale alcuna, sia ben chiaro!

Tutti (o quasi), indipendentemente dal titolo di studio, dalla posizione lavorativa ricoperta, dall’estrazione culturale e/o politica, utilizzano i social network per mettere al centro della scena se stessi. Misurano il proprio ego in base al numero dei propri “followers”. Usano valutare il proprio comportamento sulla base dei “like” ricevuti e delle “condivisioni” che i propri post hanno. E’ pratica sempre più frequente e diffusa soprattutto su Facebook e Youtube (ma anche sugli altri social), quella di chiedere esplicitamente di mettere un like e condividere i loro post in modo incondizionato, spesso in virtù di una “amicizia” del tutto virtuale o di un ricambio di favore alla prima occasione, in modo da “emergere” reciprocamente ed essere così premiati dagli algoritmi che governano i motori di ricerca e i social. Più di qualcuno nella comunità scientifica probabilmente si è chiesto: “Perché non adottare lo stesso stratagemma in ambito scientifico?”

Lo studio pubblicato da Plos One evidenzia proprio l’adozione di questa metodologia un po’ furbetta, in special modo per l’Italia dove sembra valere sempre il detto popolare “fatta la legge, trovato l’inganno!”.

In Italia, a seguito dell’entrata in vigore della legge Gelmini, la ricerca italiana sembrava aver messo il turbo e, negli ultimi anni, sembra aver superato “per peso” quella di quasi tutti i paesi europei.

Sulla base degli indici bibliometrici introdotti con la riforma, infatti, l’impatto della ricerca italiana è aumentato talmente tanto che nel 2016 il rapporto di SciVal Analytics (SciVal è un’analisi dei risultati scientifici effettuato dalla società Elsevier, azienda globale di analisi delle informazioni, specializzata in scienza e salute) dava il nostro paese al secondo posto nella classifica dei paesi del G10, inferiore solo al Regno Unito. Stando a questa classifica, addirittura la ricerca italiana” pesa “di più di quella statunitense.

Più di qualcuno, dall’interno della comunità scientifica, non aveva perso occasione di magnificare risultati ottenuti, principalmente attraverso i mass media mainstream e sovente con ampio appoggio politico, soprattutto della corrente progressista (benché non autrice della riforma) ma che da sempre si autoproclama musa ispiratrice e divinità protettrice della comunità scientifica italiana (nella quale trova, non a caso, notevoli consensi che tornano utili di tanto in tanto per giustificare leggi impositive insensate – vedi legge sull’obbligo vaccinale). Così facendo si è cavalcata l’onda, illudendo (in modo consapevole o in modo colposamente inconsapevole, ciò non è possibile saperlo) il pubblico di esser riusciti a trovare la ricetta giusta per i mali che affliggono la scienza, anche italiana, per tornare a conferirle quell’aurea di infallibilità, oggettività, imparzialità, onestà e quindi, d’indiscutibilità che tanto fa comodo di questi tempi. Il messaggio era chiaro “Nessuno si permetta di criticare le autorità scientifiche!”.

Una così rapida ascesa dell’Italia nel ranking mondiale non poteva però, non sollevare la curiosità di molti, che giustamente si sono messi a studiare il caso, facendo le pulci al sistema e avanzando il sospetto che ci sia qualcosa che alteri le valutazioni.

Ciò che è emerge dall’analisi dei dati, è che in Italia sembra emergere una “anomala” tendenza ad auto citarsi o a citare prevalentemente gli studi di ricercatori “amici”, quasi ci fossero dei veri e propri club, dove è fatto obbligo ai soci di preferire, e dunque “favorire” citandoli, gli studi di altri soci dello stesso club, in occasione della pubblicazione di un proprio studio. La finalità di questi “club scientifici”sarebbe quella di aiutarsi a vicenda a superare le soglie bibliometriche dell’Anvur.

L’autoreferenzialità potrebbe sembrare un peccato veniale, invece non lo è. Alterando volutamente il sistema di misurazione con queste pratiche da “furbetti” si vanifica, di fatto, il tentativo di premiare chi davvero fa studi di potenziale utilità collettiva e nessuna giustificazione dovrebbe essere accettata.

In ambito economico, le aziende che adottano analoghi comportamenti di cooperazione per trarre reciproco vantaggio si chiamano “cartelli” e sono vietati per legge. In politica le forze pubblicamente contrapposte che invece in segreto formano gruppi d’interesse si chiamiamo “lobby”, e per definire gli accordi che regolano questi patti (talvolta temporanei), in Italia è ormai utilizzata una parola dialettale, cioè “inciucio”. Le forze che segretamente costituiscono lobby e che inciuci ano, sono spesso biasimate e condannate almeno moralmente, dall’opinione pubblica.

E adesso che è stato accertato che ciò avviene anche nel mondo scientifico? Quale sarà la reazione dell’opinione pubblica? Quale sarà il giudizio delle forze politiche benpensanti composte dall’intellighenzia del nostro paese? Governi, Ministri e altre istituzioni cosa faranno? Quali provvedimenti prenderanno nei confronti di chi ha attuato queste pratiche? Quale sarà la reazione dei mass media? Visibilità della notizia, commenti o reazioni sono state molto poche e quasi sottovoce.

Analizzando le pubblicazioni contenute nel database Scopus di Elsevier tra il 2000 e il 2016 per i paesi del G10, i tre ricercatori italiani delle Università di Siena e di Pavia hanno sviluppato un nuovo indice bibliometrico, l’inwardness, che misura quante delle citazioni totali ricevute da un paese provengono dal paese stesso e ha diviso questa cifra per il numero totale di citazioni accumulate dal paese.

Tutte le nazioni del G10 prese in esame, hanno mostrato nel tempo un modesto aumento d’interiorità (vale a dire di citazioni in date e ricevuto in ambito nazionale o da ricercatori “amici”, cioè che hanno collaborato a un medesimo studio), che può essere, in alcuni casi, paradossalmente spiegato da una crescita delle collaborazioni internazionali. Queste, infatti, ampliano il numero di articoli dai paesi partecipanti che potrebbero essere citati. Prendiamo, ad esempio, un articolo scritto da collaboratori di ricerca in Italia e Francia: qualsiasi citazione a quest’articolo da una pubblicazione di autori italiani o francesi verrà considerata come una citazione intranazionale sia per l'Italia sia per la Francia.

Dai risultati è emerso che in tutti i paesi considerati, l’autoreferenzialità è aumentata nel tempo, ma per l’Italia c’è stata una vera e propria impennata dal 2010, l’anno della riforma. Al 2016, circa il 31% delle citazioni italiane proveniva da autori all’interno dei confini italiani, più di qualsiasi altro paese (a eccezione degli Stati Uniti, la cui situazione però non è comparabile a quella dell’Italia).

L'impennata non può essere attribuita alle collaborazioni internazionali, perché il tasso di crescita dell'Italia per le collaborazioni internazionali tra il 2000 e il 2016 è stato anemico se paragonato a quello di altre nazioni.

I risultati sono "inquietanti", afferma Ludo Waltman, un esperto bibliometrico alla Leiden University nei Paesi Bassi che non era coinvolto nello studio. “Per limitare le discutibili pratiche di citazione, afferma Waltman, il sistema di valutazione italiano dovrebbe escludere le citazioni personali e considerare fattori come l'esperienza e le attività di un ricercatore oltre ai conteggi delle citazioni”.

Secondo gli autori dello studio appena pubblicato su Plos One, infatti, la responsabilità andrebbe probabilmente cercata anche nel modo in cui la ricerca in Italia viene valutata. Mettono quindi in discussione i criteri dell’Anvur che utilizzano le referenze come parametro per dare un punteggio alle performance di dipartimenti, atenei e scienziati stessi, e assegnare fondi e posizioni accademiche.

È indiscutibilmente vero che il legislatore ha affidato all’Anvur troppi compiti e competenze che spesso sono in conflitto d’interesse tra loro, oltre al fatto che anche la struttura interna dell’Anvur stessa rappresenta un’anomalia rispetto a quanto avviene in analoghe agenzie degli altri paesi. All’estero non c’è mai solo un ente ad accentrare tutte le attività di valutazione, misurazione e affidamento ma ci sono più agenzie, ciascuna con una propria struttura e competenza specifica.

Come dicevo poc’anzi, ora che è emerso il malcostume, non tutto, ma prevalentemente italiano di aggirare le regole del gioco, la comunità scientifica stessa (di cui gli autori italiani della ricerca fanno parte) cercano di giustificarsi spostando l’obiettivo sul piano politico, anziché biasimare senza appello, i loro colleghi e chi è abituato a far uso di questo tipo di pratica deontologicamente poco professionale e corretta.

Non tragga in inganno il fatto che sia oggi una ricerca italiana a denunciare tale malcostume. La questione stava comunque venendo fuori in ambito internazionale.

Marco Seeber, un ricercatore di politica scientifica all'Università di Gand in Belgio, intervistato sul tema dal portale web della rivista Science, afferma che la crescita dell'interiorità italiana è "sorprendente". A marzo, Seeber ha studiato l'uso nel nostro paese, delle metriche relative alle citazioni e ha riscontrato anch’esso, aumenti sostanziali delle auto citazioni dopo la riforma del 2010 . "La politica è stata motivata da intenzioni meritevoli" – ha detto Seeber - "Ma gli indicatori bibliometrici dovrebbero essere utilizzati per informare piuttosto che determinare le valutazioni."

Seeber ha affermato anche che non è chiaro quanta interiorità dell'Italia provenga dall'autocitazione e quanta dai “club di citazione”. Per scoprire per certo l’esistenza di questi club, bisognerebbe esaminare i singoli documenti per poter distinguere le citazioni “false” (o per meglio dire frutto di amicizie) da quelle “legittime”.

John Ioannidis, medico-scienziato dell'Università di Stanford a Palo Alto, in California, anch’esso interpellato nella medesima circostanza, sospetta invece che i club di citazione esistano e siano effettivamente responsabili della tendenza prevalentemente italiana.

Ioannidis, aveva già creato un database con cui che ha rivelato l’esistenza di centinaia di ricercatori veramente citati, in modo quasi anomalo. In conformità a quest’ulteriore risultanza, Ioannidis sostiene che il nuovo studio pubblicato da Plos One fornisce è solo un'altra prova di come gli indici di misurazione possano essere utilizzate in modo improprio. Infatti, fa notare come le citazioni di sé sono necessarie se uno studio si basa su precedenti lavori degli autori o dei loro colleghi. "Ma se qualcuno ha accumulato più della metà delle citazioni da se stesso o dai suoi coautori, è piuttosto strano" – ha detto - "Devi dare un'occhiata più da vicino."

Infine, l’associazione italiana Roars (Return on academic research) interpellata stavolta dal portale Wired, non è d’accordo con le soluzioni e le valutazioni proposte, in special modo con quella di Ludo Waltman che, come abbiamo visto, punta il dito anziché sulla pratica deontologicamente poco lusinghiera dei ricercatori italiani, sul sistema di valutazione auspicandone il cambiamento.

Secondo Roars, si tratta di una soluzione semplicistica e destinata a fallire. Anche nel caso di Roars tuttavia, si cerca di distogliere l’attenzione dalle responsabilità dei ricercatori, addossandole invece in toto chi fa le regole, ma senza lasciarsi sfuggire all’occasione (come da buon costume delle associazioni italiane di categoria) per chiedere più soldi. Per Roars, infatti, “i ricercatori sono estremamente veloci ad adattarsi ai cambiamenti nella science policy - (quasi a dire che sia normale cercare di aggirare le regole per trarre un vantaggio personale – NDR) e qualsiasi nuovo indicatore non farebbe altro che stimolare strategie di amina più raffinate, in accordo con la famosa legge di Goodhart ‘Quando una misura diventa un obiettivo, cessa di essere una buona misura’. Noi pensiamo – ha fatto sapere Roars - al contrario che l’insegnamento da ricavare sia che non esiste alcuna bacchetta magica, bibliometrica o di altro tipo che possa gonfiare la performance scientifica di un Paese. Soltanto un massiccio investimento nella ricerca può farlo” (considerazione condivisibile se non fosse altro che è stata certamente fatta in modo non disinteressato- NDR).

Insomma, qualora non l’abbiate ancora capito, il mondo della ricerca scientifica è lo specchio della società. Ricordatelo la prossima volta che sentite parlare un “esperto”, uno scienziato o un’autorità scientifica. Non vi aspettate maggiore onestà, moralità, senso di responsabilità e imparzialità di quella che attendete di trovare nei discorsi di un qualsiasi politico. Non pensate che le sue affermazioni siano necessariamente oggettive e disinteressate. Continuate ad ascoltare tutto in modo critico accogliendo tutto con “il ragionevole dubbio”. Analizzate e valutate sempre il contenuto delle informazioni senza farvi influenzare troppo dall’autorietarietà e/o dalla spesso presunta autorevolezza della fonte. Pretendete sempre di comprendere le risposte che ricevete e pretendete sempre risposte complete, ragionevoli e coerenti con l’oggettività dei fatti.

Sebbene sia sempre sbagliato fare di tutta l’erba un fascio, e dunque pur dovendo necessariamente precisare che come nella società in generale esistono persone serie, esistono anche scienziati e ricercatori intellettualmente onesti e moralmente integri, la comunità scientifica che il mondo scientifico, lo popola, lo vive e lo governa, non segue logiche diverse da quelle proprie ormai, purtroppo, di ogni altro settore della vita. Logiche fatte d’interessi privati e personali, economici e di lobby, di difesa delle proprie posizioni di privilegio o di strategie eticamente biasimabili, attuate per emergere in modo sistematico, automatico e quasi “naturale”, non solo da sgomitatori e arrampicatori sociali che antepongono se stessi a tutto il resto, ma anche da una nutrita schiera di ricercatori precari che tentano di sfuggire alle logiche di “schiavitù” a cui spesso devono sottostare se vogliono rimanere nell’affascinante ma poco limpido mondo scientifico. Un mondo insomma composto in prevalenza da una massa eterogenea di persone, in cui è possibile trovare sia individui senza valori morali e senza scrupoli, sia persone che valori e morale e dignità ne avrebbero ma che decidono a un certo punto di accantonarli per adeguarsi al sistema e poter “sopravvivere”, sia altri che con non poche difficoltà, si muovono come un elefante in un negozio di cristalli, e riescono a “galleggiare” senza poter emergere ma senza dover scendere a compromessi.

Smettetela dunque, di pensare che la Scienza abbia come fine la conoscenza e il miglioramento delle condizioni umane. L’idea, molto romantica, molto romanzata e quasi “cinematografica” dello scienziato che vive per la scoperta, per il sapere al fine di migliorare il mondo, dovrebbe ormai essere cancellata dalla nostre menti. Ciò non vuole essere una condanna dell’intera categoria.

Lo scienziato è una persona come le altre, che fa, talvolta meritatamente e con non pochi sacrifici, un lavoro certamente affascinante e interessante. Un lavoro che racchiude in se stesso, in modo implicito, una grande importanza e una grande responsabilità dal punto di vista sociale, alla stregua di tanti altri come ad esempio quello del medico, dell’insegnante, del pompiere, del poliziotto, del giudice, ecc. Come in ogni categoria, anche tra gli scienziati c’è chi prende il lavoro con responsabilità, passione e dedizione, e chi invece lo fa solo per portare uno stipendio a casa e basta. Non importa come e a che prezzo.

La Scienza (quella con la S maiuscola) quella che si basa sui dati oggettivi, quelli ottenuti attraverso l’applicazione di un metodo scientifico che riporta solo i dati oggettivi e non decide le “verità scientifiche” a maggioranza, è ormai divenuta cosa estremamente rara. Sovente i risultati delle ricerche di questa sempre più sparuta schiera di scienziati più “puri” e sempre più isolati, non arriva a conoscenza dell’opinione pubblica, sia perché il sistema scientifico “drogato” e “malato” non consente loro di raccogliere i giusti meriti, sia perché l’opinione pubblica è anch’essa troppo distratta a magnificare il proprio ego, troppo concentrata su se stessa per rendersi conto di cose diverse da quelle che gli vengono messe davanti agli occhi.

Per queste persone essere dentro alla massa e aderire anima e corpo al pensiero unico è fondamentale! Non ci sono più valori e principi fondamentali e inalienabili, tutto è in qualche misura giustificabile. Per loro il fine giustifica sempre i mezzi! Non c’è spazio per schierarsi a favore della sana scienza e dei sani ricercatori, perché questi sono fuori dal coro, fuori dal sistema. Per essi, la scienza di regime è la sola da prendere in considerazione, anche quando si contraddice, anche quando è oggettivamente irragionevole.

Per la sparuta minoranza delle persone (forse le sole che saranno arrivate a leggere anche queste ultime righe) che non appartengono a questa categoria, non appartengono alla massa sempre mutevole, irragionevole, irrazionale sempre più strumentalizzata e manipolata, e che hanno ancora la forza di andare avanti, senza rinunciare ai propri valori, alla propria intelligenza, per questi, e solo per questi,  la Scienza (quella vera) ci sarà sempre a conciliare la razionalità e la coerenza del proprio pensiero con la realtà oggettiva delle cose. Continuare a divulgare la scienza vera, farlo sempre onestamente e disinteressatamente, esercitando un legittimo spirito critico verso la “scienza di stato”, ancor più oggi che certi mali della scienza sono stati certificati, è l’unico modo di rimanere coesi. Forse così facendo saremo tutti meno soli e un po’ più liberi.

Approfondimento su questo ed altri temi riguardanti il mondo della comunità scientifica leggi qui

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Per la prima volta la scienza ufficiale contempla la teoria degli antichi alieni

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Febbraio 2021)

È successo! Membri attivi della comunità scientifica hanno aperto a una possibilità mai presa seriamente in considerazione prima d’ora. Sia subito chiaro però, ciò non significa nulla dal punto di vista delle prove che ciò sia realmente accaduto. 

Sono passati oltre cinquant’anni dal 1967, quando lo scrittore svizzero Erich von Däniken avanzo per la prima volta nei suoi libri, la possibilità, oggi nota con il nome di “teoria degli antichi alieni”, che gli extraterrestri avrebbero fatto visita alla Terra nel nostro passato. Fin dal primo istante la comunità scientifica tutta, rigettò questa possibilità nonostante la teoria fosse ben argomentata e supportata quantomeno da indizi di cui sarebbe valsa sicuramente la pena prendere nota. Ma nulla da fare.

La comunità scientifica era troppo chiusa su se stessa per poter quantomeno cogliere stimoli e spunti di riflessioni, riguardo le sue tante teorie incongruenti con i dati oggettivi. I preconcetti di cui era (e in buona parte è ancora) intrisa la comunità scientifica, hanno impedito fino ad ora di aprire la mente e considerare, anche per un solo attimo, la verosimiglianza della teoria degli antichi alieni, che riusce a spiegare, almeno in apparenza, in modo coerente e logico i tanti vuoti e le anomalie presenti nelle ricostruzioni ufficiali del nostro passato.

L’ipotesi alla base di questa teoria, cioè quella della visita di civiltà aliene nel nostro passato, era ritenuto assolutamente impossibile al punto da far coniare il termine “pseudoscenziato” e “pseudoscienza”, con cui sono stati etichettati per la prima volta nella storia, proprio Erich von Däniken e la sua teoria degli antichi alieni.

Solo una settimana fa (il 6/9/2019) in un articolo apparso su questo blog, facevo presente di quanto fosse anacronistico e assurdo, considerate le nostre attuali conoscenze scientifiche, continuare a disquisire sull’esistenza o meno di civiltà extraterrestri ponendo al centro della discussione il paradosso di Fermi, da un lato, e l’equazione di Drake, dall’altro. Nel farlo, rilevavo in particolar modo, come tutte le soluzioni proposte al paradosso di Fermi fossero tanto inattuali quanto preconcette, poiché intrise di quella limitata e limitante visione antropica dell’universo.

Neanche mi avessero ascoltato, un gruppo di ricercatori dell’Università di Rochester coordinato da Jonathan Carroll-Nellenback, ha così provato a dare una nuova e inedita soluzione al famoso paradosso di Enrico Fermi sulle probabilità di contatto con forme di vita intelligente extraterrestre.

Ma cosa hanno affermato come sono giunti a questa conclusione?

Andiamo con ordine.

Considerando la moltitudine di stelle nell'universo, Fermi riteneva naturale che forme di vita avrebbero potuto formarsi su altri pianeti, fino a dare vita a civiltà extraterrestri. La domanda allora era: "Dove sono tutti quanti?" La mancanza di segnali "non significa che siamo soli", è la risposta di Carroll-Nellenback. "Significa soltanto che i pianeti abitabili sono probabilmente rari e difficili da raggiungere".

Nel loro studio pubblicato sull'autorevole e prestigiosa rivista Astronomical Journal, il gruppo di ricerca è giunto alla conclusione che gli alieni potrebbero già essere nella nostra galassia: non ce ne saremmo accorti semplicemente perché la starebbero esplorando con tutta calma, sfruttando il movimento delle stelle per saltare più agevolmente da una all'altra alla ricerca di pianeti abitabili.

I parametri presi in considerazione nello sviluppo della simulazione rappresentano certamente una novità. La teoria dei ricercatori ruota attorno al fatto che le stelle e i loro pianeti orbitano attorno al centro della galassia a velocità diverse e in direzioni diverse.

In questo caso, le stelle e i pianeti s’incrociano di tanto in tanto, quindi gli scienziati pensano che gli alieni potrebbero decidere di viaggiare nello spazio e visitare altri pianeti, solo quando la destinazione scelta si avvicina alla loro. Ovviamente, sebbene stelle e pianeti si muovano a velocità elevatissime all’interno della galassia, considerate le enormi distanze questo eventuale tipo di approccio per l’esplorazione spaziale, richiederebbe alle civiltà aliene, più tempo di quanto si pensasse in precedenza per diffondersi tra le stelle.

Se è vero che non considerare il parametro dei movimenti stellari costituisce un limite decisivo per tutte le altre soluzioni proposte in precedenza, e averlo fatto rappresenta certamente un passo in avanti nella ricerca della soluzione al paradosso di Fermi, è anche vero che permangono nello studio in questione, molti altri parametri considerati in modo “convenzionale”. Ad esempio sono stati considerati tra i parametri la possibile frequenza dei lanci, nonché la possibilità di percorrenza delle distanze interstellari in rapporto ad un grado di capacità tecnologica e di conoscenza scientifica rapportata alla nostra. Voglio dire che un’eventuale civiltà extraterrestre in grado di viaggiare nello spazio, avrà certamente sviluppato mezzi adeguati per coprire rapidamente le enormi distanze. Noi però non conosciamo per niente questo tipo di tecnologia. Come possiamo stimarne in modo attendibile e verosimile le prestazioni al punto di parametrarle e inserirle nei nostri modelli matematici?

Chiaramente non possiamo!

Pensiamo oggi di conoscere la scienza e la fisica ma i nostri studi ci dimostrano in continuazione che nonostante abbiamo fatto grandi passi in avanti, sono ancora più le cose che non sappiamo rispetto a quelle di cui siamo a conoscenza. Riguardo a quest’ultime, siamo certi che siano esatte? E se sì, le nostre attuali conoscenze scientifiche teoriche, sono state prese in considerazione nell’elaborazione dei modelli che nel corso del tempo hanno provato a dare una risposta al paradosso di Fermi? Anche in questo caso la risposta è decisamente negativa.

Ad esempio, in tutte le soluzioni preposte che contemplano la possibilità di viaggiare da una stella all’altra, agli extraterrestri sono attribuite capacità tecnologiche certamente superiori alle nostre ma che rientrano comunque in parametri o che rispettano principi fisici per noi “convenzionali” o che escludono l’utilizzo di tecnologie per noi a oggi inarrivabili. Si ritiene che gli alieni abbiano sviluppato sistemi per viaggiare a velocità prossime a quella della luce, poiché si ritiene questo un limite invalicabile. Tuttavia, a livello per noi attualmente solo teorico, la teoria della relatività di Einstein afferma che è possibile coprire le enormi distanze che separano le stelle anche in altro modo, aggirando il problema. Sarebbe possibile sfruttare cunicoli spazio-temporali (Tunnel di Einstein-Rosen). Tale possibilità non viene mai minimamente contemplata da chi prova a fornire spiegazioni al paradosso di Fermi, eppure si tratta di una possibilità scientificamente plausibile benché in questo momento ben lontana dalla nostra portata. Potrebbe non essere altrettanto così per civiltà più evolute. Un altro esempio, questa volta legato alla mancata ricezione di segnali di civiltà aliene, potrebbe essere quello riguardante la tecnologia utilizzata per l’invio di segnali. Anche in questo caso ho fatto presente sia nel mio primo lavoro editoriale, sia in altri articoli apparsi su questo blog, che aspettarsi di captare segnali radio extraterrestri è di per sé sbagliato o, almeno, limitante poiché presuppone la contemporanea esistenza di altre civiltà con un livello tecnologico pari e non superiore a quello nostro attuale. Già oggi ci accingiamo a cambiare questo sistema di trasmissione dei dati, passando dalle onde radio alla luce. Forse se fossimo stati in grado di “guardare” oltre che “ascoltare” il cosmo, come fa ad esempio il famoso progetto SETI, avremmo già trovato segnali di civiltà extraterrestre o forse no. Forse potrebbero utilizzare forme di comunicazioni che noi oggi non sappiamo neanche immaginare.

Tornando allo studio appena pubblicato su Astronomical Journal, secondo i ricercatori quindi, una possibile spiegazione alla domanda “Dove sono tutti quanti” potrebbe essere che altre civiltà ci sono ma che stanno prendendosi il loro tempo per visitare con tutta calma, altri sistemi stellari e l’intera galassia.

Un’altra possibilità paventata nello stesso studio è quella che gli alieni non facciano scientemente visita alla Terra poiché già abitata, preferendo evitare di entrare in contatto con noi. Potrebbe anche darsi che gli alieni siano passati nei paraggi della Terra dopo la comparsa dell'uomo perché non avrebbero avuto probabilità di sopravvivere (il cosiddetto “effetto Aurora”, dall'omonimo romanzo di Kim Stanley Robinson). Tra le varie ipotesi, anche quella per cui gli alieni potrebbero evitare di proposito i pianeti che già ospitano vita, con un atteggiamento opposto rispetto allo spirito di conquista tipico degli esseri umani.

Fin qui però sebbene con un approccio un pochino più aperto, lo studio non sembra particolarmente rilevante rispetto a tutti quelli analoghi fatti in passato, poiché, come detto, presenta gli stessi limiti di tipo concettuale.

L’unico vero aspetto importante di questo studio risiede nell’affermazione che si legge tra le possibili altre soluzioni proposte. In particola modo nel fatto che gli alieni potrebbero aver già visitato la Terra, lasciando tracce ormai cancellate dal tempo”.

“Se una civiltà aliena fosse approdata sulla Terra milioni di anni fa - scrivono i ricercatori - probabilmente non ci sarebbero più tracce del suo passaggio”.

Per la prima volta quindi, nei risultati di uno studio compiuto da membri effettivi e attivi della comunità scientifica, si contempla la possibilità che gli alieni abbiano fatto già visita alla Terra, concetto alla base della teoria degli antichi alieni.

Ciò non significa che questo studio, tra l’altro basato esclusivamente su modelli teorici e matematici, al fine di ottenere risultati probabilistici, stia avvalorando la teoria degli antichi alieni giacché, quasi a voler esplicitamente prenderne le distanze, confina la possibile visita aliena della Terra, a milioni di anni fa all’epoca dei dinosauri e prima della comparsa dell’uomo, “scongiurando” così qualunque tipo di possibile contatto. In ballo ci sono una reptazione e il proprio posto di lavoro da difendere. Il coordinatore dello studio Jonathan Carroll-Nellenback e il suo team, non vogliono certamente correre il rischio di essere etichettati come pseudo scienziati, né tantomeno che il loro lavoro sia definito pseudoscienza.

Chiunque con un minimo di granus salis però, dovrebbe porsi a questo punto legittimamente una domanda: sulla base di quali elementi e per quale motivo la possibile visita aliena della Terra dovrebbe essere avvenuta eventualmente, solo prima della comparsa dell’uomo?

Leggendo attentamente i risultati di questo studio, non esiste alcun tipo di parametro che può far circoscrivere il periodo di una visita aliena della Terra a periodi giurassici e non invece anche a periodi storici o preistorici.

Del resto, non sono proprio i racconti di tutte le civiltà del passato, in tutti gli angoli della Terra, a narrare dell’arrivo di esseri delle stelle che giungono sul nostro pianeta con scopi e in periodi differenti? Perché, poiché oggi alcuni membri della comunità scientifica ufficiale contemplano la possibilità di una visita aliena avvenuta nel passato, non possiamo rivalutare queste storie (che tra l’altro sono spesso all’origine delle antiche, ma anche odierne, religioni)? Perché dobbiamo continuare da un lato a relegare queste storie a miti e leggende, e dall’altro sostenere che se gli alieni hanno fatto visita in passato al nostro pianeta le loro “tracce” sono state cancellate dal tempo? La memoria dei popoli, tramanda attraverso varie forme, i racconti orali, documenti scrittura, le pitture rupestri, bassorilievi e sculture e strutture architettoniche non potrebbero essere le “tracce” cui fanno riferimento i ricercatori dell’Università di Rochester? Tutti questi aspetti, se interpretati in modo non preconcetto, potrebbero realmente rappresentare la documentazione di visite extraterrestri.

Accontentiamoci per il momento, di questa prima apertura da parte della comunità scientifica, rimandando l’eventuale dibattito e la conseguente necessaria revisione della storia ufficiale in altri momenti, quando forse i tempi saranno maggiormente maturi.

Nel frattempo, per chi avesse fretta e intenzione nell’intraprendere questo viaggio di conoscenza e contemplare le possibilità sopra accennate, non posso che consigliare di cliccare qui.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Ecco come potrebbe essere la Terra vista dagli alieni

Da quando gli scienziati hanno scovato il primo esopianeta nel 1995, i pianeti extrasolari hanno superato quota 4100. Si tratta di un campo ancora nuovo e negli ultimi anni, abbiamo assistito allo sviluppo di nuovi strumenti che potranno aiutarci a trovare una Terra 2.0, in futuro. Già perché non tutti gli esopianeti scoperti sono rocciosi, e non tutti quelli rocciosi sono abitabili, almeno e quelle che tradizionalmente si ritengono siano le caratteristiche essenziali alla presenza di vita. Ho già fatto presente in precedenti articoli come già quest’ultimo punto rappresenti un limite preconcetto alla ricerca, considerato ciò che sappiamo oggi sull’esistenza d forme di vita estremofile.

In questo caso però, il limite concettuale sembra essere meno influente nella ricerca di mondi potenzialmente abitabili, poiché l’obiettivo di molti astronomi non è semplicemente quello di trovarne con certezza uno ma quello di trovare un vero e proprio sosia della Terra, un posto, tanto per intenderci, dove non solo ci siano forme di vita, ma dove anche tutte le forme di vita terrestri potrebbero sopravvivere.

La ricerca non è affatto facile. Quando gli astronomi terrestri puntano i loro telescopi verso stelle lontane alla scoperta di pianeti oltre il nostro sistema solare, sono fortunati se riescono a vedere anche un solo punto di luce (o meglio di ombra, poiché la maggior parte dei pianeti scoperti avviene con la tecnica del “transito”). Come possono capire se l’esopianeta scoperto potrebbe avere condizioni adeguate per la vita?

Per capire come avrebbero potuto saperne di più, due diversi gruppi di scienziati hanno provato a risolvere il problema cambiando punto di osservazione e chiedendosi: se civiltà aliene con pari nostre capacità tecnologiche, dai loro pianeti osservassero la Terra, cosa vedrebbero?  Così, da punto di osservazione, la Terra è divenuta l’oggetto da osservare con occhi diversi.

I risultati di entrambi gli studi sono stati pubblicati a fine Agosto 2019.

Il primo team di ricerca, composto da ricercatori del California Istitute of Technology e del NASA Jet Propulsion Laboratory, hanno preso le immagini di un pianeta certamente abitabile - la Terra - e le hanno trasformate in qualcosa che gli astronomi alieni vedrebbero a distanza di anni luce da noi.

Il team ha iniziato con circa 10.000 immagini del nostro pianeta catturate dal satellite NASC Deep Space Climate Observatory (DSCOVR), che si trova in un punto di equilibrio gravitazionale (o punto di Lagrange) tra la Terra e il Sole. Ciò ha permesso ai ricercatori di vedere solo il lato della Terra durante il giorno, simulando così un punto di vista “alieno”. Le immagini sono state scattate a 10 lunghezze d'onda differenti ma specifiche, e ogni 1-2 ore durante tutto il 2016 e il 2017.

Per simulare in modo più compiuto un possibile punto di vista alieno, i ricercatori hanno ridotto le immagini in un'unica lettura di luminosità per ogni lunghezza d'onda: 10 "punti" che, se tracciati nel tempo, producono 10 curve di luce che rappresentano ciò che un osservatore distante potrebbe vedere se guardassero costantemente l'esopianeta Terra per 2 anni. La luce, infatti, viene riflessa in modo differente a seconda della superficie su cui “rimbalza”. Il terreno ha prodotto perciò, luminosità differente rispetto all’acqua o alle nuvole.

Quando i ricercatori hanno analizzato le curve di luminosità ottenuta e le hanno confrontate con le immagini originali, hanno capito quali parametri delle curve corrispondevano al terreno e alla copertura nuvolosa nelle immagini. Dopo aver compreso questa relazione, hanno scelto il parametro più strettamente correlato all'area terrestre, l'hanno adattato per la rotazione terrestre di 24 ore e hanno costruito la mappa di contorno riportata all’inizio di quest’articolo, mappa pubblicata nel volume 882 numero 1 della rivista The Astrophysical Journal Letters .

Nella mappa, le linee nere, che segnano i valori mediani per il parametro terra, fungono da costa approssimativa. I contorni approssimativi di Africa (centro), Asia (in alto a destra) e Americhe (a sinistra) sono “chiaramente” visibili. Sebbene questo modello non sia ovviamente un sostituto di un'immagine reale di un mondo alieno, può consentire ai futuri astronomi di valutare se un esopianeta ha oceani, nuvole e calotte polari, requisiti chiave per un mondo abitabile di tipo terrestre e se ha caratteristiche geologiche e / o sistemi climatici che ne influenzano l'abitabilità.

Il secondo studio di questo tipo è stato compiuto da un team di astronomi canadesi della McGill University. Anche i ricercatori canadesi hanno scelto la Terra come modello, per ottenere quello che hanno definito “impronta digitale di un mondo abitabile”.

Per farlo, hanno utilizzato i dati raccolti per oltre un decennio dal satellite SciSat-1 ACE (acronimo di Science Satellite/Atmospheric Chemistry Experiment) comunemente noto solo come SciSat. Sviluppato dalla Canadian Space Agency, SciSat è stato creato per aiutare gli scienziati a comprendere l'esaurimento dello strato di ozono terrestre studiando le particelle nell'atmosfera mentre la luce solare lo attraversa. In generale con questo metodo, applicato all’osservazione di esopianeti, gli astronomi possono dire quali molecole si trovano nell'atmosfera di un pianeta osservando come la luce delle stelle cambia mentre splende attraverso l'atmosfera. Per fare quest’osservazione, gli strumenti devono attendere che un pianeta passi (o transiti) davanti alla propria stella. Con telescopi abbastanza sensibili, gli astronomi potrebbero potenzialmente identificare molecole come anidride carbonica, ossigeno o vapore acqueo che potrebbero indicare se un pianeta è abitabile o addirittura abitato. In attesa di avere questi strumenti, i ricercatori canadesi hanno applicato questo metodo alla Terra, ottenendo così uno spettro di transito della Terra, vale a dire “un’impronta digitale” per l’atmosfera nella luce infrarossa, che mostra la presenza di molecole chiave per la ricerca di mondi abitabili. Ciò include la presenza simultanea di ozono e metano, che gli scienziati si aspettano di vedere solo quando esiste una fonte organica di questi composti sul pianeta. Tale rilevamento è chiamato "Biosignature".

I risultati dello studio, pubblicati sulla rivista Monthly of the Royal Astronomical Society nel mese di Agosto 2019, potrebbero aiutare gli scienziati a determinare quale tipo di segnale può identificare un pianeta simile al nostro.

I due gruppi di ricerca hanno avuto quindi il medesimo approccio, utilizzando però dati differenti e ottenendo modelli distinti per identificare mondi simili al nostro, oltre a fornirci un interessante punto di vista “alieno” della Terra. Entrambi i modelli, sia presi singolarmente, sia combinati assieme, aiuteranno nei prossimi anni gli astronomi a scovare nuovi mondi abitabili o abitati, grazie anche all’utilizzo di nuovi telescopi spaziali come il James Webb Telescope, la cui costruzione costellata d’innumerevoli ritardi dovuti a tagli del budget e a problemi con le aziende costruttrici, è giunta finalmente al capitolo finale. Frutto di una collaborazione tra la NASA, l'Agenzia spaziale canadese e l'Agenzia spaziale europea, il lancio del JWT è previsto nel 2021.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Il mistero (quasi) svelato del metano marziano.

L’origine misteriosa del metano marziano sta per essere ufficialmente svelata. Le evidenze dei dati raccolti sul pianeta rosso sono ormai talmente tante che ogni spiegazione “convenzionale” all’origine del metano marziano non è più sostenibile. L’annuncio potrebbe avvenire in tempi bevi ma, poiché le conseguenze della portata di tal evidenza sarebbero a dir poco rivoluzionarie non solo dal punto di vista strettamente scientifico ma anche sociale, più verosimilmente le autorità scientifiche la tireranno ancora un po’ per le lunghe, in attesa di trovare la “pistola fumante” sul pianeta rosso. Ciò avverrà, se tutto procederà come previsto, alla fine del prossimo anno (2020) quando giungeranno su Marte le missioni di Esa e Nasa.

Ad avvisare i membri più conservatori della comunità scientifica del prossimo rivoluzionario annuncio è lo studio supportato dalla Canadian Space Agency e dal Mars Science Laboratory, pubblicato sull’ultimo numero (agosto 2019) della rivista Geophysical Research Letters. Nella ricerca, si spiega che gli scienziati hanno perfezionato le stime del gas presente nell’atmosfera di Marte, proveniente dall’enorme cratere Gale che vanta un diametro di circa 154 chilometri e un’età stimata di 3,8 miliardi di anni. La scoperta è stata compiuta grazie ai dati messi a disposizione dal Trace Gas Orbiter della missione ExoMars dell’Esa e del rover Curiosity della Nasa.

Gli scienziati cercano di individuare la fonte del metano marziano da più di un decennio e la novità portata dal nuovo studio è che la concentrazione del gas sembra variare durante la giornata e non solo stagionalmente come già noto da anni. In questi dieci anni, i ricercatori hanno presentato diverse ipotesi, all’inizio tutte in apparenza plausibili, sull’origine del metano.

Molte di queste, quelle che hanno subito e fino ad ora riscosso maggior consenso presso la comunità scientifica, erano quelle che vedevano il gas generato da reazioni chimiche tra le rocce  (prima dell’annuncio della presenza di acqua su Marte ), quelle che vedevano il gas periodicamente presente nell’atmosfera marziana come prodotto delle reazioni che avvengono tra rocce e acqua o da materiali in decomposizione che lo contengono (dopo l’annuncio del ritrovamento di vasti depositi d’acqua salata sul pianeta rosso) e quella che sosteneva la presenza di depositi di metano originatesi nel passato e liberati nell’atmosfera a causa di movimenti sismici (solo dopo che si è accettata l’evidenza di un’attività geologica, ancora presente), da attività vulcanica (ma il cratere Gale, dove è stato rilevato metano, non è di origine vulcanica) o dall’erosione delle rocce generata dal vento (ipotesi venuta a cadere non più tardi di un paio di mesi fa).

In ultima era stata contemplata anche l’ipotesi che il gas possa essere generato dalla presenza di alcuni microbi nel sottosuolo di Marte, che proprio come accade anche sulla Terra, possono sopravvivere senza ossigeno e rilasciano metano come parte dei loro rifiuti. Questa ipotesi benché fin dall’inizio fosse la più coerente con le rilevazioni e i dati raccolti, e fosse in grado di spiegare sia la circoscritta presenza del metano solo in alcune aree di Marte, sia la sua variabilità a livello stagionale, era stata quella meno presa in considerazione, se non addirittura scartata dalla comunità scientifica. Questo perché avrebbe implicitamente stravolto tutte le affermazioni della comunità scientifica riguardo all’inabitabilità del pianeta rosso, oltre che cambiato per sempre uno degli assunti più longevi della storia, riguardo la visione centrale, preminente e quasi esclusiva della vita sulla Terra e dell’uomo in particolare. Scoprire o meglio, accettare l’idea, che su un altro pianeta esiste una forma di vita extraterrestre, significa, di fatto, aprire la porta a tutta una serie di possibilità che oggi le autorità scientifiche (e non solo) hanno sempre rigettato.

Un primo colpo assestato alla prevalente teoria dell’origine abiotica del metano marziano era avvenuta lo scorso anno, quando gli scienziati avevano notato che le concentrazioni di metano cambiavano nel corso delle stagioni con un ciclo annuale ripetibile. Da qui erano partite le nuove misurazioni, ancora più precise, che hanno permesso di calcolare un singolo numero per il tasso d’infiltrazioni di metano nel cratere Gale che equivale a una media di 2,8 chilogrammi al giorno marziano. I ricercatori sono stati  così in grado di conciliare i dati di ExoMars e di Curiosity che, all’inizio, sembravano contraddirsi a vicenda.

John Moores, uno degli autori del nuovo studio ha dichiarato: “Siamo stati in grado di risolvere queste differenze mostrando come le concentrazioni di metano erano molto più basse nell’atmosfera durante il giorno e significativamente più alte vicino alla superficie del pianeta durante la notte, poiché il trasferimento di calore diminuisce". Il metano sarebbe quindi emesso costantemente durante l’intero Sol (giornata marziana), ma nelle ore di luce, complice la radiazione solare e il maggior calore, si diluirebbe rapidamente nell’atmosfera, sfuggendo alle rilevazioni delle sonde orbitali ma non ai rover presenti sul posto.

Sebbene lo studio non lo affermi esplicitamente, ciò è compatibile esclusivamente con l’ipotesi che il metano marziano sia realmente prodotto da forme di vita presenti nel sottosuolo marziano. Di fatto, procedendo per esclusione, è l’unica ipotesi plausibile e coerente con tutti idati fon qui raccolti, che rimane sul tavolo. Come ricorda anche il portale dell’ASI (Agenzia spaziale Italiana e quello dell’house organ della stessa, la rivista Global Science) “… il prossimo anno la missione ExoMars 2020 dell’Esa potrebbe portare nuovi elementi a queste ricerche, con la possibilità di scavare in profondità nel sottosuolo fino a due metri, alla ricerca di eventuali forme di vita batteriche …” trovando così conferma che potrebbero essere queste ultime, (che saranno ufficialmente le prime forme di vita extraterrestri trovate) responsabili della produzione del metano.

A quel punto tutto ciò che la maggior parte delle persone pensava di sapere su Marte, sulla Terra, sull’origine della vita e la visione sul nostro posto nel nostro sistema solare e nell’universo, cambierà. In molti saranno costretti a seppellire le anacronistiche teorie tradizionali e rivalutare possibilità o evidenze che ancora oggi, sembrano fantasie. Del resto ormai si sa “la scienza avanza un funerale alla volta” (Max Plank).

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

L’alternativa agli OGM è vaccinare le piante?

Il constante ed esponenziale aumento della popolazione mondiale ha portato la domanda alimentare a livelli finora ineguagliati. Ciò ha portato l’industria agroalimentare ad attingere alle nuove scoperte fatte in capo biotecnologico per cercare di massimizzare i raccolti minacciati da insetti e, soprattutto, da malattie. Anche le piante infatti, come ogni altro essere vivente, può ammalarsi, compromettendo in tutto o in parte, il lavoro fatto dagli agricoltori nei mesi precedenti, con danni economici rilevanti.

Poche cose sono più spaventose per un coltivatore di zucca rispetto alle lettere CMV. Queste rappresentano il virus del mosaico del cetriolo, un agente patogeno che distrugge interi campi di zucche, cetrioli e meloni. I virus rappresentano una minaccia in continua evoluzione per la sicurezza alimentare globale, e la nuova tecnica potrebbe aiutare gli agricoltori a tenere il passo con i patogeni in costante cambiamento.  L’industria agroalimentare si è da anni rivolta alla genetica, facendo creare piante geneticamente modificate in modo da renderle più resistenti a certe malattie. Se è vero che in tal modo i raccolti sono stati maggiormente protetti dal rischio di perdere tutto a causa di malattie, nessuno studio di lungo periodo è stato fatto sugli effetti che questi OGM (Organismi Geneticamente Modificati) possono avere sulla salute di chi li consuma, uomo o animali che siano. I dubbi riguardo alla reale sicurezza degli OGM sono talmente tanti che anche dal punto di vista politico, non tutti gli stati consentono coltivazioni di questo tipo. Una parte della popolazione mondiale che ha la fortuna di poter scegliere cosa mangiare e cosa no, ha deciso di non consumare cibi OGM facendo nascere così un mercato alternativo e molto remunerativo (poiché i prezzi dei prodotti No OGM sono decisamente superiori per via della minore resa dei raccolti.)

Le malattie delle piante però, sono in continua evoluzione, così come quelle dell’uomo. I virus che colpiscono frutta, verdura e ortaggi, mutano quasi alla stessa velocità con cui muta il virus dell’influenza nell’uomo. L’industria degli OGM quindi, non riesce a stare al passo nel creare cereali, ortaggi, frutta e verdura immuni (o più resistenti) a certe cangianti malattie. La strada della modificazione genetica si sta rivelando oltre che incerta per quanto riguarda gli effetti sulla salute dell’uomo, non sempre efficace oltre che molto complessa in alcune circostanze.

L’industria agroalimentare chiede soluzioni e l’industria chimico farmaceutica ne studia continuamente di nuove. Quali però le alternative agli OGM?

La nuova “medicina” propone oggi di vaccinare le piante contro i virus più devastanti. Il biochimico Sven-Erik Behrens dell'Università Martin Luther di Halle-Wittenberg, in Germania, e i suoi colleghi hanno trovato un modo per sviluppare rapidamente vaccini in grado di proteggere le colture dai patogeni virali.

I vaccini sono un tema su cui si discute tantissimo negli ultimi anni e potrebbe non essere una buona notizia doverne discutere anche per quel che riguarda le piante. Tuttavia è bene parlarne ancor prima che certe nuove “tecnologie” siano applicate su larga scala, nella speranza di dar vita a un dibattito informato e quindi meno soggetto a manipolazione, evitando così imposizioni legislative, che vanno a circoscrivere le libertà individuali come nel caso dei vaccini sull’uomo. Ricordiamo, infatti, che i vaccini sono dei medicinali e, come ogni altro medicinale ha delle controindicazioni e degli effetti indesiderati, e andrebbe assunto solo se necessario. L’assunzione forzata e ingiustificata oltre ad essere un atto antidemocratico degno dei regimi assolutisti, poiché lede quelli che sono i diritti fondamentali dell’uomo, può esporre a rischi per la salute più elevati di quelli a cui il provvedimento coercitivo sostiene di voler limitare.

Nel caso dei vaccini delle piante potrebbe ripresentarsi, di fatto, e nel migliore dei casi, la stessa situazione già vissuta con gli OGM o, al peggio, potremmo trovarci nella condizione di non poter scegliere se consumare piante “vaccinate” o no. L’impossibilità di scegliere a fronte dell’emanazione di leggi frutto di decisioni prese dall’alto senza un adeguato e informato dibattito e senza il consenso dell’opinione pubblica, configura, di fatto, una restrizione delle libertà individuali. È bene quindi sapere fin da subito, di cosa stiamo parlando quando si dice di voler vaccinare le piante.

Quando un virus infetta una cellula vegetale, rilascia spesso RNA, sotto forma di RNA messaggero o RNA a doppio filamento. Questo viaggia attraverso la cellula, aiutando il virus a replicarsi. Le proteine ​​di difesa all'interno della cellula vegetale riconoscono questi RNA virali. Scattano quindi le difese immunitarie e gli enzimi della pianta agiscono come piccole forbici e dividono i filamenti di RNA virale. Alcuni dei pezzi di RNA così generati, chiamati piccoli RNA interferenti (siRNA), si uniscono a un gruppo di proteine delle piante, ​​chiamato complesso Argonaute, fungendo come identificatori che portano il complesso Argonaute a RNA sul genoma del virus. Identificato il virus, il complesso Argonaute e le altre proteine ​​lo distruggono.

La tattica è micidiale, ma non sempre efficace. Delle molte migliaia di vari siRNA prodotti dalla pianta, pochissimi hanno le giuste proprietà chimiche per combattere l'RNA virale. I ricercatori tedeschi, compreso questo meccanismo, hanno iniziato a semplificare il processo.

Hanno sviluppato test molecolari per identificare quali siRNA sono efficaci nella lotta contro i virus. In esperimenti di laboratorio con piante di tabacco, hanno dimostrato di poter identificare e selezionare i siRNA “vincenti” e usarli come vaccino contro il virus acrobatico del pomodoro, che rallenta la crescita e danneggia le foglie nelle piante di tabacco. Il miglior siRNA, spruzzato sulle foglie, ha protetto il 90% delle piante, il team riferisce questo mese sulla rivista Nucleic Acids Research.

Stando a quanto riportato nell’articolo, almeno questa volta non si tratta quindi, di vaccini convenzionali, fatti di sostanze chimiche o altro, ma soltanto di materiale endemico della pianta che è risultato più resistente e reattivo per sconfiggere la malattia. Si tratta una tecnica più simile ai primi vaccini messi a punto per l’uomo, che miravano a stimolare le difese immunitarie in modo semplice e “pulito”, senza aggiunta di additivi, metalli e altre sostanze estranee al corpo umano, come invece avviene oggi (stando a quanto riportato nei bugiardini).

La tecnica messa a punto dai ricercatori tedeschi non sfrutta un principio inedito. Esistono altri modi per prevedere quali siRNA potrebbero essere efficaci contro un virus vegetale, ma la maggior parte di questi sono modelli di computer che non funzionano sempre come previsto, afferma il principale autore dello studio Sven-Erik Behrens.

Un aspetto interessante dello studio è che il team, in alternativa alla classica iniezione, ha semplicemente spruzzato i siRNA sulla pianta o li ha strofinati sulle foglie. Ciò rende questo sistema molto più semplice e veloce rispetto all'ingegneria genetica di una pianta per la resistenza virale, che genera OGM il cui DNA sarà modificato per sempre ma che, al contempo, non assicura un altrettanto perpetua protezione dal virus. Questo metodo invece consente agli scienziati e agli agricoltori di tenere il passo con la rapida evoluzione dei patogeni virali. Tutto bene allora, qual è il problema?

Come al solito non è tutto oro ciò che luccica. I ricercatori stanno ora lavorando per trovare il modo più efficiente ed economico di somministrare il vaccino alle piante. Una delle soluzioni proposte suggerisce vaccinare le piante con uno spray che utilizza, come additivo o "vettore", nanoparticelle di sostanze, in questo caso, non meglio specificate (spesso in altre situazioni, ma sempre in ambito biotecnologico, sono utilizzati nanoparticelle di bario o altri metalli) per fornire i siRNA. Le nanoparticelle (di qualunque tipo) hanno la caratteristica di essere talmente piccole da poter superare qualunque filtro biologico e penetrare addirittura la membrana cellulare. Non hanno quindi la possibilità di essere smaltite dall’organismo, come avviene con altre sostanze assunte in forme (intesa come scala molecolare) più grande. L’uomo potrebbe assumere quindi queste nanoparticelle depositate irreversibilmente nelle piante che hanno subito questo trattamento. Nessuno studio è in programma per comprendere se questa pratica potrebbe comportare rischi per la salute dell’uomo nel breve o nel lungo periodo. Appare dunque legittimo cominciare a chiedersi se la soluzione della vaccinazione delle piante è veramente una soluzione a uno dei problemi dell’umanità, quello della soddisfazione della domanda di cibo, o rischia invece di essere l’inizio di un nuovo problema, quello di vedere aumentare in modo apparentemente inspiegabile, malattie rare o sconosciute. Se prevenire è meglio che curare, sarebbe opportuno studiare bene tutto quanto, prima di applicare qualunque nuova tecnologia. Se il rapporto rischi/benefici è spesso una questione etico - morale (aspetti che non sono oggettivi ma come si sa, cambiano con i tempi) la scienza a cui tutti richiediamo oggettività e nulla più, dovrebbe ben guardarsi dall’intraprendere strade che possano in qualche modo comportare dei danni all’uomo o all’ambiente, piccoli o grandi che siano.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Dove sono tutti quanti? Forse oggi abbiamo un'idea

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Maggio 2021)

“Dove sono tutti quanti?” Questa è ciò che si chiedeva, ormai settant’anni fa Enrico Fermi, conversando con alcuni colleghi riguardo la possibilità di vita intelligente extraterrestre. In molti hanno provato a rispondere alla domanda (che costituisce, di fatto, il famoso Paradosso di Fermi) che forse, potrebbe non avere neanche necessità di risposta se non si partisse da taluni preconcetti che sono propri, tra l’altro, della sua formulazione. Volendo in questa sede rimanere nell’ambito delle teorie scientifiche ufficiali e prevalenti (ma non per questo necessariamente esatte), se oggi non possiamo ancora indicare il luogo dove si annida la vita extraterrestre (o ancor meglio extrasolare), senza scontrarsi con l’ideologia della comunità scientifica (ma non con l’evidenza della Scienza), oggi abbiamo un’idea più precisa di dove poterla cercare.

Per noi, abitanti della Terra del XXI secolo, fin dagli esordi dei telescopi spaziali Harps e Kepler gli esopianeti non sono più una novità. A oggi (6 settembre 2019 ndr) gli esopianeti ufficialmente scoperti sono 4108. Più si scoprono nuovi esopianeti però, più appare difficile trovarne simili alla Terra, simili non per dimensioni o orbita ma per capacità di ospitare la vita. Un recente studio su The Astronomical Journal ha cercato di fare il punto.

Secondo Eric B. Ford, professore di astronomia e astrofisica a Penn State e uno dei leader del gruppo di ricerca “contare semplicemente esopianeti di una determinata dimensione o con una determinata distanza orbitale è fuorviante, poiché è molto più difficile trovare piccoli pianeti lontani dalla loro stella piuttosto che trovare pianeti grandi vicino alla loro stella”.

La stima del numero dei pianeti con un clima abbastanza temperato da avere acqua allo stato liquido in superficie si deve all'università della Pennsylvania, che ha utilizzato i dati del telescopio spaziale Kepler della Nasa.

Per superare quest’ostacolo, i ricercatori hanno progettato un nuovo modello che simula “universi” di stelle e pianeti e poi “osserva” questi universi simulati per determinare quanti pianeti sarebbero stati scoperti da Keplero in ciascun “universo”.

La missione di Keplero ha scoperto migliaia di piccoli pianeti, la maggior parte sono così lontani che è difficile per gli astronomi apprendere dettagli sulla loro composizione e atmosfere.

“Abbiamo utilizzato il catalogo finale dei pianeti identificati da Keplero e migliorato le proprietà stellari del satellite Gaia dell’Agenzia spaziale europea per costruire le nostre simulazioni”, ha dichiarato Danley Hsu, il primo autore dello studio. “Confrontando i risultati con i pianeti catalogati da Keplero, abbiamo caratterizzato il tasso di pianeti per stella e il modo in cui ciò dipende dalle dimensioni del pianeta e dalla distanza orbitale. Il nostro nuovo approccio ha permesso al team di spiegare diversi effetti che non erano stati inclusi negli studi precedenti”.

I risultati di questo studio sono particolarmente rilevanti per la pianificazione di future missioni spaziali per caratterizzare pianeti potenzialmente simili alla Terra.

Sulla base delle loro simulazioni, i ricercatori stimano che i pianeti di dimensioni molto vicine alla Terra, da tre quarti a una volta e mezza, con periodi orbitali che vanno da 237 a 500 giorni, sono circa uno ogni quattro stelle. In pratica, secondo i calcoli una stella simile al Sole ogni quattro potrebbe accogliere un pianeta con caratteristiche simili a quelle della Terra.

Ok, ma quanti sarebbero i mondi potenzialmente abitabili simili nella sola nostra galassia? Il nuovo calcolo dei mondi potenzialmente abitabili costituisce una sorta di rivoluzione nello studio della Via Lattea e questo passo, rilevano gli autori della ricerca, sarebbe stato impossibile senza i dati del telescopio Kepler, che ha permesso di scoprire 2.600 pianeti nella Via Lattea e di capire che molti di essi sono simili alla Terra. L'analisi basata sui dati di Kepler, andato in pensione nell'ottobre 2018, "ha delle incertezze, ma fornisce una stima ragionevole di come i pianeti simili alla Terra nella nostra galassia siano compresi fra cinque e dieci miliardi", ha osservato il coordinatore della ricerca, Eric Ford.

La stima è considerata dagli esperti un passo importante per andare in cerca di possibili forme di vita aliena, per esempio indirizzando la 'caccia' del futuro cacciatore di mondi Wfirst (Wide-Field Infrared Survey Telescope) della Nasa, il cui lancio è in programma entro i prossimi dieci anni. "Avremo un ritorno decisamente maggiore dei nostri investimenti, sapendo dove andare a cercare", ha detto ancora Ford.

C’è inoltre da far rilevare come questo studio fornisca una stima molto limitata, poiché parte dal presupposto che la vita possa essersi sviluppata, o ancor meglio possa essere ospitata, soltanto su pianeti con caratteristiche simili alla Terra, che orbitano attorno a stelle simili al nostro Sole. Oggi però sappiamo che la vita non è una prerogativa esclusiva del nostro pianeta. Il movimento ideologico che permeava la comunità scientifica e rispondeva al quesito di Enrico Fermi, con la cosiddetta “ipotesi della rarità della Terra” deve ragionevolmente essere accantonato di fronte alle evidenze scientifiche raccolte negli ultimi vent’anni.

Il prossimo anno (2020) partiranno ben due missioni spaziali per cercare (altre) prove di vita attuale su Marte (evidenze di quella passata ne sono già state trovate, come vedremo e ascolteremo ufficialmente tra alcuni mesi). Sono in preparazione diverse missioni per il prossimo decennio alla ricerca di tracce di vita sulle lune ghiacciate di Giove e Saturno. Sappiamo, dunque, che la vita extraterrestre non è poi così improbabile com’è stato sempre ritenuto dalla comunità scientifica, fino nel recente passato. Al contempo le condizioni per la sua presenza altrove non sono circoscritte al ripetersi delle sole condizioni terrestri e non deve essere circoscritta ai soli pianeti rocciosi, ma anche ai miliardi di lune (il cui numero non è neanche minimamente stimabile a causa dei nostri limiti tecnologici che non ci consentono ancora di scoprirne in numero statisticamente sufficiente) che circondano sia i pianeti rocciosi sia quelli gassosi. Esistono poi pianeti (e un numero ancor maggiore di lune) che appartengono a sistemi con stelle di tipo diverso dal Sole, come ad esempio quelli che orbitano intorno a stelle nane rosse, stelle più fredde ma che si ritiene possano comunque garantire le condizioni necessarie al sostenimento di vita (e della sua eventuale evoluzione). Appartiene a questo tipo di sistemi stellari la maggioranza dei 4018 esopianeti fin qui scoperti, senza dimenticare che le stelle nane rosse sono quattro volte più numerose delle stelle simili al nostro Sole.

Se nelle simulazioni più recenti, come quella oggetto dello studio sopra menzionato, dovessimo aggiungere questi dati e queste variabili, verosimilmente raggiungeremmo numeri dieci, cento o mille volte più grandi di quelli determinati con i calcoli effettuati dagli scienziati della Pennsylvania. Analogo discorso può essere fatto per la famosa Equazione di Drake a cui spesso è contrapposto il Paradosso di Fermi. Anche in questo caso, portare i risultati dell’Equazione di Drake (che non sebbene complessa, non contempla tutte le possibilità sopra citate) come “prova” a sostegno dell’ipotesi extraterrestre, non costituisce elemento sufficiente e significativo.

Dal punto di vista esclusivamente ideologico (e non pratico, poiché sovente i “negazionisti” della vita extraterrestre disconoscono talune evidenze) quindi, la risoluzione della questione è molto più complessa di quella che la semplicistica contrapposizione tra Paradosso di Fermi ed Equazione di Drake fa apparire. Alla domanda “Dove sono tutti quanti?” oggi potremo rispondere, anche alla luce di questo studio, “Tutto a torno a noi”. È inutile rispondere a chi insiste nel dire non che non ci sono prove, ricordando che l’eventuale assenza di prove ( ma ce ne sono) non è prova d’assenza. Eppure talvolta, sarebbe sufficiente mettere da parte assurdi e ormai anacronistici “pensieri pseudoscientifici” (come quelli suggeriti da Fermi) e guardare un po’ più in la del proprio naso …

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Bere acqua fluorurata durante la gravidanza, può abbassare il QI nei figli. Lo afferma uno studio pubblicato sulla rivista JAMA Pediatrics.

Lo studio appena pubblicato su Jama Pediatrics (una rivista medica mensile, pubblicata dalla American Medical Association, che copre tutti gli aspetti della pediatria) rappresenta una potenziale "bomba" per le conseguenze che potrebbe avere (ma che probabilmente non avrà, considerati gli interessi in ballo) sull'industria, sulla politica e nelle abitudini di vita di miliardi di persone. Tuttavia è necessaria una premessa al fine di informare chi non conosce questo argomento, poco discusso e poco noto.

Il fluoro è un elemento presente in natura non in forma singola ma a causa della sua elevata reattività, è spesso presente combinato con altre sostanze che danno origine ai fluoriti. Il fluoro rappresenta circa lo 0,065% della massa della crosta terrestre.

Si tratta di un elemento potenzialmente dannoso se assunto in dosi superiori a una certa quantità giornaliera e per lunghi periodi. Infatti, La scienza ha inequivocabilmente scoperto che il fluoro uccide le cellule celebrali èd è definito senza mezze misure una sostanza “neuro tossica”. Non a caso, come spesso avviene, uno dei suoi primi impieghi fu quello nell’industria bellica. Il gas nervino costituì il primo impiego di composti chimici fluorurati per scopi militari. Come molti gas velenosi, era in grado di rilasciare nell'organismo considerevoli quantità di fluoruro che portano a un effetto bloccante sull'attività enzimatica e sul sistema nervoso centrale, generando danni a livello cerebrale (riduzioni del quoziente d'intelligenza e ritardi mentali), depressione polmonare e cardiaca (fino alla morte se assunto in dosi eccessive).

Oggi si conosce bene il potenziale dannoso di questo elemento, tant’è che il fluoro e l'acido fluoridrico devono essere maneggiati con grande attenzione e qualsiasi contatto con la pelle e gli occhi deve essere evitato. Procedure di sicurezza molto rigide permettono il trasporto di fluoro liquido o gassoso in grandi quantità.

Il fluoro ha un forte odore pungente rilevabile già a basse concentrazioni (20 parti per miliardo o ppm), simile a quello degli altri alogeni (come cloro, bromo e iodio) e paragonabile a quello dell'ozono. Esso è altamente tossico e corrosivo. È raccomandabile che l'esposizione massima giornaliera sia di una parte per milione. La più bassa dose letale nota è venticinque ppm. L'esposizione continua al fluoro e ai suoi sali porta a fluorosi del tessuto osseo e danni al sistema nervoso centrale. Questa è certezza scientifica e non complottismo.

Eppure come se non bastasse quello già presente in natura, alla cui esposizione non possiamo sottrarci, poiché il fluoro è presente in piccole quantità anche in piante insospettabili come il tè ad esempio oltre che in alcune acque potabili, siamo ormai circondati di prodotti a cui dichiaratamente è stato aggiunto del fluoro.

Dentifrici, gomme da masticare e molti altri alimenti o sostanze che molti utilizzano giornalmente, contribuiscono alla continua esposizione e al potenziale superamento dei limiti (1 ppm) sopra i quali si possono manifestarsi danni fisici. Guai però a farlo presente, si viene subito etichettati come complottisti! Basta sintetizzare il discorso scientifico fatto fin ora, nella frase ridicola “Mi vuoi dire che l’acqua fa male?” ed il gioco è fatto. Chi si trova ad ascoltare questo discorso tra chi parla di scienza e chi non ne sa nulla e presume di sapere (non spendo neanche una parola riguardo chi non è in grado di comprendere tale discorso), verrà magicamente persuaso sul fatto che i rischi derivanti all’assunzione del fluoro sono teorie complottiste, grazie anche alla complicità, spesso inconsapevole ma comunque colposa, di chi avanza ipotesi sulla fluorizzazione dell’acqua quali quelle del controllo mentale.

Ciò nonostante, i rischi per la salute derivanti dall’assunzione eccessiva e continuata di fluoro, sono evidenti e scientificamente provati. Le persone però, non sono sufficientemente informate riguardo questo quasi onnipresente e potenzialmente letale veleno.

Al contrario siamo spesso incoraggiati dalla pubblicità all’utilizzo di prodotti che contengono fluoro. Pensate alle pubblicità di dentifrici e gomme da masticare. La manipolazione operata attraverso il martellamento pubblicitario ha ribaltato completamente la situazione, al punto che la maggioranza delle persone è oggi convinta che il fluoro sia un elemento “positivo” per la nostra salute. La convinzione è talmente radicata che sovente è la presenza di questo elemento a determinare la scelta di acquisto di un prodotto anziché di un altro che ne è privo! Tant'è che la presenza di fluoro è riportata in modo enfatizzato su questi prodotti, come fosse un plus valore.

Com’è possibile tutto questo?

Gli interessi economici in ballo sono altissimi, poiché il fluoro è un elemento molto utilizzato nell’industria chimica, farmaceutica e alimentare.

Ci hanno isegnato che il fluoro è noto per proteggere i denti dalla carie, rafforzando lo smalto dei denti. Ma le sue presunte proprietà benefiche sono state scientificamente provate?

Durante gli anni '40 e '50, i ricercatori della sanità pubblica e i funzionari governativi delle città di tutto il mondo hanno aggiunto sperimentalmente (e all’insaputa della popolazione) fluoro all'acqua potabile pubblica. Hanno poi rilevato statisticamente che il numero di pazienti che a seguito della fluorizzazione dell’acqua era ricorso a cure mediche dentali per problemi di carie, si era ridotto del 60%.

Soddisfatti del risultato, solo pochissimi altri studi sono stati condotti riguardo all’efficacia di questa pratica e quasi nessuno ha preso in cosiderazione gli effetti collaterali che potrebbe aver comportato. Se la politica spesso si muove su base etica, la scienza che sovente ne supporta le scelte non dovrebbe farlo. Il rapporto rischi/benefici è infatti un problema scientifico ancor prima che etico.

Esistono pochissime prove contemporanee, che soddisfano i moderni e attuali criteri scientifici, che hanno valutato l'efficacia della fluorurazione dell'acqua per la prevenzione della carie.
I dati disponibili provengono principalmente da studi condotti prima del 1975 e indicano che la fluorurazione dell'acqua è efficace nel ridurre i livelli di carie sia nella dentizione provvisoria sia permanente nei bambini. Tuttavia la fiducia in questi studi e dai risultati relativi, dovrebbe essere ben circoscritta, proprio per la limitata dalla natura osservativa (cioè solo su base statistica) dei progetti di studio che spesso hanno semplicemente raccolto dei dati a livello statistico (come quello del minor numero di pazienti che ricorrono alle cure mediche in un determinato periodo), senza tener conto della presenza di altri fattori che avrebbero potuto falsare il risultato.

Gli “studi” degli anni ’40 e ’50 ad esempio non hanno tenuto conto dell’uso di dentifricio al fluoro, della disponibilità e sull'adozione di altre strategie di prevenzione della carie dei cittadini oggetto della sperimentazione, di informazioni riguardo la loro dieta e il consumo di acqua di rubinetto e sul movimento di migrazione della popolazione. Insomma, non ci sono prove scientifiche sufficienti per determinare se la fluorizzazione dell'acqua provoca un cambiamento nelle disparità nei livelli di carie nella pratica di fluorizzazione delle acque, senza contare l'elevato rischio di parzialità all'interno degli studi che hanno condotto queste ricerche e, soprattutto, dall'applicabilità delle prove agli stili di vita attuali.

Oggi infatti, molto più che in passato, abbiamo a disposizione un numero molto più elevato di prodotti che contengono fluoro. Potenzialmente quindi, se non adeguatamente consapevoli dei danni che un’eccessiva assunzione potrebbe comportare, siamo esposti maggiormente a questo rischio.

Abbiamo detto che il fluoro si trova naturalmente in basse concentrazioni sia in acqua dolce sia in acqua di mare, nonché in materiale vegetale, in particolare foglie di tè.

Dagli esperimenti sull’ignara popolazione, svolti per la prima volta nel tentativo di ridurre le carie a Grand Rapids, nel Michigan, nel 1945, il sistema di fluorizzazione dell’acqua potabile pubblica è stato salutato dai Centri statunitensi per il controllo e la prevenzione delle malattie riunitosi ad Atlanta come "una delle più grandi storie di successo della salute pubblica".

Oggi, l'acqua fluorizzata scorre attraverso i rubinetti di circa il 5% della popolazione mondiale sebbene i dati non siano del tutto disponibili e aggiornati. L’adozione di questa pratica varia da paese a paese e spesso, anche all’interno dello stesso in ragione di alcune specificità legate sia alla qualità naturale dell’acqua immessa in quello specifico acquedotto, sia a ragioni di tipo politico.

Il governo del Sudafrica sostiene ufficialmente la fluorizzazione dei rifornimenti idrici. In Brasile, circa il 45% delle città ha un rifornimento idrico fluorurato.

Nel maggio del 2000, 42 delle 50 metropoli statunitensi utilizzano il sistema della fluorizzazione. Secondo uno studio del 2002, il 67% degli americani sta consumando acqua fluorizzata. A partire dal 2001, si è stabilito che il 75% della popolazione riceve acqua fluorurata. Tuttavia, come accennavo, esistono all’interno del paese delle eccezioni. L'emissione ai rifornimenti idrici del fluoruro è controllato periodicamente dagli enti pubblici territoriali. Per esempio, l'8 novembre 2005, i cittadini di Mt. Pleasant nel Michigan hanno votato 63% a 37% per la reintegrazione della fluorizzazione dell'acqua potabile dopo che un'iniziativa alle schede elettorali del 2004 fece cessare la fluorizzazione dell'acqua nella città. Contemporaneamente alle urne di Xenia e a Springfield nell'Ohio, a Bellingham e a Tooele, è stata rifiutata la fluorizzazione.

In Canada, gli ultimi dati disponibili (quelli del 2006) indicavano che circa il 40% della popolazione canadese riceveva l'acqua fluorurata.

E nel resto del mondo?

L'Australia ha dichiarato che la fluorizzazione non è attiva solamente nel Queensland, dove è sotto il controllo dell'ente pubblico territoriale. In Nuova Zelanda quasi tutto il rifornimento idrico è soggetto alla fluorizzazione, tranne quelle zone distanti dalle aree metropolitane e piccoli borghi e/o città.

La maggior parte del rifornimento idrico europeo non è soggetto alla fluorizzazione.

Anche qui però si osservano situazioni abbastanza eterogenee.

Ad esempio, mentre l’Irlanda è l’unico paese dell’Unione Europea in cui la fluorizzazione dell’acqua è obbligatoria per legge, Nel Regno Unito soltanto il 10% della popolazione riceve acqua fluorata (tra le città più importanti: Birmingham e Newcastle).

In Svizzera l’acqua pubblica è fluorata ad eccezione dell’area della città di Basilea.

In Svezia la fluorizzazione dell’acqua è vietata per legge e la Norvegia l'ha vietata dal 2000.

La Francia è contraria alla fluorizzazione del proprio rifornimento idrico. Molteplici "prodotti chimici" incluso il fluoro sono esclusi dalla "Lista dei prodotti chimici per il trattamento dell'acqua potabile".Tuttavia consente (così come succede in Svizzera nell’area di Basilea e in Germania, il consumo di sale fluorato.)

La Germania non consente la fluorizzazione dell'acqua potabile, come stabilito dal ministro federale tedesco della salute, sebbene con delle eccezioni.

E in Italia?

I primi studi sperimentali sull'efficacia del fluoro come mezzo profilattico, in Italia, risalgono ai primi anni cinquanta e furono avviati dalla Clinica Odontoiatrica dell'Università di Pavia, diretta da Silvio Palazzi, in collaborazione con Alessandro Seppilli, direttore dell'Istituto di Igiene dell'Università di Perugia; le ricerche delle due Scuole sembrarono confermare il potere batteriostatico e antifermentativo del fluoro applicato direttamente sullo smalto, oltre che quello preventivo e profilattico delle paste dentifricie fluorate. Già all’epoca però, il mondo scientifico accademico era diviso sull’attendibilità di questi risultati. Vari studiosi italiani all’epoca, come Albanese, Fiorentini e Tempestini, si erano infatti schierati nettamente contro le paste dentifricie fluorate, ritenendole assolutamente inefficaci.

Fortunatamente in Italia non ci si orientò quindi, verso la fluorazione delle acque potabili, che era in atto già da alcuni anni in altre Nazioni. Oggi sappiamo che tale scelta inconsapevole ha una giustificazione scientifica sebbene poco rassicurante. Le acque italiane sono, infatti, in genere sufficientemente (e in alcuni casi eccessivamente) ricche in fluoro, tanto da non rendere consigliabile un’addizione farmacologia o nelle acque potabili. Si stima che la media nazionale di fluoro nelle acque sia di circa 1 mg/l (quindi già molto vicina alla dose massima giornaliera). Ciò forse spiega la carenza di provvedimenti e normative riguardanti l’addizione artificiale di fluoro nelle acque potabili.

Vi sono però differenze locali, talvolta sensibili. Alcuni scostamenti rispetto alla media tendono verso l’eccesso. Per esempio nella zona dei Castelli Romani le acque sono particolarmente ricche in fluoro, tanto da determinare casi di fluorosi. Nell'interesse e per la tutela della salute pubblica, si dovrebbe agire in senso opposto, adottando misure di defluorazione delle acque, ma ciò purtroppo non avviene, con possibili ricadute sulla salute dell'ignara popolazione.

Si deve inoltre notare che in Italia vi è un largo consumo di acque minerali imbottigliate. Secondo ISTAT il 46.5 % degli italiani non beve acqua di rubinetto. Il ricorso ad acque minerali imbottigliate è particolarmente comune da parte dei genitori che la usano per i loro bambini. Considerando la buona qualità delle acque erogate dagli acquedotti locali, la pratica è, per la maggior parte del territorio italiano, almeno parzialmente ingiustificata. Il consumo di acque minerali imbottigliate medio di 155 l/persona/anno rende il consumo italiano superiore a qualunque altra nazione europea.

In Italia quindi, non è mai stata praticata la fluorizzazione artificiale dell'acqua. Sebbene l'assunzione di fluoro sia consigliata, forse in modo azzardato considerata la scarsità di studi scientifici a riguardo, dai medici per i pazienti in età pediatrica, al momento non esistono leggi in tema; l'unica disposizione è il d.lgs. 2 febbraio 2001 n. 31, che recepisce la direttiva dell'Unione Europea 98/83/CE. Il decreto stabilisce in 1.5 mg/l la concentrazione massima di fluoro nelle acque potabili, conformemente a quanto indicato nella direttiva.

A proposito delle acque minerali, una Direttiva del 2003, la 2003/40/CE, impone di indicare le concentrazioni di fluoro superiori a 1,5 milligrammi/litro. Non impone però un limite alla concentrazione di fluoro che può essere presente nelle acque in commercio, determinando questa anomala situazione sotto riportata in cui ci sono acque molto pubblicizzate, che hanno livelli 7-8 volte superiori alla dose massima giornaliera.

Se questa era la situazione a oggi, ora, un nuovo studio collega la fluorizzazione al QI inferiore nei bambini piccoli, in particolare i ragazzi le cui madri hanno bevuto acqua fluorurata durante la gravidanza, trasformando quella che per molti era una teoria complottista in ulteriore evidenza scientifica.

Lo studio pubblicato su JAMA Pediatrics (Agosto 2019) e ripreso anche sul portale della rivista Science, offre finalmente la critica di più alto profilo scientifico fino ad oggi esistente, riguardo ai danni potenziali che derivano dalla pratica di fluorizzazione dell’acqua.

Gli psicologi e i ricercatori della salute pubblica hanno esaminato i dati del programma canadese di ricerca sull’esposizione dei bambini alle sostanze chimiche ambientali finanziato dal governo federale. Si tratta di uno studio a lungo termine su donne in gravidanza e i loro bambini in sei città canadesi, iniziato addirittura nel 2008, che ha tenuto conto di tutto, dalla dieta ai livelli d’istruzione, fino alle tracce di piombo e arsenico nelle urine.

Dai dati è emerso che circa il 40% delle quasi 600 donne viveva in città con acqua potabile fluorurata; avevano un livello medio di fluoro urinario di 0,69 milligrammi per litro, rispetto a 0,4 milligrammi per le donne che vivevano in città senza acqua fluorizzata. Tre o quattro anni dopo il parto, i ricercatori hanno sottoposto ai loro figli un test QI adeguato all'età. Dopo aver controllato variabili come il livello di educazione parentale, il peso alla nascita, il consumo di alcool prenatale e il reddito familiare, nonché l'esposizione a sostanze tossiche ambientali come piombo, mercurio e arsenico, hanno scoperto che se i livelli di fluoro urinario della madre aumentavano di 1 milligrammo per litro, il punteggio QI di suo figlio (ma non quello di sua figlia) scendeva di circa 4,5 punti. Tal effetto è alla pari con gli altri recenti studi che hanno esaminato il QI dell'infanzia e l'esposizione al piombo di basso livello.

Usando un metodo secondario per misurare l'assunzione di fluoro (L’auto-segnalazione, in altre parole le dichiarazioni delle madri su quanta acqua di rubinetto e tè ricchi di fluoro hanno bevuto durante la gravidanza) hanno scoperto che un aumento di 1 milligrammo per litro di fluoro era associato a un calo del QI di 3,7 punti sia nei ragazzi sia nelle ragazze. L'auto-segnalazione è un metodo meno ampiamente accettato perché considerato meno affidabile e soggetto a richiami imprecisi rispetto a rilevazioni oggettive.

I ricercatori ne sono coscienti e, sebbene non disconoscano i risultati del loro studio, ammettono di non essere sicuri del perché vi sia una differenza sessuale tra i due metodi, e affermano che potrebbe derivare dai diversi modi in cui i ragazzi e le ragazze assorbono le tossine ambientali nell'utero.

Nonostante i risultati possano essere imprecisi, (sono già sottoposti a un attento esame) potrebbe avere serie implicazioni per l'ordine pubblico. Secondo le raccomandazioni del Dipartimento della salute e dei servizi umani degli Stati Uniti, bere un litro di acqua fluorurata dovrebbe fornire circa 0,7 milligrammi di fluoro. Se bevi solo 1 litro di acqua di rubinetto e poi hai anche un paio di tazze di tè, allora la concentrazione di fluoruro nel tè è sufficiente per superare il limite proposto, senza contare quello assunto con l’utilizzo di un dentifricio al fluoro e/o masticando gomme o caramelle che lo contengono.

Consapevole che le scoperte dello studio avrebbero suscitato ondate di proteste tra la schiera di scienziati favorevoli alla fluorizzazione, oltre che nelle lobby chimiche e alimentari che producono prodotti al fluoro, JAMA Pediatrics ha fatto il passo insolito di pubblicare una nota del redattore che accompagna il documento. "Questa decisione di pubblicare questo articolo non è stata facile", scrive l'editore della rivista, pediatra ed epidemiologo Dimitri Christakis del Seattle Children's Hospital di Washington. Aggiunge che il documento è stato "sottoposto a ulteriore controllo per i suoi metodi e la presentazione dei suoi risultati". Daltro canto, come ho già avuto modo di far rilevare in precedenti articoli, "La scienza avanza un funerale alla volta" (Max Plank).

Aspettiamo ora di ascoltare qualcuno che pur di tenere il punto, affermerà certamente che la scienza è complottista!

Il senso di quest’articolo non è quello di avvalorare talune tesi o fare del terrorismo, ma solo quello di informare sulla base delle evidenze scientifiche ufficiali (sebbene poco divulgate nei mass media mainstram) e far riflettere su alcune “storture” presenti nel nostro presunto sistema democratico.

Nel contesto sociale contemporaneo, in cui, tra i vari valori dell’etica, si enfatizza particolarmente l’autonomia, si può sostenere che l’addizione di fluoro nelle acque rappresenti un impedimento alla libera scelta individuale. Il fluoro potrebbe infatti essere assunto in altri modi (per esempio con integratori farmaceutici), lasciati alla libera scelta individuale. A questa considerazione si può obiettare che in genere i preparati farmaceutici sono dispendiosi, e le fasce più vulnerabili della popolazione potrebbero essere dissuase dall’acquisto. La fluorazione, al contrario, raggiunge tutti, indipendentemente dallo stato socio-economico, dall’età, dal livello scolare. Occorre anche notare che le acque potabili sono in molti casi oggetto di trattamenti per renderle idonee ed ottimali al loro uso.
La violazione del principio di autonomia che la fluorazione comporta, senza alcuna tutela e campagna di informazione della popolazione, si allinea alle crescente limitazione delle libertà personali (e quindi democratiche) quale ad esempio quella relativa all’obbligo vaccinale.

Concludendo e riassumendo:

  • Il fluoro è un elemento assai pericoloso per l’organismo umano.
  • Diventa certamente dannoso se assunto in dosi superiori a un certo limite e in modo continuativo.
  • Essendo un elemento già presente in natura, siamo giocoforza inconsapevolmente e quotidianamente esposti all’assunzione di questa sostanza il che può determinare un facile superamento del limite massimo.
  • Poiché le istituzioni difficilmente tutelano in modo serio la salute pubblica, poichè spesso in balia di interessi privati e di lobby, dovremmo vivere in modo più attento e consapevole.
  • La consapevolezza di tutto ciò dovrebbe determinare almeno un cambio o un controllo sulle proprie abitudini e sui propri consumi cercando:
    • di evitare anzitutto, di consumare cibi con fluoro (come ad esempio le pubblicizzatissime gomme da masticare con Xilitolo, Fluoro e Calcio) o altri prodotti come i dentifrici al fluoro.
    • In secondo luogo ci si dovrebbe informare sui livelli di fluoro contenuti sull’acqua di rubinetto poiché, anche se si consuma acqua in bottiglia, con l’acqua di rubinetto ci si cucina (ad esempio la quantità d’acqua assorbita dalla pasta durante la cottura è elevatissima). Quindi l'acqua del rubinetto viene comunque assunta in qualche misura.
    • Sarebbe addirittura opportuno avere dei sistemi di filtraggio (a osmosi o comunque con carbone di origine vegetale) per diminuire il fluoro nell’acqua di rubinetto.
    • Infine, se si beve acqua in bottiglia, è bene verificare sull’etichetta il quantitativo di fluoro contenuto.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Gli untori della Luna

Fin da quando l’uomo ha “messo il naso” fuori dall’atmosfera terrestre, si è posto il problema di disciplinare la sua attività spaziale.

Il dibattito aveva inizialmente coinvolto soltanto i paesi (in particolar modo USA e URSS) in quel momento interessati a questo tipo di attività, poiché disponevano di un’adeguata, se pur primitiva, tecnologia.

Poiché lo spazio e le annesse attività sembravano poter essere già a portata di mano, nel 1958 era stato fondato il Committee on Space Research (COSPAR). Tra gli obiettivi principali del COSPAR vi erano e vi sono ancora (l’organismo è tuttora esistente e organizza ogni due anni dei simposi a cui partecipano oltre un migliaio di ricercatori spaziali) la promozione della ricerca scientifica nello spazio a livello internazionale, con particolare attenzione al libero scambio di risultati, informazioni e opinioni e la creazione di un forum, aperto a tutti gli scienziati, per la discussione di problemi che possono influire sulla ricerca spaziale.

Il COSPAR era anche l’organismo designato per risolvere le questioni riguardanti la protezione planetaria e, grazie agli sforzi dei suoi membri, fu poi firmato, nel 1967, il Trattato sullo spazio-extra atmosferico (l’Outer Space Treaty) che, di fatto, andava a riassumere vari trattati dell’Onu sulle attività extraplanetarie in precedenza firmati dagli stati aderenti. Tra i principali obiettivi del trattato c’era quello di porre, tra gli altri, il divieto agli stati firmatari di collocare armi di distruzione di massa nell’orbita terrestre, sulla Luna e su altri corpi celesti.

I Paesi parti del trattato (cioè che l’hanno firmato e ratificato) sono a oggi (Agosto 2019) 109, tra cui ovviamente tutti quelli che a oggi hanno compiuto missioni lunari (USA, Russia/ URSS, Cina, India, tutti gli stati  membri che partecipano ai programmi dell’ESA - l’agenzia spaziale europea e Israele), mentre altri 23 hanno firmato il trattato ma hanno completato la ratifica.

Da allora il quadro giuridico di fondo sul piano del diritto internazionale è rimasto sostanzialmente inalterato poiché, il successivo e specifico trattato sulla Luna (Moon Treaty) del 1979 è stato un insuccesso.

Infatti, dalla sua stipula nel 1979 il Moon Treaty non è stato ratificato da nessuno stato che s’impegna nell'esplorazione dello spazio con equipaggio autonomo o ha in programma di farlo (gli Stati Uniti, la maggior parte degli Stati membri dell'Agenzia spaziale europea, Russia e l’ex Unione Sovietica, Repubblica Popolare Cinese e Giappone). Ha quindi un effetto trascurabile sul volo spaziale reale.

Fino ad Agosto 2019, solo diciotto Stati sono parti effettive del Moon Teatri (Armenia, Australia, Austria, Belgio, Cile, Kazakistan, Kuwait, Libano, Marocco, Olanda, Pakistan, Perù, Filippine, Arabia Saudita, Turchia, Uruguay, Venezuela), mentre altri 4 (Francia, Guatemala, India e Romania) l’hanno solo firmato ma non ratificato.

Possiamo dire quindi, che oggi la Luna è disciplinata essenzialmente dal trattato del ’67: è considerata un ambiente aperto all’uso di tutti gli Stati e dagli attori privati con l’autorizzazione rilasciata dagli Stati. Come gli altri corpi celesti non è appropriabile, ed è quindi un luogo dove possono essere realizzate diverse attività.

Tra i 17 articoli che compongono l’Outer Space Treaty del 1967, due sono i punti che sono particolarmente interessanti nella trattazione del tema oggetto di quest’articolo.

Il punto VI del trattato recita così: “Gli Stati parti del trattato hanno la responsabilità internazionale delle attività nazionali nello spazio, compresa la luna e altri corpi celesti, indipendentemente dal fatto che tali attività siano svolte da agenzie governative o da entità non governative e per assicurare che le attività nazionali siano svolte in conformità alle disposizioni previste dal presente trattato. Le attività di entità non governative nello spazio cosmico, inclusa la luna e altri corpi celesti, dovranno essere autorizzate e sottoposte a continua supervisione da parte dello Stato Parte appropriato del Trattato. Quando le attività sono svolte nello spazio, compresa la luna e altri corpi celesti, da un'organizzazione internazionale, la responsabilità per l'osservanza del presente Trattato è a carico sia dell'organizzazione internazionale sia degli Stati Parte del Trattato che partecipano a tale organizzazione.”

L’articolo IX specifica inoltre che “Nell'esplorazione e nell'uso dello spazio esterno, compresa la luna e altri corpi celesti, gli Stati parti del Trattato saranno guidati dal principio di cooperazione e assistenza reciproca e condurranno tutte le loro attività nello spazio, compresa la luna e altri organi celesti, nel dovuto rispetto degli interessi corrispondenti di tutti gli altri Stati parti del trattato. Gli Stati parti del trattato proseguiranno gli studi sullo spazio esterno, compresa la luna e altri corpi celesti, e condurranno l'esplorazione di essi in modo da evitare la loro contaminazione dannosa e anche i cambiamenti avversi nell'ambiente della Terra derivanti dall'introduzione di materia extraterrestre e, se necessario, adotta le misure appropriate a tal fine. Se uno Stato Parte al Trattato ha motivo di credere che un'attività o un esperimento pianificato da esso o dai suoi cittadini nello spazio, compresa la luna e altri corpi celesti, provocherebbe interferenze potenzialmente dannose con le attività di altri Stati Parte nell'esplorazione pacifica e uso dello spazio, compresa la luna e altri corpi celesti, deve intraprendere appropriate consultazioni internazionali prima di procedere con tali attività o esperimenti. Uno Stato Parte del Trattato che abbia motivo di ritenere che un'attività o un esperimento pianificato da un altro Stato Parte nello spazio cosmico, compresa la luna e altri corpi celesti, provocherebbe interferenze potenzialmente dannose con attività di esplorazione pacifica e uso dello spazio cosmico, tra cui la luna e altri corpi celesti, può richiedere una consultazione relativa all'attività o all'esperimento.”

Nel rispetto dell’articolo IX quindi, fin dall’inizio tutti i Paesi che hanno intrapreso missioni di esplorazione spaziale hanno applicato rigidi protocolli per la sterilizzazione delle sonde e dei materiali, in particolar modo di quelli destinati a entrare in contatto con le atmosfere o il suolo degli altri corpi celesti.

L’hanno fatto gli Stati Uniti e l’Unione Sovietica durante la corsa allo spazio degli anni ’60, l’hanno continuato a fare gli Stati Uniti e Russia durante le successive missioni di esplorazione spaziale verso Venere, Marte e gli altri corpi celesti del nostro sistema solare, così come l’hanno fatto più recentemente l’Agenzia Spaziale Europea, l’India e la Cina. L’hanno fatto anche quando hanno portato materiale biologico (piante animali ecc) sull’ISS o sulle altre stazioni spaziali orbitali.

Tutti si sono attenuti scrupolosamente a quanto previsto, accettato e sottoscritto con il trattato del ’67. Nessuno si è mai permesso, non ha mai azzardato o rischiato di portare con sé materiale biologico oltre l’orbita terrestre se non dopo essersi accertato di essere in grado di garantire la sicurezza dei materiali per ridurre al minimo i rischi di contaminazione.

Gli Stati Uniti hanno portato materiale biologico sulla Luna soltanto dalla missione Apollo 12 in poi. Tuttavia già dalla missione Apollo 11 hanno lasciato contenitori ermeticamente sigillati con dentro sacche, anch’esse sigillate, contenenti le feci degli astronauti (in tutto si contano circa 100 sacche di feci lasciate sul suolo lunare durante le missioni Apollo).

Il deliberato abbandono di tale materiale biologico è avvenuto in modo ponderato, con lo scopo di poter avere un maggior peso disponibile per riportare sulla Terra campioni di rocce lunari. Il rischio di contaminazione, minimizzato al massimo, è dunque avvenuto con il consenso della comunità internazionale (e dunque nel rispetto del trattato del ’67).

La Cina ha recentemente inviato sul suolo del lato oscuro della Luna, la sonda Chang’e-4 che ha portato con sé esperimenti scientifici e materiale biologico. A bordo della sonda vi erano patate, semi di Arabidopsis uova di bachi da seta.

Sotto gli occhi vigili di microcamere installate nei contenitori ermeticamente sigillati, l’esperimento prevedeva che le uova si sarebbero dovute schiudere, dando vita ai bachi da seta che avrebbero poi prodotto anidride carbonica, mentre le patate e i semi avrebbero emesso ossigeno attraverso la fotosintesi. L’intenzione degli scienziati cinesi era quella di provare a creare un semplice ecosistema, comunque isolato dall’ambiente esterno, sul nostro satellite naturale.

Anche la Cina dunque, si è permessa di portare materiale biologico solo dopo che, prima nel 2007 e nel 2010 con le missioni Chang’e-1 e Chang’e-2, si era dimostrata in grado di raggiungere con successo l’orbita lunare, per poi allunare nel 2013 con la missione Chang’e-3.

In questo nostro mondo, c’è però chi forse, dall’alto della sua presunzione e arroganza, si sente migliore di altri e pensa di potersi arrogare il potere di calpestare i diritti degli altri, in barba ai trattati internazionali che anch’esso ha sottoscritto. A cosa mi riferisco?

Lo scorso mese di Aprile (2019), la sonda Beresheet (che in lingua ebraica significa “In principio”, con chiaro riferimento al primo capitolo della Genesi contenuto nella Bibbia) della compagnia israeliana SpaceIL ha tentato, fallendo l’allunaggio.

Nell’articolo “Sionisti sulla Luna” ironizzavo sul tentativo di allunaggio della sonda israeliana e sullo spirito che ha animato l’impresa.

La compagnia israeliana SpaceIL infatti, è stata fondata nel 2011 per partecipare al Google Lunar XPrize, competizione internazionale che puntava a premiare il primo team privato in grado di far atterrare con successo un veicolo spaziale senza equipaggio sulla Luna. La prima squadra a fare questo avrebbe vinto il primo premio da 20 milioni di dollari. Il secondo posto avrebbe guadagnato 5 milioni e altri 5 milioni erano disponibili per vari risultati speciali, portando il montepremi totale a 30 milioni di dollari.

Nonostante la competizione si fosse conclusa con nessun vincitore circa un anno prima (nel marzo del 2018) la compagnia privata israeliana, che aveva ricevuto cospicui finanziamenti da parte di facoltosi sionisti di tutto il mondo per un ammontare complessivo di quasi 100.000.000 di dollari, aveva proseguito il progetto che, nel frattempo sponsorizzato, non solo economicamente, anche dall’Agenzia Spaziale Israeliana (ISA) e da altre industrie israeliane come l’Industrie Aerospaziali Israeliane (Iai), si era trasformato da semplice competizione “ludico-scientifica” a vero e proprio strumento di propaganda per lo stato di Sion, intenzionato a diventare il quarto Paese a far arrivare un proprio mezzo sulla Luna, e il primo veicolo privato in assoluto a farlo.

Il lander trasportava un'unica apparecchiatura “scientifica” cioè un retroriflettore laser, un dispositivo composto da una serie di specchi che non richiede alimentazione, e che può (o meglio sarebbe potuto) essere utilizzato per le comunicazioni spazio-terra tramite Deep Space Network (DSN) della NASA, che aveva fornito l’apparecchiatura.

Oltre al DNS, l’unico carico non scientifico trasportato dalla sonda israeliana, secondo quanto dichiarato da SpaceIL e dall’Agenzia Spaziale Israeliana che collaborava alla missione, sarebbe dovuto essere una sorta di capsula del tempo. All’interno della stessa doveva esser presente un enorme database, noto come Arch Lunar Library, un progetto della fondazione statunitense di Arch Mission.

Arch Mission Foundation è un'organizzazione senza scopo di lucro il cui obiettivo è quello di creare archivi di tutta la conoscenza umana che possano durare milioni, se non miliardi, di anni e di seminarli sulla Terra e in tutto il sistema solare a beneficio delle generazioni future.

L’Arch Mission Foundation vorrebbe anche costruire una biblioteca permanente sulla Luna e su Marte e ritiene che il miglior modo per conservare la conoscenza sia mantenerla analogica e non digitale, perché se si perde o non si dovesse più disporre di quella specifica tecnologica con cui estrarre e “leggere” i dati, questi sarebbero persi per sempre. Ma l'archiviazione analogica occupa molto spazio. Quindi l'invio di gran parte della conoscenza umana nello spazio richiederà molta compressione. Per fare questo, il cofondatore (assieme a Nick Slavin) dell’associazione no-profit statunitense Novac Spivack ha sfruttato le conoscenze di Bruce Ha, uno scienziato che ha sviluppato una tecnica per incidere immagini ad alta risoluzione su scala nanometrica. Il sistema di memorizzazione di dati ottici laser 5D in quarzo, secondo quanto riferito dall’associazione, consente di ottenere immagini che rimarranno leggibili fino a 14 miliardi di anni, può resiste alle radiazioni cosmiche a temperature fino a 1.000 ° C.

Il sistema usa il laser per incidere un'immagine nel vetro e quindi deposita nichel, atomo per atomo, in uno strato sovrastante. Le immagini impresse nel film di nichel così ottenuto sembrano olografiche, e possono essere visualizzate utilizzando un semplice microscopio con ingrandimento di 1000x, una tecnologia semplicissima e disponibile da centinaia di anni.

La biblioteca caricata su Beresheet avrebbe dovuto essere composta da 25 strati di nichel, ciascuno con uno spessore di pochi micron. I primi quattro livelli avrebbero dovuto contenere circa 60.000 immagini ad alta risoluzione di pagine di libri, dizionari diversi e enciclopedie, file digitali che contengono informazioni sul veicolo, canzoni ebraiche, opere d'arte create da bambini israeliani e una foto di  Ilan Ramon,  il primo e unico astronauta di Israele morto nella tragedia dello Shuttle Columbia, esploso durante il rientro sulla Terra il 1 febbraio 2003, oltre all’immancabile copia dell’Antico Testamento biblico.

Tutte queste informazioni, compresa l’intera copia della Bibbia ebraica e persino i segreti dei trucchi magici di David Copperfield, erano state incise a laser su tre monete, ciascuna delle dimensioni di una moneta da 2 euro.

Niente materiale biologico quindi, come buon senso avrebbe consigliato, essendo un primo tentativo non solo di una compagnia privata che mai era andata oltre l’orbita terrestre, ma anche delle agenzie israeliane che mai si erano spinte fino alla Luna, non avevano mai costruito un lander e mai avevano tentato un “atterraggio” su un altro corpo celeste.

Nel terminare l’articolo in cui parlavo di questa missione e dell’imminente tentativo di allunaggio che sarebbe avvenuto da lì a poche ore, terminavo, quasi profetico, con queste parole: “Nell’attesa di vedere se la sonda israeliana riuscirà o no a completare la sua missione, vogliamo augurarci che la compagnia privata abbia, al pari delle altre agenzie spaziali governative, rispettato i rigidi protocolli di sterilizzazione della sonda. Questo per evitare che la “vita terrestre” giunga lì fortuitamente (processo noto in astrobiologia con il nome di "forward contamination"). Se così non fosse, ci sentiamo di mandare un sentito messaggio di solidarietà a eventuali seleniti, dicendogli: “Ci dispiace, la maggioranza dell’umanità non voleva contaminare la Luna”.

All’indomani, fallito l’allunaggio (Beresheet si è schiantata al suolo durante la fase di discesa a causa del malfunzionamento del motore, come ho comunicato in calce nell’aggiornamento dell’11/4/2019 dell’articolo in sopra citato), la compagnia SpaceIL e le altre agenzie spaziali coinvolte, si erano limitate a fornire solo dettagli circa i motivi del fallimento.

Un giroscopio dell'Unità di misura inerziale (IMU2) non ha funzionato durante la procedura di frenata in avvicinamento al sito di atterraggio. L’'equipaggio di controllo a terra non è stato in grado di ripristinarne il funzionamento a causa di un'improvvisa perdita di comunicazioni con la rete di controllo. Al momento del ripristino delle comunicazioni, il motore principale dell'imbarcazione era già inattivo da diversi fatali secondi. Quando il motore è stato riportato in linea dopo un riavvio a livello di sistema, la sonda israeliana aveva già perso troppa altitudine per rallentare sufficientemente la sua discesa. La lettura finale della telemetria indicava che a un'altitudine di 150 metri Beresheet stava ancora viaggiando a oltre 500 chilometri l’ora. A quella velocità l’impatto con la superficie lunare è stato inevitabile. I rottami di Beresheet si trovano ora a pochi chilometri di distanza dagli storici siti dove sono ancora presenti i resti di Apollo 15 e Apollo 17.

Sembrava dunque essersi conclusa nel modo peggiore, l’ambizioso tentativo di far entrare Israele nel novero delle “Nazioni spaziali” in grado di raggiungere il suolo di un altro corpo celeste. Poco male, quello di Israele poteva quindi essere archiviato assieme agli innumerevoli fallimenti che hanno costellato la storia dell’esplorazione spaziale umana, e che hanno visto incorrere in situazioni simili diverse nazioni dagli Stati Uniti alla Russia, passando per l’Unione Europea (con il recente fallimento della missione Exomars e lo schianto del lander Schiaparelli su Marte).

Le settimane successive il Lunar Reconnaissance Orbiter (LRO) della NASA ha sorvolato la zona in cui Beresheet ha terminato fragorosamente la sua missione e ha scattato foto della superficie lunare.

Una volta confrontate le foto con quelle della stessa area, ma precedenti lo schianto, è subito emersa una debole linea più leggera nella regolite lunare, che porta a un alone più chiaro che circonda un cratere scuro. Un piccolo “nodulo” è visibile alla testa del cratere di fronte alla linea. L'alone leggero può essere un gas associato al relitto della sonda o particelle di regolite particolarmente fini, spazzate verso l'esterno dall'impatto.  Insomma, di Beresheet e del suo carico di “conoscenza” non rimanevano che rottami!

Soltanto quattro mesi dopo, il 6 Agosto (2019), attraverso un tweet pubblicato dall’account ufficiale dell’Arch Mission Foundation, che diffonde un’intervista rilasciata da Novac Spivack alla rivista Wired, si viene a conoscenza che la sonda israeliana aveva a bordo anche un carico biologico.

Secondo quanto riferito nell’intervista a Wired, Spivack aveva pianificato di inviare campioni di DNA sulla Luna inserendolo in future versioni della biblioteca lunare, non in questa missione che rappresentava certamente un’incognita, considerata l’inesperienza della società e delle agenzie spaziali che l’avevano approntata. Ma poche settimane prima che la statunitense Arch Mission Foundation consegnasse la biblioteca lunare agli israeliani, e contro ogni buonsenso, Spivack ha deciso comunque di includere del DNA e altro materiale biologico nel carico utile. Dobbiamo ragionevolmente pensare che si sia consultato con i responsabili di SpaceIL e con l’Agenzia Spaziale Israeliana giacché proprietari e responsabili (assieme allo Stato di Israele secondo quanto disposto dal trattato del 1967) e che, quindi, la decisione di includere materiale biologico sia stata presa di comune accordo tra questi soggetti. Purtroppo, come spesso accade anche sulla Terra, il binomio sion-americano porta sovente a infauste situazioni.

Spivack ha così ordinato di aggiungere un sottile strato di resina epossidica tra ogni strato di nichel (un equivalente sintetico dell’ambra, la resina fossilizzata degli alberi che consente la conservazione degli antichi insetti). Nella resina hanno nascosto i follicoli piliferi, un suo campione sangue e quello di altre 24 persone che, secondo lui, rappresentano una sezione genetica umana di origine diversa, oltre ad alcuni tardigradi disidratati e altri campioni biologici provenienti da importanti siti sacri, come l'albero di Bodhi in India. Come se non bastasse, alcune migliaia di tardigradi disidratati extra sono stati sistemati anche sul nastro adesivo utilizzato per imballare e proteggere il prezioso carico.

Secondo quanto riferito dallo stesso Spivack, l’intenzione era di rianimare in un futuro, i tardigradi.

È noto infatti, che i tardigradi, esseri minuscoli, presentano caratteristiche di resistenza a dir poco eccezionali. Sono praticamente indistruttibili quando entrano in uno stato speciale chiamato criptobiosi o anidrobiosi. In questo stato, ritraggono le gambe ed espellono tutta l'umidità dai loro corpi, preservandoli.

La scoperta dell’esistenza dei tardigradi è alquanto particolare e merita una piccola digressione.

Nel 1983, un gruppo di scienziati giapponesi in un viaggio attraverso l'Antartide s’imbatté in un mucchio di muschio che ospitava una strana, strana creatura.

Quel ciuffetto di muschio ospitava i tardigradi, animali lunghi un millimetro che assomigliavano a orsacchiotti incrociati con bruchi. I tardigradi (chiamati anche "orsi d'acqua") e il muschio in cui erano stati trovati, furono avvolti in carta, posti in buste di plastica e chiusi in un congelatore di -4 gradi Fahrenheit. Lì rimasero congelati e dimenticati per più di 30 anni.

Quando gli scienziati hanno scongelato i tardigradi nel 2014, gli animali microscopici non erano mori ma si svegliarono e si misero a rosicchiare il muschio come se nulla fosse successo, riuscendo, nelle settimane, successive anche a riprodursi.

Appresa questa straordinaria capacità di sopravvivenza e adattamento, gli scienziati continuarono a studiare i tardigradi, scoprendo che sono in grado di sopravvivere praticamente ovunque. I tardigradi vivono nell'oceano e nel suolo di ogni continente, in ogni clima e in ogni latitudine. La loro estrema resilienza ha permesso loro di conquistare l'intero pianeta.

In condizioni calde, rilasciano proteine ​​di shock termico, che impediscono alle altre proteine del loro corpo ​​di deformarsi e danneggiarsi. Alcuni tardigradi possono formare cisti attorno ai loro corpi. Come le giacche imbottite, le cisti permettono loro di sopravvivere in climi rigidi. In condizioni asciutte invece, si restringono in una forma di pillola protettiva, chiamata tun. In questo stato, possono sopravvivere, senza acqua o essere intrappolati nel ghiaccio, per decenni.

Nel 2007, l'Agenzia spaziale europea ha lanciato un satellite che trasportava (tra le altre cose) un carico di tardigradi sotto forma di tun e li ha esposti selettivamente al vuoto dello spazio e alle radiazioni cosmiche. Dieci giorni dopo, i tardigradi riportati sulla Terra furono reidratati. Sorprendentemente, alcuni di loro erano sopravvissuti sia alle radiazioni e sia al vuoto, rendendoli i primi animali conosciuti a sopravvivere all'esposizione spaziale completa e scardinando uno dei dogmi scientifici più importanti in tema di astrobiologia.

La ricerca ha anche dimostrato che i tardigradi nei tuns possono sopravvivere a pressioni fino a 87.022,6 libbre per pollice quadrato, cioè sei volte la pressione presente nella parte più profonda dell'oceano (a circa 43,00 PSI, "la maggior parte dei batteri e degli organismi pluricellulari muoiono", ha riferito Nature). Ma torniamo al carico biologico di Beresheet.

Quando gli israeliani confermarono che Beresheet era stato distrutto, Spivack dovette affrontare una domanda angosciante: aveva appena spalmato l'animale più resiliente dell'universo conosciuto sulla superficie della Luna?

Nelle settimane successive allo schianto di Beresheet, Spivack riunì i consiglieri dell’Arch Mission Foundation nel tentativo di determinare se la biblioteca lunare fosse sopravvissuta intatta allo schianto. Sulla base della loro analisi della traiettoria del veicolo spaziale e della composizione della biblioteca lunare, Spivack afferma di essere abbastanza sicuro che la biblioteca, un oggetto grosso modo un DVD fatto di sottili fogli di nichel, sia sopravvissuta allo schianto per lo più o completamente intatta. Ma non c’è alcuna certezza e quel “per lo più” non è molto rassicurante. La capsula potrebbe aver riportato danni e il suo contenuto biologico, sebbene in “stato di sospensione” potrebbe essere fuoriuscito ed essere entrato in contatto con l’ambiente esterno, con il suolo lunare.

Ora sappiamo con certezza assoluta che sulla Luna c’è acqua, anche se in forma di ghiaccio, intrappolata nelle rocce lunari. Sebbene molti astrobiologi ritengano l’ambiente lunare inadatto a ospitare la vita, per via anche delle radiazioni che colpiscono la superficie del nostro satellite, la nostra conoscenza a riguardo potrebbe essere parzialmente sbagliata.

D’altro canto si dicevano le stesse cose anche per Marte, mentre oggi stiamo per inviare missioni alla ricerca di forme di vita ancora presenti sul pianeta rosso o addirittura “tracce della sua evoluzione” (come testualmente affermato da alcuni esponenti dell’Agenzia Spaziale Italiana nel presentare gli obiettivi della prossima missione Exomars2020), il che sottintende che si è abbastanza certi ormai che la vita sia esistita e possa esserci ancora sul pianeta rosso.

Insomma, i tardigradi arrivati sulla Luna sono vivi o morti?

Ricostruita la dinamica dell’incidente, la risposta sembra essere positiva: il carico del lander forse è arrivato sulla Luna integro o quasi, con tanto di tardigradi a bordo, che quindi potrebbero essersi salvati sempre che non si siano già dispersi nell’ambiente contaminandolo irreparabilmente.

“I tardigradi inviati nella forma disseccata, e quindi metabolicamente inattiva – ha commentato Daniela Billi, leader del Laboratorio di Astrobiologia e Biologia Molecolare dei Cianobatteri all’Università degli Studi di Roma Tor Vergata, durante un’intervista rilasciata alla rivista Global Science – hanno quindi tutte le possibilità di resistere anche sulla Luna. Non ci sono quindi ragioni scientifiche provate per affermare che questi organismi siano morti. Bisognerebbe però conoscere meglio i dettagli della missione: diversamente dai progetti selezionati dalle agenzie pubbliche, i progetti privati spesso non sono noti alla comunità scientifica”.

I tardigradi colonizzeranno la Luna? L’ambiente lunare è definitivamente compromesso?

Probabilmente non dobbiamo pensare a una sorta di colonizzazione del nostro satellite, come qualcuno ha ipotizzato. “Ammesso che i tardigradi abbiano resistito all’impatto – spiega Lorena Rebecchi, leader del Laboratorio di Zoologia Evoluzionistica dell’Università degli Studi di Modena e Reggio Emilia alla rivista Global Science – in questo momento dovrebbero trovarsi in uno stato di quiescenza: non mangiano, non si muovono e non possono riprodursi. È una condizione chiamata anidrobiosi, che consente a questi animali di mantenere la possibilità di tornare metabolicamente attivi solo con l’aggiunta di acqua allo stato liquido”. Un ingrediente che, allo stato liquido, sulla Luna non c’è (o almeno non ci risulta essere presente). Secondo Daniela Billi quindi è in linea teorica e per quanto concerne le nostre conoscenze dell’ambiente lunare, impossibile pensare a un risveglio e tanto meno a un’invasione dei tardigradi.

Non conosciamo i dettagli scientifici di come sono stati preparati i tardigradi – prosegue Rebecchi – e quindi è difficile dire se potranno risvegliarsi in futuro. La resina epossidica di solito in laboratorio viene utilizzata per preparare gli animali per studi morfologici e li rende non più estraibili. Quindi bisognerebbe conoscere meglio il protocollo utilizzato per disidratare e poi inserire nella resina questi animali”.

Tuttavia le accademiche ricercatrici interpellate probabilmente non sanno (come spesso accade agli accademici sovente concentrati solo sulle loro idee e pochi inclini ad aggiornamenti e informazioni provenienti dal di fuori delle loro cerchie), che c’erano migliaia di tardigradi quiescenti e non inseriti nella resina, incollati sul nastro adesivo all’esterno della capsula del tempo. Non hanno considerato, non sanno o hanno dimenticato che esistono decine di studi scientifici pubblicati che hanno dimostrato che la vita (nelle sue forme addirittura meno resilienti dei tardigradi) può resistere all’ingresso in atmosfera (assente sulla luna) e all’impatto con il suolo, viaggiando con un meteorite o altri “mezzi” a velocità di gran lunga superiori a quelle di Beresheet (meno di 500 km/h al momento dell’impatto), figuriamoci se possiamo dare per morti i tardigradi. Non hanno considerato, non sanno o hanno dimenticato che la sterilizzazione del suolo lunare, come dimostrato da studi scientifici accademici ufficiali, è vera (così come su Marte) soltanto per i pochi millimetri della superficie.

L’impatto della sonda israeliana ha scavato un solco profondo e non si può non contemplare la possibilità che una parte del materiale biologico trasportato da Beresheet, possa essere fuoriuscito ed essersi disperso ben più di qualche centimetro più in basso dell’inospitale superficie lunare.

Indipendentemente dal fatto che la contaminazione della Luna sia o no avvenuta a seguito del fallimento di Beresheet, il punto della questione è fondamentalmente un altro.

La missione della SpaceIL e dell’agenzia Spaziale Israeliana in collaborazione con la fondazione statunitense Arch Mission Foundation, sotto la supervisione e la responsabilità dello stato di Israele hanno completamente disatteso le disposizioni del Trattato sullo spazio-extra atmosferico, mettendo a repentaglio o addirittura vanificando, il lavoro di migliaia di persone di tutto il mondo fatto negli ultimi cinquant’anni nel settore dell’esplorazione spaziale, che si sono impegnate a fare il possibile per non contaminare il suolo lunare.

Il binomio sion-americano, non solo non ha rispettato quanto previsto dall’articolo IX in materia di adozione di tutte le cautele al fine di evitare la contaminazione dei corpi celesti con materiale biologico terrestre (il trasporto di materiale biologico, posto anche sul nastro adesivo all'esterno della capsula del tempo, avrebbe dovuto essere evitato, poiché non si aveva certezza sul funzionamento dei sistemi, mai testati sul campo, in uso agli israeliani), ma tutte le parti in causa non hanno neanche ritenuto di dover informare la comunità scientifica internazionale e gli altri paesi firmatari del trattato, del carico che s’intendeva trasportare.

Se ciò non fosse ancora abbastanza grave, lo Stato di Israele, firmatario del trattato, ha mancato di adempiere le disposizioni dell’articolo VI del trattato stesso: “Gli Stati parti del trattato hanno la responsabilità internazionale delle attività nazionali nello spazio, compresa la luna e altri corpi celesti, indipendentemente dal fatto che tali attività siano svolte da agenzie governative o da entità non governative e per assicurare che le attività nazionali siano svolte in conformità alle disposizioni previste dal presente trattato. In quanto responsabile avrebbe dovuto vigilare sull’adempimento da parte della SpaceIL e dell’Agenzia Spaziale Israeliana, delle regole previste dalle norme internazionale.

Com’è possibile accettare tutto questo?

Perché nessuno Stato e nessun membro della comunità scientifica o nessun esponente delle agenzie spaziali ha mosso alcuna critica al colposo operato di questi maldestri, improvvisati, arroganti signori, che in barba alle norme internazionali hanno fatto ciò che ritenevano opportuno fare e nel modo in cui volevano farlo?

Non potendo riparare al potenziale disastro provocato, tutti gli attori coinvolti meriterebbero di essere messi al bando per quanto riguarda future attività spaziali, per un periodo di almeno cinquant'anni.

La cosa più drammatica è che non solo nessuno ha puntato il dito contro lo stato di Sion o ha intenzione di farlo, ma addirittura diversi astrobiologi e “giornalisti scientifici” (anche italiani) sono corsi in aiuto rilasciando interviste nelle quali hanno minimizzato l’accaduto o hanno perfino sostenuto che lo schianto e la dispersione sul suolo lunare del materiale biologico trasportato da Beresheet, potrebbe diventare un’ottima possibilità scientifica, se in futuro saranno recuperati i resti della capsula temporale.

Sembra che allo Stato sionista, dallo smisurato superego, sia tutto permesso, non solo su questo pianeta ma anche nel resto del nostro sistema solare che però, visti gli insuccessi collezionati in questo campo da Israele (prima con la tragedia dell'astronauta Ilan Ramon nel 2003 e ora con la sonda Beresheet), sembra non gradire la presenza di Sion per circoscriverla al solo nostro pianeta. Sarà forse un segno "divino"?

Mi chiedo cosa sarebbe successo se nella stessa disastrosa situazione ci si fosse trovato un altro paese, la Russia ad esempio. Cosa ancora deve fare questo "stato canaglia" (per usare una terminologia cara agli alleati a stelle e strisce) per meritarsi l'opportuna e adeguata reazione della comunità internazionale che per molto meno è intervenuta in passato rovesciando i governi di altri paesi? Ricordo ancora che non stiamo parlando di uno stato guidato da un'ideologia democratica. Le Nazioni Unite in una risoluzione del 1975, equipararono il sionismo al razzismo, ma la risoluzione fu poi ritirata nel 1991, come condizione da parte di Israele per partecipare alla Conferenza di Madrid; il ritiro è dunque da imputarsi a una scelta di opportunità politica più che un reale cambio d’idee a riguardo.

Israele non è riuscito a entrare nella storia dell’esplorazione spaziale come quarta nazione al mondo capace di far allunare un suo veicolo, e probabilmente non ci riuscirà, giacché nelle prossime settimane sarà l’India a tentare (forse con maggiore successo, considerata già l’esperienza maturata dal paese asiatico in tema di esplorazione di altri corpi celesti) l’allunaggio.

Un giorno forse sapremo quantificare il danno biologico e scientifico provocato da Beresheet.A quel punto potremo dire che Beresheet è stato davvero “il principio”, sì, della contaminazione lunare. In quel momento Israele, l’azienda privata SpaceIL e l’agenzia spaziale Israeliana potranno essere ricordati come gli "untori della Luna".

Il relitto di Beresheet con il suo carico di cultura prevalentemente sionista e con i suoi inconfondibili simboli, rimarranno lì a provarlo, sempre che non vengano emanate nel frattempo, nuove leggi che cancellino la storia obbligandoci (pena l’arresto) a non discutere nuove e più gradite versioni dei fatti, e ha credere che tutto sia finito per il meglio.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Picchi di metano su Marte: esclusa una possibile causa

Fin dalla sua prima rilevazione nel 2003, si discute sull’origine del metano marziano. Il metano può avere origine organica (cioè generato da esseri viventi) o inorganica (cioè generato da processi chimici per opera delle rocce).

Ci sono state, e continuano tuttora, intense speculazioni su quale potesse essere la fonte del gas. Da una parte la comunità scientifica più ortodossa che, in ossequio alla dogmatica e sempre più improbabile quanto anacronistica (visto quanto scoperto negli ultimi due decenni) tesi che vede la vita presente solo sulla Terra, almeno nel nostro sistema solare, e dall’altra chi invece, dati alla mano, chi propende per una più verosimile origine biologica.

Non si sa ancora come venga generato il metano rilevato su Marte. Le fonti prese in considerazione includono meccanismi quali irradiazione ultravioletta di materia organica derivata da meteoriti, reazioni idrotermali con olivina, degradazione organica per impatto di meteoroidi, rilascio di gas da composti idrati. Oppure produzione biologica, che sarebbe naturalmente la più interessante

Indizi sull’origine del gas erano stati fin qui forniti dalla ciclicità stagionale dei suoi picchi, quanto dalla sua circoscritta localizzazione in determinate aree del pianeta.

Ciò ha fatto venir meno la prima spiegazione “ortodossa”, che presupponendo un’origine inorganica del metano, aveva ipotizzato che potesse essere distribuito uniformemente dell’atmosfera intorno a Marte, ma così non è. Infatti, il metano marziano appare piuttosto in sacche localizzate e molto temporanee sulla superficie del pianeta, e la recente conferma di nuove “punte” di metano nell’atmosfera marziana ha ulteriormente alimentato il dibattito.

La maggioranza degli esponenti della comunità scientifica tradizionale aveva quindi formulato una nuova ipotesi per giustificare l’origine inorganica del metano in apparente coerenza con i dati sopra esposti. Aveva ipotizzato che il metano marziano, esclusivamente e rigorosamente di origine inorganica, formatosi migliaia (o milioni di anni fa), sarebbe rimasto intrappolato nelle rocce e verrebbe di tanto in tanto liberato nell’atmosfera del pianeta rosso, grazie all’azione erosiva e costante dei venti marziani. Secondo questo modello teorico e largamente accettato poiché confermerebbe la tradizionale idea dell’inabitabilità presente e passata del pianeta rosso, i venti marziani levigherebbero continuamente le rocce, consumandole fino a liberare, di tanto in tanto, il metano. Ciò dunque spiegherebbe i picchi di metano che appaiono ciclicamente nell’atmosfera del pianeta, in luoghi circoscritti.

Come sovente accade quando i dati sembrano andare contro le tradizionali idee del mondo accademico, le teorie più improbabili e alquanto “forzate” come in questo caso, trovano un immotivato successo, anche quando contraddicono uno dei principi base a cui ogni ricercatore scientifico dovrebbe ispirarsi, quello del rasoio di Ockham (secondo cui, considerando tutti i dati disponibili, la spiegazione più semplice è spesso la più vicina alla realtà). Come mi piace ripetere però, spesso le contraddizioni fanno emergere la verità.

Il metano marziano è di origine biologica o inorganica? Al di la di ogni ragionevole cautela, i dati raccolti fin ora suggeriscono che la strada che porterebbe alla conferma della teoria prevalente, quella dell’origine inorganica, è e rimane la più improbabile e la meno verosimile.

Lo conferma anche una ricerca condotta dall’Università di Newcastle, nel Regno Unito, e pubblicata (Agosto 2019) su Scientific Reports, che ha escluso la possibilità che i livelli di metano rilevati possano essere prodotti dall’erosione del vento delle rocce, rilasciando metano intrappolato da antichi processi geologici.

Il team ha scoperto che affinché l’erosione del vento fosse un meccanismo praticabile per produrre metano rilevabile nell’atmosfera marziana, il contenuto di metano di tutti i gas intrappolati nelle rocce avrebbe dovuto competere con quelli di alcuni dei più ricchi idrocarburi contenenti scisti sulla Terra; uno scenario altamente improbabile.

Jon Telling, geochimico con sede presso la School of Natural and Environmental Sciences dell’Università di Newcastle, ha dichiarato “Utilizzando i dati disponibili, abbiamo stimato i tassi di erosione sulla superficie di Marte e l’eventuale ruolo che potrebbe avere nel rilascio di metano. E tenendo conto di tutto ciò, abbiamo scoperto che era molto improbabile che ne fosse la fonte”.

Oggi sappiamo dunque con certezza, che la presenza periodica e concentrata in aree circoscritte del pianeta, di metano su Marte, non è legata al vento come sosteneva la teoria prevalente presso la comunità scientifica.

Sebbene lo studio, promosso dall’Agenzia spaziale inglese, non chiarisca quale sia la fonte del metano marziano, che rimane al momento e almeno ufficialmente sconosciuta, fa registrare un nuovo punto a favore dell’ipotesi dell'origine biologica e forse assesta un colpo decisivo all’oltranzismo e al conservativismo della comunità scientifica tradizionale.

La speranza è che, qualunque sia l’origine del metano marziano, chi tira le fila della comunità scientifica impari che quando si fa scienza la cautela è importante, tuttavia questa non dovrebbe mai prevalere di fronte all’oggettività dei dati. Filtrare i dati a disposizione tenendo in considerazione soltanto quelli di proprio gradimento, interpretare i dati affinché si possa formulare un’ipotesi tanto improbabile quanto conservatrice, non è più sufficiente a mantenere le proprie posizioni di potere e privilegio per lungo tempo. La velocità con cui, grazie alle nuove e moderne tecnologie, vengono raccolti ed esaminati i dati, la rapida diffusione degli stessi in ambito globale, non permettono più di arroccarsi sulle proprie posizioni conservatrici così come si fa da tempo. L’atteggiamento più logico e sensato, sarebbe quello di rimanere sempre aperti al nuovo, contemplando i propri limiti di conoscenza e preferendo il preservare la propria autorevolezza anziché la propria autorità.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Un telescopio spaziale potrebbe trasformare la Terra in una lente d’ingrandimento gigante

Alla fine del prossimo decennio, l’Europe's Extremely Large Telescope sarà probabilmente il telescopio più grande al mondo, con uno specchio largo quasi 40 metri. Ma l'astronomo David Kipping della Columbia University ha proposto di costruire un telescopio spaziale ancora più potente, un telescopio un po’particolare che avrebbe l'equivalente di uno specchio di 150 metri  di un telescopio tradizionale. Il telescopio proposto dovrebbe usare l'atmosfera terrestre stessa come una lente naturale per raccogliere e focalizzare la luce. Nell’articolo pubblicato la scorsa settimana (il 1 agosto 2019) su arXiv ha scoperto che un telescopio spaziale di 1 metro, posizionato oltre la luna, potrebbe usare il potere di messa a fuoco dell'anello di atmosfera visto intorno al bordo del pianeta per amplificare la luminosità degli oggetti deboli di decine di migliaia di volte.

Tuttavia, l'atmosfera è troppo variabile per un “Terrascope”, come lo chiama Kipping, per produrre splendide immagini in grado di competere con quelle del telescopio spaziale Hubble. Ma potrebbe scoprire oggetti molto più deboli di quanto sia ora possibile, inclusi piccoli esopianeti o asteroidi potenzialmente letali. Kipping ammette che è necessario più lavoro per dimostrare l'idea, ma esiste già la tecnologia necessaria. "Non è necessario reinventare la ruota, ma è sufficiente spingerla solo un po' più forte", ha dichiarato.

Gli astronomi che hanno letto l'articolo di Kipping, hanno accolto la proposta con benevola cautela, sostenendo che siamo di fronte ad una proposta interessante, la cui fattibilità merita di essere valutata elaborando un modello più realistico pur presentando molti dettagli su cui riflettere.

 Kipping è ben noto per le principali ricerche di lune in altri sistemi planetari e ha rivelato che il germe dell'idea di Terrascope è venuto 13 anni fa quando stava studiando un raro fenomeno atmosferico chiamato il lampo verde, che appare proprio mentre il sole tramonta sotto l'orizzonte, quando la rifrazione e la dispersione nell'atmosfera lavorano insieme per "selezionare" momentaneamente colore verde nello spettro della luce del solare.

Il grande pubblico avrà probabilmente sentito parlare di questo fenomeno poiché citato nel terzo capitolo della saga Pirati dei Caraibi con Johnny Deep.

 In quel frangente si rese conto che il miglior punto di vista per osservare il fenomeno, sarebbe stato dal giusto dallo spazio, giacché si sarebbe potuto vedere un intero anello verde, quando il Sole passava dietro la Terra e la sua luce sarebbe stata rifratta dall'anello d'aria attorno alla circonferenza del pianeta.

Kipping è stato anche ispirato dall'idea che il sole stesso potesse essere usato come obiettivo, con la sua gravità che focalizza la luce verso un rivelatore spaziale. Una tale lente solare amplificherebbe la luce 1 milione di miliardi di volte, mettendo potenzialmente in evidenza le superfici degli esopianeti. L'idea ha portato alla Fast Outgoing Cyclopean Astronomical Lens mission, proposta all'Agenzia spaziale europea nel 1993. Tuttavia quest’idea non aveva avuto molto successo perché il telescopio Avrebbe dovuto essere sistemato 550 volte la distanza Terra-Sole, nello spazio, quasi 20 volte più lontano di Nettuno, una distanza che richiederebbe un secolo per essere percorsa da un veicolo spaziale.

In questo caso però, il problema della distanza non dovrebbe sussistere, poiché Terrascope potrebbe essere collocato molto più vicino a noi.

Kipping ha calcolato infatti, che la luce che sfiora la superficie di un oggetto direttamente dietro la Terra è deviata su un fuoco dell'85% della distanza dalla luna. È probabile che la luce che raggiunge quel punto focale incontri nuvole e molta turbolenza mentre attraversa l'atmosfera inferiore. Ma collocando un telescopio a 1,5 milioni di chilometri di distanza, quattro volte più lontana della Luna, potrebbe “campionare” la luce che è passata attraverso la stratosfera molto più calma e priva di nuvole a un'altitudine di 13,7 chilometri.

Un telescopio di appena 1 metro a quella distanza, osservando per un'intera notte la luce amplificata dall’atmosfera terrestre, vedrebbe un oggetto potenziato a 22.500 volte la sua luminosità originale, calcola, l'equivalente dell'uso di un telescopio terrestre da 150 metri. La potente amplificazione del Terrascope significa che sarebbe in grado di rilevare oggetti molto deboli o carpire cambiamenti di luminosità molto lievi, permettendogli di scansionare il cielo alla ricerca di asteroidi molto piccoli e deboli, o misurare i piccoli cali di luminosità mentre i piccoli esopianeti passano davanti a stelle luminose.

Per evitare di essere abbagliato dal brillante disco della Terra, il telescopio avrebbe bisogno di una maschera, nota come “coronagraph”, per bloccarlo. Kipping ha affermato candidamente che non ha ancora preso in considerazione l'impatto del "bagliore d'aria", cioè di una luce fioca emessa nell'atmosfera superiore dalla luminescenza e da altri processi. Ciò nonostante, ha sostenuto che l’eventuale bagliore potrebbe essere verosimilmente rimosso con filtri o digitalmente.

La verifica dei concetti di base del Terrascope potrebbe essere testato in modo molto economico, ad esempio, con una missione CubeSat, i minisatelliti che ormai sono regolarmente messi in orbita terrestre delle dimensioni tostapane.

Insomma, la Terra potrebbe diventare il miglior telescopio con cui osservare l’universo e magari scoprire di più su altri pianeti extrasolari.

 Stefano  Nasetti 

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

La tecnologia 5G interferisce sulle previsioni meteo. Davvero è questo l'unico problema del 5G?

Negli Stati Uniti si sta svolgendo una grande battaglia tra agenzie per definire i piani per la prossima generazione di tecnologia wireless, nota come 5G. Gli interessi in ballo sono enormi e chiamano in causa diversi aspetti, quello economico, quello politico ovviamente, e quello scientifico. Quest’ultimo aspetto che purtroppo spesso finisce per soccombere di fronte agli altri due, è quello su cui si sta giocando la partita. L’importanza che ciascuna fazione, che tutela i propri interessi, riconoscerà alla componente scientifica, determinerà la decisione che sarà presa.

Ma questo dibattito arrivato anche all’orecchio dell’opinione pubblica, conferma ufficialmente ma indirettamente, l’interazione delle tecnologie 5G con l’ambiente circostante ma non coinvolge il tema più importante.

Il dibattito sulla potenziale dannosità della tecnologia 5G è più che mai vivo anche in Italia e ha radici assai lontane. Da decenni si dibatte sui rischi della salute connessi alla prolungata esposizione alle onde elettromagnetiche emesse dai ripetitori di antenne di vario tipo e, soprattutto negli ultimi venti anni, in particolar modo di quelle concernenti la telefonia mobile.

Di studi a riguardo ne sono stati pubblicati a decine. Sebbene la maggioranza di questi dimostri la pericolosità dell’esposizione prolungata all’inquinamento elettromagnetico, la politica appare “sorda” e sotto la pressione degli enormi interessi economici in ballo, continua a rassicurare la popolazione citando i rari e sporadici studi "scientifici" in controtendenza che sminuirebbero (poiché è ormai impossibile negare l’evidenza) i rischi e i danni alla salute provocate dalle onde elettromagnetiche.

C’è da dire anche che la maggioranza della popolazione è assolutamente disinteressata a questo tipo di argomento, poiché nei fatti, nessuno rinuncia nel proprio quotidiano (ciascuno per i propri apparentemente “validi motivi”, che vanno da ragioni familiari a quelle strettamente lavorative) alle tecnologie connesse alla rete. Al contrario, sempre più persone abbracciano senza indugi le nuove tecnologie “smart”. Le responsabilità relative a queste crescenti minacce alla salute non vanno dunque scaricate solo sulla politica o su quelli che fanno i loro interessi economici, ma sono responsabilità di ciascuna persona che non cambia le proprie abitudini e non rifiuta questa tecnologia, anteponendo le proprie comodità e il conformismo, ai valori fondamentali come la tutela della propria salute.

Ancora una volta quindi, l’aspetto che emerge dal dibattito circa l’interazione della tecnologia 5G con l’ambiente, si concentra  su aspetti diversi da quello riguardante la salute. Il dibattito in corso tra le varie agenzie USA evidenzia che la tecnologia 5G è talmente “potente” da interferire con l’ambiente circostante, al punto da compromettere il suo monitoraggio. Da decenni si denuncia l’esistenza di tecnologie in grado addirittura di influenzare il clima.

Le modificazioni climatiche messe in atto dall’uomo non per colpa della famigerata CO2, quanto piuttosto delle tecnologie elettromagnetiche (vedi HAARP) che gli Stati Uniti hanno finanziato, studiato e sperimentato ormai decenni or sono, alle spalle della popolazione mondiale e con la complicità di tutti i Governi compiacenti e gli organi di stampa mainstream che hanno sempre negato il nesso tra clima e onde elettromagnetiche emesse dall’uomo, più volte denunciato dai cosiddetti “complottisti”, questa volta centrano poco. Purtroppo al centro del dibattito continua a non essere messa la tutela della salute ma quella di taluni interessi, rappresentati nel “casus belli” da quelli “scientifici” e, più verosimilmente, quelli militari. Non è un caso forse, che la NASA e la Marina sono parte in causa stranamente a favore di una limitazione della tecnologia 5G.

Secondo quanto apparso anche sul portale della rivista Science, infatti, l’attuale dibattito in corso negli Stati Uniti riguarda la minaccia che le previsioni meteorologiche accurate possono essere compromesse proprio a causa delle emissioni elettromagnetiche del 5G. Mesi di studi tecnici e dibattiti hanno solo aumentato l'empasse.

Alcune bande ad alta frequenza destinate alle antenne wireless 5G di prossima generazione sono vicine alle bande utilizzate per monitorare segnali atmosferici deboli ma critici. I meteorologi affermano che le interferenze potrebbero compromettere i modelli meteorologici.

La NASA e la National Oceanic and Atmospher Administration (NOAA) hanno affermano che le antenne 5G faranno aumentare vertiginosamente i segnali vicino alle frequenze utilizzate dai loro satelliti per raccogliere dati critici sul vapore acqueo e potrebbero compromettere le previsioni e la scienza. Le agenzie chiedono limiti severi sulla potenza del segnale. La Federal Communications Commission (FCC), che autorizza lo spettro wireless per gli operatori 5G negli Stati Uniti, afferma che queste paure sono esagerate.

Jordan Gerth, un meteorologo dell'Università del Wisconsin a Madison, ha affermato che il 5G rappresenta "una chiara minaccia" per le previsioni meteorologiche, ma aggiunge che "il diavolo è nei dettagli".

 I tentativi di raggiungere un compromesso sono vacillati e un seminario di Luglio (2019) organizzato dalle Accademie nazionali di scienze, ingegneria e medicina per cercare una soluzione è stato annullato quando le agenzie federali hanno rifiutato di partecipare.

Dalla prossima settimana (metà di Agosto 2019) in programma una serie d’incontri internazionali che mirano a definire le normative globali sul 5G, ma i meteorologi statunitensi temono che i delegati a stelle e strisce, sotto la pressione degli interessi economici legati allo sfruttamento che il mercato del 5G coinvolge, non sostengano l’introduzione di limiti rigorosi.

Se da una parte il 5G promette una velocità dei dati fino a 100 volte più veloce rispetto alle attuali reti 4G e potrebbe spianare la strada all'adozione diffusa di tecnologie all'avanguardia come le auto autonome, l’aspetto legato all’interazione negativa che l’adozione diffusa di questa tecnologia avrà sull’ambiente, non solo in termini di salute umana, continua a essere scarsamente presa in considerazione. Le antenne wireless 5G trasmettono sì più rapidamente i dati, ma devono essere anche più vicine agli utenti in numero maggiore. Ciò significa un aumento delle esposizioni al campo elettromagnetico da esse generato con tutte le conseguenze del caso.

Le aziende di telecomunicazioni hanno già iniziato a collegare antenne 5G di dimensioni enormi, su torri e tetti in città di tutto il mondo.

Oltretutto, le aziende interessate a sfruttare questa tecnologia, vogliono espandere il servizio in altre bande di frequenza aggiuntive, come una a 24 gigahertz (GHz), una frequenza molto più alta di quelle utilizzate dalle reti wireless ora esistenti. Così facendo contano di inserire più informazioni nei segnali poiché l'atmosfera presenta meno interferenze a questa frequenza. Ma tali bande di frequenza sono utili solo se le aziende sono in grado di inviare dati con intensità del segnale relativamente elevate. La Federal Communications Commission (FCC) ha proposto di consentire segnali potenti come -20 decibel watt (dBW) in tutte le bande finora messe all'asta, compresa la banda tra 24,25 e 25,25 GHz.

Tuttavia, secondo i meteorologi, la vicina frequenza di 23,8 GHz è fondamentale per i meteorologi. A circa 23,8 GHz, le molecole di vapore acqueo emettono una piccola quantità di radiazioni, uno dei modi migliori per rilevare da remoto (come da un satellite ad esempio) il contenuto di acqua atmosferica che alimenta nuvole e tempeste. Poiché l'aria non offre resistenza e disturbi a tali frequenze, i sensori collegati al sistema satellitare polare congiunto che fa capo al NOAA e ai satelliti operativi meteorologici europei possono raccogliere dati da tutti i livelli dell'atmosfera, fornendo un input cruciale non solo per le previsioni meteorologiche a 7 giorni, ma anche per la previsione la forza degli uragani e del loro percorso. “Inoltre, una registrazione a lungo termine del vapore acqueo può anche aiutare a calibrare i modelli di cambiamento climatico”, aggiunge Eric Allaix, meteorologo alla Météo-France di Tolosa che guida il comitato dell'Organizzazione meteorologica mondiale sul coordinamento delle radiofrequenze.

Anche se sulla carta, le trasmissioni 5G saranno separate dalla banda del vapore acqueo da un buffer di 250 megahertz (MHz), i meteorologi temono che finiranno per sconfinare nella banda dei 23,8 GHz finendo per sommergere la debole emissione naturale.

A marzo, poco prima dell'asta delle frequenze della banda a 24 GHz della FCC, il segretario al commercio Wilbur Ross, che sovrintende alla NOAA, e l'amministratore della NASA Jim Bridenstine hanno inviato una lettera chiedendo alla FCC di rimandare l'asta. La FCC ha ignorato l’invito e nell’asta di Marzo (2019), le compagnie statunitensi di telefonia mobile T-Mobile e AT&T hanno acquistato parti della banda.

A quel punto, il dibattito fino a quel momento rimasto pressoché sconosciuto all’opinione pubblica, è venuto alla luce. Nello scorso mese di Maggio (2019) Neil Jacobs, amministratore delegato della NOAA, ha testimoniato al Congresso riferendo che uno studio interno ha scoperto che le interferenze relative al 5G potrebbero compromettere il 77% dei dati del vapore acqueo del NOAA che le raccoglie alla frequenza di 23,8 GHz. Ciò comporterebbe un’inattendibilità delle previsioni meteorologiche fino al 30%, facendo fare un balzo indietro alla meteorologia fino ai livelli del 1980. "Per noi è un insieme di dati critici", ha affermato Jacobs. Anche il capo della NASA Bridenstine ha fatto eco alle preoccupazioni di Jacobs e, in seguito, anche la Marina ha confermato la preoccupazione circa deterioramento della qualità delle previsioni. Il dubbio che dietro a questa disputa si celino interessi più grandi di quelli emersi fin ora appare legittimo. D’altro canto, se volessimo dare per certa l’esistenza delle armi elettromagnetiche per la modificazione climatica connesse all’applicazione della tecnologia HAARP, apparirebbe chiaro che, chi utilizza quella tecnologia per scopi militari non abbia piacere che si vada in qualche modo a inibirne o circoscriverne il controllo, per colpa di tecnologie a uso commerciale e civile.

Nella successiva udienza tenutasi sul tema al Congresso, avvenuta nel successivo mese di giugno (2019), il presidente della FCC Ajit Pai ha dichiarato “Il NOAA fraintende la tecnologia 5G, ha nella sua testimonianza congressuale a giugno. 5G utilizzerà la tecnologia laser "beamforming", che massimizzerà le velocità di trasmissione dei dati e minimizzerà i segnali parassiti, ha detto Pai. E la banda a 24 GHz sarà probabilmente limitata ad aree urbane dense con molti utenti di telefoni cellulari, giustificando gli investimenti delle aziende nelle reti di trasmissione.”

Ma Jordan Gerth, un meteorologo dell'Università del Wisconsin a Madison, teme che anche se focalizzati sui raggi e indirizzati verso le città, i segnali 5G potrebbero comunque causare problemi. I satelliti meteorologici vedono contemporaneamente molti chilometri quadrati e le interferenze in parte di un pixel potrebbero rovinare la corretta valutazione dell'intero pixel. Inoltre, le interferenze in città costiere come New York e Miami, in Florida, potrebbero ostacolare le osservazioni oceaniche cruciali per la previsione degli uragani.

Da aprile, NOAA e NASA hanno perfezionato il loro studio sull'effetto del 5G sulle loro previsioni, in risposta alle critiche di FCC e del settore wireless. Secondo fonti che hanno visto le ultime versioni dello studio, le agenzie arrivano alla stessa conclusione: l'intensità del segnale deve essere limitata a circa -42 dBW per proteggere i dati meteorologici.

Gli studi dunque, sembrano convalidare tutte le affermazioni pubbliche della NASA e NOAA.

Ma il problema non è solo circoscritto al territorio statunitense ma quello del 5G e della sua interazione con l’ambiente è considerato in USA un problema globale (forse a conferma di quanto detto in merito agli sviluppi in ambito militare).

In una riunione ospitata dalla Commissione interamericana di telecomunicazione, che si svolgerà la prossima settimana a Ottawa, le nazioni dell'emisfero occidentale cercheranno di raggiungere un consenso sui limiti del 5G. Porteranno quel numero alla quadrangolare Conferenza mondiale delle radiocomunicazioni, che inizierà il 28 ottobre a Sharm El-Sheikh, in Egitto, nel tentativo di negoziare un limite globale. Il Dipartimento di Stato guiderà la delegazione americana, ma non ha ancora annunciato la sua posizione.

Ma qual è la posizione dell'Europa a riguardo? L'organizzazione di telecomunicazione regionale che rappresenta i paesi europei ha in programma di proporre, durante la prossima conferenza mondiale, un limite di -42 dBB.

L'Organizzazione meteorologica mondiale ha preso una linea ancora più dura, richiedendo −55 dBW. Secondo Allaix, coautore di uno studio del 2018 che supporta tale limite, “Le condizioni atmosferiche statunitensi sono fondamentali per le previsioni europee da 2 a 3 giorni dopo, quindi è davvero un problema mondiale. I nostri satelliti devono essere protetti in tutto il mondo".

Risolvere la battaglia sulla banda a 24 GHz non comporterà la fine della guerra. A dicembre, FCC prevede di mettere all'asta le frequenze nella banda da 37,6 a 38,6 GHz, banda vicino a quelle utilizzate per misurare la pioggia e la neve e di molte altre potenziali bande 5G si trovano vicino a frequenze meteorologiche. In molti si dicono preoccupati già perché prevedono che il problema si ripresenterà anche per le frequenze tra 50 e 55 GHz, necessarie per i profili di temperatura atmosferica.

Siamo alla follia, dunque. I valori che ogni Stato dovrebbe tutelare, in questo caso il diritto alla salute, sono ancora una volta lasciati in disparte. L'unico dibattito ufficiale sull'applicazione della tecnologia del 5G in corso verte su aspetti assolutamente marginali.

E mentre il dibattito continua, concentrandosi su aspetti secondari come quello delle rilevazioni meteorologiche, di cui abbiamo fatto a meno per gran parte della nostra esistenza, nell'assurdo e disumano mondo in cui abitiamo, il vero punto della questione riguardo alla tecnologia 5G cioè circa i possibili danni provocati alla salute non sembra essere la principale preoccupazione delle Autorità.

In futuro saremo forse tutti malati, ma felici e connessi, soddisfatti di sapere se il giorno dopo sarà una bella giornata di Sole o se pioverà (almeno questo sembra essere la cosa che interessa più a tutti o quasi).

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Oumuamua e l’ipotesi della panspermia galattica

Il 19 ottobre 2017, un misterioso oggetto compare nel campo visivo del telescopio hawaiano Panstarss. La notizia fa presto il giro del mondo e gli astronomi hanno iniziato a ipotizzare le origini del visitatore interstellare. L’oggetto, denominato Oumuamua, aveva le caratteristiche di una cometa e di un asteroide e alcuni hanno addirittura pensato che potesse trattarsi di una navicella aliena in visita nel nostro sistema stellare.
Già in un precedente articolo su questo blog, avevo affrontato la questione spiegando come l’anomala accelerazione che Oumuamua ha subito dopo il passaggio ravvicinato al nostro pianeta, aveva lasciato perplessi molti scienziati.
Tutte le spiegazioni proposte per questa strana accelerazione non avevano poi trovato un riscontro oggettivo in coerenza con i dati raccolti e le nostre attuali conoscenze dell’astrofisica. Si era dunque ipotizzato che fuoriuscite di gas dall’asteroide, dovute al passaggio nei pressi del Sole, potesse aver determinato quest’accelerazione. L’ipotesi però è rimasta tale, complice la nostra incapacità tecnologica di poterla verificare, lasciando sul tavolo anche le ipotesi più esotiche.
Nella chiusura del precedente articolo (novembre 2018), avevo così proposto la possibilità che Oumuamua potesse essere una sorta di “inseminatore” interstellare, forse mandato da qualcuno o semplicemente di origine naturale. Insomma mi chiedevo se, le caratteristiche riscontrate in Oumuamua, potessero suggerire che, così come s’ipotizza oggi per molti sistemi stellari di nuova scoperta (tra tutti quello di Trappist-1), anche il nostro sistema solare potesse essere stato “inseminato” da comete o asteroidi portatori di vita, venuti dall’esterno.

Nell’ultimo mese (giugno 2019) due nuove ricerche scientifiche sono tornate a parlare di Oumuamua, della sua origine e del suo potenziale ruolo interstellare.
Un team dell’Università del Maryland ha pubblicato uno studio nel quale afferma che Oumuamua ha un’origine puramente naturale. L’oggetto è stato analizzato sulla base dei dati esistenti giungendo alla conclusione che esso potrebbe essere stato espulso da un pianeta gigante gassoso in orbita intorno a un’altra stella. Un processo analogo potrebbe aver coinvolto in passato anche Giove che potrebbe aver creato la nube di Oort, un insieme di piccoli oggetti vicini al bordo esterno del sistema solare. Così come alcuni di questi oggetti potrebbero essersi mossi oltre l’influenza della gravità del Sole per diventare essi stessi viaggiatori interstellari, anche Oumuamua potrebbe aver subito lo stesso destino.
Tuttavia, è bene precisare, che si tratta ancora di una mera ipotesi che per nulla confuta definitivamente le precedenti e altre ipotesi apparentemente più bizzarre, come quella del veicolo alieno (magari ben camuffato), poiché i ricercatori del Maryland non sono riusciti a spiegare in modo convincente e oggettivo, l’accelerazione avuta da Oumuamua. Del resto i dati a loro disposizione erano pressoché gli stessi che erano disponibili mesi or sono. In assenza di nuovi dati dunque, come avevo anticipato, era impossibile sapere di più su quello che rimane il primo “visitatore interstellare” osservato dall’uomo.
Anche per testare questa nuova ipotesi dunque, dovremo attendere telescopi come Lsst, operativo dal 2022, che permetterà di osservare il cielo con grande precisione, alla ricerca di altri oggetti celesti dalle origini misteriose come Oumuamua, per provare a capirne di più.
Nel frattempo, si vagliano ovviamente anche altre ipotesi che, anche se apparentemente meno suggestive rispetto a quelle che vorrebbero Oumuamua essere un veicolo alieno, sono certamente molto più affascinanti per gli amanti della scienza e per tutti coloro che vorrebbero sapere di più sull’origine della vita sulla Terra.

Questo perché, come avevo suggerito nel precedente articolo e già accennato nei miei libri, sia in quello pubblicato nel 2015 che quello pubblicato nel 2018, gli oggetti interstellari come Oumuamua potrebbero avere implicazioni sull’origine dei pianeti e della vita su di essi, del nostro sistema Solare.
Lo afferma uno studio condotto da Technion-Israel Institute of Technology, pubblicato sulla rivista Monthly Notices of the Royal Astronomical Society.
Quando fu scoperto due anni fa dalla survey Panstarss, Oumuamua aveva da subito suscitato l’interesse della comunità scientifica che ne aveva analizzato lo spettro elettromagnetico, giungendo alla conclusione che l’oggetto è composto prevalentemente di ghiaccio, in grado di resistere a un viaggio interstellare.
I ricercatori del Technion, si sono quindi chiesti cosa sarebbe potuto accadere se oggetti dalle caratteristiche simili a quelle di Oumuamua, fossero stati presenti (com’è probabile) circa 4,5 miliardi di anni fa, quando il Sole era molto giovane e il Sistema Solare non era altro che un disco gassoso.
Gli oggetti interstellari, si legge nello studio, potrebbero essere la chiave per rispondere agli interrogativi sulla formazione dei pianeti e del Sistema Solare.
La teoria scientifica prevalente (ma non per questo necessariamente veritiera e corretta) ritiene che la maggior parte dei sistemi planetari si formi per aggregazione delle polveri fino a formare gli oggetti di piccole dimensioni, i cosiddetti planetesimi. La fase successiva che origina il pianeta è quella dell’accrescimento: il nascente pianeta accrescerebbe le sue dimensioni grazie alla forza dell’attrazione gravitazionale dei planetesimi originatesi nella prima fase.
In questo nuovo studio, i ricercatori sostengono invece che la maggior parte dei sistemi planetari non ha bisogno di affrontare la fase di formazione di planetesimi, poiché sarebbero in grado di catturare i planetesimi interstellari (come Oumuamua) che sono stati espulsi in origine da altri sistemi. Ma come si può catturare un oggetto che viaggia a decine di chilometri al secondo attraverso un sistema planetario?
Per i ricercatori la risposta va cercata nel vento solare contrario, che può rallentare i planetesimi interstellari di dimensioni più grandi e spingerli nel neonato disco protoplanetario. Così facendo anche un singolo sistema planetario può espellere a sua volta, planetesimi di dimensioni medie che poi fungono da semi per la formazione di nuovi sistemi planetari.
Contrariamente a quanto ritenuto fino ad ora, nessun sistema planetario è un “territorio isolato”, un'isola sperduta senza alcun collegamento con il resto dell’universo, ma piuttosto il serbatoio di planetesimi interstellari catturati ed espulsi, capaci di avviare continuamente la nascita di nuovi sistemi planetari.

Nei loro calcoli teorici, al fine di dimostrare e stimare le probabilità di questo rivoluzionario sistema di semina planetaria e le sue conseguenti implicazioni per la formazione dei pianeti, i ricercatori hanno sviluppato un modello matematico che indica la probabilità di cattura, a seconda delle proprietà della popolazione planetesimale interstellare e del disco. Così facendo il team del Technion-Israel Institute of Technology ha scoperto che catturare piccoli oggetti è più semplice, mentre la cattura di quelli più grandi è impegnativa, ma comunque possibile.
Se tutto questo può contribuire a spiegare meglio come si originano i pianeti e i sistemi solari, l’aspetto a mio parere più interessante è quello legato al possibile trasferimento della vita per mezzo degli stessi oggetti interstellari.
Come ho già ampiamente spiegato nel mio ultimo libro, oggi sappiamo con certezza che forme di vita come i batteri ad esempio (ma non solo) possono sopravvivere nell’ambiente interstellare se l’oggetto che li trasporta è abbastanza grande (sono sufficienti pochi centimetri di diametro).
Lo studio in questione ha dunque dimostrato che, sebbene solo una piccola frazione di rocce espulse possa ospitare batteri resistenti in grado di sopravvivere a lunghe distanze, è comunque possibile catturare un gran numero di rocce biologicamente attive. Questo processo, ha probabilmente interessato molti dei sistemi planetari esistenti (e non c’è ragione di pensare che il nostro sistema solare costituisca un’eccezione), che hanno ricevuto i blocchi fondamentali per la formazione degli organismi primordiali grazie al viaggio interstellare compiuto da questi oggetti.
I ricercatori hanno infatti concluso che “Questa cattura assistita dal gas è un meccanismo molto più efficiente per la panspermia diffusa, e la maggior parte dei sistemi ha probabilmente guadagnato i primi blocchi di vita da qualche altra parte”.
Insomma, si sta affermando che Oumuamua e gli oggetti interstellari con caratteristiche simili che hanno probabilmente frequentato il nostro sistema solare fin dal momento della sua formazione, potrebbero aver portato la vita nel nostro sistema solare.
Solo un paio di settimane fa (24 giugno 2019) uno studio pubblicato sulla rivista Nature Geoscience, affermava che Marte è stato ospitale alla vita almeno mezzo miliardo di anni prima della Terra, suggerendo la possibilità di abiogenesi (nascita spontanea della vita da processi naturali derivanti da elementi non biologici) per entrambi i pianeti e partendo implicitamente dal presupposto che anche Marte abbia ospitato forme di vita (come ormai ampiamente desumibile dai tanti dati scientifici raccolti negli ultimi 15 anni di esplorazione del pianeta rosso).
Tuttavia, l’abiogenesi è già di per sé un’ipotesi, che sebbene sia largamente accettata e considerata come prevalente in abito scientifico per spiegare la presenza della vita sulla Terra, rimane un evento assai improbabile anche se possibile.

Ipotizzare che anche Marte abbia avuto la sua abiogenesi, indipendente e slegata da quella terrestre è come pensare di avere due sole monete, inserirle in due slot machine una a fianco all’altra e, tirando la leva, vincere il jackpot su entrambe le macchine. Evento possibile, indubbiamente, ma talmente improbabile che solo un folle potrebbe ritenere credibile e veritiera una storia simile se le fosse raccontata.
Probabilmente (o anzi, sicuramente) sono stato anche fin troppo ottimista in questo esempio. Infatti, gli scienziati F. Hoyle, C. Wickramasinghe, nel loro libro degli anni ’70 dal titolo “La nuvola della vita - L’origine della vita nell’universo” calcolarono, secondo loro per difetto (ricordo, infatti, che gli enzimi sono solo uno degli “ingranaggi” necessari al funzionamento della “macchina” della vita), in 1 su 10⁴⁰⁰⁰⁰ le probabilità che gli enzimi indispensabili alla chimica degli organismi viventi siano emersi nella loro totalità, completi e funzionali, al termine di un processo di accumulo puramente casuale di tentativi ed errori, avvenuto nelle condizioni della Terra primordiale.
Se i loro calcoli sono corretti (non sono mai stati smentiti da nessuno negli ultimi 50 anni), mi chiedo dunque, perché ora che sappiamo che la vita può resistere ai viaggi interstellari, che esistono “mezzi di trasporto” originari del nostro sistema solare come la cometa 67P/Churyumov–Gerasimenko e i vari asteroidi marziani giunti sulla Terra, e oggetti interstellari come Oumuamua, dobbiamo continuare in modo insensato a credere che la vita sulla Terra sia potuta emergere spontaneamente nei camini idrotermali o altrove, solo grazie al tempo e alla presenza degli ingredienti giusti, assemblati e rimescolati di volta in volta in sequenze casuali.
Senza contemplare l’esistenza di un evento che in qualche modo abbia “forzato” la comparsa e la diffusione della vita sul nostro pianeta, come suggerisce la teoria della panspermia, il tempo intercorso tra il consolidamento della crosta terrestre e le prime testimonianze fossili di organismi viventi è davvero troppo poco, affinché l’assurdo numero di combinazioni possibili positive in cui una ventina di aminoacidi possono saldarsi tra loro in catene di polipeptidi siano venute fuori, perfettamente ordinate e funzionali, così come tutte le lunghissime catene di aminoacidi che formano le proteine e gli enzimi, essenziali per la struttura e il metabolismo degli organismi viventi.

 

Se è vero com’è vero, che le probabilità di contaminazione tra pianeti aumentano con il diminuire della distanza tra essi (come ipotizzato per il sistema Trtappist-1) e che Marte ha presentato le condizioni per ospitare la vita ben prima della Terra, che sul pianeta rosso c’è stata la vita (come emerge chiaro dai dati a oggi a nostra disposizione), è plausibile quanto inevitabile ipotizzare che la vita terrestre (così come quella possibile sulle lune di Giove e Saturno) sia di origine marziana (lithopanspermia) e che quest’ultima, sia di origine extrasolare (panspermia).
Certamente la teoria della panspermia non risolve il problema riguardo la comprensione della nascita della vita nell’universo ma, risolve certamente quello riguardante la presenza della vita sulla Terra.
A oggi, dati alla mano, se l’abiogenesi appare quanto mai un evento assai inverosimile e, dal momento che ragionevolmente e razionalmente dobbiamo scartare l’ipotesi creazionista, la panspermia appare l’ipotesi più probabile, plausibile e coerente con tutto ciò che conosciamo dal punto di vista scientifico, stoico, mitologico e anche religioso. Almeno a oggi…
 Stefano Nasetti 

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...