Blog

Sulla Terra batteri 'alieni', in un ambiente sosia di Marte

L'ambiente idrotermale nella zona del vulcano Dallol in Etiopia (Fonte: Barbara Cavalazzi, Università di Bologna)

Ormai sembrano esserci pochi dubbi. La vita è possibile anche in condizioni estreme, simili a quelle presenti su Marte quando era ancora un giovane pianeta. Lo conferma la scoperta fatta da un team internazionale, pubblicata sulla rivista Scientific Reports e coordinata da Felipe Gómez del Centro di Astrobiologia di Madrid, ha un importante contributo italiano del gruppo coordinato dalla geologa Barbara Cavalazzi, dell’Università di Bologna. La ricerca è stata supportata dal progetto europeo Europlanet 2020.

Il team ha scoperto batteri il 20% più piccoli di quelli finora noti, che amano ambienti caldissimi, acidi e saturi di sale. Sono stati scovati in uno dei luoghi più estremi della Terra: le sorgenti termali della zona del vulcano Dallol, in Etiopia.

Si tratta di un posto unico al mondo, una zona vulcanica dove la presenza contemporanea di tre placche che si stanno allontanando, quella africana, somala e araba, crea particolari condizioni chimico-fisiche in superficie, anziché nei fondali oceanici come avviene di solito. In ambienti del genere si verificano temperature di quasi 90 gradi, alte concentrazioni saline di salgemma e sali di zolfo e ferro, e pH molto acidi, poco superiori allo zero.

I nanobatteri estremi, chiamati Nanohaloarchaeles Order, sono immersi in un paesaggio ‘alieno’ con accese sfumature gialle, verdi, rossastre e blu, non lontano da una delle culle dell’umanità, la valle di Afar, dove nel 1974 è stato trovato uno dei progenitori dell’uomo moderno, il celebre fossile di ominide Lucy.

 Quello scoperto in Etiopia è un habitat estremo, simile ai camini idrotermali sottomarini. E' anche uno dei pochi luoghi sulla Terra in cui finora si pensava che non ci fosse vita. Per questo è molto importante la scoperta di nanobatteri, perché ci permette di studiare le condizioni limite per la vita sulla Terra e di estendere il concetto di abitabilità anche ad altri pianeti, come Marte.

I nanobatteri ritrovati in Etiopia (foto qui in basso) sono assai simili a quelli ritrovati in molti meteoriti marziani giunti sulla Terra.


I nanobatteri trovati nella zona del vulcano Dallol, in Etiopia, visti al microscopio (fonte: Centro de Astrobiologia Madrid, Spagna.)

Infatti, non è la prima volta che si trovano meteoriti marziani contenenti tracce di vita biologica che presenta somiglianze incredibili con quella rinvenuta nelle rocce terrestri.

Eccone alcuni esempi (brani tratti dal libro “Il lato oscuro di Marte – dal mito alla colonizzazione”).

[…]Nell’agosto del 1996, infatti, un’equipe di scienziati fece un annuncio incredibile! Il meteorite marziano denominato ALH84001, rinvenuto in Antartide, contiene delle tracce fossilizzate di vita! All’interno di questa roccia, del peso di poco meno di 2 kg, sono presenti globuli di carbonato generati da microrganismi vivi su Marte, 3,6 miliardi di anni fa. […]

Meteorite AHL84001 - Globuli di carbonato generati da organismi vivi su Marte 3,6 miliardi di anni fa

[…]Una nuova conferma è giunta poi dall’esame di un altro meteorite marziano, scoperto nel ghiaccio antartico Yamato nel 2000. L’annuncio è arrivato direttamente dagli esperti del Johnson Space Center della Nasa e del Jet Propulsion Laboratory, già nel Febbraio del 2014. Lo studio è stato pubblicato poi sulla rivista Astrobiology. Il meteorite di origine marziana, chiamato Yamato000593 (o Y000593) del peso di 13,7 Kg, è il secondo più grande meteorite marziano rinvenuto sulla Terra, ed è stato ritrovato durante la quarantunesima Japanese Antarctic Research Expedition. Il meteorite è caduto in Antartide circa 50.000 anni fa, si è formato su Marte circa 1,3 miliardi di anni fa e si è, presumibilmente, staccato dal pianeta rosso circa 12 milioni di anni fa, a seguito sul di un grande impatto sulla sua superficie. L’analisi condotta sul meteorite ha evidenziato la presenza, nel suo interno, di minuscole sfere e micro tunnel di un minerale chiamato iddigsite, che si forma per azione dell’acqua. La morfologia degli elementi scoperti, oltre a suggerire la presenza dell’acqua all’epoca della sua formazione, ha suggerito la probabile esistenza di forme di vita elementari sul pianeta rosso! […]

Meteorite Yamato000593 - strutture e segni originate da vita marziana simili a quelli trovati in Etiopia e in Canada

[…] Nel marzo 2017, la rivista Nature ha pubblicato la scoperta dell’University College di Londra che aveva scoperto, in alcune rocce a Nuvvuagittuq in Canada, le tracce di microrganismi vissuti 3,8 miliardi di anni fa. Si trattava di strutture tubulari e filamenti molto simili a quelli che si possono trovare ancora oggi, nei pressi delle sorgenti idrotermali oceaniche. La comunità scientifica, in modo unanime, le ha subito riconosciute come indiscutibili tracce di vita. La cosa più interessante di questa scoperta, è che le strutture tubolari di origine biologica scoperte in Canada, sono pressoché identiche a quelle presenti nel meteorite marziano ALH 84001, anzi, forse quelle presenti nel meteorite sono più indicative per determinarne l’origine biologica […]

Strutture tubulari e filamenti di orgine biologica rinvenute a Nuvvuagittuq in Canada

“[…]Nel Settembre del 2016, un analogo studio è stato pubblicato su International Journal of Astrobiology, per opera di un team di ricerca italiano composto da Nicola Cantasano e Vincenzo Rizzo dell’Istituto per i sistemi agricoli e forestali del Mediterraneo del Consiglio nazionale delle ricerche di Cosenza (Isafom-Cnr). I due ricercatori hanno allargato la mole dei dati analizzati, includendo in modo sistematico, tutte le fotografie delle rocce marziane scattate dai rover Opportunity, Spirit e Curiosity, rilevando analogie non solo con le strutture delle microbialiti terrestri (rocce costruite dai batteri) alle diverse scale dimensionali (microscopiche, ma soprattutto meso e macroscopiche), ma anche nelle tracce attribuibili alla produzione batterica di gas e di gelatine adesive altamente plastiche. Rizzo, presentando i dati dello studio ha dichiarato, senza mezzi termini, che quelle raccolte, sono le prove inconfutabili della presenza passata di vita su Marte! Queste le sue parole, apparse anche sul sito dell’ASI (Agenzia Spaziale Italiana): “L’Università di Siena ha avviato un’analisi matematica frattale multiparametrica delle coppie d’immagini, i cui risultati confermano che esse sono identiche. Un ulteriore studio morfologico del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas-LIMLA, su campioni di microbialiti viventi provenienti dal deserto di Atacama (Cile) ha permesso di evidenziare, grazie alla pigmentazione organica, che tali microstrutture e microtessiture esistono e sono un prodotto dell’attività batterica. I dati mostrano la perfetta somiglianza tra le microbialiti terrestri e le immagini marziane, con una fortissima evidenza statistica nell’analisi di 40.000 microstrutture Terra/Marte analizzate. La quantità, la varietà e la specificità dei dati raccolti – ha proseguito Rizzo - accreditano per la prima volta, in modo consistente, che le analogie non possono essere considerate semplici coincidenze”. […]

Strutture microscopiche terrestri di sicura formazione biologica a confronto con strutture marziane sono praticamente identiche (Fonte Nicola Cantasano e Vincenzo Rizzo  - Istituto per i sistemi agricoli e forestali del Mediterraneo del Consiglio nazionale delle ricerche di Cosenza (Isafom-Cnr) e Università di Siena)

[…]È stato scientificamente accertato che ogni anno, quasi mezza tonnellata di meteoriti provenienti da Marte, colpisce la Terra. Questa contaminazione incrociata tra Marte e la Terra, che solo 15-20 anni fa era considerata solo una folle congettura, ora è largamente accettata dagli astrobiologi. […]

La vita sulla Terra è giunta da Marte? Questa che sembrava solo una possibilità diviene col passare del tempo, una probabilità sempre maggiore, e le prove già ci sono, sono moltissime e tutte già pubblicate da studi ufficiali. Scopri di più sul libro “Il lato oscuro di Marte – dal mito alla colonizzazione”. o negli altri articoli già pubblicati in questo blog.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

L’interno della Terra è diverso da come ci hanno insegnato.

Nonostante la nostra tecnologia, la struttura interna del pianeta che abitiamo è a tutti gli effetti qualcosa che sfugge alle nostre possibilità di esplorazione diretta. Le tecnologie di perforazione messe a punto in questi anni per raggiungere profondi giacimenti petroliferi, ci permettono di arrivare a circa 10 chilometri al di sotto della superficie terrestre, e il pozzo più profondo mai raggiunto ci ha portati a poco più di 12 chilometri di profondità: andare oltre richiederebbe uno sforzo tecnologico ed economico che nessuno, al momento, pare voler intraprendere. In più, i pozzi realizzati sul pianeta sono relativamente pochi e hanno permesso di ottenere limitate informazioni dirette sull'interno della Terra.

Un nucleo caldo denso e ferroso, un ampio mantello fluido omogeneo e un’eterogenea crosta dura ma sottile. Questi sono i tre principali strati da cui è composto l’interno del nostro pianeta, o almeno così si pensava fino a poco fa. Poi tutto è stato rimesso in discussione, almeno in parte.

Questo perché, tra i primi di aprile e la metà di maggio (2019), tre differenti studi, pubblicati su diverse riviste scientifiche, ed eseguiti da tre gruppi di ricerca indipendenti gli uno dagli altri, hanno messo in luce tutti i limiti della precedente “conoscenza scientifica”, basata su dati sommari e formulata in modo assolutamente semplicistico.

Le conseguenze di tali nuove evidenze, questa volta più oggettive, oltre a porre in evidenza ancora una volta, come alcuni assunti scientifici che sono spacciati e insegnati per verità assolute siano invece frutto di congetture semplicistiche, dimostrano come il mettere in discussione la scienza ufficiale, non rappresenti un atto sovversivo, ma sia invece un atto necessario per il progresso della scienza stessa.

Vi è solo un modo di far progredire la scienza, dar torto alla scienza già costituita (Gaston Bachelard).

Ma cosa è stato scoperto e cosa comporta tutto questo in ambito scientifico?

Secondo ciò che viene ancora insegnato nelle scuole e nelle università, l’interno della Terra è costituito essenzialmente dai tre strati sopra citati, un nucleo denso e ferroso, un mantello di rocce fuse e fluide e da una crosta sottile ma solida. L’interazione tra il nucleo di ferro fuso e denso e il mantello che gli scorrerebbe sopra in modo molto più fluido, darebbe origine a quella che è chiamata in ambito geologico, “geodinamo terrestre”. Si tratta sostanzialmente del meccanismo in grado di generare il campo magnetico terrestre. Il campo magnetico terrestre funge da “scudo” per proteggerci dai venti solari, che altrimenti avrebbero reso impossibile la vita sulla Terra. Il campo magnetico terrestre è ritenuto dunque la condizione essenziale per la vita sulla Terra (anche se ciò, dati alla mano, non è necessariamente vero, come ho già posto in evidenza nel mio ultimo libro).

Sulla base delle precedenti conoscenze (che oggi possiamo certamente definire sommarie) erano stati elaborati dei modelli per spiegare il bilanciamento delle forze che genererebbero il campo magnetico.

Per fare questo si era partiti da un solo dato certo, cioè che il campo magnetico esisteva e poteva essere misurato oggettivamente. Per spiegare in modo semplice, si aveva quindi il solo risultato dell’equazione, e sebbene si conoscessero (o almeno si pensava di conoscere) il numero dei termini che dovevano generare quel risultato, non se ne conosceva il reale “valore”, cioè il peso che ciascuno di essi poteva avere all’interno dell’equazione. Sulla base dunque, di sommarie informazioni, si erano attribuite in modo ponderato ma pur sempre “arbitrariamente”, dei valori alle forze in questione, per ottenere dei modelli che potessero determinare quel risultato.

Per capirci ancora meglio facciamo un esempio. Supponiamo che il risultato della nostra equazione sia 4. Supponiamo che questo sia il “valore” del campo magnetico terrestre. Siamo certi che sia questo perché lo abbiamo misurato. Riteniamo di sapere che siano solo tre i fattori (nucleo, mantello e crosta) che contribuiscono a determinare questo risultato ma abbiamo solo poche informazioni sulle caratteristiche di ciascuno di essi. Sulla base di queste informazioni decidiamo quindi di attribuire a questi fattori dei valori che riteniamo congrui, ad esempio attribuiamo al nucleo il valore 3, al mantello il valore 1 e alla crosta terrestre il valore 0 (questo perché secondo la teoria tradizionale, la crosta terrestre non contribuisce a generare il campo magnetico). Sulla base di questi valori (alcuni dei quali attribuiti in modo presunto e arbitrario), sviluppando l’equazione si era ottenuto il risultato di 4, che era il risultato che volevamo ottenere. Non si può certo dire che l’equazione così ricostruita rappresenti con esattezza la realtà, ma si può certamente affermare che potrebbe rappresentare una possibilità, una probabilità ma non una certezza, non una verità.

Tuttavia fino ad oggi, la spiegazione sulla composizione interna del nostro pianeta e dell’origine del campo magnetico terrestre, è stata (ed è ancora insegnata) in questo modo, cioè come se fosse una realtà oggettiva e non una teoria molto aleatoria e ancora tutta da dimostrare.

Con la pubblicazione di questi tre nuovi studi, oggi finalmente sappiamo che gran parte di tutto quello che ci è stato insegnato andrebbe cestinato.

Infatti, non solo è stata fatta nuova luce sulla non omogenea composizione del nucleo e del mantello, ma la nuova consapevolezza dell’eterogeneità di ciascuno di questi strati, mette necessariamente in discussione la teoria stessa della generazione del campo magnetico terrestre. L’attribuzione delle forze nell’equazione che porta alla spiegazione del “valore” del campo magnetico terrestre è completamente da riformulare.

Che cosa è stato scoperto e cosa dicono questi tre studi? Andiamo con ordine.

Il primo dei tre studi a essere recentemente pubblicati sulla questione, è stato quello pubblicato nel mese di aprile 2019 sulla rivista Nature Geoscience coordinato dall’Università di Lisbona e che vede tra i suoi autori, anche l’italiano Manuele Faccenda dell’Università di Padova.

Utilizzando la tomografia sismica (cioè lo studio della velocità di propagazione delle onde sismiche nel sottosuolo), una sorta di Tac medica che fornisce una “visione” della struttura interna della Terra, i ricercatori hanno analizzato in modo approfondito il mantello terrestre, nei pressi dei fondali dell’oceano Pacifico, nelle vicinanze “dell’anello di fuoco”.

Dai dati è emerso chiaramente che il mantello terrestre è diverso dal previsto. Nei suoi strati più profondi non è un fluido, come si pensava, ma un solido duttile che si deforma molto lentamente, come il ferro quando viene forgiato dal fabbro. Finora si era sempre pensato che in questa parte del mantello terrestre, detta inferiore, la roccia non fluisse quasi per niente, a differenza di quanto avviene nella zona superiore.

Lo sprofondamento dei fondali terrestri e l'aumento del fluire nel mantello terrestre è dovuto probabilmente, al movimento dei cristalli di roccia che si formano nelle profondità terrestri, che cambiano orientamento tutti insieme nella stessa direzione. Questa lenta ma continua deformazione del mantello terrestre inferiore è trasmessa in superficie alle placche tettoniche più rigide, che muovendosi causano i terremoti. "Con questo nuovo approccio – ha dichiarato Manuele Faccenda all’Agenzia Ansa - potremo capire come il nostro pianeta sia arrivato ad avere la configurazione attuale".

Sebbene gli studiosi non ne abbiano fatto esplicita menzione, la scoperta è importantissima perché evidenzia un sostanziale errore in quella che era ritenuta una conoscenza scientifica oggettiva in merito alla composizione del pianeta e a tutto ciò che da essa deriva.

Lo studio infatti, ha stravolto un primo parametro della nostra equazione. Il mantello terrestre non è fluido e omogeneo, ma assolutamente eterogeneo e addirittura “solido” negli strati più profondi, quelli cioè che dovrebbero essere a contatto con il nucleo e dalla cui interazione si ritiene si generi il campo magnetico.

Il secondo studio è stato pubblicato nel mese di Maggio (2019) su National Academy of Sciences da un team dell’Università di Yale. Lo studio sembra aver individuato un fattore chiave per spiegare il flusso del campo magnetico terrestre: l’immiscibilità, che in chimica indica il comportamento particolare di due liquidi che non tendono a formare una miscela omogenea.

Tanto per fare un esempio, il fenomeno è osservabile nella vita di tutti i giorni, ad esempio quando condiamo un’insalata, quando l’olio e l’aceto non si uniscono ma tendono a separarsi, così come accade anche quando versiamo dell’olio in un bicchiere già pieno di acqua.

Gli scienziati di Yale hanno osservato lo stesso fenomeno all’interno della Terra. La fusione a temperature simili a quelle presenti nel nucleo terrestre di leghe di ferro, contenenti silicio e ossigeno, formerebbe due dunque liquidi distinti.

Gli esperimenti condotti fino ad oggi hanno riguardato fusioni di leghe metalliche effettuate o a pressione atmosferica o simulando la pressione presente nel mantello superiore della Terra, situato tra la crosta terrestre e il suo nucleo. Ciò conferma dunque eterogeneità del mantello già posta in evidenza dai rilevamenti dello studio precedente. Ma non è tutto! Infatti, gli scienziati hanno individuato lo stesso fenomeno d’immiscibilità non solo nel mantello, ma anche nel nucleo della Terra.

Come detto, ancora più in profondità, a circa 2.900 chilometri sotto la superficie, appena sotto il mantello c’è il nucleo esterno – uno strato di ferro fuso con uno spessore stimato di 2.000 chilometri, che costituisce, assieme al mantello inferiore, la fonte del campo magnetico terrestre.

Sebbene questo liquido bollente renda il nucleo esterno ben “miscelato”, è emersa la presenza di uno strato liquido distinto nella parte superiore. Le onde sismiche che si muovono attraverso il nucleo esterno viaggiano più lentamente in questo strato superiore di quanto non facciano nel resto del nucleo. 

Il fenomeno era già noto e, per spiegare questa maggiore lentezza, erano state formulate diverse teorie, ma senza alcuna dimostrazione sperimentale o teorica.

Combinando esperimenti in laboratorio con simulazioni al computer, il team di ricercatori ha riprodotto le condizioni del nucleo della Terra.

I risultati mostrano due distinti strati liquidi fusi: un primo composto di ferro e silicio, povero di ossigeno e un secondo liquido ferroso composto da silicio e ossigeno. Poiché quest’ultimo è meno denso, tende a salire verso l’alto formando uno strato di liquido ricco di ossigeno.

I risultati, aggiungono un tassello in più nella nostra comprensione dell’evoluzione della Terra e gettano una nuova luce sui cambiamenti del campo magnetico terrestre nel corso del tempo.

Questo secondo studio quindi, ci ha confermato che il mantello è composto di almeno due strati tra loro assai diversi, uno più fluido e l’altro più solido, conclusione a cui era giunto il precedente studio, ma poi ci ha detto anche che il medesimo fenomeno è osservabile nel nucleo.

Ciò significa che se prima per ricostruire l’equazione che porta come risultato la creazione del campo magnetico terrestre, si era tenuto in considerazione la presenza di tre distinti strati eterogenei tra loro in termini di composizione e densità, ma ciascuno di essi assolutamente omogeneo al proprio interno, oggi sappiamo che i fattori da tener presente sono almeno 5 (nucleo interno ed esterno, mantello superiore e inferiore e crosta terrestre).

L’ultimo studio pubblicato in ordine di tempo ha aggiunto un’altra variabile. Apparso sul numero di Maggio 2019, sulla rivista Nature Geoscience, lo studio compiuto dal gruppo dell'università dello Utah guidato da Sarah Lambart, ha affermato senza mezzi termini che il mantello terrestre non è “uniforme” come appare nei libri di scuola o nei modelli scientifici, ma è molto più eterogeneo e la sua composizione è così variegata da ricordare i quadri di Jackson Pollock, con macchie ben delineate di colori decisi che non si mescolano tra loro.

La mappa di minerali accumulati nel mantello terrestre (fonte: Sarah Lambart/University of Utah)

Analizzando la lava che sgorga dalle dorsali oceaniche che si trovano nel mezzo del fondo oceanico e generano nuova crosta oceanica, i ricercatori hanno voluto capire come appare il mantello prima di risalire in superficie come lava. Per farlo hanno studiato i minerali che si accumulano e si cristallizzano per primi quando il magma entra nella crosta terrestre. Hanno così analizzato i campioni centimetro per centimetro, per individuare le variazioni negli isotopi di stronzio e neodimio, che indicano la diversa composizione chimica del materiale del mantello che viene dai distinti tipi di roccia. 

La prima a sciogliersi, come la crosta più antica, può creare dei canali che possono trasportare il magma fino alla superficie. La fusione di un altro tipo di roccia può fare lo stesso. Il risultato finale è una rete di canali che convergono verso le dorsali oceaniche ma non si mescolano, come le strisce di colore dei quadri di Pollock.

Il nuovo studio quindi, ci dice che non è possibile considerare la Terra come fosse composta da strati omogenei al loro interno, come se fossero gli strati di una cipolla. Al contrario, ciascuno strato è eterogeneo al suo interno e può presentare alla medesima profondità, situazioni diametralmente opposte, cioè strati fluidi o strati addirittura solidi, a seconda della composizione chimica dei minerali presenti in quel punto del pianeta.

Oltre quindi ad affermare che ciò che ci è stato insegnato in merito alla struttura interna del nostro pianeta è sbagliato, l’autrice dello studio ammette candidamente che “Serve un nuovo modello geodinamico della Terra per spiegare coerentemente ciò che abbiamo scoperto nelle rocce", come a dire che ciò che pensavamo di aver capito dell’origine forza che ci consente di essere qui (cioè il campo magnetico terrestre) è sbagliato.

Se per “l’uomo della strada” questa conclusione può sembrare poco rilevante, ma dal punto di vista scientifico questa nuova consapevolezza ha una portata molto ampia. Infatti, non solo impone ai geologi e ai geofisici di rivedere obbligatoriamente tutta quanta la teoria sulla composizione, la formazione e la storia geologica del nostro pianeta ma, da questo radicale cambiamento, sono investiti anche altri settori scientifici quali quelli della biologia, dell’astrofisica e dell’astrobiologia.

La biologia è coinvolta poiché i nuovi modelli che dovranno essere sviluppati sulla generazione del campo magnetico terrestre potrebbero “ridatare” la sua comparsa, e quindi influire sulle datazioni della comparsa della vita sulla Terra, le condizioni che si ritiene fossero presenti prima e dopo la comparsa del campo magnetico. Ciò potrebbe far rivedere alcuni aspetti della teoria dell’evoluzione.

L’astrofisica è chiama in causa perché, in assenza di specifiche conoscenze sugli oggetti celesti studiati, spesso il “modello terrestre” viene utilizzato per effettuare possibili ricostruzioni della vita di altri pianeti, come accade spesso nel caso di Marte e degli altri corpi celesti rocciosi del nostro sistema solare. Se oggi sappiamo che il nostro pianeta, la Terra, non è composto semplicisticamente da soli tre strati distinti ma omogenei, che interagiscono tra loro determinando campo magnetico e attività tettonica, dobbiamo necessariamente riformulare quanto è stato ipotizzato riguardo composizione, attività e origine anche degli altri pianeti, sia quelli del nostro sistema solare, sia quelli di altri sistemi.

Infine, l’astrobiologia è chiamata in causa poiché “dall’attività vitale di un pianeta” e dalla sua composizione interna, dipendono molte delle condizioni che riteniamo possano essere necessarie o sufficienti per ospitare forme di vita. Insomma, la nuova consapevolezza che l’interno del nostro pianeta è molto più complesso di quanto finora ritenuto, potrebbe restringere, ma molto più probabilmente ampliare, le possibilità che lassù, da qualche parte nel nostro sistema solare o nell’universo, la vita sia molto più diffusa di quanto immaginiamo.

Sebbene possa essere difficile da comprendere, la maggiore conoscenza sulla struttura e sulle dinamiche che riguardano il nostro pianeta, può comportare un sostanziale cambiamento riguardo la nostra visione dell’universo e del nostro posto in essa.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/indizi-sul-nostro-passato-dallorbita-terrestre/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Marte pianeta vivo

Da tempo si discute sull’origine del metano marziano. Infatti, nonostante fossero state avanzate perplessità sulla sua presenza, la recente e simultanea rilevazione del gas nell’atmosfera marziana, avvenuta nello stesso luogo e nello stesso periodo per merito di due differenti missioni, quella europea con la sonda orbitale Mars Express e quella Nasa con il rover Curiosity, non ha lasciato spazio a dubbi.

Oggi non solo sappiamo che il metano è presente nell’atmosfera marziana, ma sappiamo che ha dei picchi stagionali. Dato che il metano è un gas instabile, ed è soggetto a scomposizione per azione della radiazione ultravioletta (solitamente in un periodo massimo di 340 anni), la sua presenza variabile indica inequivocabilmente che sul suolo marziano è presente una fonte relativamente recente di questo gas.

Si dibatte da tempo sull’origine del gas. Sulla Terra la maggioranza di questo gas ha origine biologica, tuttavia sono presenti anche elevate quantità di metano abiotico, cioè originato da reazioni chimiche dei minerali presenti nelle rocce.

La contrapposizione tra chi propende per l’origine biologica del metano marziano, e chi invece parteggia per quella abiotica è una battaglia ideologica che va oltre le singole evidenze scientifiche.

Infatti, i due schieramenti coincidono essenzialmente tra gli scienziati più conservatori, che vogliono continuare a preservare l’idea di un Marte da subito freddo e secco, al punto da non aver avuto mai il tempo necessario per ospitare forme di vita, e quelli più aperti che, valutando le evidenze portate alla luce negli ultimi due decenni di esplorazioni del pianeta rosso, propendono per un Marte abitabile (e forse abitato, sebbene da forme di vita elementari) per lunghi periodi nel suo lontano, ma non troppo, passato. Insomma in ballo c’è la conservazione o il definitivo abbandono dell’idea dell’unicità della vita terrestre e dell’ottica antropocentrica che condiziona ancora pesantemente anche la scienza.

Se il passato umido e temperato di Marte è ormai un’evidenza scientifica, nonostante si continui a dipingerlo pubblicamente ancora come freddo e secco, la comunità scientifica sa bene che questa tradizionale idea va man mano cambiata, anche presso l’opinione pubblica.

Allo scopo di non destabilizzare in modo troppo repentino gli equilibri di potere all’interno del mondo scientifico accademico, si sta comunicando pubblica notizia di questo radicale cambiamento, in modo molto graduale. Questo perché si sta “preparando” gradualmente l’annuncio ufficiale del ritrovamento della vita al di fuori della Terra.

Per fare questo, infatti, è essenziale essere in grado di rispondere a tutte le domande in merito alle condizioni necessarie affinché la vita possa esistere ed essere riconosciuta tale.  Non si può semplicemente dire “Abbiamo trovato la vita su Marte” o “Su Marte c’è o c’è stata la vita” se fino a poco tempo prima si è ufficialmente e pubblicamente sempre sostenuto che la vita extraterrestre non è possibile (almeno nel nostro sistema solare).

Con cadenza quasi mensile quindi, vengono pubblicate notizie apparentemente “slegate” tra loro, ma che se analizzate complessivamente, confermano quanto ho avuto già modo di evidenziare nei post precedenti riguardo il pianeta rosso e quanto anticipato nel mio libro del 2018. Marte è stato ed è un pineta “vivo”, che è stato (e in forse è ancora) abitabile, e che è stato (e forse è ancora) abitato.

Decine sono gli studi ufficiali pubblicati che supportano queste affermazioni solo apparentemente rivoluzionarie.

In merito alla diatriba sull’origine del metano e sulle conseguenze di detta origine, se cioè la sua presenza indichi o no l’esistenza di forme di vita, è stato recentemente pubblicato uno studio molto interessante.

Sulla Terra, nel corso dell’ultimo secolo, gli scienziati hanno analizzato nel dettaglio l’origine organica dei combustibili fossili (gas naturale, carbone e petrolio). È, infatti, ormai noto che questi combustibili derivino dalla trasformazione, nel corso di milioni di anni, di sostanze organiche prodotte da piante e animali.

Come accennato in precedenza, esistono tuttavia alcuni combustibili fossili che hanno invece un’origine inorganica, e che per questo sono definiti idrocarburi abiotici. L’esempio più diffuso in natura è il metano, gas formato da un atomo di carbonio e quattro d’idrogeno, che può essere generato a seguito di processi inorganici negli strati più profondi del nostro pianeta. A differenza del comune metano biotico, prodotto da batteri o dalla degradazione di materia organica, il metano abiotico può avere origine da rocce non sedimentarie formatesi a grandi profondità all’interno della crosta terrestre.

Grazie ai risultati diffusi nel mese di Maggio (2019), frutto dello studio denominato  Deep Carbon Observatory  (Dco), oggi sappiamo che anche il metano abiotico non solo non esclude la presenza di vita, ma addirittura rafforza in un certo senso, alcuni aspetti legati alla sua comparsa e al suo sviluppo.

Il programma di ricerca, a cui partecipa anche l’Istituto Nazionale di Geofisica e Vulcanologia di Roma è un progetto della durata di 10 anni che ha coinvolto oltre 230 ricercatori da 35 nazioni, e che vedrà la sua conclusione solo il prossimo ottobre (2019).

Secondo gli esperti il metano abiotico potrebbe essere connesso allo sviluppo della vita sulla Terra quasi quanto il gemello biotico. Il motivo di tale conclusione sarebbe la grande quantità di metano abiotico presente sul nostro pianeta, più di quanto si pensasse. Tra gli esempi più affascinanti c’è il monte Chimera, nell’antica Licia, oggi corrispondente alla zona di Yanartas, in Turchia. Questa montagna era ed è tuttora famosa per i fuochi che per millenni vi hanno bruciato costantemente.

L’analisi dei depositi gassosi nel terreno attorno al monte Chimera non mostra traccia di residui organici decaduti; al contrario, la presenza di metano abiotico sembrerebbe spiegare perfettamente queste particolari emissioni in grado di generare combustione. Secondo i ricercatori, abbondanti depositi di metano di origine inorganica sarebbero rimasti intrappolati in queste zone al di sotto della superficie terrestre, dando il via a processi chimici a elevata infiammabilità. A seguito di movimenti sismici, le sacche di metano abiotico, avrebbero poi avuto la possibilità, nel corso del tempo, di raggiungere la superficie.

Gli scienziati del Dco hanno analizzato campioni gassosi raccolti dal monte Chimera stesso, ma anche da depositi simili trovati in Canada e in Oman. I risultati mostrano un possibile legame molto interessante – e del tutto inaspettato – tra il metano abiotico e l’origine della vita sul nostro pianeta.

Isabelle Daniel della Claude Bernard University di Lione, uno dei partner del progetto ha dichiarato: “Abbiamo trovato una curiosa firma biologica in campioni che al tempo stesso presentano tracce di metano abiotico. Sembra quindi che i microbi sappiano come utilizzare questo composto inorganico come combustibile”.

Secondo i ricercatori, si tratta di una delle prime prove della possibile trasformazione in natura da materia inorganica a materia organica: un fenomeno fondamentale non soltanto per spiegare la nascita della vita sul nostro pianeta, ma anche per cercare altre forme di vita nell’universo.

Comprendere i processi di formazione di questo idrocarburo sui nostri vicini planetari potrebbe gettare una nuova luce sui fenomeni chimici potenzialmente in grado di generare la vita.

Anche nel caso che quello marziano fosse metano abiotico quindi, non farebbe escludere la presenza di vita nel passato marziano, ma indicherebbe invece, a conferma sempre di tutto ciò che ho dettagliatamente riportato nel mio libro del 2018, che Marte abbia avuto le condizioni necessarie per accogliere e/o promuovere lo sviluppo della vita. Marte dunque potrebbe realmente essere stata la vera culla della vita nel nostro sistema solare.

Altro aspetto interessante della questione, è che le variazioni periodiche di metano presenti nell’atmosfera del pianeta rosso, nel caso si tratti di metano abiotico, stanno a testimoniare, sempre come anticipato nel libro, che contrariamente a quanto si ritiene, almeno pubblicamente, Marte è un pianeta ancora geologicamente vivo.

Come ho avuto più volte modo di sottolineare, questo è un aspetto essenziale per la possibile presenza di forme di vita.

L’attività geologica su Marte, tra l’altro recentemente registrata dalla sonda Nasa InSight, consentirebbe a eventuali sacche di metano abiotico di risalire in superficie e disperdersi nell’atmosfera marziana.

 

La scossa (il martemoto) è stata misurata il 6 aprile 2019, ovvero nel 128esimo giorno di missione di InSight. Il lander è dotato di un sismografo, chiamato Seis, che ha misurato per la prima volta la scossa. I dati raccolti da InSight sono ancora in fase di elaborazione, e ci vorrà quindi ancora un po’ di tempo prima della conferma definitiva che si tratta di un sisma. La comunità scientifica propende tuttavia che il “martemoto” possa essere causato da un fenomeno interno al pianeta e non, ad esempio, dal vento: il sismografo, infatti, registra anche vibrazioni dovute al vento, che quindi non sono assolutamente sismiche.

Nei mesi precedenti, gli esperti Nasa avevano già registrato eventi apparentemente simili, ma li avevano quasi immediatamente esclusi. Almeno altre 3 scosse precedenti erano state registrate ma solo a livello di rumore. Quella del 6 aprile 2019 è stata un po’ più forte ma comunque rispetto agli standard terrestri, siamo ancora nel rumore di fondo. Sulla Terra non sarebbe un terremoto che farebbe notizia.

Sulla Terra la tettonica a placche è fondamentale per mantenere un clima in cui la vita può prosperare. Inoltre, senza l’interazione tra l’interno del pianeta e gli strati più superficiali, la convezione che guida il campo magnetico terrestre non sarebbe possibile, e senza un campo magnetico saremmo bombardati dalla radiazione cosmica.

La principale differenza rispetto al nostro pianeta è che mentre sulla Terra abbiamo la tettonica a placche, che genera i terremoti spostando le placche e le faglie, su Marte, così come la Luna, non dovrebbe esserci una vera e propria tettonica attiva, ma il raffreddamento del pianeta causa contrazioni del sottosuolo che possono dare origine a piccole scosse.

Tuttavia l’esistenza di un’attività geologica è considerata unanimemente una delle condizioni che possono aumentare in modo considerevole, la presenza di forme di vita.

Un team del Carnegie Institution of Science e che ha combinato diverse discipline, dalla biologia alla fisica, dalla chimica all’astronomia, provando a ricostruire le condizioni che hanno reso il nostro pianeta, un luogo abitabile, ha pubblicato sul numero di Science del maggio 2019, uno studio in cui invita la comunità scientifica a riflettere sull’importanza delle dinamiche interne di un pianeta, che sarebbero essenziali nel determinare la sua potenziale abitabilità.

Insomma, quasi non passa giorno senza che siano pubblicate notizie “apparentemente” slegate tra loro, che confermano direttamente o indirettamente quanto ho scritto, su basi rigorosamente scientifiche, ormai oltre un anno fa, riguardo al possibile (o probabile) passato e presente marziano.

Non sono un indovino, non ho avuto fortuna, non ho accesso a informazioni riservate. È stato sufficiente mettere insieme tutte le pubblicazioni scientifiche avvenute in questi anni sulle molte riviste internazionali del settore, e fare dei ragionamenti oggettivi esclusivamente sulla base delle evidenze scientifiche, per poi evidenziare le “conoscenze” sul pianeta rosso, delle culture umane del passato.

Un lungo lavoro che mi ha consentito di conoscere, capire e anticipare molte degli annunci che si stanno susseguendo e che si susseguiranno riguardo Marte, il suo legame con la vita e con la Terra.

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/su-marte-c-e-un-intero-sistema-interconnesso-di-laghi-sotterranei/

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/su-marte-c-e-un-intero-sistema-interconnesso-di-laghi-sotterranei/

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore


Maggiori informazioni https://illatooscurodellaluna.webnode.it/news/su-marte-c-e-un-intero-sistema-interconnesso-di-laghi-sotterranei/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Indizi sul nostro passato dall'orbita terrestre?

Dall’ISS (acronimo di International Space Station) arrivano ormai da diversi anni, i dati di esperimenti condotti nello spazio, in assenza di gravità. Gli esperimenti riguardano diverse materie scientifiche e differenti aspetti di esse, da quelli strettamente tecnologici a quelli riguardanti la biologia. Soprattutto negli ultimi mesi sono arrivati dati, poi oggetto di studi, riguardanti la salute e i cambiamenti nel corpo umano dovuti alla lunga permanenza in assenza di gravità.

Questi esperimenti hanno l’obiettivo di comprendere quali sono gli effetti della microgravità e dell’assenza di gravità sulla salute umana, in modo da consentire di valutare rischi ed eventuali soluzioni, qualora nei prossimi anni, l’uomo sia in grado di avventurarsi nel nostro sistema solare con destinazione Luna e Marte, nell’ambito di missioni di lunga durata. I risultati di questi studi non riguardano però soltanto il nostro possibile futuro.

Dai risultati di questi studi sono emersi infatti, anche aspetti interessanti che possono in qualche modo riguardare la ricostruzione della nostra storia e l’interpretazione di alcuni scritti antichi, talvolta declassati a pura mitologia o a interpretazioni fantasiose.

In particolare, tra i tanti, sono stati pubblicati tre differenti studi sui dati provenienti dall’ISS che ritengo particolarmente significati proprio riguardo una più corretta e possibile ricostruzione del nostro passato.

In diverse culture del passato (distanti tra loro migliaia di chilometri e vissute in epoche differenti) è presente il racconto della discesa sulla Terra di esseri “venuti dalle stelle”, dotati di capacità sovrumane, di conoscenze avanzatissime rispetto a quelle popolazioni dell’epoca. Per tali motivi spesso le popolazioni antiche hanno finito per “divinizzare” queste figure (tutt’altro che etere, almeno stando ai racconti giunti a noi), adorarle e talvolta anche provare a imitarle nelle loro sembianze.

       

(Immagini nell'ordine: Raffigurazioni di crani allungati in Egitto; I Wandjina degli aborigeni australiani; Cranio allungato ritrovato in Perù; Confronto tra un teschio umano e quello dello Starchild)

In molte di queste culture queste divinità erano spesso descritte come esseri umanoidi e con crani molto grandi. Esistono molte raffigurazioni di esseri così descritti da Wandjina australiani ad alcuni faraoni egizi o come il teschio dello Starchild, tuttora senza valide spiegazioni. In molte culture si è poi diffusa la pratica della deformazione del cranio con cui, attraverso pratiche poco salutari come la fasciatura del cranio dei neonati, si tentava di “replicare” l’aspetto di questi esseri.

Sebbene la fasciatura del cranio possa avere, se prendiamo singolarmente ogni civiltà, anche altre spiegazioni dal punto di vista antropologico, rimane a oggi inspiegata la contemporanea e così diffusa presenza di questa pratica in popolazione del mondo non coeve e assolutamente (almeno dal punto di vista ufficiale) mai entrate in contatto tra loro.

È stata quindi avanzata l’ipotesi, rigettata ovviamente dalla scienza ufficiale, che le storie dell’arrivo di questi esseri dallo spazio possano avere un fondamento di verità.

Nel numero del mese di maggio 2019, sulla rivista Proceeding of the National Academy of Science (PNAS), è stata pubblicata la ricerca condotta da un team internazionale proveniente da Belgio, Russia e Germania. Il gruppo di ricerca ha ora scoperto un nuovo effetto sul cervello umano a seguito della prolungata permanenza nello spazio, individuando una possibile relazione tra i viaggi spaziali e l’accrescimento dei ventricoli cerebrali.

Il sistema dei ventricoli del cervello è costituito da canali interconnessi a spazi che si susseguono l’un l’altro contenuti nell’encefalo, che provvedono alla produzione del liquido cefalorachidiano (o liquor) e al suo smistamento nel sistema nervoso centrale.

La nuova ricerca ha analizzato i ventricoli cerebrali di 11 astronauti che hanno trascorso diversi mesi a bordo dell’Iss, per una media complessiva di 169 giorni nello spazio. Ciascuno di loro è stato sottoposto a risonanza magnetica prima del lancio, al ritorno dalla missione e infine di nuovo sette mesi dopo.

I risultati mostrano un aumento in media dell’11.6% delle dimensioni di tre ventricoli cerebrali dei cosmonauti appena tornati dallo spazio (immagine ad inizio articolo). Un aumento quindi assai significativo. Sette mesi dopo il termine della missione, i ventricoli restano in media ancora 6.4% più larghi rispetto alle dimensioni che avevano prima dell’esposizione alla microgravità.

Il prossimo passo sarà capire se si tratta di una modifica permanente, oppure che gradualmente si attenua con il passare del tempo.

La domanda ora è: se c’è una correlazione tra la permanenza nello spazio e l’accrescimento di alcune aree del cervello umano, lo stesso avviene anche in altre creature? Al momento non c’è motivo per ritenere che lo stesso effetto non avvenga anche su altri organismi biologici. Questi effetti sono permanenti? Possono legarsi a modificazioni genetiche e poi essere “trasmesse” geneticamente alle generazioni future?  D’altro canto grazie ai moderni studi riguardanti l’epigenetica, oggi sappiamo che le esperienze (anche emotive) di una persona si possono riverberare sul proprio DNA modificandolo e trasmettendo tali “memorie” ai figli.

Quando (e se) in un futuro, l’uomo viaggerà nello spazio con più continuità, le future generazioni umane di viaggiatori spaziali avranno crani sensibilmente più grandi rispetto a ora? Viene dunque da chiedersi: la descrizione di “antiche divinità” scese dal cielo sulla Terra in un lontano passato, a volte descritte aventi crani grandi e allungati, potrebbero essere stati effettivamente esseri di altri mondi abituati a viaggiare nello spazio e che hanno già subito questi effetti legati alla microgravità?

Nel marzo del 2017 è stato pubblicato un altro studio che riguarda questa volta alcune modificazioni genetiche avvenute nel genoma di uno dei due astronauti partecipanti al famoso Twins Study, il programma dell’agenzia spaziale americana dedicato ad analizzare gli effetti della microgravità nello spazio sul DNA di due gemelli.

Si tratta di Scott e Mark Kelly, entrambi astronauti, ma andiamo con ordine. I gemelli Kelly, essendo omozigoti, condividono lo stesso DNA. Inoltre fanno lo stesso mestiere, e quindi hanno avuto una vita piuttosto simile.

Questo ha ispirato la NASA ad attivare un nuovo filone di ricerca dedicato appunto allo studio dei gemelli, per trovare eventuali differenze biologiche tra i due Kelly prima e dopo l’ultima missione.

Ma c’è una grande differenza: Mark ha trascorso in tutto solo 54 giorni nello spazio, mentre Scott ha passato quasi due anni in orbita attorno al nostro pianeta, di cui un anno intero in una missione che si è conclusa nel marzo 2016.

E così, dal ritorno di Scott, gli scienziati hanno iniziato ad analizzare e confrontare i dati genetici dei due fratelli, per trovare eventuali cambiamenti causati dalla microgravità.

Lo studio sui gemelli Kelly ha dimostrato la resilienza e la robustezza di come un corpo umano può adattarsi ad una moltitudine di cambiamenti indotti dall’ambiente spaziale, come microgravità, radiazioni, disturbi circadiani, elevata CO2, isolamento da amici e famiglia e limitazioni dietetiche

I primi risultati, diffusi dalla NASA a gennaio 2017, avevano mostrato che effettivamente qualche differenza c’era: Scott, che ha passato molto più tempo nello spazio, presentava rispetto a Mark alcune alterazioni nell’espressione genica e nella metilazione del DNA, in altre parole quel meccanismo epigenetico usato dalle cellule per gestire appunto l’espressione dei geni.

I cambiamenti osservati riguardano le strutture che si trovano alle estremità dei cromosomi, chiamate telomeri. I telomeri "rappresentano l'orologio della cellula". Secondo quanto è noto in ambito scientifico, ciascuno essere umano nasce con i telomeri di una certa lunghezza e, ogni volta che la cellula si divide, i telomeri si accorciano un po'. Quando diventano troppo corti, la cellula non può più dividersi e inizia così il processo d’invecchiamento.

Quest’orologio cellulare deve essere finemente regolato per due motivi: da un lato, per permettere un numero sufficiente di divisioni cellulari garantendo così lo sviluppo dei diversi tessuti dell'organismo e il loro rinnovo (ogni essere umano vede ciclicamente e completamente “rinnovata” ciascuna cellula del proprio corpo in media nell’arco di circa sette anni); dall'altro lato, invece, deve evitare che avvenga una proliferazione incontrollata, tipica delle cellule tumorali.

Contro ogni aspettativa, in Scott, durante il volo spaziale, queste strutture si sono allungate rispetto a quelle del gemello Mark.

Ciò comporterà una sua maggiore longevità rispetto al fratello rimasto sulla Terra? La scienza non sa ancora rispondere e non esclude questa possibilità.

È dunque possibile che la permanenza nello spazio possa “allungare” le aspettative di vita di un organismo?

D’altro canto questa possibilità era già stata in qualche modo paventata da Einstein con la sua legge della relatività. Secondo Einstein lo spaziotempo è una dimensione relativa. Lo scorrere del tempo è subordinato, infatti, alla velocità. Secondo Einstein dunque, il tempo scorre più lentamente quando si percorre uno spazio con maggiore velocità. Proprio come nel caso dei gemelli Kelly, Scott che ha orbitato per più tempo attorno alla Terra e dunque si è mosso a una velocità maggiore rispetto al fratello Mark rimasto a casa, è invecchiato meno.

Che Einstein avesse ragione era già stato dimostrato in passato con un esperimento che aveva visto due orologi atomici perfettamente sincronizzati, essere messi a confronto dopo che uno dei due era stato caricato su un aereo e aveva percorso il giro del mondo nell’arco di poche ore. Al ritorno l’orologio che aveva compiuto il giro del mondo, e dunque si era mosso più velocemente dell’altro, era indietro di alcuni miliardesimi di secondo. Il tempo quindi per l’orologio che aveva compiuto il viaggio, così come per Scott Kelly era trascorso più lentamente. L’aspetto più interessante è che l’allungamento dei telomeri nelle cellule di Scott Kelly sembrano aver “registrato” e confermato questa variazione di velocità nel trascorrere del tempo.

Il legame di questo studio con il nostro passato, risiede proprio nel possibile allungamento dell’aspettativa di vita in funzione di un viaggio nello spazio (e quindi nel tempo).

In molte delle civiltà del passato, alle divinità che hanno regnato in un’epoca spesso considerata antidiluviana su quei territori, è attribuita una longevità assolutamente inusuale per l’essere umano. Parliamo di regni durati centinaia o addirittura migliaia di anni. Ne abbiamo esempi nelle tavolette d’argilla note come Lista reale Sumera (conservata al British Museum), nel papiro egizio noto con il nome di Canone Regio (conservato presso il museo egizio di Torino) e ancora nella Bibbia dove, i discendenti di Abramo hanno età pluricentenarie che vanno però, via via a rifarsi più consone agli standard umani, col trascorrere dei millenni.

La domanda quindi è: lo studio sui gemelli Kelly, che ha evidenziato un allungamento dei telomeri (ritenuti responsabili della longevità) nelle cellule dell’astronauta Scott, può essere considerati un altro indizio che le storie e gli scritti antichi che narrano di esseri venuti dalle stelle, che hanno attraversando lo spazio sono giunti sulla Terra in un lontano passato, possano effettivamente contenere dei resoconti reali? Questi esseri avevano aspettative di vita così lunghe e anomale se rapportate all’uomo, perché erano abituati a viaggiare nello spazio?

Nel mio primo lavoro editoriale, esaminando l’episodio biblico dell’esodo del popolo ebraico e la sua permanenza nel deserto, avevo valutato l’attendibilità dell’ipotesi avanzata da Peter Fiebag scienziato e filologo tedesco, autore assieme al fratello Johannes del libro “Die Ewingkeits Maschine” (uscito in Italia nel 2007 con il titolo “Custode della reliquia”). Nella bibbia e soprattutto nel libro della Zohar, si legge come il popolo ebraico sarebbe sopravvissuto nel deserto nutrendosi di un cibo chiamato “manna” prodotto da un qualcosa chiamato “l’antico dei giorni”.

Secondo i due ricercatori tedeschi, la descrizione de “l’antico dei giorni” corrisponderebbe a quella di una macchina tecnologica (da loro chiamata “la macchina della manna”). Sulla base della descrizione, i due sono riusciti a costruire un modello che, secondo questa teoria, era in grado di risucchiare l’umidità dell’aria del mattino per condensarla in una parte che sembrava una cupola di plexiglass (“il cervello dell’antico dei gironi”). L’acqua così ottenuta dall’aria era quindi mescolata dalla macchina, con una coltura di alghe. All’interno della stessa macchina, la coltura era trattata con un’energia simile a una forte luce laser, per accelerare la crescita. La macchina sarebbe stata alimentata da una fonte di energia (probabilmente proveniente da una sorta di mini reattore nucleare ante litteram, custodito nell’Arca dell’Alleanza) in grado di favorire e accelerare la crescita di questo strano e super nutriente cibo, la manna appunto.

Nella ricerca di un riscontro scientifico tangibile a questa teoria, mi ero imbattuto in uno studio della Nasa che, negli anni ’60 e ’70, scoprì che la vita umana può essere sostenuta, anche per lunghi periodi, consumando esclusivamente Chlorella.

In merito nel 2015 scrivevo:

“[…] Quest’alga è ricca di clorofilla ed è proprio la clorofilla, di cui l’alga è in assoluto il cibo più ricco (in quantità da 10 a 100 volte superiore di quanto riscontrato nei vegetali a foglia verde), ad agire profondamente nelle dinamiche di disintossicazione dell’organismo.

È stato scientificamente appurato, che quest’alga svolge una forte azione di pulizia dell’intestino e risanamento della flora batterica, mediante l’eliminazione di residui tossici dal fegato e dai tessuti. Ha un’azione di depurazione ematica che costituisce la base per la formazione dell’emoglobina, ed è garanzia di un’importante fonte di linfa vitale, rivitalizza il sistema vascolare, favorisce la cicatrizzazione dei tessuti. Ma non è tutto!

Quest’alga può vantare la presenza di acidi nucleici (DNA RNA), acidi grassi essenziali insaturi, sali, proteine di facile assimilazione e amminoacidi, è molto ricca in ferro (zinco, zolfo, fosforo e altri minerali come il magnesio), di vitamine antiossidanti quali Betacarotene (o Vitamina A), Vitamine del gruppo B (anche la B12 tanto difficile da trovare in natura), Vitamina C e Vitamina E che la rendono “speciale” per il rinforzo del sistema immunitario. Oggi è ampiamente utilizzata in erboristeria e per la preparazione di composti ricostituenti ed integratori alimentari. Un vero e proprio supercibo […]” * (Brano del libro "IL LATO OSCURO DELLA LUNA")

Quest’alga (o qualcosa di simile) può essere stata la “manna” con cui gli ebrei si sono sfamati nel deserto? Se così fosse chi ha fornito questa tecnologia agli israeliti, era un viaggiatore dello spazio? Quest’alga può essere il futuro cibo degli astronauti nelle missioni di lunga durata?

Lo scorso 6 maggio (2019) è arrivato sull’Iss, a bordo della navetta Dragon di SpaceX, il Photobioreactor, un innovativo bioreattore a base di alghe.

L’esperimento utilizza le alghe per convertire l’anidride carbonica esalata dagli astronauti sull’Iss, in ossigeno e biomassa commestibile attraverso la fotosintesi e sarà utilizzato in congiunzione al sistema di riciclaggio dell’aria – l’Advanced Closed Loop System (Acls).

Così come interpretato dai Fiebag per la “macchina della manna”, anche il sistema Acls sull’ISS da un lato estrae metano e acqua dal biossido di carbonio presente all’interno della stazione orbitante, mentre dall’altro il fotobioreattore (o meglio le alghe di cui è composto) utilizzerà il biossido di carbonio rimanente per generare ossigeno, creando una soluzione ibrida.

Così come mi ero chiesto nel mio libro del 2015, l’obiettivo dichiarato del nuovo esperimento è di valutare la possibilità d’impiego di soluzioni simili in vista di future missioni di lunga durata che richiedono più rifornimenti di quanto un veicolo spaziale sia in grado di trasportare.

Anche l’alga scelta per questo esperimento è la medesima che avevo preso in considerazione nel mio libro di ormai 4 anni e mezzo fa!

L’esperimento coltiverà infatti, alghe microscopiche chiamate Chlorella vulgaris a bordo della stazione spaziale. Oltre a produrre ossigeno, le alghe producono anche una biomassa commestibile. La creazione di una biomassa commestibile dal biossido di carbonio all’interno di un veicolo spaziale implica una minore quantità di cibo da trasportare.

A oggi, i ricercatori hanno stimato che le alghe, per via del loro alto contenuto proteico, potrebbero sostituire il 30% del quantitativo di cibo di un astronauta.

È questa serie di “fortuite coincidenze” l’evidenza che invece alcune teorie alternative e interpretazioni non accettate dalla scienza ufficiale circa le antiche leggende del passato, possono invece essere corrette?

Non possiedo ovviamente una risposta a queste domande, ma è interessante riscontrare, ancora una volta e come ho già fatto nel corso di precedenti post e/o nel mio primo lavoro editoriale, come teorie apparentemente ardite che hanno tentato di fornire plausibili spiegazioni riguardo alcune limitate spiegazioni ufficiali della storia, continuino a trovare con il progresso e le nuove scoperte scientifiche, sempre più riscontri. Sebbene forse ancora non sufficienti a far ritenere queste teorie come verità, la presenza di tutte queste circostanze, che si voglia o no considerarle casualità, impongono certamente di dover tenere in considerazione questa “strada alternativa” nella ricerca di una verità riguardo al nostro passato.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei


Maggiori informazioni https://illatooscurodellaluna.webnode.it/blog/

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Sionisti sulla Luna

 

AVVERTENZE: l’articolo che segue contiene ironia e un po’di satira. Benché tutti i fatti narrati siano assolutamente reali, documentati da fonti ufficiali, le opinioni espresse in merito sono formulate coerentemente sulla base dei principi fondamentali della democrazia. Se ne sconsiglia pertanto la lettura a chi è privo d’ironia, non comprende la satira, a chi disconosce o non applica coerentemente i valori base della democrazia (poiché è solito abbeverarsi esclusivamente alle fonti d’informazioni mainstream), a chi è afflitto da dissonanza cognitiva (che non gli permette di vedere e valutare le cose per quelle che sono in realtà) e/o agli analfabeti funzionali.

Sionisti sulla Luna! No, non è il titolo del sequel del film "Fascisti su Marte" (2006) in cui il comico romano Corrado Guzzanti, ironizzando sullo spirito colonialista che permeava gran parte degli stati europei nei primi decenni del ‘900, immaginava una spedizione fascista alla conquista di Marte, “rosso pianeta bolscevico e traditor”. Questa volta si parla di una missione spaziale reale.

L’11 aprile 2019, il primo veicolo privato nella storia dell’umanità toccherà il suolo lunare. Si tratta di un veicolo di proprietà della società israeliana SpaceIL.

Sebbene lo spirito colonialista riconosciuto al regime fascista italiano sia assolutamente riscontrabile nell’attuale Stato israeliano (con la differenza che quello fascista è durato appena un ventennio, mentre il colonialismo israeliano perdura da oltre 70 anni!), l’indole persecutoria e assolutista dello Stato d’Israele trova, certamente, molte più similitudini con il regime nazista piuttosto che con quello fascista (non a caso Le Nazioni Unite in una risoluzione del 1975, equipararono il sionismo al razzismo, ma la risoluzione fu poi ritirata nel 1991, come condizione da parte di Israele per partecipare alla Conferenza di Madrid; il ritiro è dunque da imputarsi a una scelta di opportunità politica più che un reale cambio d’idee a riguardo). Detto ciò le similitudini finiscono dunque qui (forse).

A differenza della parodia immaginata da Guzzanti in Fascisti su Marte, la navicella sionista non ha a bordo alcun equipaggio. Si tratta infatti di una missione robotica. I sionisti poi, non sono andati sulla Luna per espandere il loro territorio (almeno ufficialmente), così come volevano fare i fascisti su Marte del film di Guzzanti.

Almeno questa volta, Infatti, i motivi che li hanno spinti a lasciare la Terra per arrivare sulla Luna, non sono riconducibili a improbabili promesse di ottenere prelazioni o diritti su qualche territorio, fatte da fantasiose ed immaginarie divinità della guerra.

Abbiamo controllato e, almeno nella Bibbia, non sembra esserci traccia di tutto questo, e non sembra essere presente alcun elemento che possa essere interpretato in tal senso, anche se in questa storia la Bibbia è comunque presente.

Allora cosa ha spinto la società israeliana a compiere questa impresa? Certamente non lo spirito di avventura, né tanto meno la sete di conoscenza. Che cosa potrebbe essere allora? Cosa può interessare allo Stato di Sion oltre ad un pezzo territorio?

Se avete risposto tesori e ricchezze, non siete andati molto lontani dalla verità.

La compagnia israeliana SpaceIL infatti, è stata fondata nel 2011 per partecipare al Google Lunar XPrize, competizione internazionale che puntava a premiare il primo team privato in grado di far atterrare con successo un veicolo spaziale senza equipaggio sulla Luna. La prima squadra a fare questo avrebbe vinto il primo premio da 20 milioni di dollari. Il secondo posto avrebbe guadagnato 5 milioni e altri 5 milioni erano disponibili per vari risultati speciali, portando il montepremi totale a 30 milioni di dollari.

La gara si è ufficialmente chiusa a gennaio senza vincitori, poiché Google aveva indicato come marzo 2018 il termine ultimo per riuscire nell’impresa. Nonostante questo, se l’allunaggio della sonda israeliana andrà come previsto, SpaceIL dovrebbe comunque ricevere un premio “di consolazione” di un milione di dollari.

Al Google Lunar XPrize, si erano iscritte inizialmente 32 squadre, provenienti da diversi Paesi come Stati Uniti, Giappone, Israele, India, Italia, Romania, Malesia, Russia, Spagna, Germania, Ungheria, Brasile, Canada, Cile e altre squadre “internazionali”. Tuttavia solo 16 squadre hanno poi partecipato attivamente a tutte le attività e soltanto 5 sono state in grado di presentare entro il 31 dicembre 2016, un regolare contratto firmato, con qualche agenzia spaziale, per il lancio del proprio lander.

SpaceIL, nell’ottobre 2015, era stata la prima squadra ad annunciare di aver sottoscritto un contratto di lancio e, dopo che Google a marzo 2018, ha annunciato ufficialmente la fine della competizione senza alcun vincitore, SpaceIL si è comunque impegnata a portare a termine la missione e atterrare sulla Luna. Questo per tentare comunque di raggiungere l’obiettivo secondario di contribuire al progresso dell'istruzione scientifica e tecnologica in Israele.

D’altro canto non poteva più tirarsi indietro, poiché è stata la squadra che ha ricevuto il maggior numero di donazioni, un importo pari quasi a 100.000.000 di dollari!

Andare nello spazio costa ed è anche molto difficile, soprattutto se bisogna sviluppare da zero una tecnologia idonea. L’associazione no-profit è riuscita così in poco tempo a raccogliere ingenti fondi e stringere accordi strategici per portare a termine l’obiettivo.

I co-fondatori del team erano Yariv Bash, ex ingegnere elettronico e informatico nel Centro interdisciplinare di Herzliya; Kfir Damari, docente di reti informatiche e imprenditore; e Yonatan Winetraub, precedentemente ingegnere dei sistemi satellitari presso Israel Aerospace Industries e attualmente candidato al dottorato di ricerca in biofisica presso la Stanford University.

Morris Kahn (imprenditore miliardario israeliano e sionista di origine sudafricana) è il presidente del consiglio di amministrazione e ha donato 27 milioni di dollari al progetto.

Molti altri imprenditori hanno risposto all’appello di SpaceIL, di poter portare Israele oltre la Terra.

Sheldon Gary Adelson, imprenditore del gioco d’azzardo (possiede più della metà dell’impero del gioco USA), di nazionalità statunitense ma di origine ebraica (con un patrimonio stimato di circa 33,3 miliardi di dollari, è stato nel 2018 considerato da Forbes, il 15° uomo più ricco degli Stati Uniti), convinto sostenitore del Partito Repubblicano (nel 2016 ha finanziato la campagna presidenziale di Donald Trump con una donazione di oltre 25 milioni di dollari, donazione che sommata alle precedenti lo hanno reso più grande donatore della campagna di Trump e il più grande donatore alle elezioni presidenziali di qualsiasi partito tra il 2012 e il 2016) ha finanziato SpaceIL con 16,4 milioni di dollari.

Altri 5 milioni sono stati donati nel 2018 da un altro convinto sionista, imprenditore immobiliarista l’israeliano-canadese Sylvan Adams, appassionato di ciclismo, conosciuto alle nostre latitudini per aver per primo “suggerito” che il Giro d’Italia 2018, facesse tappa per la prima volta fuori dall’Europa e, in particolare in Israele, “donando” per tale scopo la considerevole somma di 80 milioni di dollari.

A queste già cospicue donazioni, si sono aggiunte quelle di altri facoltosi imprenditori, istituti di ricerca, come l’Industrie Aerospaziali Israeliane (Iai) e l’Agenzia Spaziale Israeliana (Isa) che ha donato all’incirca 2,6 milioni di dollari, tutti mossi da un’unica idea: "Abbiamo pensato che fosse giunto il momento di cambiare, e vogliamo portare il piccolo Israele fino alla Luna", ha detto Yonatan Winetraub, co-fondatore di SpaceIL, durante il briefing prelancio. "Questo è lo scopo di SpaceIL".

Tuttavia soldi e determinazione non erano sufficienti per raggiungere il primato di essere il primo paese a giungere sulla Luna con un veicolo privato, ed ecco che i “buoni uffici” del popolo di Sion hanno aperto parecchie porte al motto di “Tutti per Sion, Sion per tutti!”.

L’Israel Aerospace Industries, ha materialmente assemblato la navicella che ha compiuto il percorso Terra-Luna e il lander destinato a toccare il suolo lunare. Ma alla costruzione hanno partecipato anche la svedese Swedish Space Corporation (che ha costruito le antenne), la Nasa (che ha contribuito con le tecnologie che permettono al rover di comunicare con la Terra) e l’italiana Leonardo (che ha realizzato a Nerviano – in provincia di Milano - i pannelli solari del rover, integrati in modo tale da consentire al veicolo di essere operativo a diverse inclinazioni rispetto alla luce solare, permettendogli di continuare a trasmettere a terra immagini e video ad alta risoluzione). Per il lancio la SpaceIL non ha sviluppato un proprio lanciatore ma ha stipulato un accordo con l’azienda spaziale privata SpaceX di Elon Musk.

Nella notte del 21 febbraio 2019, alle 02:45 ora italiana, il veicolo spaziale israeliano chiamato “Beresheet” (che in lingua israeliana significa “In principio”, con chiaro riferimento al primo capitolo della Genesi contenuto nella Bibbia) è stato lanciato dal Cape Canaveral Air Force Station in Florida, con il razzo Falcon 9 di Space X (foto in alto).

Alto circa un metro, largo 2,3 m. e pesante 585 chilogrammi, il veicolo di Israeliano è stato il primo a separarsi dal Falcon 9, che ha portato in orbita anche un satellite indonesiano per le telecomunicazioni e un microsatellite militare americano per la sorveglianza spaziale.

L’evento ha aperto ufficialmente le celebrazioni in occasione dei 50 anni dallo sbarco sulla Luna, ha indicato come la nuova corsa all'esplorazione lunare veda i privati fra i suoi protagonisti.
A rilevare la novità di questa missione è stato l'amministratore capo della Nasa, Jim Bridenstine, che l'ha definita "un traguardo storico per tutte le nazioni" e un augurio in vista delle future attività congiunte con i privati nella corsa verso la Luna e Marte.

Beresheet, dopo aver eseguito una serie di manovre preliminari, ha acceso i suoi motori per 30 secondi, per collocarsi in un’orbita ellittica sempre più pronunciata. Così facendo si è allontanata progressivamente dalla Terra, per arrivare in orbita lunare, dove è entrata il 4 aprile.

Alle 16:18 ora italiana, il lander ha acceso il suo motore principale per sei minuti, riuscendo a rallentare alla velocità di 1.000 chilometri orari, abbastanza perché la capsula venisse “catturata” per così dire, dalla forza gravitazionale del nostro satellite.

Finora nessun veicolo costruito da privati era arrivato fino all'orbita lunare. Lo avevano fatto soltanto missioni sostenute dall’agenzia spaziali governative di altri 6 paesi come Stati Uniti, Russia e Cina, seguiti da Giappone, Europa e India.

Per 6 giorni Beresheet orbiterà seguendo una traiettoria ellittica con un perilunio (il punto più vicino alla Luna) di 500 chilometri e un apolunio (il punto più lontano di 10.000 chilometri).

Dopo 7 settimane nello spazio, l’11 aprile 2019 Beresheet tenterà l’allunaggio. Se riuscirà a eseguire con successo un atterraggio morbido sulla superficie lunare, Israele diventerà la quarta nazione a raggiungere un tale risultato.  

Il primo atterraggio morbido sulla Luna fu realizzato dalla navicella spaziale Luna 9 dell'Unione Sovietica nel febbraio del 1966. La sonda Surveyor 1 della NASA atterrò sulla superficie lunare quattro mesi più tardi (giugno 1966).  La  Cina  è entrata in scena nel 2013, con il suo lander Chang'e 3 e il suo rover Yutu per poi giungere nel 2019  sul lato oscuro della Luna

La discesa di Beresheet, della durata di circa 30 minuti, ed è previsto l’allunaggio nel Mare della Serenità, la stessa area in cui l'11 dicembre 1972 erano arrivati, almeno ufficialmente, gli astronauti americani dell'Apollo 17 nel 1972. 

Considerata l’indole belligerante di Stati Uniti e Israele, soprattutto quando operano l’uno affianco all’altro, speriamo che quel luogo mantenga lo stesso nome anche in futuro.

Nella remota e fantasiosa ipotesi che là ci fossero dei seleniti (immaginari abitanti della Luna) ci sarebbe da preoccuparsi. Se nel 1969, quando ufficialmente gli Stati Uniti portarono per la prima volta un uomo sul nostro satellite, lasciarono una targa con su scritto: “Qui, uomini dal pianeta Terra posero piede sulla Luna per la prima volta, luglio 1969 DC. Siamo venuti in pace…”. C’è da augurarsi che non abbiano omesso di aggiungere un “per ora”, dettaglio di non poco conto e che deve essere sempre ritenuto sottinteso quando si ha a che fare con queste due nazioni. Eventuali seleniti lo sapranno?

La sonda di Sion sopravvivrà solo per due giorni circa, prima di rimanere senza energia. Durante questo periodo, studierà i campi magnetici della Luna (che potrebbero fornire informazioni sul nucleo ferroso del nostro satellite) e farà delle foto della sua superficie.

Una volta rimasta senza energia, Beresheet non sarà del tutto inutile. Montato sul veicolo spaziale c’è, infatti, un retroriflettore laser, un dispositivo composto da una serie di specchi che non richiede alimentazione, e può essere utilizzato per le comunicazioni spazio-terra tramite Deep Space Network (DSN) della NASA. La NASA, infatti, ha fornito il dispositivo a questa missione come parte di un accordo con SpaceIL, che avrebbe consentito alla società israeliana di utilizzare il DSN per la sua futura missione lunare.

A bordo del lander Beresheet poi, è stata alloggiata una capsula del tempo. All’interno di questa capsula ci sono una varietà di “cimeli” israeliani.

Rassicuriamo eventuali seleniti che, almeno ufficialmente, non ci dovrebbero essere fantomatiche "arche dell'alleanza" o altre armi fornite da alcuna immaginaria divinità belligerante, così come non dovrebbero esserci, come già detto “in principio” (beresheet), rivendicazioni territoriali o esercizi di prelazioni su eventuali ricchezze lunari.

Già, perché il rinnovato interesse verso la Luna anche da parte dei privati, ha un interesse prettamente economico, più che scientifico.

La Cina, gli  Stati Uniti, così come la Russia  e l’Europa sono interessate, sia attraverso compagnie private sia con agenzie spaziali governative, a tornare sul nostro satellite per riuscire a sfruttarne nei prossimi decenni, le ricchezze minerarie (l’elio3 in particolare). Sono molti i progetti già avviati e finanziati, che intendono realizzare la costruzione di stazioni orbitali lunari e basi lunari permanenti. Insomma, nei prossimi decenni la Luna potrebbe diventare piuttosto trafficata.

Con tutto questo trafficare, mercanteggiare e commerciare, volete che prima o poi non ci sarà la necessità di avere un istituto di credito anche sulla Luna o, addirittura, di coniare una nuova moneta?

Vuoi vedere che il reale obiettivo della sonda di Sion, sia quella di creare i presupposti per la costruzione della prima banca centrale lunare per controllare l’economia anche lì?

Forse è solo una suggestione derivante dall’esame del contenuto della capsula del tempo.

La capsula del tempo presente all’interno di Beresheet è un enorme database digitale noto come Arch Lunar Library, un progetto della fondazione senza scopo di lucro di Arch Mission. La biblioteca contiene milioni di documenti provenienti da tutto il mondo, dizionari diversi e enciclopedie, file digitali che contengono informazioni sul veicolo, canzoni ebraiche, opere d'arte create da bambini israeliani e una foto di Ilan  Ramon, il primo e unico astronauta di Israele morto nella tragedia dello Shuttle Columbia (esploso durante il rientro sulla Terra il 1 febbraio 2003), oltre all’immancabile copia libro (o meglio, di quella raccolta di libri) di ambigua interpretazione, che racconta i rapporti passati tra il popolo ebraico e un’entità dispotica e sanguinaria considerata divina. Sì, stiamo parlando dell’Antico Testamento biblico. Non a caso le principali religioni monoteiste (ebraismo, cristianesimo e islamismo) che fondano il loro credo su questo libro (o buona parte di esso), si sono poi macchiate, seguendo l’esempio o gli ordini di questa “entità”, di stermini ed eccidi nel corso di tutta la storia umana, fino ai giorni nostri.

Tutte queste informazioni, compresa l’intera copia della Bibbia ebraica, sono incise a laser su tre monete, ciascuna delle dimensioni di una moneta da 2 euro (foto qui sopra).

Yonatan Winetraub, un co-fondatore di SpaceIL ha commentato:  "Sarà il manufatto più pieno d’informazioni a raggiungere il suolo lunare e resterà lì per le generazioni future che, se un giorno riusciranno a recuperarlo, potranno vedere com'era la Terra nel 2019" (almeno dall’ottica di Sion NDR).

Nell’attesa di vedere se la sonda israeliana riuscirà o no a completare la sua missione, vogliamo augurarci che la compagnia privata abbia, al pari delle altre agenzie spaziali governative, rispettato i rigidi protocolli di sterilizzazione della sonda. Questo per evitare che la “vita terrestre” giunta lì fortuitamente (processo noto in astrobiologia con il nome di "forward contamination").

Se così non fosse, ci sentiamo di mandare un sentito messaggio di solidarietà a eventuali seleniti, dicendogli: “Ci dispiace, la maggioranza dell’umanità non voleva contaminare la Luna. Vorremmo condividere solo le cose belle ma non possiamo controllare tutto”. Speriamo non sia il "beresheet" della fine.

Aggiornamento del 11/4/2019: Beresheet NON ce l'ha fatta! A causa di un malfunzionamento del motore, si è schiantata sulla superficie della Luna durante la fase di allunaggio.

Saranno stati i nazisti giunti lì decenni or sono in missione segreta, grezie alle tecnologie di Von Braun? (Von Braun chi? L'ingegnere tedesco, padre dei missili nazisti V2, che fu poi a capo, per conto della NASA, dello sviluppo dei razzi Saturn utilizzati dalle missioni Apollo a stelle e strisce? Ma quindi i nazisti sulla Luna...).

Saranno stati i Seleniti, avvisati da questo articolo? Qualche divinità cocciuta che non vedeva di buon occhio la missione poichè non aveva promesso alcun territorio extraterrestre a Sion? Oppure una semplice fatalità?

DIfficile a dirsi, speriamo solo in futuro, di non essere costretti a dover ricordare questo evento come il primo esempio della persecuzione del popolo di Sion nello spazio. In ogni caso non sarebbe antisemitismo, ma antisionismo.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autorei
Continua...

Polizia di Stato o stato di Polizia?

Da diversi anni ormai il nostro paese ha intrapreso una pericolosa china antidemocratica. In quasi in ogni settore della vita e del nostro quotidiano sono ormai presenti diversi episodi che possono essere portati a evidenza di tale pericolosa e triste realtà. A essere calpestati non ci sono soltanto generici diritti degli onesti cittadini, ma addirittura i principi fondamentali umani e propri della democrazia. Libertà di pensiero e parole e l’inviolabilità del corpo sono tra le libertà fondamentali che stanno pagando dazio a questa deriva assolutista. Il riferimento, non troppo velato, ma esemplificativo è alle leggi contro la libertà di pensiero e parola (vedi legge Mancino, legge sul negazionismo), quelle relative all’inviolabilità del corpo (vedi obbligo vaccinale) ma anche tutti quei provvedimenti adottati a livello europeo e nazionale, che stanno determinando una vera e propria attività repressiva e di censura sul web.

Nell’assordante silenzio dei mass media mainstream che, alla faccia della libertà e indipendenza della stampa sempre sbandierata in Italia sono invece sempre più proni agli interessi politici e delle lobby del potere economico e finanziario, questa volta qualcosa sembra muoversi.

A proposito, l’Italia è oggi solo al 46 posto al mondo per libertà di stampa, ma ha toccato addirittura il 77 negli anni dell’approvazione delle citate leggi liberticide. Oggi ci precedono in classifica oltre a tutti i principali paesi europei, anche paesi come Costarica (10), Estonia (12), Suriname (21), Ghana (23), Lettonia (24), Cipro (25), Namibia (26), Capo Verde (29), Lituania (36), Cile (38), Burkina Faso (41), Repubblica cinese di Formosa (42) Corea del Sud (43), mentre precediamo di pochissimo Belize (47) e Botswana (48 ). I democraticissimi paesi con i quali siamo abituati spesso stringere accordi, e che sono spesso citati come esempio di democrazia, come Stati Uniti e Israele, si piazzano rispettivamente al 45° e all’87° posto. (Fonte Wikipedia)

Tra la fine di Marzo e i primi giorni di Aprile 2019, due notizie sono apparse su testate mainstream come Wired (platealmente guidata da logiche europeiste e globaliste) e Motherboard (meno apparentemente schierata ma pur sempre attigua a certe logiche poiché fa parte della galassia Disney di cui il principale azionista è Rupert Murdoch) che hanno posto ancora in evidenza come il nostro paese si stia lentamente trasformando da Stato di diritto a Stato di polizia.

Sebbene abbiano dato un taglio abbastanza strumentale alle notizie, tentando di farle percepire i fatti non gravi per la violazione dei principi di libertà in sé, quanto piuttosto come discriminatorie nei confronti delle persone straniere e di colore in particolare, le due testate hanno portato a conoscenza dell’opinione pubblica due gravi accadimenti.

In data 29 il portale Motherboard pubblica la notizia che alcuni hacker che lavorano per un’azienda di sorveglianza, hanno infettato per anni centinaia di persone grazie a diverse App malevole per Android che erano state caricate sul Play Store ufficiale di Google.

Il portale Motherboard ha anche appreso dell’esistenza di un nuovo tipo di malware per Android presente sul Play Store di Google, che il governo italiano ha acquistato da un’azienda che generalmente vende sistemi di videosorveglianza ma che, fino a ora, non era conosciuta per lo sviluppo di malware.

Il malware trovato su Google Play Store è stato chiamato Exodus ed era programmato per agire in due stadi. Nel primo stadio, lo spyware s’installa e controlla solamente il numero di telefono e l’IMEI del cellulare (cioè il codice identificativo del dispositivo) presumibilmente per controllare se lo smartphone è effettivamente quello da attaccare.

Ma, in realtà, lo spyware non sembra eseguire propriamente questo controllo, secondo quanto riportato dai ricercatori.

Questo particolare è di notevole rilevanza poiché la possibilità di utilizzare questi spyware o malware da parte delle forze di polizia, è regolata dalla legge e sono soggetti a permessi dal punto di vista legale. Anche in Italia infatti, le forze dell’ordine possono dietro esplicito mandato del giudice, hackerare i dispositivi. Lo Stato Italiano ha un vero e proprio listino prezzi di convenzioni stipulate con i principali gestori telefonici (come TIM, Vodafone, Fastweb, Wind, ecc.) che sono/possono essere dunque obbligati per legge, ad inviare messaggi SMS ai propri clienti per “facilitare” l’installazione del malware, e dunque obbligati ad “infettare” il dispositivo dei rispettivi clienti/cittadini.

Alcuni dettagli su queste operazioni erano emersi in un’audizione del Company Security Governance di Wind Tre S.p.A., tenutasi a marzo 2017 presso il Comitato Parlamentare per la Sicurezza della Repubblica (COPASIR) — un comitato che supervisiona le attività dei servizi segreti italiani. Queste operazioni “consistono soprattutto nell’ampliamento della banda e nell’invio di messaggi per richiedere determinate attività di manutenzione” si legge nel testo (sostanzialmente sono le richieste di aggiornamento delle varie App presenti sullo smartphone). Queste attività potrebbero rientrare in quelle che vengono definite “prestazioni obbligatorie di giustizia” degli operatori telefonici.

Spesso i mass media mainstream si scandalizzano e danno risalto alle notizie riguardanti l’uso di spyeare di Stato in Cina ma, al contempo, tacciono sulle medesime pratiche presenti in Italia.

La domanda è dunque legittima: è legale nascondere uno spywere o un malware su uno store, infettando indiscriminatamente e diffusamente ogni utente che scaricherà alcune specifiche App, nelle quali tali strumenti di spionaggio erano nascosti?

Prima di rispondere alla domanda, torniamo alle funzioni di Exodus. Una volta identificato il dispositivo, a quel punto si passava alla fase due. Il malware installava un software che aveva accesso ai dati più sensibili presenti sul telefono infetto come, fra le altre cose, le registrazioni audio ambientali, le chiamate telefoniche, la cronologia dei browser, le informazioni del calendario, la geolocalizzazione, i log di Facebook, Messenger, le chat di WhatsApp, e i messaggi di testo, ecc. Una volta raccolte tutte le informazioni, le inviava a un server remoto.

In oltre, lo spyware apre anche una porta e una shell sul dispositivo. Ma cosa significa? In parole povere, oltre a consentire di raccogliere tutte le informazioni presenti sullo smartphone, gli operatori del malware possono far eseguire direttamente dei comandi al telefono infetto, dunque può accendere microfono e telecamera, registrare e inviare video, ecc.

Le indagini svolte dai giornalisti di Motherboard con l’aiuto dei ricercatori di Security Without Borders, una non-profit che spesso compie investigazioni su minacce contro i dissidenti e attivisti per i diritti umani, il malware (chiamato Exodus) è stato sviluppato da eSurv, un’azienda italiana con base a Catanzaro, in Calabria.

Le indagini infatti, hanno confermato che i server a cui il malware inviava le informazioni carpite sono di eSurv, così come anche confermato poi da Google.

Un dipendente dell’eSurv ha indicato nella sua pagina LinkedIn, che parte del suo lavoro nell’azienda, è stata quella di sviluppare “un agente applicativo per raccogliere dati dai dispositivi Android e inviarli a un server C&C” — un riferimento tecnico, sebbene chiaro, a spyware Android.

eSurv ha certamente una relazione continuativa con le forze dell’ordine italiane, malgrado Security Without Borders non sia stata in grado di confermare in questo frangente, se le App malevole fossero state sviluppate per clienti governativi.

Tuttavia, come emerge da un documento pubblicato online nel rispetto della legge italiana sulla trasparenza (FOIA), eSurv ha vinto, quando si dice il caso, un bando della Polizia di Stato per lo sviluppo di un “sistema di intercettazione passiva e attiva,”. Il documento rivela che eSurv ha ricevuto un pagamento di 307.439,90 € il 6 novembre 2017.

Sulla vicenda eSurv non ha voluto rilasciare dichiarazioni e ha disattivato il suo portale internet. Al fine di poter ottenere informazioni sulla gara d’appalto, la lista delle aziende che hanno partecipato, l’offerta tecnica inviata dall’azienda e le fatture emesse dalla stessa, il team di ricerca ha presentato una specifica richiesta alla Polizia di Stato, sempre avvalendosi della direttiva FOIA. La richiesta d’informazioni dettagliate, però, è stata rigetta. La Direzione centrale per i servizi Antidroga della polizia, che ha risposto alla richiesta, ha affermato di non poter consegnare i documenti poiché il sistema di sorveglianza è stato ottenuto “per speciali misure di sicurezza”.

Rispondendo alla domanda posta in precedenza, sul fatto che tutto questo sia legale, si può affermare con assoluta certezza che, agendo senza un preciso e specifico mandato del giudice, lo spyware di eSurv potrebbe non aver operato nel rispetto della legge, e così dunque eventualmente la Polizia di Stato.

Alla fine del 2017 infatti, l’Italia ha introdotto una legge che regola l’utilizzo dei captatori informatici per le attività di polizia e le investigazioni. Il testo di legge però, regola unicamente l’utilizzo degli spyware per la registrazione di audio da remoto, tralasciando tutti gli altri utilizzi che può avere uno spyware, come intercettare i messaggi di testo, o catturare gli screenshot dello schermo. In sostanza la legge italiana fa equivalere gli spyware ai dispositivi di sorveglianza fisica, come i microfoni e le videocamere nascoste di vecchia maniera, limitandone l’uso solo alla registrazione audio e video, ma ciò appare volutamente semplicistico. A pensarla così non sono io o altri operatori informatici.

Nell’aprile dello scorso anno (2018) il Garante italiano per la protezione dei dati personali aveva espresso parere negativo sul provvedimento del 2017, criticando i requisiti in esso contenuti per la loro vaghezza nella descrizione degli elementi del sistema d’intercettazione. Nello stesso frangente, il Garante della Privacy aveva rilevato che le autorità di polizia devono garantire che l’installazione del captatore informatico non riduca il livello di sicurezza del dispositivo.

Nel mese di maggio 2018, il Ministero della Giustizia è corso ai ripari, pubblicando i requisiti tecnici che devono essere rispettati nella produzione e utilizzo dei captatori informatici.

Tuttavia il malware dell’eSurv è in grado di svolgere e, di fatto, sembra aver svolto, una serie di attività ben più invasive di quelle previste dalla legge.

Sfruttare App che si mascherano da offerte promozionali e di marketing provenienti da operatori telefonici locali è una pratica che lo Stato italiano ha già utilizzato in precedenza, come abbiamo visto.

Mentre la Polizia di Stato si è rifiutata di fornire dichiarazioni sulla vicenda, sono state inviate medesime domande a due Procure della Repubblica.

Il 30 aprile 2019, la procura di Napoli ha fatto sapere all’agenzia Ansa di aver aperto un fascicolo d'indagine a riguardo. La prima individuazione del malware è infatti avvenuta proprio nel capoluogo partenopeo.

Come nel più classico dei copioni delle commedie tragicomiche italiane, solo a questo punto il Copasir, il comitato di controllo sui servizi segreti, ha fatto sapere che approfondirà la vicenda e a quanto si apprende, nei prossimi giorni chiederà al Dis, il dipartimento che coordina l'attività delle agenzie d’intelligence, notizie e aggiornamenti sulla vicenda. Il comitato di controllo della Polizia di Stato quindi, chiederà alla Polizia di Stato se sono stati compiuti reati. Il che equivale a “chiedere all’oste se er vino è bono” (proverbio romano).

Nel frattempo che si consumava questa gravissima vicenda, sul portale Wired è comparsa un’altra inquietante notizia.

Il Sistema automatico di riconoscimento delle immagini (Sari), in uso alla Polizia italiana dal 7 settembre 2018, dispone di un database di 16 milioni di profili! Tutti i dati sono conservati in modo permanente.

Cosa significa tutto questo e cosa c’è che non va?

Innanzitutto un numero simile di profili presenti nel database è inconciliabile con l’entrata in funzione del sistema.

Da dove vengono dunque tutti quei profili che la Polizia di Stato detiene nel suo database? Come sono stati raccolti? A quale titolo? È legale raccogliere e detenere a tempo illimitato questo materiale?

Per tutti coloro abituati a credere fermamente nelle istituzioni, e che tutti gli apparati dello Stato operino nella legalità e nel rispetto dei valori fondamentali della democrazia, le domande potrebbero sembrare pleonastiche. Come si fa a pensare che la Polizia di Stato, in un paese democratico, pervaso in ogni sua componente sociale da persone che si autodefiniscono democratici e garantisti, possa mai svolgere attività in modo illecito poiché deve essa stessa combattere l’illegalità e difendere la democrazia?

Pensiero legittimo, nobilissimo. Purtroppo però, l’indagine fatta dai giornalisti di Wired, sembra indicarci che le cose vanno diversamente.

Grazie ai pochi dettagli tecnici e alle informazioni ottenute dalle autorità a seguito di specifiche richieste sempre basate sulla legge FOIA, ci si è potuta fare un’idea più precisa su dove vengano così tante informazioni già presenti nel database di Sari.

Sari, infatti, è “un’evoluzione del sotto sistema anagrafico” Ssa-Afis, in altre parole del Sistema automatizzato d’identificazione delle impronte (Automated fingerprint identification system).

Vi dice nulla?

In parole povere, inserendo in Sari la fotografia di un sospettato, il sistema dovrebbe andare a cercare tutti i fotosegnalati che gli somigliano e che erano stati precedentemente inseriti nel database di Afis.

Il sistema di rilevamento, e probabilmente il database, è lo stesso utilizzato dagli sportelli anagrafici dei Comuni e della Polizia, quando un cittadino richiede il rilascio di un passaporto (rilasciato obbligatoriamente con rilevamento dei parametri biometrici dall’1 luglio 2009) e della carta d’identità elettronica (anch’essa obbligatoriamente con rilevamento delle impronte dal 2017 ma che già dal 2016 era disponibile).

In occasione dell’entrata in vigore del rilascio esclusivo del passaporto elettronico (a seguito dell’adozione del regolamento europeo n. 2252/2004), le autorità di pubblica sicurezza avevano assicurato che una volta acquisiti, i dati biometrici sarebbero stati inviati ai sistemi centrali di pubblica sicurezza come l’AFIS, per rimanervi solo il tempo necessario all’espletamento di tutta l’istruttoria e la verifica del corretto funzionamento del chip inserito nel passaporto (e ora sulle carte d’identità). Dopo tale verifica, sarebbero stati cancellati (questa specifica è presente ancora oggi sul sito della Polizia di Stato). Inoltre, si aggiungeva che non esisteva alcun rischio di schedatura di massa, né di un’illecita archiviazione dei dati sensibili. Una volta emessi dunque, i controlli dei documenti sarebbero stati fatti mediante il confronto diretto dei dati presenti nel microchip e con quelli presi seduta stante al cittadino o al viaggiatore.

Nonostante le rassicurazioni del caso, probabilmente le cose sono andate diversamente, poiché sono 16 milioni di profili presenti oggi nel database della Polizia di Stato.

Sebbene dichiarazioni successive abbiano ridimensionato il numero a 10 milioni di profili (di cui 8 milioni di stranieri e solo 2 d’italiani), il ridimensionamento appare troppo corposo.

Wired nel suo portale ha tenuto a specificare che all’ingresso nel nostro paese, gli immigrati vengono “schedati” con foto, rilevamento delle impronte digitali e degli altri parametri biometrici, come a voler porre l’accento su una presunta disparità di trattamento tra cittadini italiani ed extracomunitari.

A differenza degli articolisti di Wired che hanno provato a strumentalizzare la notizia per dirottare l’attenzione del pubblico verso le solite logiche pseudo progressiste, europeiste e globaliste, a noi poco deve interessare la nazionalità dei profili. Ciò che conta è il principio violato.

Nonostante i successivi passi indietro nelle dichiarazioni pubbliche, non si può far finta di non aver ascoltato le parole del dirigente della polizia scientifica Fabiola Maccone che  in un’intervista al Tg1  aveva esplicitamente affermato che: “La banca dati ha sedici milioni di volti”.

Ma sedici milioni di profili sono tanti, troppi secondo Stefano Quintarelli (già deputato nella scorsa legislatura, eletto deputato nella circoscrizione Veneto 1 come indipendente nella lista di Lista Civica) che su Twitter ha osservato come a essere schedato sarebbe “un italiano su tre, esclusi i bambini.”.

La stessa cifra era stata poi confermata da un dirigente di Parsec 3.26, società leccese che ha sviluppato il sistema, in un’intervista rilasciata a Telenorba nello stesso periodo.

Secondo quanto emerso in seguito mediante una successiva richiesta di accesso agli atti (sempre grazie al FOIA), all’interno del verbale di collaudo, si legge che i tecnici hanno provveduto a verificare il corretto allineamento tra Afis e il software per il riconoscimento facciale. In particolare, si legge nel documento, “la base dati del Sari Enterprise è composta da circa 16 milioni di record per quanto riguarda le informazioni strutturate, e da circa 10 milioni d’immagini per quanto riguarda i volti (come da apposita specifica del capitolato tecnico)”.

Cosa significa esattamente e quali dati comprende il termine “informazioni strutturate”?

Forse una risposta la si può trovare in un altro articolo tratto questa volta dal portale dell’agenzia AGI, pubblicato il 4 aprile 2019, in cui l’estensore dell’articolo espone le sue perplessità riguardo i tempi di attesa molto lunghi per il rilascio della carta d’identità elettronica. Nell’articolo il giornalista ci fa sapere che dal 2016 ben 8 milioni d’italiani hanno richiesto e ottenuto la nuova carta d’identità, fornendo, all’atto della richiesta le proprie impronte digitali. L’aspetto interessante è che, secondo le fonti del giornalista, di questi 8 milioni di nostri connazionali, ben 6 milioni l’hanno richiesta e ottenute nel solo 2018.

Ecco qui dunque che forse i conti tornano. Alle 10 milioni d’immagini presenti sul database della Polizia di Stato, mancavano 6 milioni di profili di “informazioni strutturate”. Forse le abbiamo trovate. Potrebbero verosimilmente essere costituite dai profili di quei 6 milioni d’italiani che hanno ottenuto una carta d’identità elettronica proprio nell’anno (2018) di consegna del software Siri! Oltretutto i 2 milioni di profili italiani già presenti nel database, potrebbero essere rappresentati proprio dagli altri 2 milioni d’italiani che, tra il 2016 e il 2017, avevano richiesto e ottenuto la nuova carta d’identità elettronica. I conti dunque sembrano tornare, anche se, è bene precisare, si tratta di una semplice ipotesi che, per gli affezionati dell’idea che le istituzioni sono sempre buone e agiscono a favore del cittadino, potrebbe essere definita una semplice congettura.

Tra l’altro, il verbale di consegna fa riferimento alla sola versione Enterprise di Sari, cioè esclusivamente a quella che funziona tramite l’inserimento manuale di un’immagine nel motore di ricerca.

L’altra modalità, Real-Time, è in grado di identificare il volto di un soggetto in tempo reale e automatico attraverso le telecamere di sorveglianza, e peraltro non ha ancora ottenuto il via libera da parte del Garante della Privacy, che a ottobre del 2018 ha chiesto al Ministero degli Interni di fornire una valutazione d’impatto del sistema.

Dunque, la Polizia di Stato sta utilizzando, ufficialmente da settembre 2018, un sistema di telecamere a riconoscimento facciale che, ai nastri di partenza, ha inspiegabilmente già un database di 16 milioni di profili (alcuni completi d’impronte e immagini) presi non si capisce bene da dove, e che non è “legale” perché non ha ricevuto l’ok dal Garante della Privacy.

La quantità di dati già di per sé difficili da giustificare, si fa ancora più sospetta alla luce di alcuni fatti documentati di cronaca.

Se i giornali del 7 settembre 2018 titolavano “Brescia: ladri d’appartamento identificati con il riconoscimento facciale” celebrando l’ingresso della polizia scientifica nel futuro delle modalità investigative, il fatto incredibilmente non costituiva un inedito.

Il 6 giugno dello stesso anno (2018) il Secolo XIX pubblicava sul proprio sito internet, un articolo dal titolo Genova, identificato un ladro grazie a un nuovo software di riconoscimento facciale.

Questa notizia anticiperebbe di 93 giorni il primo impiego ufficiale di Sari in un contesto d’indagine, se non fosse che l’articolo è stato eliminato (verosimilmente lo stesso giorno), e sostituito con un più semplice pezzo di cronaca nel quale sparisce ogni riferimento a Sari e al riconoscimento facciale. Nell’articolo poi ritirato, già si fa riferimento a un database composto da 10 milioni di profili.

Ciò nonostante, il primo articolo del 6 giugno, dove si fa riferimento all’impiego di Sari, è ancora reperibile nella rassegna stampa di Parsec 3.26. Se quindi la polizia all’epoca non aveva realmente accesso a questa tecnologia, come dichiarato dalla questura di Genova, è assai curioso che sia proprio l’azienda che l’ha sviluppata (e che verosimilmente dovrebbe sapere anche quando l’ha consegnata alla Polizia di Stato) a inserire e mantenere sul proprio sito l’articolo che ne parla.

Il verbale di consegna fornito a seguito di una richiesta FOIA risulta che, da contratto, il sistema sarebbe dovuto essere attivato “entro e non oltre i 10 giorni lavorativi dal termine delle attività di verifica (decorrenti dalla comunicazione di approvazione del certificato dell’avvenuta verifica funzionale positiva)”. In questo caso il collaudo è terminato l’8 marzo 2018. Il 18 marzo 2018 quindi, il sistema è divenuto verosimilmente operativo. Perché allora la Polizia di Stato nega di averne avuto la disponibilità prima del settembre 2018?

Forse perché all’epoca mancava ancora (così come ancora oggi) l’assenso del Garante della Privacy?

Tra la fine del 2017 e i primi mesi del 2018, il 23 marzo 2018 il Garante aveva già avanzato la necessità di sottoporre il sistema a una verifica. Dopo diversi mesi di contatti telefonici intercorsi tra le due parti, a luglio il Ministero degli Interni comunicava al Garante che il sistema Sari Enterprise non è altro che un’evoluzione del Ssa-Afis e quindi adeguatamente regolamentato, chiudendo, di fatto, e definitivamente la porta a una verifica preliminare da parte del Garante.

Il software quindi era in uso già molto tempo prima? E da quando?

Forse prima è necessario trovare risposta a un’altra domanda: come si finisce nel database di Sari?

Passaporti, Carte d’identità elettroniche, le telecamere a rilevamento biometrico installate agli accessi degli impianti sportivi nei quali ormai si può accedere esclusivamente con un biglietto nominativo, il Sistema dattiloscopico europeo (Eurodac) o addirittura la rinnovata tendenza delle forze dell’ordine a scattare copiose fotografie durante le manifestazioni: le ipotesi su come si sia arrivati a parlare di 16 milioni di identità sono state molteplici.

Dagli aeroporti alle metropolitane, dal controllo delle minoranze in Cina ai concerti musicali, negli ultimi anni le tecnologie per il riconoscimento facciale si sono diffuse a macchia d’olio, dando a governi e aziende il potere di disporre del volto dei cittadini per attività che spaziano dalla pubblica sicurezza al marketing mirato.

Già nel 2015 avevo denunciato pubblicamente questa minaccia riportando le dichiarazioni dell’allora Sindaco di Roma. Questo il brano del mio libro “Il lato oscuro della Luna” pubblicato nel 2015:

“[…] Nel Marzo 2015 il Sindaco di Roma, Ignazio Marino, intervistato da un’emittente radiofonica locale (Teleradiostereo) ha annunciato che nell’ambito dell’ammodernamento della rete d’illuminazione pubblica cittadina, grazie ad un accordo stipulato con il Ministero dell’Interno Italiano, su molti pali della luce saranno installate videocamere “intelligenti” (circa 200.000 per una spesa di 28 milioni di euro), collegate con le forze dell’ordine. Le forze di polizia esamineranno le immagini grazie ad un software con riconoscimento facciale, in grado di far partire in automatico segnalazioni di allarme in caso il software riconosca una persona ricercata o riscontri atti o comportamenti ritenuti dannosi o illegali.

Viviamo incontrovertibilmente, in un’epoca di “raccolta dati personali”. Questo, se da un lato può indubbiamente portare dei vantaggi in termini di legalità, dall’altro porterà prima o poi alla completa perdita di privacy.

Di fatto i governi o anche società private, potrebbero segretamente e più o meno lecitamente, entrare in possesso di qualunque informazione che ci riguardi. Se a ciò uniamo anche sempre il maggior utilizzo delle transazioni elettroniche e della moneta elettronica in particolare, oltre che all’ormai prossima utilizzazione di massa, come vedremo più avanti, dei microchip installati sottopelle ad ognuno di noi, qualcuno potrebbe controllare ogni aspetto della nostra vita, non soltanto per quanto riguarda le abitudini, le idee politiche o religiose, chi frequentiamo, dove andiamo solitamente o altre cose simili riguardante il nostro comportamento ma, cosa ancor più grave, la nostra salute ed i nostri parametri biologici. Non è fantascienza o paranoia, ma una prossima e probabile realtà derivante dall’applicazione di una tecnologia già disponibile che, pian piano, si comincia ad utilizzare. […]”

Già nel 2015, quindi con ben 3 anni di anticipo, una pubblica autorità dichiarava che stava per essere messa in funzione una tecnologia simile, se non uguale, a quella che, ufficialmente, è in uso alla Polizia di Stato solo dal settembre del 2018! Già 4 anni fa segnalavo il potenziale pericolo per una schedatura di massa della popolazione, a seguito dell’’abuso di questa (e di molte altre) tecnologia, evidenziando il rischio per la democrazia e le libertà individuali e fondamentali che essa dovrebbe sottintendere e di cui solo oggi, alcuni organi di stampa, molto sommessamente, cominciano a prendere coscienza. In questo senso diamo un ben svegliati almeno a una piccola parte della stampa mainstream che però sembra ancora non aver compreso bene la portata del problema!

L’agenzia AGI, proprio in questi giorni, ha pubblicato un articolo nel quale riporta le affermazioni dell’attuale Sindaco di Roma Virginia Raggi che, in data 4 aprile 2019. L’annuncio è stato fatto dalla Sindaco durante la conferenza stampa di presentazione della Formula-e che si svolgerà nella capitale il 13 aprile. Il Sindaco ha comunicato l’installazione di nuove e ulteriori telecamere intelligenti a riconoscimento facciale, in altre aree della capitale.

L’articolo di Agi si concentra però su un aspetto puramente di tipo geopolitico. La decisione del Comune di Roma ha fatto storcere il naso, alla luce della guerra commerciale in corso tra Cina e Stati Uniti, con questi ultimi che invitano tutti i Paesi Nato a boicottare le tecnologie Huawei, sospettate dal governo Trump di essere uno strumento di spionaggio, dimenticandosi di quanto invece dovremmo diffidare proprio dagli Stati Uniti, alla luce delle prove concrete (e non dei sospetti) portati alla luce da Edward Snowden nel 2012.

Le nuove telecamere intelligenti, ha spiegato ieri il Sindaco, “saranno in grado di seguire eventuali vandali o autori di reati e saranno direttamente collegate con le forze dell’ordine. Non solo, nel caso in cui nelle immagini comparisse una persona con precedenti, le forze dell’ordine saranno in grado di intervenire sul posto ancora con maggiore tempestività”. Si sta parlando inequivocabilmente e ancora una volta, del sistema SIRI.

Luigi De Vecchis, presidente d Huawei Italia, a margine della conferenza stampa, ha dichiarato ad AGI che queste telecamere, una volta collegate ai software in uso alla Polizia di Stato, “possono addirittura prevedere alcuni tipi di eventi” (cioè reati NDR). Già, infatti, per chi ancora non ne fosse a conoscenza, la Polizia di Stato italiana ha in uso software in grado di prevedere dei crimini.

Per gli appassionati di fantascienza possiamo richiamare il film Minority Report (del 2002), se non fosse che non siamo più nella finzione cinematografica che descrive un possibile futuro distopico, ma nella triste e altrettanto distopica realtà del presente.

Software come KeyCrime, sviluppato da un ufficiale della questura di Milano e in uso già nel 2016, e lo XLAW, sviluppato da Elia Lombardo, ispettore della questura di Napoli, è già stato sperimentato a Napoli e a Prato nel 2018, si stanno ormai diffondendo su tutto il territorio nazionale.

Anche in questo caso, sussistono molte perplessità riguardo agli algoritmi che sottintendono a questi software. Come prevedono i potenziali reati? Sulla base di quali dati e parametri eseguono le valutazioni? Sulla base di questi parametri e dati, infatti, potrebbero fare delle previsioni “discriminatorie” o lesive delle libertà fondamentali degli individui. Il contenuto e la natura di questi algoritmi sono riservati e, in alcuni casi come quello del software XLAW, non sono disponibili neanche al Ministero degli Interni, ma ad accesso esclusivo della società che li ha sviluppati.

Anche in questo caso, nel medesimo libro sopra citato, già nel 2015 manifestavo le mie preoccupazioni per la possibile applicazione anche in Italia (in alcune città degli Stati Uniti sistemi simili sono in funzione da anni) di queste tecnologie si sorveglianza.

La maggioranza dei cittadini, continuamente distratti da cose più futili o marginali, continuano a essere spesso ignari dell’esistenza di queste tecnologie e dai rischi derivanti da un uso spensierato o di un abuso di simili strumenti. La cronaca quotidiana ci continua a dimostrare come tutti questi strumenti tecnologici e connessi alla rete sono soggetti a errori e vulnerabilità. Continuamente ascoltiamo di notizie riguardanti furti di dati, server sia pubblici sia privati, lasciati incustoditi che contengono dati personali e riservati. Che cosa succederebbe se per un furto o un errore fosse diffuso un archivio con i parametri biometrici di milioni di persone? Le password le potete sempre cambiare, il danno economico si può sempre ripagare, ma i dati biometrici non possono essere cambiati e il furto d’identità (sempre più in aumento) può avere conseguenze devastanti sulla vita delle persone.

La sorveglianza non è sicurezza (come dimostrano la cronaca e i fatti), e la privacy è nella nostra epoca diventato ormai un valore fondamentale e inalienabile dell’individuo, in una società realmente democratica. Com’è possibile accettare una restrizione della privacy barattandola con una sorveglianza di Stato che, come abbiamo visto, sembra non tenere conto di alcun diritto fondamentale dell’individuo? Come ci difendiamo dai pregiudizi algoritmici?  

Tutti interrogativi che s’infrangono, in Italia come all’estero, contro il muro di sostanziale riservatezza delle autorità, sulla loro presunta correttezza e sul loro ruolo di garanti dell’ordine pubblico. Tutto questo rende ancora più importante fare urgentemente chiarezza sulle finalità e le modalità di utilizzo di tutta la tecnologia oggi esistente, sia quella già in uso sia quella già esistente e di probabile o prossimo utilizzo, in special modo se è una tecnologia “tracciante”, che raccoglie qualunque tipo di dato personale (soprattutto se biometrico), con particolare riguardo a tutte quelle connesse alla rete (in sostanza ormai tutte).

Il rischio è di passare dall’avere una Polizia di Stato, al vivere in uno Stato di Polizia!

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Ti potrebbero anche interessare:

Continua...

Cosa significa iscriversi ad un social network?

Il 2 aprile scorso (2019) Google ha chiuso la versione consumer del suo social G+. Lanciato nel 2011, il social della società di Mountain View non era mai decollato veramente, sebbene avesse raggiunto un numero d’iscritti superiore al miliardo, soprattutto grazie al fatto che Google possiede Android, il sistema operativo presente su oltre l’80% dei device (smartphone, tablet, ecc) venduti al mondo. Su tali device, G+ era preinstallato e l’iscrizione era pressoché quasi automatica (bisognava soltanto dare esplicita conferma) poiché le credenziali di accesso erano le medesime usate per gli altri servizi di Google. Con la creazione di un account Google (necessario per il completo funzionamento di uno smartphone), erano sufficienti pochi click per perfezionare l’iscrizione a G+, senza bisogno di ulteriori registrazioni, così come avviene anche, ad esempio, per tutte le funzionalità dei sistemi operativi Android, per Gmail, Youtube, Hangout, ecc.

Gli utenti attivi di G+ però (utenti con almeno un’azione digitale al mese, login, like, share, view), negli ultimi 5 anni erano calati drasticamente. Alla fine del 2018 erano appena 300 milioni contro gli oltre 2 miliardi e duecento milioni di utenti attivi di Facebook e 1 miliardo e novecentomilioni di utenti attivi di Youtube (anch’esso di proprietà di Google).

Di seguito alcuni numeri utili in termini di utenti attivi al mese nel Mondo (dati dicembre 2018)

FACEBOOK

2.2 Miliardi Utenti Attivi

YOUTUBE

+1.9 Milardi Utenti Attivi

TWITTER

330 Milioni Utenti Attivi

INSTAGRAM

1 Miliardo Utenti Attivi

WEIBO

+376 Milioni Utenti Attivi

RENREN

+194 Milioni Utenti Registrati

VKontakte

+97 Milioni Utenti Attivi

LINKEDIN

200 Milioni Utenti Attivi

GOOGLE PLUS

300 Milioni Utenti Attivi

TUMBLR

420 Milioni Utenti Attivi

QZONE

570 Milioni Utenti Attivi 

FOURSQUARE

50 Milioni Utenti Attivi

PINTEREST

250 Milioni Utenti Attivi

REDDIT

114 Milioni Utenti Attivi

SNAPCHAT

301 Milioni Utenti Attivi

Anche a causa dell’adeguamento alle norme di sicurezza relative alla protezione dei dati personali, nonché ai recenti furti di dati che hanno coinvolto anche Google e, il suo social G+ in particolare, la società statunitense, aveva ritenuto poco proficuo investire per adeguare il sistema di sicurezza di G+.

A settembre 2018 aveva quindi avvisato tutti gli utenti che il social avrebbe chiuso i battenti i primi mesi del nuovo anno. In Italia, alla fine del 2018, gli utenti attivi su G+ erano appena 5,7 milioni sui 34 milioni di utenti attivi tra tutti i social.

Di seguito alcuni numeri utili in termini di utenti attivi al mese in Italia (dati dicembre 2018)

FACEBOOK

35.7 Milioni Utenti Attivi

YOUTUBE

24 Milioni Utenti Attivi

TWITTER

8 Milioni Utenti Attivi

TUMBLR

2.5 Milioni Utenti Attivi

SNAPCHAT

2.5 Milioni Utenti Attivi

LINKEDIN

15.3 Milioni Utenti Attivi

INSTAGRAM

22.3 Milioni Utenti Attivi

GOOGLE PLUS

5.7 Milioni Utenti Attivi

PINTEREST

8 Milioni Utenti Attivi

Molti di questi hanno dovuto quindi scegliere se terminare la loro esperienza social, oppure rivolgersi ad altre piattaforme (secondo Wikipedia esistono oltre 200 social in tutto il mondo). Le scelte sono state le più disparate. C’è chi ha preferito andare su social più popolari come Facebook, Istagram o Twitter, e chi invece ha fatto scelte più di nicchia o esotiche, iscrivendosi a social più piccoli, meno noti come MeWe (che ha approfittato della chiusura di G+ per rimpinguare i suoi iscritti, grazie ad un tam tam operato ad arte proprio sulla piattaforma di Google in chiusura) o a social che in Italia hanno poche migliaia di utenti iscritti, poiché fanno capo a società di paesi non occidentali.

Quale sia stata la scelta operata dai “profughi” di G+, la vicenda ha posto in evidenza, qualora ce ne fosse stato bisogno, di quanta poca consapevolezza ci sia, riguardo ciò che significa iscriversi a un social network, tra gli utenti medi che li utilizzano.

In molti, prima della dipartita di G+, hanno condiviso dei post (che in realtà giravano sul social già da diversi mesi) in cui diffidavano Google dall’utilizzare i dati raccolti dalla società e desumibili dall’attività social dell’utente, durante il periodo di permanenza dello stesso. Così facendo hanno ritenuto di riuscire a tutelare se stessi dall’utilizzo dei propri dati personali, o hanno pensato di “vendicarsi” con Google impedendo alla società di Mountain View, di trarre profitto dalla vendita o dall’utilizzo dei propri dati.

Questo maldestro tentativo di proteggere la propria privacy, oltre a non avere alcuna possibilità di sortire alcun effetto (per i motivi che spiegherò tra poco) ha reso evidente, come dicevo, il fatto che le persone non hanno la benché minima idea di cosa abbiano accettato quando si sono iscritti al (o ad un) social network.

È bene sottolineare alcuni concetti fondamentali che sebbene possano sembrare banali, non sono tenuti evidentemente in considerazione dalle persone, se non addirittura sconosciuti ad esse, quando utilizzano la tecnologia, in particolar modo quella “smart” cioè connessa alla rete.

  1. L’utilizzo o il possesso di tecnologia non è obbligatorio (almeno al momento).
  2. L’iscrizione a un social network non è obbligatoria ed è rappresenta un atto esplicitamente volontario.
  3. Le società che possiedono i social network sono società private a scopo di lucro. I social media dunque, non sono realmente gratuiti.
  4. Quando ci s’iscrive a un social network (ma anche quando si scarica un App su uno smartphone, o s’installa un programma sul computer), dal punto di vista legale si sta sottoscrivendo un contratto.
  5. Per sottoscrivere un contratto è necessario essere in possesso (e quindi dichiarare di possedere) personalità giuridica, quindi avere capacità giuridica (che è semplicemente la titolarità in astratto di diritti e doveri), ed essere nel pieno esercizio della propria capacità di agire (intesa dal punto di vista legale).
  6. Secondo le norme italiane, la personalità giuridica è riconosciuta alle aziende di capitale, agli enti pubblici. Anche le persone fisiche alla nascita sono persone giuridiche, ma acquisiscono la capacità di agire (dal punto di vista legale) al compimento del 18° anno di età. Soltanto a partire da questa età, le persone fisiche possono sottoscrivere contratti giuridicamente validi.
  7. Sebbene l’iscrizione ad un social si concretizzi con la sottoscrizione vera e propria di un contratto legale, considerata l’utilità sociale di questi nuovi strumenti tecnologici, in deroga a tale norma, con l’entrata i in vigore il Decreto legislativo 10 agosto 2018, n. 101  che adegua il Codice in materia di protezione dei dati personali (Decreto legislativo 30 giugno 2003, n. 196) alle disposizioni del Regolamento (UE) 2016/679, avvenuto nel settembre del 2018, è stata abbassata l’età minima per l’iscrizione ad un social a 14 anni. Tra i 13 e i 14 anni l’iscrizione è possibile solo con il consenso esplicito dei genitori, mentre è sempre vietata l’iscrizione ai minori di 13 anni. (Questo fatto imporrebbe necessariamente talune valutazioni riguardo l’applicazione della norma rispetto alla realtà dei fatti, ma non è questa la sede e rimando il tutto a un futuro lavoro editoriale o post).
  8. I termini che stabiliscono da un lato il comportamento e le regole che devono essere seguite dagli utenti, dall’altro le modalità di erogazione del servizio da parte del fornitore, sono contenuti e indicati esplicitamente nel contratto. Di fronte alla mancata accettazione di tali norme, essendo l’iscrizione e l’utilizzo del servizio un atto volontario e non obbligatorio, il fornitore si può rifiutare di fornire il servizio e mettere a disposizione dell’utente il social.
  9. Nei termini obbligatoriamente da sottoscrivere sono espressamente elencate le modalità di raccolta e trattamento dei dati personali, oltre che le regole di variazione di alcune clausole contrattuali.
  10. Tali norme riservano sovente, la possibilità di applicare modifiche unilaterali delle condizioni contrattuali a esclusivo appannaggio del fornitore del servizio (cioè la società proprietaria del social network).  Ciò significa che Google ad esempio, può modificare (inviando una semplice email all’indirizzo indicato dall’utente in fase d’iscrizione, come suo “domicilio legale”) le modalità di raccolta e trattamento dei dati personali. La modifica sarà considerata, dal punto di vista legale, esplicitamente accettata dall’utente, qualora questo, decorsi i termini indicati nella comunicazione stessa, continui a utilizzare il servizio.

Questi concetti fondamentali, dovrebbero essere ben presenti nella mente di tutti, ancor prima di iscriversi a un social o creare un qualunque altro account (come quelli per l’utilizzo di programmi informatici e/o altro).

Se in fase d’iscrizione, o in seguito alle eventuali variazioni unilaterali di contratto, non si legge cosa si accetta e si continua a utilizzare il servizio, dal punto di vista legale è come se si fossero comunque accettate le condizioni. Serve a poco poi, tentare di porre rimedio in modo pittoresco.

Come detto, le condizioni non prevedono la facoltà dell’utente di variare unilateralmente le condizioni contrattuali, anche quelle che si riferiscono al trattamento dei dati personali, inviando una semplice email o pubblicando un post sul proprio profilo (come molti utenti hanno fatto prima della chiusura di G+). Le norme stesse contrattuali dispongono e circoscrivono alcune delle facoltà relative alla gestione dei dati personali, solo ed esclusivamente mediante l’accesso alle impostazioni del profilo.

Tra l’altro Google ha soltanto smesso di erogare uno solo dei suoi servizi a cui l’utente, che ha creato l’account Google, ha avuto la possibilità di accedere. Dunque, poiché l’account Google rimane attivo per l’erogazione di altri servizi (Youtube, Hangout, Gmail, siti .blogspot.it, ecc) la comunicazione inviata non ha, e non può avere (oltre a tutto quanto già detto finora), alcun effetto sulla gestione dei dati da parte di Google. Se la si vuole cambiare (nei limiti del consentito) è necessario accedere all’impostazione del profilo Google. Se non si vuole accettare tali condizioni, l’unica strada è la cancellazione dell’intero account Google, con tutto ciò che esso comporta in termini d’impossibilità di utilizzo a pieno di alcune funzioni degli smartphone o di altri device con sistema operativo Android, e di altri servizi, in primis Gmail, o di accesso ad altri portali ai quali ci si è iscritti mediante Google.

Un ultimo appunto che è necessario fare in questa sede, riguarda l’aspetto economico. La gratuità dei social è solo una mera illusione. Pensare che i social network siano realmente utilizzabili gratuitamente è una evidente ingenuità, per quanto molto diffusa.

Le società che sono proprietarie dei social, per svilupparli, implementarli, farli correttamente funzionare, manutenerli, aggiornali, proteggerli dagli attacchi hacker ancor prima di acquistare spazi dove stipare enormi e costosi server per archiviare la mole di dati prodotta dagli utenti, sostengono spese milionarie. Come si fa a pensare che facciano tutto questo in modo gratuito? Mark Zuckenberg & C. sono filantropi votati a facilitare le comunicazioni globali? I novelli e benemeriti benefattori dell’umanità, come si sono arricchiti? Come si fa a pensare al giorno d’oggi, di poter utilizzare un qualcosa di così costoso in modo veramente gratuito? Come si fa a pensare di poter utilizzare un qualcosa, cambiando unilateralmente un contratto per giunta, prendendo solo ciò che ci piace e rifiutando tutto il resto?

Dovrebbe ormai essere abbastanza chiaro che gli utenti (tutti) dei social (e non solo) pagano l’utilizzo di questa tecnologia, non con il proprio denaro ma con i propri e sempre più preziosi dati personali.

Non sto parlando di account e password di conti bancari, ma di tutto quanto riguarda le proprie vite e che è desumibile, attraverso specifici algoritmi, dalla loro attività internet e soprattutto social.

La profilazione non avviene soltanto in base a ciò che postiamo o scriviamo, ma anche a ciò che semplicemente guardiamo e leggiamo o cerchiamo, ai nostri “mi piace”, alle ricondivisioni, alle persone che sono nelle nostre cerchie, a quelle che sono nelle cerchie dei nostri amici, ecc. Molti non si rendono conto che anche solo visualizzare una foto può essere considerata evidenza o espressione di un’attitudine o di un gusto. Ci sono social che fanno statistiche e profilazione anche tenendo conto delle emoticon (o emoji) che più frequentemente si utilizzano.

Tutto questo origina una mole di dati che consente poi ai vari social, come Facebook ad esempio, di raccogliere i frutti della vendita dei propri spazi pubblicitari, sempre più specifici e mirati all’utente giusto, al potenziale acquirente, per la felicità dell’azienda che ha comprato quello spazio. Ciò fa preferire alle aziende di scegliere di destinare il proprio budget per la campagna pubblicitaria, a una campagna social piuttosto che a una fatta in modo tradizionale con manifesti o spot televisivi, che potrebbero forse arrivare a un numero di persone maggiori, ma certamente a un pubblico più eterogeneo e dunque potenzialmente meno interessato a quel prodotto. Le campagne social sono quindi quelle che sono potenzialmente più efficaci. Ciò vale ovviamente sia per campagne pubblicitarie di prodotti commerciali sia per campagne di tipo politico. (anche qui si dovrebbe aprire un altro approfondimento, che anch’esso rimando in altri contesti e momenti).

Molti si sono chiesti il perché, se i dati raccolti attraverso i social sono così preziosi, Google ha chiuso G+? La risposta è abbastanza semplice. Google è il maggior raccoglitore e detentore di dati personali al mondo. Raccoglie già dati attraverso il suo motore di ricerca, i suoi altri social (come Youtube ad esempio) e altri servizi (Gmail, spazi web con estensione blogspot.it, i servizi cloud, ecc), tutti quelli raccolti tramite il sistema operativo Android o quelli raccolti da altri giganti del web (come Apple ad esempio), che utilizzano in parte dei server di Google per archiviare i propri dati (Apple ha dichiarato che Google non ha accesso ai dati, però …). Considerato lo scarso utilizzo di G+, Google ha probabilmente valutato come antieconomico investire ancora su G+. Spendere denaro per adeguare gli standard di sicurezza senza avere poi una mole di dati personali congrua da poter utilizzare, dati comunque già presenti in abbondanza e comunque ricavabili in altri modi, è apparso alla società di Mountain View del tutto inutile. Non vi preoccupate, Google non ha rinunciato pressoché a nulla, perché Google sa tutto di voi. Questi dunque, sono i probabili e reali motivi della scelta di chiudere G+.

Concludendo, la chiusura di G+ ha dato modo di mettere in evidenza quanti milioni di persone utilizzino la tecnologia senza avere la piena consapevolezza di ciò che questo comporta. Gli aspetti trattati in quest’articolo rappresentano soltanto una piccolissima parte della consapevolezza che ciascuno dovrebbe avere prima di approcciare a uno strumento tecnologico, in special modo se connesso alla rete.

Quasi nulla sul web è rimasto veramente gratuito. I social forse non lo sono mai stati. Ragionare soltanto in termini di denaro è un qualcosa di fuorviante, poiché in ballo c’è qualcosa di molto più importante e di valore: la nostra privacy e la nostra futura libertà. Utilizzare la tecnologia connessa alla rete senza avere piena consapevolezza di ciò, significa colpevolmente esporsi a rischi molto più grandi rispetto alla perdita di denaro, beni materiali o lavoro.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Ti potrebbero anche interessare:

 

Continua...

Fiumi e metano nuove conferme da Marte

Due nuove ricerche pubblicate rispettivamente su Nature Geoscience e Science Advances se da un lato fornisco conferma a studi pubblicati negli anni precedenti, dall’altro destabilizzano la comunità scientifica.

Da diversi decenni buona parte della comunità scientifica ufficiale continua sostenere la tradizionale ed ormai obsoleta idea riguardante un passato di Marte quasi da subito secco e arido.

La teoria in questione sostiene che il pianeta rosso abbia presentato condizioni di abitabilità soltanto per un brevissimo periodo subito dopo la sua formazione, avvenuta circa 4,5 miliardi di anni fa. Secondo questa teoria, Marte sarebbe stato abitabile solo per circa 500 milioni di anni o poco più, e già circa 3,9 miliardi di anni fa sarebbe avvenuto un cataclisma naturale che avrebbe bloccato il campo magnetico e spazzato via l’atmosfera marziana, senza la quale l’acqua degli oceani e dei fiumi marziani sarebbe rapidamente evaporata.

Questa ormai più che quarantennale idea era stata teorizzata a seguito dei dati, soprattutto immagini, raccolte durante le missioni Viking. La teoria in questione ben si accordava con l’apparente assenza d’acqua liquida sul suolo marziano e sulla conseguente e rassicurante assenza di vita extraterrestre, in quel momento considerata, giacché non si aveva neanche certezza dell’esistenza di altri pianeti extrasolari, poco più che una fantasia.

La teoria continua a esistere tuttora, è quella che comunemente viene ancora diffusa dai mass media ed è entrata a far parte della comune conoscenza dell’uomo medio.

Nel corso degli ultimi vent’anni però, i dati raccolti sul suolo marziano dalle varie sonde, hanno rivelato tutt’altro.

Sappiamo ormai che Marte aveva in acqua in abbondanza e fiumi impetuosi hanno solcato per moltissimo tempo e a più riprese, il suolo marziano, modellandolo così come appare oggi.

La nuova ricerca pubblicata su Science Advances ad opera dall’Università di Chicago ha confermato, analizzando l’immagine di circa 200 fiumi marziani, che questi scorrevano con forza.  In particolare l’analisi dell’ampiezza dei canali, della loro ripidità e delle dimensioni dei ciottoli indicherebbe la presenza nel passato marziano di fiumi più ampi e più impetuosi di quelli presenti sulla Terra.  Fin qui nulla di nuovo, poiché a questa conclusione erano già giunte altre e diverse ricerche fondate su dati completamente differenti e che hanno addirittura ipotizzato la presenza di fiumi oceani e acqua allo stato liquido fino a circa 200.000 anni fa, mentre il nuovo e più cauto studio si limita ad affermare genericamente che tali fiumi erano presenti almeno fino a 1 miliardo di anni fa, un tempo relativamente breve in termini astronomici, molto più breve di quanto si pensasse in precedenza.

Sebbene ci sia un’apparente ma sostanziale differenza nelle tempistiche, la conclusione non lascia spazio a dubbi. Marte è stato abitabile per un lunghissimo periodo. Almeno per i primi 3,5 miliardi di anni l’acqua a più riprese ha solcato il suolo marziano. Ciò potrebbe sembrare un dettaglio di poco conto ma ha invece una grandissima rilevanza in termini scientifici.

 I nuovi dati, ad esempio, non sono più coerenti con l’ipotesi, accreditata tra gli scienziati, che l’atmosfera marziana si sia rarefatta più di un miliardo di anni fa. “Il nostro lavoro – commenta infatti Edwin Kite, leader dello studio – risponde ad alcune domande, ma ne solleva di nuove. In particolare dovremo capire che cosa c’è di sbagliato: i modelli climatici, i modelli dell’evoluzione dell’atmosfera o la nostra comprensione dell’intera cronologia del sistema solare interno?” Per risolvere questo enigma sarà necessario comprendere meglio le condizioni climatiche di Marte quando il pianeta rosso aveva un aspetto così diverso da quello attuale.

Questo perché l’acqua liquida implica necessariamente l’esistenza di una temperatura media superiore al punto di congelamento, dunque la presenza di un’atmosfera sufficientemente spessa e densa capace di trattenere il calore. Questo a sua volta implica la presenza di un campo magnetico in grado di proteggere l’atmosfera dai venti solari. Tutto questo, oltre ad ampliare la probabilità (ormai pressoché certezza) della passata esistenza di vita marziana, evidenzia soprattutto che le teorie e i modelli che volevano Marte inospitale già 4 miliardi di anni fa, sono da cestinare.

A tutto questo si uniscono i risultati dell’altra ricerca, questa volta pubblicata su Nature Geoscience per opera di un team internazionale di ricercatori guidato da Marco Giuranna dell’Istituto Nazionale di Astrofisica e a cui partecipano colleghi dell’Istituto Nazionale di Geofisica e Vulcanologia e dell’Agenzia Spaziale Italiana, e dal Royal Belgian Institute for Space Aeronomy, grazie ai dati raccolti dallo spettrometro di Fourier Pfs, strumento a bordo della sonda europea Mars Express fornito dall’Agenzia Spaziale Italiana.

Il team a guida italiana è riuscito a confermare il punto esatto di emissione di gas metano attorno al cratere Gale, rilevato dal rover Curiosity della Nasa nel 2013.

La ricerca di metano su Marte è di fondamentale importanza poiché la molecola potrebbe avere origine biologica e quindi servire da tracciante della presenza di vita sul pianeta rosso. Tuttavia, prima d’ora, nessun rilevamento era stato confermato con misurazioni indipendenti.

“Finalmente adesso abbiamo la prima osservazione simultanea di metano su Marte, nello stesso luogo e nello stesso momento, da parte di due strumenti indipendenti e molto diversi tra loro: un rover in superficie e uno spettrometro in orbita attorno al pianeta” ha affermato Marco Giuranna, primo autore dell’articolo che descrive la scoperta.

“Non abbiamo scoperto l’origine ultima del metano” conclude Giuranna. “Molti processi abiotici e biotici possono generare metano su Marte. Tuttavia, il primo passo per capire l’origine del metano su Marte è determinare i luoghi di rilascio. Un’analisi dettagliata di questi luoghi, alla fine, ci aiuterà a rivelare l’origine e il significato del metano rilevato”.

Ma perché anche questa scoperta è importante ma al contempo disorientante in termini scientifici? Fin dalla sua prima scoperta, il metano marziano ha gettato la comunità scientifica tradizionale nella più totale confusione. Il metano è, infatti, un gas che, con le attuali condizioni di atmosfera fine e rarefatta e campo magnetico pressoché assente, non avrebbe in alcun modo essere stato presente su Marte. In tali condizioni, infatti, il metano essendo un gas instabile, è soggetto a scomposizione per azione della radiazione ultravioletta (solitamente in un periodo massimo di 340 anni), la sua presenza variabile indica inequivocabilmente che sul suolo marziano è presente una fonte relativamente recente di questo gas.

Questo ancora una volta, contrasta con i modelli elaborati in precedenza e che la maggioranza della comunità scientifica fa fatica ad accantonare. I dati però dicono altro. Le ormai numerose ricerche scientifiche pubblicate in questi anni, in conformità a moltissimi dati raccolti in anni, in luoghi e con strumenti diversi, da sonde orbitali, lander e rover, suggeriscono un passato marziano completamente diverso da quello ipotizzato e ancora oggi proposto al grande pubblico.

Un passato fatto di un clima caldo e umido, mantenutosi per moltissimo tempo, probabilmente fino in epoche abbastanza recenti, un pianeta ricco di acqua e geologicamente attivo, con un’atmosfera e un campo magnetico in grado di consentire diffusamente la presenza di vita, probabilmente sviluppatasi e manifestatasi sotto diverse forme (abbiamo già alcune evidenze di segni lasciati da forme di vita marziane differenti) e oggi forse ancora presente nel sottosuolo.

Prepariamoci ad assistere ad annunci sempre più incredibili da parte della comunità scientifica, annunci sempre più tendenti a confermare lo scenario sopra sommariamente descritto e che, alla luce dei fatti, sembra ormai più probabile.

Stefano Nasetti

Approfondimenti e anticipazione delle prossime scoperte su Marte, nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Su Marte c’è un intero sistema interconnesso di laghi sotterranei

 

Su Marte c’è un intero sistema interconnesso di laghi sotterranei! Lo ha detto il ricercatore Francesco Salese dell’Università di Utrecht e leader dello studio pubblicato il mese scorso su Journal of Geophysical Research – Planets.

È ormai certo che in passato Marte sia stato fortemente caratterizzato dalla presenza di acqua. Tutte le recenti missioni hanno confermato la presenza di antichi fiumi, laghi e oceani marziani. I segni lasciati da questi antichi corsi e bacini idrici, sono ancora ben visibili in ogni luogo del pianeta rosso e non lasciano spazio a dubbi. Gli astronomi ormai si sono convinti e hanno abbandonato l’ormai datata idea di un Marte secco e arido, forse anche per quanto riguarda il presente. Se, infatti, possiamo dire con certezza assoluta che c’è stata acqua nel passato di Marte, oggi possiamo dire che c’è anche nel suo presente. Mentre un tempo, il mondo rosso era probabilmente ricchissimo d’acqua in superficie, oggi il prezioso liquido che potrebbe indicare la presenza di microrganismi si trova intrappolato nei meandri del suolo marziano.

Sappiamo che acqua allo stato ghiacciato è abbondante nelle zone polari di Marte ma anche che, periodicamente e in modeste quantità, scorre ancora allo stato liquido in alcune zone del pianeta, come confermato dalla Nasa nel settembre del 2015. In seguito abbiamo scoperto che nell’immediato sottosolo esistono consistenti bacini di acqua (probabilmente anch’essa in parte ghiacciata) perfino nelle zone equatoriali del pianeta, là dove nessuno pensava potesse nascondersi. Eppure i dati raccolti dalle sonde orbitali che da anni analizzano in continuazione il pianeta rosso, non hanno lasciato, anche in questo caso, alcun dubbio.  Nel luglio scorso, grazie al radar italiano Marsis a bordo della sonda europea Mars Express, abbiamo scoperto che l’acqua nel sottosuolo marziano è presente in larga quantità anche allo stato liquido. La sonda europea ha, infatti, individuato un ampio lago d’acqua salmastra a circa 1,5 chilometri di profondità sotto il ghiaccio.

Questa che di per sé rappresentava un’ennesima scoperta rivoluzionaria riguardo il presente di Marte, sembra essere stata soltanto un piccolo antipasto di ciò che è emerso in seguito.

Una nuova ricerca pubblicata su Journal of Geophysical Research – Planets, condotta in collaborazione con il gruppo di Gian Gabriele Ori, dell'Università Gabriele D'Annunziò di Pescara, e di cui ho già accennato in un precedente articolo, fornisce un quadro ancora più completo della presenza liquida su Marte, come uno zoom che si allarga da un particolare mostrando un disegno sempre più complesso. Non solo esiste un deposito d’acqua nel sottosuolo marziano (quello appena citato rilevato dal radar italiano Marsis), ma c’è un intero sistema interconnesso di laghi sotterranei, e almeno cinque di essi hanno una composizione di minerali tale da poter ospitare forme di vita. La scoperta arriva ancora una volta da Mars Express, che da oltre 15 anni orbita attorno al mondo rosso inviandoci preziosissimi dati.

Emerge ora che i dati analizzati da un team di scienziati provenienti da Olanda, Germania e Italia, hanno posto in evidenza 24 crateri marziani molto profondi, all’interno dei quali si snodano particolari strutture geologiche che per formarsi hanno richiesto la presenza di acqua liquida. Il pavimento dei 24 crateri analizzati si trova a circa 4.000 metri sotto il “livello del mare” marziano, un livello che su Marte è arbitrariamente definito in base all’altitudine e alla pressione atmosferica del pianeta, non essendoci più un mare o oceano a far da riferimento univoco.

Francesco Salese dell’Università di Utrecht e leader dello studio ha commentato la pubblicazione dello studio con queste parole: “In passato Marte era un mondo acquoso ma quando il suo clima è cambiato l’acqua, si è ritirata progressivamente sotto la sua superficie, per formare bacini e falde sotterranee. Noi abbiamo cercato le tracce di quest’acqua, e abbiamo trovato la prima evidenza geologica di un sistema planetario di laghi sotterranei”.

L’origine di questa rete di laghi sotterranei, affermano i ricercatori, risalirebbe addirittura a circa 3.5 miliardi di anni fa e si sarebbe quindi “salvata” dai cambiamenti superficiali che Marte ha subito nel corso del tempo. Non è da escludersi dunque, che ci sia un nesso tra il sistema di laghi d’acqua appena scoperto nel sottosuolo e gli antichi oceani superficiali marziani che gli scienziati ritengono esistessero tra i 3 e 4 miliardi di anni fa e che, secondo molti altri studi sarebbero stati presenti addirittura fino a “soli” 200.000 anni fa.

"La presenza acqua per un lungo periodo è una condizione necessaria per l'esistenza di un'eventuale vita passata, ma da sola non sufficiente", ha osservato ancora Salese. “Altre possibili spie sono i minerali, come quelli scoperti in uno dei bacini analizzati, il cratere McLaughlin: i sedimenti sul fondo di questo antichissimo lago sono ricchi di minerali compatibili con l'ipotesi della vita, come "smectiti ricche di magnesio, serpentino e minerali di ferro-idrato", ha detto il ricercatore”.

Sono infatti minerali legati a reazioni che potrebbero avere a che fare con processo all'origine della vita. Altri 14 degli antichi laghi marziani conservano le tracce di delta di fiumi, molto ben conservati. “Questi depositi - ha rilevato Salese - permettono di individuare i siti ad alta priorità per la ricerca della vita, dove prodotti organici potrebbero avere avuto una alta probabilità di conservarsi".

Una teoria che sarà vagliata dalle future missioni sul pianeta rosso, che perforeranno il suolo marziano alla ricerca di eventuali forme di vita presenti ancora oggi, che potrebbero essere nate, proliferate ed evolute proprio grazie all’acqua conservata per tutti questi anni sotto la superficie di Marte.

Ormai non passa giorno che non venga pubblicato uno studio scientifico che indica la possibilità, sottendente la certezza o conferma la probabilità che su Marte c’è stata vita per lungo tempo (e ciò presuppone implicitamente e necessariamente l’estrema probabilità che si sia evoluta in più forme) e che ci possa essere vita ancora oggi.

Come interpretare questo piccolo ma continuo “bombardamento mediatico”, riguardo queste rivoluzionarie scoperte provenienti dal pianeta rosso? Si tratta semplicemente di divulgazione scientifica? Si vuole invece attrarre l’attenzione dell’opinione pubblica per far sì che si accetti la spesa pubblica a favore delle missioni spaziali, facendo leva sulla suggestione di poter trovare forme di vita aliene? Oppure tutto ciò nasconde la volontà di preparare l’opinione pubblica all’annuncio ufficiale del ritrovamento di vita aliena, così com’è stato con l’annuncio dell’acqua liquida su Marte di cui la Nasa era a conoscenza già dal 2006 sebbene ne abbia diffusa pubblica notizia solo nel 2015?

Probabilmente un po’ tutte e tre le cose. L’aspetto più importante da rimarcare è che da moltissime pubblicazioni scientifiche emerge ormai chiaro che evidenze di vita passata su Marte siano già state trovate. La vita marziana non è quindi più in discussione. Si cerca ora di capire se esista ancora oggi.

Stefano Nasetti

Maggiori informazioni nel libro: Il lato oscuro di Marte - dal mito alla colonizzazione.

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Forme di vita nel deserto più inospitale della Terra: su Marte come in Cile?

Atacama è il più inospitale deserto del nostro pianeta, la cui distesa torrida e sabbiosa si estende per mille chilometri dalla costa del Pacifico verso l’entroterra. Spesso è utilizzato per la simulazione delle esplorazioni spaziali su Marte.

I due luoghi distanti tra loro oltre duecento milioni di chilometri, hanno in comune molto di più di quanto si possa immaginare. Non soltanto la conformazione del terreno ci appare simile al punto che i rover inviati su Marte sono testati qui, ma condividono anche le condizioni di vita estreme e, a quanto pare forse non solo questo.

Secondo un nuovo studio internazionale guidato dall’Ames Research Center della Nasa, nascoste nell’immenso deserto di Atacama in Cile, potrebbero esserci forme di vita. Proprio come nei meandri del mondo rosso, ipotesi o per meglio dire ormai certezza, su cui gli astronomi di tutto il mondo stanno lavorando da qualche tempo, con la continua pubblicazione di studi basati sui dati raccolti dai rover giunti sul pianeta rosso, dalle evidenze fotografiche e chimiche fornite e con sforzi raddoppiati dopo la recente scoperta di acqua liquida e salata sotto la superficie marziana, scoperta che lascia presagire la possibilità dell’esistenza di forme di vita presenti ancora oggi.

Il team dell’agenzia spaziale statunitense ha trasportato un nuovo modello di rover nel deserto cileno, scandagliandone il sottosuolo per verificare l’eventuale esistenza di vita microbica.

I risultati, pubblicati il 28 febbraio scorso (2019) su Frontiers in Microbiology, fanno ben sperare. Infatti, i campioni prelevati dal rover una volta analizzati in laboratorio, hanno mostrato tracce di microbi che i ricercatori hanno definito insoliti e altamente specializzati. Le tracce sono simili a quelle trovate e fotografate su Marte dal rover Curiosity e che, negli anni scorsi sono stati oggetto di una ricerca dell’Università di Siena. In questa circostanza i ricercatori italiani si erano detti certi che quelli fotografati da Curiosity fossero la prova inconfutabile della passata esistenza di vita sul pianeta rosso.

Lo studio appena pubblicato su Frontiers in Microbiology non dimostra ovviamente che ci sia stata vita su Marte, ma che la strada intrapresa dalle varie agenzie spaziali (NASA ed ESA) di cercare vita nel sottosuolo di Marte è la cosa più plausibile da fare.

Abbiamo dimostrato che un rover robotico può prelevare porzioni del sottosuolo in uno dei deserti terrestri più simili a Marte” – commenta Stephen Pointing dello Yale-Nus College di Singapore, responsabile dell’analisi microbica. “Questo è importante perché molti scienziati concordano sul fatto che eventuali forme di vita su Marte debbano trovarsi nel sottosuolo, per sfuggire alle rigide condizioni della superficie come le alte radiazioni, le basse temperature e l’assenza di acqua. I microbi che abbiamo trovato nell’Atacama si sono adattati a un ambiente molto ricco di sali, simile a quello che ci possiamo aspettare nella sottosuperficie marziana.”.

Al di là della fattibilità della ricerca della vita marziana con rover autonomi, l’aspetto più interessante si legge nelle parole e nelle affermazioni presenti nelle conclusioni dello studio.

Si legge, infatti: “La rilevanza dell'ecologia e degli habitat microbici alla vita passata e possibile esistente su Marte stanno finalmente emergendo nella ricerca robotica di evidenze biologiche su Marte (Warren-Rhodes et al., 2007; Cabrol, 2018). Come suggerisce il nostro studio, la rilevazione di tale vita o le sue biografie residue può rivelarsi molto difficile, dato che nei deserti più estremi sulla Terra queste comunità sono estremamente disomogenee nella distribuzione e si verificano con biomassa eccessivamente bassa. L'apparato di perforazione impiegato in questo studio ha dimostrato che le bio evidenze dei sedimenti sotterranei possono essere recuperate autonomamente, sebbene la delineazione precisa della profondità richieda un perfezionamento con l'approccio di perforazione del morso utilizzato in questo studio. Mentre evidenze biologiche genetiche come il DNA utilizzato nel nostro studio potrebbero non essere il metodo principale impiegato per cercare tracce di vita su Marte, sono il metodo più affidabile e ampiamente utilizzato attualmente disponibile per la stima della diversità microbica (Thompson et al., 2017; Delgado-Baquerizo et al., 2018). Quest’approccio ha fornito una prima prova essenziale del concetto che una firma biologica incontrovertibile nel probabile intervallo per le variabili geochimiche in un ambiente sottosuperficiale abitabile può essere recuperata da un sedimento di tipo marziano usando un rover autonomo.”.

Come già evidenziato nel mio ultimo libro, la vita su Marte è già stata trovata al punto che nell’ambito della comunità scientifica (ma non ancora quando ci si rivolge al pubblico) non si parla più di Marte in termini di pianeta deserto, quanto invece considerandolo in termini di biosfera. Molti addetti ai lavori lo sanno già molto bene.  Tant’è che concepiscono la vita passata ormai come dato acquisito, riservando la “possibilità” solo a quella a oggi esistente, come si legge testualmente nella frase “La rilevanza dell'ecologia e degli habitat microbici alla vita passata e possibile esistente su Marte stanno finalmente emergendo nella ricerca robotica di evidenze biologiche su Marte (Warren-Rhodes et al., 2007; Cabrol, 2018) ... ”. Le prossime missioni quindi, andranno a cercare la vita, ma non quella passata, ma quella presente come si evince dalla stessa frase.

Mentre in un altro punto si evince anche che le aspettative sono quelle di trovare vita in forme diverse. Si afferma, infatti: “… sono il metodo più affidabile e ampiamente utilizzato attualmente disponibile per la stima della diversità microbica (Thompson et al., 2017; Delgado-Baquerizo et al., 2018)…”. Anche in questo caso, le aspettative che riguardano il presente poiché la biodiversità marziana nel passato è già un dato assodato, come accennato in precedenza.

Le citazioni di altri studi evidenziano e confermano quanto ho già avuto modo di affermare. Gli studi a cui fanno riferimento gli scienziati partono da presupposti ben precisi (tra l’altro esplicitamente esposti nello studio di Cabrol pubblicato su Astrobiology nel gennaio 2018):

  • L'origine della vita marziana e la sua somiglianza con la biologia terrestre.
  • L’abitabilità di Marte nel passato.
  • La scoperta della chimica organica su Marte.
  • La vita marziana si sarebbe evoluta localmente o migrata verso i siti proposti dai suoi ambienti di origine, così come si ritiene sia avvenuta sulla Terra.

Prove generali per adesso concluse con successo dunque, in attesa di riuscire a prelevare campioni dagli strati più profondi del mondo rosso. Con le future missioni su Marte programmate per il 2020, sia Nasa sia Esa puntano, infatti, a perforare il suolo marziano fino a due metri di profondità, con la speranza di raggiungere eventuali comunità microbiche marziane ancora in vita.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

La scienza è malata, a quasi nessuno interessa, in pochi se ne accorgono ma a molti fa comodo.

(Questo articolo è stato inserito e ampliato nel libro Fact Cheking - la realtà dei fatti la forza delle idee)

Negli ultimi anni si è assistito a un calo continuo e inesorabile della credibilità della scienza agli occhi dell’opinione pubblica. Quest’ultima infatti, ha preso progressivamente coscienza delle innumerevoli incongruenze di molte spiegazioni scientifiche, divulgate all’opinione pubblica da decenni come conoscenze oggettive e verità incontrovertibili, sebbene fossero soltanto teorie. Se è vero che tali teorie fossero. Al momento della formulazione, in qualche modo ragionevolmente fondate, se consideriamo le conoscenze dell’epoca, è anche vero che il divulgarle come certezza, poiché opinioni condivise dalla maggioranza degli aderenti alla comunità scientifica, si è rivelato un errore marchiano, sia in termini di comunicazione, sia sotto l’aspetto squisitamente più scientifico e oggettivo.

Come ricordava Galileo Galilei oltre cinquecento anni or sono, “le verità scientifiche non si decidono a maggioranza.”

Se quest’atteggiamento, che possiamo definire di presunzione o supponenza da parte di molti (non tutti) i membri della comunità scientifica, è di fatto riscontrabile in ogni epoca, almeno negli ultimi 200 anni, il conservativismo e l’ostruzionismo nei confronti di nuove evidenze scientifiche che ne è sempre scaturito, è emerso ormai fragoroso in tutta la sua evidenza.

La velocità con cui la conoscenza scientifica è aumentata negli ultimi decenni, non ha più consentito agli aderenti alla comunità scientifica ufficiale, di “gestire” la transizione tra le vecchie conoscenze ormai obsolete, e le nuove scoperte. In passato la minor velocità con cui la scienza acquisiva nuova conoscenza, aveva infatti permesso di “anestetizzare”, complice anche la minor cultura media e la bassa velocità di diffusione delle informazioni, le possibili reazioni avverse del pubblico. Quest’ultimo era dunque impossibilitato di comprendere a pieno i mutamenti radicali riguardo determinati assunti scientifici ufficiali, rivelatesi palesemente errati e fuorvianti. In tale contesto, la scienza (o per meglio dire chi la gestisce e la rappresenta) è sempre riuscita a mantenere quell’aura di autorevolezza e prestigio forse immeritato che, giustamente va riconosciuta a chi fa scienza in modo serio.

Oggi, di fronte ad uno scenario completamente mutato, la spesso supponente e presuntuosa scienza ufficiale è stata messa spalle al muro. Molti membri della stessa hanno perciò iniziato a studiare i problemi che esistono all’interno della comunità scientifica ufficiale e nella scienza, più in generale.

L’immagine della scienza presentata agli occhi dell’opinione pubblica, è spesso stata quella di un gruppo di persone eticamente corrette, scevre da ogni condizionamento economico e/o politico, che anteponevano il benessere, la conoscenza e il miglioramento delle condizioni umane ai propri interessi personali, alle loro mire di ricoprire incarichi di prestigio e potere, alla loro ambizione di acquisire popolarità oltre che di aumento delle proprie possibilità economiche e del proprio tenore di vita.

Assistiamo ancora, soprattutto nel nostro paese, al tentativo di presentare il mondo scientifico come un mondo idilliaco, in cui sono quasi del tutto assenti le dispute e le rivalità tra colleghi, in cui esiste un mutuo e reciproco spirito collaborativo, in cui ciascun ricercatore e scienziato, indipendentemente dalla posizione gerarchica che ricopre nell’ambito della comunità scientifica, ha come unico e solo scopo della sua vita, la conoscenza e il progresso dell’essere umano. Si tratta di un tentativo sempre meno efficace, che riesce nel suo intento solo in quella fetta di popolazione ancora poco interessata e partecipe alla conoscenza scientifica, oltre che ossequiosa delle “autorità”.

L’astronomo Carl Sagan diceva: “Abbiamo costruito un mondo basato su scienza e tecnologia, in cui nessuno capisce nulla di scienza e tecnologia”.

Non tutti ne sono consapevoli ma, il ritenere che il settore scientifico sia un sistema a se stante, completamente avulso da quelle che sono le logiche economiche, di profitto, di competizione senza esclusione di colpi, di corsa al conseguimento di posizioni di potere, di fama, un mondo senza uno spiccato individualismo ed egocentrismo, logiche di cui ogni settore della nostra vita è ormai profondamente intriso, rimane un pensiero tanto ingenuo quanto anacronistico.

La scienza è malata, e questo è ormai un dato di fatto. I mali non sono legati alla scienza in sé, ma agli uomini che la gestiscono e che vi operano, schiavi di quelle logiche proprie del nostro tempo.

La presa di coscienza di questo problema, all’interno della comunità scientifica, ha spinto alcuni ricercatori a cercare di comprenderne meglio le cause e la portata delle conseguenze che l’atteggiamento di chiusura e conservativismo conclamato in taluni ambiti scientifici, ha avuto agli occhi dell’opinione pubblica.

Sebbene non se ne parli diffusamente nel nostro paese, nell’ultimo anno sono stati pubblicati molti studi scientifici che hanno voluto verificare innanzitutto, la reale esistenza di certi problemi che, sebbene percepiti e percepibili anche da parte di chi di scienza s’interessa, pur non facendo parte della comunità scientifica, erano sempre rimasti delle sensazioni o delle idee intangibili.

Nei precedenti articoli (La scienza ha un problema di fake news, La scienza avanza un funerale alla volta? Le superstar della scienza ostacolano il progresso scientifico?) che ho pubblicato in questo blog, ho cercato nel mio piccolo, di dare spazio a queste ricerche, per dare evidenza dei problemi che interessano il settore scientifico, e per provare a diffondere un po’ di consapevolezza a riguardo. Inutile dire che suggerisco la lettura attenta di entrambi se si vuol provare a comprendere la portata del problema e le dannose conseguenze che ricadono sulle vite di tutti i cittadini.

Oltre a quanto già detto in tali articoli, presento oggi altre due ricerche scientifiche (entrambe pubblicate nelle scorse settimane sulla rivista e sul portale Science) che danno modo di far emergere altri due aspetti interessanti. Ciò che viene fuori, getta altre ombre sul mondo scientifico e sulle conseguenze che le errate o imprecise affermazioni scientifiche comportano nella vita di tutti i giorni.

In particolare, la prima ricerca si è concentrata sugli studi scientifici pubblicati in ambito medico. Lo studio è stato realizzato da un gruppo di ricerca guidato da Ben Goldacre, autore e medico presso l'Università di Oxford nel Regno Unito, sostenitore della trasparenza nella ricerca sulle droghe.

L’obiettivo dei ricercatori di Oxford, era capire le conseguenze di una sempre più diffusa cattiva abitudine, presente nel modus operandi di molti ricercatori. È infatti un problema ben noto, soprattutto nelle sperimentazioni cliniche, che i ricercatori iniziano le loro ricerche dichiarando che intendono verificare, e quindi ottenere, un risultato particolare, ad esempio le conseguenze e/o l’efficacia di un farmaco per attacchi di cuore. Poi però, nel corso della ricerca, cambiano totalmente obiettivi e cercano cose diverse da quelle dichiarate, cose che poi segnalano quando pubblicano i risultati. È stato più volte riscontrato che tale ondivaga pratica, può far sembrare un farmaco o un trattamento più sicuro o più efficace di quanto non sia in realtà.

In sostanza, magari si mette in pratica una sperimentazione con il dichiarato obiettivo di verificare l’efficacia (o i possibili effetti collaterali) di un farmaco per il cuore, ma poi quando si pubblica lo studio, si omette del tutto di rispondere al quesito principale della ricerca, concentrandosi magari sul fatto che il farmaco può produrre reazioni allergiche a livello meramente epidermico. Lo studio scientifico così redatto, farà apparire il farmaco più sicuro ed efficace di quello che in realtà potrebbe essere (non è possibile dai dati pubblicati, sapere se è realmente efficace o inutile, o se addirittura è più dannoso che utile).

Il processo peer-review a cui le riviste scientifiche dicono di sottoporre tutti gli studi prima della pubblicazione, dovrebbe essere un efficace deterrente per scoraggiare la realizzazione di questo tipo di studi, o quantomeno un mezzo efficace per impedirne la pubblicazione.

Nel tentativo di capire se almeno le riviste scientifiche più importanti, rispettano il loro impegno a garantire che i risultati siano riportati correttamente, i ricercatori di Oxford con la loro ricerca, hanno dato evidenza incontrovertibile che spesso ciò non accade. Hanno scoperto che molti degli attori dell’intero processo di ricerca e divulgazione scientifica, si piegano alle altre logiche economiche e commerciali e oltretutto, messi di fronte al fatto compiuto, avanzano le scuse più disparate.

A partire dal 2015, i ricercatori di Oxford hanno dato vita al progetto del Centro per il Progetto di Monitoraggio dei risultati della medicina basato sull'evidenza (COMPARE). Hanno quindi cominciato a esaminare tutti gli studi pubblicati, su cinque principali e autorevoli riviste mediche: Annals of Internal Medicine, The BMJ, JAMA, The Lancet e The New England Journal of Medicina (NEJM). Gli argomenti degli studi pubblicati spaziavano dagli effetti sulla salute del consumo di alcolici per i diabetici, al confronto tra farmaci per il cancro del rene. Tutte e cinque le riviste esaminate, avevano preventivamente approvato linee guida per la pubblicazione dei dati consolidati degli studi sperimentali (CONSORT). Una regola CONSORT è che gli autori dovrebbero descrivere i risultati che intendono studiare prima dell'inizio di una sperimentazione, per poi attenersi tassativamente a tal elenco quando pubblicano i risultati.

Con enorme stupore, i ricercatori di Oxford hanno costatato che solo nove dei 67 studi pubblicati nelle cinque riviste, hanno riportato risultati giusti.  Il team di Oxford del progetto COMPARE, con la pubblicazione dello scorso 14 febbraio 2019 sulla rivista Trials, ha riferito che circa un quarto (il 25%) degli studi pubblicati, non ha riportato correttamente l'esito primario che aveva dichiarato di voler misurare, mentre addirittura il 45% non ha neanche riportato correttamente tutti i risultati secondari. Non solo, in alcuni casi negli studi sono stato pubblicati perfino nuovi risultati, che non erano oggetto della ricerca. (Si tratta ovviamente di risultati medi che variano da rivista a rivista. Ad esempio solo il 44% delle sperimentazioni su: Annals of Internal Medicine riportava correttamente l'esito primario, rispetto al 96% degli studi NEJM.

Quando il team del progetto COMPARE ha scritto alle riviste facendo presente i problemi riscontrati sui documenti degli studi pubblicati, le riviste hanno pubblicato soltanto 23 delle 58 lettere inviate dal team COMPARE, preferendo quindi nella maggioranza dei casi (35 su 58) non dare pubblica evidenza (e quindi censurare) dei problemi rilevati.

Anche in questo caso, gli atteggiamenti tenuti dalle varie riviste sono stati eterogenei.  Mentre infatti le riviste Annals of Internal Medicine e The BMJ hanno pubblicato tutte le lettere a loro indirizzate, The Lancet ha accettato solo l'80% di quanto ricevuto, mentre NEJM e JAMA le hanno respinte tutte.

I redattori di NEJM hanno spiegato che sono soltanto i loro referenti che operano le peer-review a decidere quali risultati degli studi devono essere segnalati, specificando che, mentre alcune delle regole CONSORT sono oggettivamente "utili" nelle operazioni di valutazione di uno studio scientifico, gli autori degli studi non sono tenuti a rispettare. Ciò dovrebbe comportare tuttavia, il rifiuto di quella rivista di pubblicare lo studio scientifico, poiché quella rivista si era impegnata formalmente a verificare il rispetto di tali norme. Poiché la rivista, consapevole che gli autori non hanno rispettato le procedure, decide comunque di pubblicare lo studio, da evidenza di piegarsi a logiche presumibilmente di tipo economico-commerciali, anteponendo alla qualità e l’oggettività di uno studio scientifico, i propri interessi privati.

Alcune riviste o alcuni autori, che hanno risposto alle lettere del team COMPARE, hanno sostenuto che il progetto COMPARE è “al di fuori della comunità scientifica” (benché non sia vero) e dunque hanno deciso di non rispettato le indicazioni (prima sottoscritte e accettare). Altri hanno spazzato via le critiche, brontolando su quanto fosse difficile il loro lavoro. Altri ancora hanno negato addirittura di aver omesso qualsiasi risultato.

Da altre risposte ricevute dal team COMPARE, emerge che altri redattori delle riviste non sembravano preoccuparsi che i ricercatori potessero aver cambiato i risultati, se erano essi stessi a rivelare il cambiamento prima della pubblicazione. Addirittura le riviste JAMA e NEJM hanno dichiarato di non avere sempre sufficiente spazio per pubblicare tutti i risultati degli studi e che quindi, sovente, li pubblicano solo parzialmente.  

La discrezionalità assolutamente personale con cui i redattori omettono alcuni risultati anziché altri, altera certamente la percezione, in positivo o in negativo, di quella ricerca, anche se questa sia stata svolta correttamente. Se di una ricerca che mira a misurare l’efficacia e gli effetti collaterali di un farmaco, vengono poi pubblicati i risultati in modo parziale, pubblicando i benefici del farmaco ma omettendone i danni provocati, va da sé che il farmaco possa risultare più utile di quello che in realtà è.

La domanda che tutti dovrebbero porsi a questo punto è: a chi giova tutto questo?

La risposta la si può trovare già in quanto scritto nell’articolo La scienza ha un problema di fake news. La pubblicazione di uno studio, spesso finanziato da case farmaceutiche, anche se poi viene ritirato, finisce per essere utilizzato e citato come prova dell’efficacia o della non dannosità di un farmaco (come ad esempio un vaccino), che poi un’azienda farmaceutica (magari la stessa che ha finanziato la ricerca o la sua pubblicazione sulle cosiddette riviste predatorie) produrrà e commercializzerà.

Tuttavia i numeri della “cattiva scienza” sono stati resi pubblici alcuni mesi fa (settembre 2018) da Retraction Watch.

Retraction Watch è un progetto dei giornalisti scientifici Ivan Oransky e Adam Marcus che, con l’aiuto di Science, ha aperto i battenti ufficialmente nell’agosto del 2010. Un periodo in cui iniziava a diventare evidente un nuovo trend, quello del numero crescente di ritiridi articoli da parte d’importanti riviste scientifiche. Un fenomeno preoccupante ma difficile da mappare, perché, specie all’epoca, le riviste tendevano a non dare troppa visibilità al ritiro di un articolo.

Per questo i due giornalisti scientifici hanno iniziato a seguire la faccenda da vicino, decisi a comprendere le caratteristiche, le dimensioni e le cause di quest’anomala frequenza di studi ritirati. In quasi otto anni di lavoro hanno raccolto una lista di oltre 18mila paper ritirati. Ora hanno deciso di ha rendere pubblico il più ambio database mai realizzato di paper scientifici ritirati dagli anni Settanta a oggi (database esplorabile gratuitamente).

Ogni settore della scienza è, di fatto, contagiato da questa epidemia di studi ritirati. Medicina, fisica, biologia, psicologia fra tutti gli altri (nessuno escluso) i settori certamente più colpiti e quelli in cui le conseguenze di questo mal vezzo, hanno ripercussioni più gravi sulla nostra vita di tutti i giorni.

Nessun campo della scienza sembra immune a errori, sviste e persino vere e proprie truffe, che si concretizzano nel ritiro degli studi scientifici in questione da parte delle riviste. Questo è almeno ciò che avviene quando gli errori vengono allo scoperto, e gli editori decidono di correre ai ripari. Ma è legittimo domandarsi a questo punto, anche quanti studi errati ci siano che non sono stati scoperti e vengono tuttora considerati affidabili.

Il fenomeno del ritiro di uno studio scientifico è un fenomeno che da almeno una decina d’anni si è fatto sempre più comune, sollevando dubbi, legittimi, sullo stato di salute e di credibilità della scienza. I tanti ritiri sono certamente frutto di un’attenzione crescente per la correttezza dei dati pubblicati come già accennato nella premessa di quest’articolo, ma anche conseguenza della “legge non scritta” del publish or perish (letteralmente pubblica o muori), che obbliga i ricercatori a pubblicare risultati deboli, se non completamente inventati, per stare al passo, mantenere o acquisire prestigio, potere, finanziamenti e lavoro.

Dai dati resi pubblici da Retraction Watch, tra il 2000 e il 2014 si è passati da meno di 100 articoli ritirati all’anno a oltre mille, ma nonostante tutto oggi il problema investe non più di quattro articoli pubblicati ogni 10mila. E se è vero che la percentuale dei ritiri è più che raddoppiata tra il 2003 e il 2009, è ormai stabile da anni, e si può spiegare in parte con il concomitante aumento degli articoli pubblicati ogni anno: più che raddoppiati tra il 2003 e il 2016.

Parallelamente, il numero di riviste che ritirano almeno un articolo l’anno è aumentato. Nel 1997 erano soltanto 44, mentre nel 2016 sono state 488. Il numero di articoli ritirati in media da ciascun giornale però è rimasto pressoché invariato. Fatto che porta a pensare che l’aumento degli articoli ritirati negli ultimi 10 anni non sia legato principalmente a una linea di principio etico a cui le riviste s’ispirano, quanto piuttosto all’aumento del numero di riviste scientifiche esistenti. Le riviste quindi, non sembrano persuase a ritirare uno studio scientifico anche quando si accorgono essere errato.

Spiegare dove nasca la ritrosia, passata e presente, per una simile atteggiamento, è abbastanza semplice e in parte è già stato spiegato negli articoli precedenti. Il ritiro di uno studio scientifico è visto come una sconfitta sia per gli autori della ricerca, sia per chi avrebbe dovuto vigilare sulla correttezza dello stesso, sia per i revisori e gli editori delle riviste. Nel mondo dell’immagine in cui viviamo, il ritiro equivale spesso ad avere una piccola macchia sulla propria immagine pubblica. Questo perché la prima cosa che viene alla mente di fronte a un ritiro, è che sia dovuto a un caso di cattiva condotta scientifica o addirittura di vera e propria frode. In effetti, circa il 60% dei ritiri è esplicitamente legato a dati falsificati, immagini copiate, plagi, e altri atteggiamenti tipici delle frodi scientifiche.

Tuttavia, sebbene i motivi che spingono le riviste a ritirare un articolo scientifico non possano essere sempre ricondotti a una frode, dall’archivio della Retraction Watch emerge chiaro che il rimanente 40% dei ritiri è motivato dall’impossibilità manifesta di poter riprodurre i risultati dello studio. Ciò che potrebbe sembrare a occhi inesperti un semplice disguido burocratico, sottintende in realtà una cosa forse ancor più grave della falsificazione o di una frode.

L’attendibilità di uno studio scientifico, e dunque della scienza stessa, si fonda sulla possibilità di ottenere gli stessi risultati di un esperimento a parità di condizioni. Si basa quindi sulla ripetibilità, poiché questa evidenzia una costante oggettiva, sulla quale è ricavata la conseguente legge o verità scientifica. Se, una volta tolti gli studi falsi, il restante 40% dei ritiri avviene per mancanza di oggettività, significa che una fetta cospicua di ciò che viene pubblicato (e poi ritirato quando ci si accorge dell’errore) è costituito da vere e proprie fake news scientifiche. Per non parlare del fatto che negli ultimi anni si è diffusa l’abitudine di non ritirare articoli (evitando così di “compromettere” l’immagine e la reputazione dell’autore e della rivista) che presentano errori in buona fede, ma piuttosto diramare un avviso di “correzione”, da cui è difficile comprendere quanti e quali problemi avesse originariamente l’articolo.

Emerge dunque da questi studi un altro problema che affligge la scienza da cui guardarsi. Quel sistema di potere, d’interessi e di collusione tra alcuni scienziati e le riviste, sembrerebbe dunque tendere a “occultare” o sminuire il problema degli studi fake.

Quelli desunti dall’archivio della Retraction Watch, sono certamente di dati parziali che da soli non sono sufficienti a definire con precisione lo stato di salute della scienza, ma offrono, se combinati con gli altri studi esposti negli articoli precedenti, un quadro della situazione abbastanza esplicativo riguardo ai motivi che hanno portato a questa perdita di credibilità della scienza presso l’opinione pubblica.

L’origine del problema dunque, non sembra essere quella legata alla cattiva comunicazione scientifica, ai problemi connessi al mondo dell’editoria che opera in questo settore, quanto piuttosto alla sempre più frequente mancanza di oggettività di molti studi pubblicati, che in realtà di scientifico sembrano avere poco o nulla.

Solo per citare alcuni numeri desunti dal database in questione, la virtuale classifica degli editori che hanno ritirato più articoli scientifici, è guidata dall’Institute of Electrical and Electronics Engineers, con i suoi 7.300 articoli ritirati, che da soli rappresentano il 40% dell’intero archivio. Sebbene in questo caso si tratti solo di abstract che si riferiscono a conferenze tenutesi per lo più tra il 2009 e il 2011, parliamo pur sempre di testi pubblicati (teoricamente ma non effettivamente) dopo accurato processo peer-review, che hanno quindi avuto bisogno di una smentita ufficiale.

La virtuale classifica degli autori con più studi ritirati è costituita complessivamente da circa 30mila autori. Anche qui ce ne sono alcuni rivelatesi sistematicamente meno seri affidabili di altri. Infatti, i primi 20 hanno tutti almeno una trentina di paper ritirati a testa, i primi cento più di 13, e i primi 500 più di cinque. Andando nel dettaglio a guardare poi la top ten, troviamo campioni delle fake news scientifiche. Al primo posto spicca il nome di Yoshitaka Fujii, anestesista giapponese che dal 2012 ha collezionato bel 169 paper ritirati a causa di frodi e falsificazioni dei dati. Il secondo classificato, Joachim Boldt, anche lui anestesista, lo segue a debita distanza con un altrettanto considerevole ed eloquente numero di articoli scientifici ritirati, ben 96!

Ma com’è possibile una tale mole di articoli fake?

La risposta proviene questa volta da un altro studio, quello compiuto da John Ioannidis, uno statistico della Stanford University di Palo Alto, in California, si chiesto se alcuni membri della comunità scientifica stessero giocando con il “sistema scientifico”, forzando oltremodo il principio del publish or perish. Così lui e i suoi colleghi si sono immersi nel database della rivista accademica Scopus e hanno identificato 265 "autori iperprolifici" tra il 2000 e il 2016. Il gruppo di Ioannidis è stato in grado di contattare 81 di questi scienziati, per chiedere loro l’origine e finalità di tale super prolificità. Ioannidis ha poi presentato i risultati del suo studio su Nature per poi rilasciare anche un’intervista su Science.

Da ciò è emersa la conferma che la maggioranza degli intervistati ha dichiarato di essere così prolifico al fine di ricevere più citazioni possibili, ottenendo quindi maggiore visibilità, con lo scopo di ottenere maggiori sovvenzioni.  La Cina, ad esempio, dà soldi ai suoi ricercatori per la pubblicazione, specialmente in riviste influenti, e forse come risultato ospita anche un numero sproporzionato di autori iperprolifici. Questo denaro si è rivelato essere molte volte superiore al loro salario abituale. Dunque qui non è solo “pubblicare o perire”, ma è pubblicare e prosperare.

È dunque l’interesse individuale a spingere gli scienziati a pubblicare più articoli possibile e, essendo sostanzialmente impossibile avere una prolificità elevata mantenendo al contempo rigore, qualità e serietà delle ricerche, molti di loro finiscono per ricorrere a scorciatoie poco etiche, cambiando o aggiungendo dati a studi già compiuti, affinché da un singolo e reale studio riescano poi a “moltiplicarlo”, facendolo apparire come 5, 10 o addirittura 20 studi differenti. È ciò che spesso è stato riscontrato nel campo dell'epidemiologia, in cui gli scienziati ricercatori raccolgono una grande quantità di dati per poi distribuire le loro analisi, un foglio alla volta, consentendo a se stessi di collezionare un gran numero di pubblicazioni da un singolo progetto. In altri casi non esitano a falsificare interamente i risultati di studi precedenti se non addirittura a falsificare l’intero studio.

La pressione di pubblicare o perire o di ottenere finanziamenti amministrativi contribuisce a creare un ambiente in cui le rigorose regole vigenti in ambito scientifico, che dovrebbero garantire la ripetibilità dei risultati e quindi l’oggettività degli stessi, sono invece attenuate. Inoltre, poiché il fine è spesso quello di pubblicare il più possibile, chi rifiuterà mai di apporre il proprio nome su una ricerca, anche se è stata condotta da altri? Sì, perché accade anche questo.

È emerso infatti, che alcune discipline hanno più autori iperprolifici di altri. Circa la metà degli autori iperprolifici presenti nel database esaminato da Ioannidis, appartengono al settore della medicina e della biologia. Tenendo conto di quanto già emerso in merito alle ricerche esposte nel presente e nei precedenti articoli, certamente quest’aspetto non può essere trascurato. Le regole non scritte che governano questi campi scientifici infatti, favoriscono il proliferare di pubblicazioni attribuite a determinati scienziati. Ad esempio, quando i cardiologi diventano direttori d’importanti centri clinici e di ricerca, possono vedere aumentare anche di 10 volte il numero degli studi di cui gli è attribuita (non sempre meritatamente) la paternità. Questo perché i loro nomi vengono sempre associati a tutto ciò che il loro centro produce. È una norma che i campi di medicina e biologia hanno adottato, anche se ciò non soddisfa rigorosi standard scientifici per l’attribuzione di paternità di uno studio.

Ma perché è un grosso problema se alcuni autori estendono la definizione di paternità? Ci sono due ragioni principali per cui abbiamo la paternità: affidabilità e responsabilità. Avere un numero eccessivamente elevato di autori di uno studio, significa spesso (ma non sempre) diluire complessivamente l’affidabilità del team di ricerca, poiché equivale ad avere un sistema molto vago, eterogeneo e non standardizzato. È come un paese con 500 diversi tipi di monete e senza tasso di cambio. In termini di responsabilità, solleva anche alcuni problemi di riproducibilità e qualità. Con documenti che hanno un numero molto l’elevato di contributori, c'è qualcuno tra essi che può davvero assumersi la responsabilità che tutto si è svolto correttamente? Oppure, sanno tutti davvero cosa è successo? Se qualcosa non dovesse risultare poi corretto, chi sarebbe il responsabile? Ciò appare come un espediente atto a deresponsabilizzare i ricercatori e a diluire l’eventuale effetto negativo sulla reputazione dei ricercatori, nel caso in cui lo studio fosse poi ritirato. Come si suol dire “tutti colpevoli, nessun colpevole”.

Se è vero che il modo in cui sono condotte le ricerche in queste discipline (equipe di ricerca che coinvolge spesso un numero elevato di persone) sembra incoraggiare, o almeno favorire, l’aggiunta del proprio nome come autore della ricerca anche se il reale contributo è stato davvero esiguo e marginale, è anche vero che l’industria farmaceutica è quella che elargisce più finanziamenti per la ricerca, rispetto a ogni altra disciplina. Il palese conflitto d’interessi che spesso è presente tra chi finanzia la ricerca e chi trae beneficio dai risultati della stessa, è certamente un altro motivo che spinge gli autori a “esporsi” o a porsi in modo più indulgente nei presentare i risultati sull’efficacia o sulla non dannosità di un farmaco (di un principio farmacologico) o di una prassi terapeutica, nel momento in cui vanno a esporre i risultati della loro ricerca. Abbiamo già visto poi, che sono spesso le case farmaceutiche a finanziare le riviste per la pubblicazione di molti di questi studi. Le aziende farmaceutiche dunque, finanziano studi e ricerche e poi ne favoriscono la pubblicazione (pagando le riviste scientifiche) per poi prendere i risultati di questi studi come prova della validità di un farmaco che esse stesse producono e distribuiscono.

Il dato che emerge da tutti gli studi esposti finora sullo stato di salute della scienza, è che la maggioranza delle cosiddette fake news scientifiche non proviene da improvvisati scienziati dilettanti. Non sono frutto della cosiddetta “pseudoscienza” così come spesso viene divulgato dall’opinione pubblica. Sono invece generate da principi etici quasi del tutto assenti ormai nel campo delle scienze (così come in ogni altro settore della vita), e da un sistema contorto e poco trasparente in cui si intrecciano i diversi e distinti interessi individuali degli attori dell’intero processo scientifico (quelli dei nuovi ricercatori, quello delle superstar scientifiche e dei loro più stretti collaboratori, quello degli editori delle riviste scientifiche, quello dei redattori che lavorano nelle riviste, quello delle case farmaceutiche che finanziano direttamente o indirettamente ciascuno di essi). Ciò favorisce la “cattiva scienza”, che genera poi quella perdita di credibilità della scienza agli occhi dell’opinione pubblica.

Il complesso sistema di gestione della scienza, le dinamiche di esasperata competizione generate dal sistema stesso, gli “ammortizzatori” degli effetti negativi sulla reputazione di tutti gli attori della “filiera scientifica” quando uno studio si rivela errato e viene ritirato, tutto questo fa si che, agli occhi di uno scienziato (indipendentemente se alle prime armi o se già affermato), di una rivista scientifica e di un’azienda che finanzia certi tipi di studi, l’esame rischi/benefici riguardo l’opportunità di firmare, finanziare e pubblicare studi errati possa comunque propendere dalla parte positiva. In fin de conti, se le pubblicazioni dei risultati di uno studio, anche se sono “forzati”, parziali, omessi o addirittura inventati non impediranno a quello scienziato, a quella rivista o a quell’azienda farmaceutica di continuare a operare nel medesimo settore, anche qualora venisse a galla che si tratta di uno studio fake, mentre al contempo tutti gli attori potranno trarre individuale beneficio, perché non rischiare? La risposta vien da sé, non c’è nulla da rischiare e nulla da perdere.

Come risolvere il problema? Fare appello al senso etico dei singoli membri è utopistico nella società moderna. Dobbiamo quindi pensare a soluzioni a livello sistematico, piuttosto che a livello di singolo individuo.

Un primo passo dovrebbe certamente essere quello di cercare di rendere assolutamente chiaro e trasparente il processo di ricerca, dal suo finanziamento fino alla pubblicazione dei dati.

C’è bisogno di far sì che all’interno della comunità scientifica si raggiunga un accordo su chi ottiene meriti e finanziamenti e per cosa. Le riviste potrebbero, in teoria, provare a stabilire uno standard per le pubblicazioni (ma abbiamo anche visto che ciò è stato già fatto, salvo poi essere rinnegato dagli stessi sottoscrittori).

Si potrebbero creare sistemi che tracciano la paternità degli studi in modo più giusto e accurato. È ridicolo vedere anche 50 o 100 autori elencati come se avessero scritto tutti assieme un articolo. La maggior parte di loro ha solo contribuito con una virgola o un punto o, a volte, neanche quello. Abbiamo bisogno di un sistema che riconosca, e riconosca meglio, il vero lavoro che gli scienziati stanno facendo, e che agli stessi si faccia capo e siano attribuite anche tutte le responsabilità e le conseguenze negative, in caso in cui lo studio si riveli antiscientifico (poiché mal condotto) o inventato.  

La scienza è malata, quasi a nessuno interessa, in pochi se ne accorgono ma a molti fa comodo. Mi chiedo se tutte le forze politiche italiane e/o i singoli individui che settimane or sono hanno firmato “il patto per la scienza” sono realmente informate e consapevoli di questi problemi.

Se non ne sono a conoscenza, dovrebbero astenersi dal trattare certi temi o informarsi prima, perché, come diceva Socrate “la cosa peggiore di non sapere una cosa è presumere di saperla”. Se invece ne sono al corrente, dovrebbero proporre anzitutto delle soluzioni concrete.

La risoluzione dei problemi che affliggono la scienza, non passa certamente attraverso la gestione della comunicazione scientifica, né tanto meno attraverso la stipula di patti che mirano a diffondere l’idea che la buona scienza provenga esclusivamente dalla comunità scientifica ufficiale. Com’è emerso chiaro, incontestabile e inequivocabile nell’esposizione degli studi scientifici accademici riportati in questo e nei precedenti articoli del blog, il problema delle fake news scientifiche proviene dall’interno della comunità scientifica stessa e non da fuori.

Le cosiddette teorie scientifiche alternative, spesso etichettate tutte indistintamente come pseudoscienza, non perché se n’è valutata l’effettiva attendibilità, quanto piuttosto perché formulate al di fuori degli ambienti istituzionali, accademici e tradizionali della scienza ufficiale, non rappresentano un reale problema. Tali teorie, quelle scientificamente e razionalmente valutabili, servono invece da stimolo al mondo scientifico, poiché spesso queste teorie alternative mettono in risalto limiti e contraddizioni di certi assunti ufficiali.

Concentrare il proprio impegno sul tentativo di annichilire il pensiero divergente e azzittire le critiche, cercando al contempo di sottacere i reali problemi che la scienza ha (e che hanno causato la crisi di riproducibilità e credibilità che sta vivendo), significa soltanto voler proteggere quell’intricato sistema di potere che genera le vere fake news scientifiche e che favorisce l’interesse economico individuale e non “a sostenere la Scienza come valore universale di progresso dell'umanità, che non ha alcun colore politico, e che ha lo scopo di aumentare la conoscenza umana e migliorare la qualità di vita dei nostri simili”, come invece propagandato.

La scienza non ha e non deve avere colore politico, ma non deve neanche servire gli interessi personali di alcune superstar scientifiche e/o delle lobby economiche (soprattutto di quelle in ambito farmaceutico).

Per approfindire questo tema: clicca qui

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Exomars2020: su Marte in cerca dell’evoluzione!

 

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Marzo 2021)

Nel mondo scientifico e accademico, la presenza di vita su Marte, almeno nel passato, è ormai ben più che una semplice idea o deduzione. Negli ultimi anni sono stati pubblicati numerosi studi basati sui dati raccolti dalle sonde inviate sul pianeta rosso, che hanno dato evidenza della sua presenza. Non parliamo ancora del rinvenimento di esseri viventi o dei loro resti. Tuttavia, così come i paleontologi sono certi della presenza di alcune specie animali (come i dinosauri ad esempio) in specifiche aree del nostro pianeta ancor prima di rinvenirne i resti, basando giustamente le loro certezze sulle tracce presenti nell’ambiente lasciate dal passaggio di queste specie terrestri, allo stesso modo oggi gli astrobiologi sono certi della presenza passata di vita su Marte.

Sono ormai moltissime le evidenze raccolte e, sebbene pubblicamente si faccia ancora fatica a rilasciare esplicite dichiarazioni in questo senso (per i motivi che ho spiegato già in precedenti articoli), nelle parole con cui gli stessi astrobiologi accompagnano la pubblicazione delle ricerche che provano tal evidenza, è possibile cogliere quest’assoluto convincimento.

Eccone un piccolo esempio.

Nel Settembre del 2016, un analogo studio è stato pubblicato su International Journal of Astrobiology, per opera di un team di ricerca italiano composto da Nicola Cantasano e Vincenzo Rizzo dell’Istituto per i sistemi agricoli e forestali del Mediterraneo del Consiglio nazionale delle ricerche di Cosenza (Isafom-Cnr).

I due ricercatori hanno allargato la mole dei dati analizzati, includendo in modo sistematico, tutte le fotografie delle rocce marziane scattate dai rover Opportunity, Spirit e Curiosity, rilevando analogie non solo con le strutture delle microbialiti terrestri (rocce costruite dai batteri) alle diverse scale dimensionali (microscopiche, ma soprattutto meso e macroscopiche), ma anche nelle tracce attribuibili alla produzione batterica di gas e di gelatine adesive altamente plastiche.

Rizzo, presentando i dati dello studio ha dichiarato, senza mezzi termini, che quelle raccolte, sono le prove inconfutabili della presenza passata di vita su Marte!

Queste le sue parole, apparse anche sul sito dell’ASI (Agenzia Spaziale Italiana): “L’Università di Siena ha avviato un’analisi matematica frattale multiparametrica delle coppie d’immagini, i cui risultati confermano che esse sono identiche. Un ulteriore studio morfologico del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas-LIMLA, su campioni di microbialiti viventi provenienti dal deserto di Atacama (Cile) ha permesso di evidenziare, grazie alla pigmentazione organica, che tali microstrutture e microtessiture esistono e sono un prodotto dell’attività batterica. I dati mostrano la perfetta somiglianza tra le microbialiti terrestri e le immagini marziane, con una fortissima evidenza statistica nell’analisi di 40.000 microstrutture Terra/Marte analizzate. La quantità, la varietà e la specificità dei dati raccolti – ha proseguito Rizzo - accreditano per la prima volta, in modo consistente, che le analogie non possono essere considerate semplici coincidenze”.

Ormai appurato questo, le domande a cui le prossime missioni di esplorazione marziana, a partire da quella dell’agenzia Spaziale Europea denominata Exomars 2020, o quella della Nasa chiamata Mars 2020 prevista nello stesso anno, cercheranno di dare risposta sono: per quanto tempo è esistita la vita su Marte? Si è evoluta in più forme, anche più complesse? C’è ancora? Dov’è finita?

(Brano tratto dal libro Il lato oscuro di Marte – dal Mito alla Colonizzazione)

Sono, infatti, ormai queste le domande che ci si pone in ambito scientifico ufficiale. Contrariamente a quanto ancora comunemente si pensa, è il considerare fantasia la vita marziana a essere ormai un’idea folle e antiscientifica.

Nei prossimi mesi (2020) sarà lanciata la seconda parte della missione dell’ESA (Agenzia Spaziale Europea) denominata Exomars2020. La prima parte della missione (lanciata nel 2016 e giunta sul pianeta rosso nel 2018) è stata poco fortunata.

La missione composta di due sonde, un orbiter e il lander Schiaparelli, è stata un successo solo parziale. L’orbiter ha eseguito perfettamente tutte le operazioni previste, è pienamente operativo, e sta analizzando l’atmosfera marziana. Il lander Schiaparelli invece, si è schiantato al suolo per un’apertura e un distacco troppo anticipato del suo paracadute.

Nel 2020 è in programma la seconda parte della missione europea ExoMars, con l’invio di un rover dotato di un lungo trapano di produzione italiana, che perforerà per la prima volta il suolo marziano fino a una profondità di 2 metri, alla ricerca di acqua e tracce di vita.

(Brano tratto dal libro Il lato oscuro di Marte – dal Mito alla Colonizzazione)

In questi giorni è stato annunciato il nome scelto per il rover della missione Exomars2020 che toccherà il suolo marziano nella località di Oxia Planum nel 2021. Anche in quest’occasione non sono mancati elementi a supporto dell’affermazione esposta pocanzi, riguardo all’ormai concreta certezza della vita marziana, nella mente degli addetti ai lavori.

Si chiamerà Rosalind Franklin, dal nome della grande scienziata che dato un fondamentale contributo alla scoperta della doppia elica del Dna (scoperta per la quale hanno ricevuto il premio nobel James Watson e Francis Crick nel 1962), il rover di ExoMars destinato a cercare la vita su Marte. L’ha annunciato il 7 febbraio 2019, l’Agenzia Spaziale Europea, che ha selezionato il nome tra oltre 36mila proposte inviate dai cittadini di tutti gli stati membri dell’Esa, rispondendo a un concorso lanciato a luglio dall’agenzia spaziale inglese.

La scelta di attribuire un nome così importante come quello della Franklin (cui non fu attribuito il nobel assieme a Crick e Watson soltanto perché era deceduta a causa di un tumore nel 1958 e il premio nobel non viene mai attribuito postumo), un nome così legato al concetto di vita poiché scopritrice del DNA, è già di per sé molto esplicativo della convinzione di riuscire a provare in modo definitivo, l’esistenza della vita su Marte.

Ma, se ciò non fosse sufficiente, gli addetti ai lavori hanno forse attese ancora maggiori. Almeno questa è l’impressione che traspare dalle parole rilasciate, a margine dell’annuncio del nome del rover Exomars2020, da importanti membri dell’ESA e dell’ASI (Agenzia spaziale Italiana).

Nell’articolo apparso sul portale dell’Asi, si legge”… La presenza di acqua liquida su Marte è nota da tempo agli scienziati, e la conferma definitiva è arrivata la scorsa estate con le osservazioni del radar italiano Marsis a bordo della sonda MarsExpress, che ha scoperto un lago salmastro sotterraneo nei meandri del mondo rosso. Una ragione in più per credere che l’abitabilità marziana, sia essa passata o presente, vada cercata nel sottosuolo marziano …”.

Dunque, checché se ne dica pubblicamente, e come emerge chiaro dagli innumerevoli articoli scientifici continuamente pubblicati sulle autorevoli riviste di settore, l’abitabilità di Marte non è un qualcosa che va confinato soltanto al primo mezzo miliardo di anni (circa 4 miliardi di anni fa) della vita del pianeta rosso, poiché è ormai scientificamente assodata l’abitabilità marziana anche in tempi a noi più vicini. Ciò emerge ancora una volta evidente, quando si lascia intendere, come nell’articolo sopra citato, che si pensa che Marte sia abitabile ancora oggi!

Come dicevo, le aspettative degli addetti ai lavori sono ancora maggiori. In tal senso sono illuminanti le parole del Commissario straordinario dell’ASI.

“Abbiamo appreso con soddisfazione – ha commentato Piero Benvenuti, Commissario straordinario dell’Agenzia spaziale italiana, in una videointervista rilasciata all’ASI e poi ripresa dall’Agenzia giornalistica Ansa – che il rover di ExoMars 2020 avrà il nome di Rosalind Franklin, la grande scienziata che per prima ha scoperto la doppia elica del Dna. Il rover sarà montato sulla missione ExoMars 2020, che verrà lanciata nel 2020. È una missione che ha molto di Italia a bordo: avrà un trapano che potrà perforare la superficie marziana fino a due metri di profondità e analizzare il materiale che da lì verrà estratto. Ecco il motivo per il quale è stato dato questo nome: perché cercheremo tracce di eventuale evoluzione biologica nella superficie di Marte. Stiamo quindi aspettando con grande ansia e aspettativa il successo di questa missione, veramente targata Italia”.

Con la missione Exomars2020 quindi, ci si aspetta non solo di trovare evidenze incontrovertibili di vita marziana, ma addirittura segni di una sua “eventuale evoluzione”.

Parole sorprendentemente folli, semplicemente incaute o assolutamente logiche e coerenti con le attuali conoscenze scientifiche?

La valutazione di queste parole in un senso o nell’altro, così come di ogni altro aspetto che riguarda la realtà, è direttamente proporzionale al grado di conoscenza della materia, poiché come dico spesso, il grado di comprensione della realtà è direttamente proporzionale alla conoscenza.

Chi non s’interessa di questi argomenti e vive il tutto con la superficialità propria del nostro tempo, delle logiche del “sentito dire” e del comodo “allineamento” delle proprie idee a quelle dominanti e ufficiali, sosterrà che si tratta di parole folli o, per evitare di andare contro l’autorità costituita, di parole travisate.

Per chi conosce un pochino di più l’argomento, ma non ha la libertà di pensiero di prendere pubblicamente una posizione ancora scomoda, affermerà che si tratta di parole incaute.

Per chi conosce invece in modo approfondito tutto ciò che è stato scoperto ufficialmente, con studi scientifici e accademici, negli ultimi vent’anni su Marte (magari dopo aver letto il mio libro), è capace e libero di pensare e non ha interessi da tutelare, dirà semplicemente che si tratta di dichiarazioni assolutamente logiche e normali.

“La libertà deriva dalla consapevolezza, la consapevolezza deriva dalla conoscenza, la conoscenza deriva (anche) dall'informazione, dallo studio e dalla lettura senza pregiudizi... " (Stefano Nasetti – da Il lato oscuro della Luna).

 

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Abitabilità e vita su Marte: nuove conferme

(Questo articolo è stato pubblicato anche sulla rivista UFO INTERNATIONAL MAGAZINE nel numero di Marzo 2021)

I dati che indicano la passata abitabilità del Pianeta Rosso continuano a susseguirsi senza soluzione di continuità.

Nuovi dati raccolti dai satelliti Mars Express dell'Agenzia Spaziale Europea (Esa) e Mars Reconnaissance Orbiter (Mro) della Nasa sono stati oggetto di una ricerca coordinata dall'italiano Francesco Salese, ora nell'università olandese di Utrecht. Pubblicata sul Journal of Geophysical Research-Planets, la ricerca è stata condotta in collaborazione con il gruppo di Gian Gabriele Ori, dell'Università Gabriele D'Annunzio di Pescara.

Dati hanno fornito evidenza oggettiva e incontrovertibile della presenza di almeno 24 laghi antichissimi nell’emisfero nord di Marte, a conferma che in passato il pianeta è stato ricco di acqua ben oltre i primi 500 mila anni dalla sua formazione. Le tracce dei laghi li fanno risalire a 3,5 miliardi di anni fa, dunque secondo questi dati l’acqua è stata presente almeno per 1 miliardo di anni, cioè il doppio del tempo stimato con le tradizionali teorie (tuttora molto in voga) ormai scientificamente superate. Infatti anche in questo  studio si afferma che i laghi si sarebbero formati in seguito a fluttuazioni delle acque sotterranee durante il periodo Esperiano, cioè tra i 3.500 e 1.800 milioni di anni fa.  Si è dunque passati da 4 miliardi di anni fa a 1.800 milioni, il che fa una bella differenza considerato che altri studi evidenziano presenza di larghi specchi di acqua liquida in superficie nel periodo Amazzoniano, fino a circa 200.000 anni fa!

È interessante notare come tutti i mass media mainstram che hanno riportato la notizia, abbiano scelto di evidenziare nei titoli la datazione per eccesso (3,5 miliardi di anni) scelta certamente più “conservatrice” e rassicurante a difesa delle teorie dominanti e dello status quo, anziché quella molto più “compromettente” ma altrettanto plausibile (1,8 miliardi di anni) anch’essa contemplata dagli autori dello studio.

Tutti i 24 laghi scoperti erano profondi almeno 4.000 metri. “Altri 14 degli antichi laghi marziani conservano le tracce di delta di fiumi, molto ben conservate. Questi depositi - ha rilevato Francesco Salese all’agenzia ANSA - permettono di individuare i siti ad alta priorità per la ricerca della vita, dove prodotti organici potrebbero avere avuto un’alta probabilità di conservarsi”.

 

Secondo gli scienziati, la presenza di acqua per un lungo periodo è una condizione necessaria per l'esistenza di un'eventuale vita passata, ma da sola non sufficiente. Altre possibili spie sono i minerali, come quelli scoperti in uno dei bacini analizzati, il cratere McLaughlin: i sedimenti sul fondo di quest’antichissimo lago sono ricchi di minerali compatibili con l'ipotesi della vita, come smectiti ricche di magnesio, serpentino e minerali di ferro-idrato. Sono infatti minerali legati a reazioni che potrebbero avere a che fare con processo all'origine della vita.

I dati di questo studio vanno però considerati in un’ottica più ampia. Negli ultimi 10 anni sono stati raccolti moltissimi altri dati dalle sonde presenti sul pianeta rosso.

I dati hanno confermato la presenza di sostanze quali il ferro e lo zolfo considerate essenziali per lo sviluppo della vita, come ha rivelato la ricerca condotta dal gruppo coordinato da Susanne Schwenzer, dell'Istituto di scienze lunari e planetarie di Houston e dell’Open University, in Gran Bretagna, pubblicata sulla rivista Meteoritics & Planetary Science nell’agosto 2016. Se la presenza della combinazione ferro e zolfo è quindi stata accertata su Marte, già addirittura in un periodo risalente a circa 3,9 miliardi di anni fa, non è mai stata confermata, paradossalmente e forse incredibilmente, in un periodo così antico sulla Terra!  Nel settembre del 2017 in uno studio pubblicato sulla rivista Geophysical Research Letters, sulla base delle successive verifiche dei dati, eseguite nei laboratori statunitensi di Los Alamos, il principale autore dello studio Patrick Gasda, ha affermato che: “Trovare il boro su Marte, rende più probabile che in passato il pianeta possa aver ospitato la vita. I borati rappresentano un possibile ponte tra molecole organiche semplici e l’RNA. Senza l'RNA, non c'è la vita”. Secondo i ricercatori, le tracce di boro rinvenute su Marte risalgono a 3,8 miliardi di anni fa, un periodo analogo a quello in cui si è formata la vita anche sulla Terra. “Questo ci dice, essenzialmente, che la vita potrebbe essersi sviluppata su Marte indipendentemente da quella sulla Terra”, ha aggiunto Gasda.
Il boro marziano è stato trovato in minerali di solfato di calcio, il che significa, secondo i ricercatori, che il boro era presente nelle acque sotterranee del pianeta e che, in alcune di queste, grazie al pH neutro-alcalino e alla loro temperatura compresa tra zero e sessanta gradi centigradi, sarebbero state abitabili.  (dal libro Il Lato oscuro di Marte – Dal mito alla colonizzazione).

Altre ricerche scientifiche ufficiali, tutte basate su dati rilevati dalle sonde e non su ipotesi di fantasia, hanno confermato tra l’altro:

  • la diffusa presenza di acqua per lunghissimi periodi, fino a “soli 200.000 anni fa”;
  • l’alternanza di periodi caldi e umidi a periodi più freddi e secchi;
  • la presenza di ossigeno e metano nell’atmosfera (ancora oggi);
  • la presenza di acqua liquida (sebbene solo; stagionalmente e in modeste quantità) ancora oggi;
  • l’esistenza di un’attività geologica recente, cosa assolutamente impensabile fino a soli 5 anni fa;
  • la presumibile presenza di un campo magnetico fino a tempi recenti, quale condizione per la presenza di atmosfera e acqua liquida in superficie;
  • segni evidenti nelle rocce sedimentarie marziane di attività biologica;
  • segni in quasi tutti i meteoriti di origine marziana, di tracce fossili di microorganismi.

Tutte questi dati, tutte queste ricerche pubblicate su autorevoli e prestigiose riviste accademiche, se prese e valutate in modo organico, non solo fanno pensare che Marte sia stato adatto alla vita, ma che l’abbia ospitata addirittura prima che la vita facesse la sua comparsa sulla Terra.

Ovviamente questa conclusione che potrebbe apparire “forzata” al punto che qualcuno potrebbe chiamarla “congettura”, è un’idea che non trova unanimità di vedute in tutti gli astrofisici. Del resto, come ho evidenziato in altri articoli e nei miei libri, la scienza segue logiche differenti da quelle che comunemente le si attribuiscono. La scienza è in realtà molto più conservatrice che progressista e spesso, sintetizzando il pensiero di Marx Planck “la scienza avanza un funerale alla volta”.

Tuttavia molti sono gli scienziati che, nel loro piccolo, hanno esplicitamente dichiarato che su Marte ci sia stata vita. Molte agenzie spaziali (Nasa, Esa e Asi comprese) dando quasi per scontato (considerati tutti gli elementi sommariamente citati in precedenza) che la vita su Marte abbia fatto la sua comparsa, stanno portando avanti programmi per la ricerca di vita marziana ancora eventualmente presente.

C’è poi chi, dall’alto della sua esperienza nel campo della biologia e astrobiologia che sostiene addirittura che la vita a base di RNA e poi forse DNA, abbia probabilmente fatto la sua comparsa sul Pianeta Rosso per poi arrivare, tramite panspermia, sulla Terra.

Per potersi fare un’idea più precisa sull’intera vicenda è necessario conoscere tutte le ricerche e le scoperte che sono state pubblicate negli ultimi anni, i cui risultati sono stati qui solo sommariamente e superficialmente citati. Avere una visione d’insieme è essenziale se si vuole evitare di “pendere dalle labbra” di chi spesso si arroga il diritto di ergersi ad arbitro della conoscenza e della verità ma poi, in realtà, difende solo interessi personali.

Galileo Galilei affermava che: “In questioni di scienza, l’autorità di un migliaio di persone non vale tanto quanto l’umile ragionamento di un singolo individuo. Le verità scientifiche non si decidono a maggioranza”.

Personalmente ritengo che quando si parla di scienza o di cosa sia reale e cosa no, sia l’evidenza dei fatti a dire chi ha torto e chi ragione.

I fatti, cioè i dati raccolti e gli studi scientifici pubblicati, ci suggeriscono che quelle che solo fino a qualche anno fa erano considerate “ipotesi fantasiose”, sono probabilmente più che verosimili. Nel frattempo attendiamo la prova inequivocabile che sovverta lo status quo, l’annuncio rivoluzionario (tipo quello sull’acqua marziana fatto dalla Nasa nel settembre 2017) o, come diceva Planck e come confermato da recenti studi sull’argomento, che trionfi la nuova verità scientifica, non perché i suoi oppositori si convincono e vedono la luce, ma piuttosto perché alla fine i suoi avversari muoiono, e nasce una nuova generazione a cui i nuovi concetti diventano familiari.

 Se vuoi approfondire l’argomento e conoscere tutte le ultime scoperte su Marte  clicca qui. 

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

La scienza avanza un funerale alla volta? Le superstar della scienza ostacolano il progresso scientifico?

Uno studio scientifico ha provato rispondere a queste domande in modo oggettivo. I risultati però hanno avuto poco eco presso i mass media mainstream, soprattutto in Italia, perché?

Esistono persone che, con le loro opinioni, sono in grado di condizionare l’opinione pubblica. Molti grandi politici e statisti del passato, molti dittatori del XX secolo, erano grandi oratori. Sapevano utilizzare le parole giuste e smuovere le masse per “indirizzarle” nella direzione voluta.

Nel secondo dopoguerra, con la nascita delle scienze che riguardano lo studio della comunicazione efficace, queste capacità sono state tradotte in vere e proprie tecniche comunicative e si sono diffuse in molti campi. Non è ovviamente sufficiente conoscere e saper applicare queste tecniche per avere successo. Immagine pubblica e professionalità sono gli altri elementi che consentono di acquisire particolari posizioni di potere.

Nel campo della comunicazione queste persone sono chiamate Opinion Leader. Nell’era del digitale, in cui gran parte della comunicazione passa attraverso la rete, sebbene con qualche differenza, queste persone sono oggi chiamate “influencer”.

Insomma, parliamo d’individui con un più o meno ampio seguito di pubblico, che hanno la capacità di influenzare i comportamenti delle persone in ragione del loro carisma e della loro autorevolezza, rispetto a determinate tematiche o aree d’interesse.

È proprio l’alto potenziale relazionale e una consolidata reputazione, derivante dall’alto grado d’interesse e conoscenza di un certo argomento, che contraddistingue l’opinion leader, che avvalora la sua autorevolezza e la fiducia da parte del suo seguito. La credibilità può derivare, oltre che dal fatto di essere considerato un esperto in un particolare settore, anche dall’esser percepito come neutrale rispetto ai portatori d’interesse che operano in quel dato settore.

Ma ciò avviene anche in campo scientifico?

Esistono scienziati che con le loro opinioni sono in grado di influenzare il progresso scientifico, indirizzandolo verso una direzione anziché altre o, addirittura, ostacolare il progresso?

Ciò è un bene o un male per l’umanità?

Per chi si occupa di scienza, anche se solo dall’esterno, ormai da vent’anni, appaiono evidenti certe anomale situazioni.

Nei miei libri e articoli, non manco mai di porre l’accento su questa problematica in ambito scientifico, in particolar modo quando si tratta di spiegare determinati aspetti riguardanti il nostro passato.

L’idea secondo cui i progressi scientifici sono il risultato di una pura competizione d’idee, una competizione in cui le intuizioni di alta qualità inevitabilmente emergono come vittoriose, è ancora considerata garanzia di un progresso lineare e libero.

La scienza, nell'immaginario collettivo, è sovente associata al progresso, all'innovazione. La storia insegna però, come quest'immagine della scienza, non corrisponda poi molto alla verità, non perché la scienza non persegua il sapere o la conoscenza, quanto piuttosto perché è gestita dagli uomini, e non tutti gli uomini hanno l'interesse ha cambiare lo stato delle cose. Quest'atteggiamento ha fatto sì che la scienza tenda a essere estremamente cauta quando si parla di nuove conoscenze o ipotesi, che possono mettere in discussione le teorie tradizionali. Tale comportamento è talmente radicato, che è possibile affermare che la scienza è molto più conservatrice che progressista. (dal libro –“Il lato oscuro di Marte – dal mito alla colonizzazione”)

Tuttavia si ritiene spesso che questa idea, sebbene non originale, sia da ritenersi più un’opinione che un dato di fatto.

Già all’inizio del XX secolo, Marx Planck, il pioniere della meccanica quantistica, affermava: "Una nuova verità scientifica non trionfa perché i suoi oppositori si convincono e vedono la luce, ma piuttosto perché alla fine i suoi avversari muoiono, e nasce una nuova generazione a cui i nuovi concetti diventano familiari “.

Neil Turok, fisico sudafricano, uno dei massimi esperti mondiali della teoria delle stringhe, che ricopre il ruolo di direttore del Perimeter Institute for Theoretical Physics in Waterloo (Ontario), ed ha ricoperto la cattedra di fisica matematica alla Cambridge University, fino al 2008, in un’intervista televisiva di qualche anno fa ha dichiarato: “Ci sono dei principi che si danno per scontato in ambito scientifico, e si fa fatica ad abbracciare nuove idee. A dire il vero in molti hanno costruito la propria carriera sullo status quo e non vogliono per questo, che nuove idee agitino le acque”. (dal libro “Il lato oscuro della Luna”)

Fino ad oggi si poteva sostenere che questa idea o sensazione, benché fosse stata manifestata e condivisa anche da scienziati importanti come quelli appena citati, fosse soltanto un’opinione. Grazie ad uno studio pubblicato su Science nel mese di settembre 2018 possiamo finalmente dire che non è assolutamente così.

Il Professor Pierre Azoulay, del dipartimento Sloan School of Management del MIT di Boston, ha voluto verificare le affermazioni di Planck secondo cui la scienza avanzerebbe “un funerale alla volta”, poiché più conservatrice che progressista.

Per cercare di fornire oggettiva risposta alle domande poste nel corso di quest’articolo, Azoulay ha compiuto diversi studi nel corso degli ultimi 10 anni.

Per farlo ha preso in considerazione tutte le pubblicazioni scientifiche nel campo delle scienze della vita (biomedicina), in un intervallo compreso tra il 1968 e il 1998. Una quantità di dati veramente enorme.

Una volta stabiliti criteri e modalità della ricerca, lo studio ha individuato 12.935 scienziati definiti, attraverso criteri oggettivi di valutazione (premi ricevuti, impatto delle ricerche nel proprio settore, numero di citazioni, ecc.) “superstar”.

Di questi ha poi individuato quelli deceduti nell’intervallo preso in considerazione, e il numero è sceso a 452 superstar. Così facendo ha potuto valutare quale impatto ha avuto la scomparsa di questi scienziati, nel campo d loro competenza.

Già con un primo studio pubblicato nel 2008, (in un documento di lavoro intitolato "Superstar Extinction", pubblicato dalla National Bureau of Economic Research) Azoulay aveva scoperto che quando gli scienziati accademici "superstar" muoiono, i loro collaboratori sperimentano un declino rilevante e permanente della produttività (numero di pubblicazioni e importanza delle stesse) nell’ordine del 5-10%. Studiando il ruolo della collaborazione nell'incrementare la creazione di nuove conoscenze scientifiche, ha scoperto che più le aree di studio dei collaboratori si sovrappongono alla superstar, più si accentua il calo della produzione.  Il calo di produzione si perpetua nel tempo, aumentando costantemente per tutto il periodo preso in considerazione (5 successivi anni dalla scomparsa della superstar).

La risultanza dei dati della ricerca è che le superstar riempiono il loro campo scientifico con le loro idee, ma quando muoiono, l'intero campo si contrae, quindi si tratta davvero delle loro idee e gli effetti della loro perdita sono piuttosto ampi e diffusi.

Molti collaboratori delle superstar deceduti sono stati intervistati. Alcuni hanno detto che la scomparsa della superstar è stata una terribile perdita per la scienza, ma altri, hanno detto invece che erano un po' stanchi di quella leadership, affermando addirittura che potrebbe esserci un lato positivo in tutto questo, perché le superstar tendono a “succhiare tutto l'ossigeno fuori dalla stanza” (vale a dire che non lasciano spazio a nuove idee se non le loro).

Nella nuova ricerca pubblicata nel 2018, i risultati sono ancor più interessanti.

I risultati dello studio di Azoulay, hanno posto in evidenza che le morti delle superstar hanno un effetto opposto (quindi positivo) sui non collaboratori.

La morte di una star è seguita da un afflusso di nuove persone nel campo in cui la superstar operava. Il flusso proviene da campi di studio correlati a quello della superstar, ma non dai campi in cui la superstar esercitava la sua influenza.

Le nuove persone che entrano direttamente nel campo lasciato parzialmente libero, portano idee diverse. Le nuove persone pubblicano molti paper, e i loro articoli ricevono molte citazioni, come a indicare che hanno avuto un impatto significativo.

I riferimenti nei documenti dei nuovi arrivati ​​sono quindi diversi, suggerendo che affrontano sì i medesimi problemi scientifici, ma da nuovi punti di vista.

È importante notare, che i risultati di cui sopra non implicano che gli studi scientifici pubblicati dai nuovi partecipanti al settore di ricerca siano necessariamente in contraddizione o rovescino l’idea scientifica prevalente.

Piuttosto, sembrano indicare la presenza di una miriade di "piccole rivoluzioni". Rivoluzioni permanenti in cui nuove idee vengono alla ribalta senza necessariamente eclissarne gli approcci precedenti.

Con sorpresa per chi pensa che in ambito scientifico trionfi sempre la qualità dell’idea e il dato oggettivo, non sono i collaboratori o i concorrenti che lavorano già in quel settore scientifico ad assumerne leadership, ma piuttosto gli scienziati di altri campi che entrano per riempire il vuoto creato dalla scomparsa della superstar.

Pertanto, coerente con le affermazioni di Planck, la perdita di un luminare offre un'opportunità per l’ingresso di nuove idee per evolvere in nuove direzioni, opportunità che fa avanzare rapidamente la frontiera scientifica.

Non si può comunque sostenere in modo assoluto che le superstar scientifiche costituiscano un netto negativo per il progresso scientifico.

Piuttosto, i risultati di questo studio suggeriscono che, una volta giunti al comando dei loro campi di ricerca, gli scienziati superstar tendono a mantenere la loro posizione di autorevolezza, e il potere che ne deriva, un po' troppo lungo.

Infatti, sempre dalla stessa ricerca, non sembra che le superstar usino la loro influenza finanziaria o editoriale, per bloccare l'ingresso di nuove idee nei loro campi, ma piuttosto la prospettiva stessa di sfidare un luminare nel campo serve come deterrente per l'ingresso da parte di estranei.

Appare più che concreta la possibilità che gli “estranei” siano semplicemente scoraggiati dalla prospettiva di sfidare un luminare sul suo campo. L'esistenza di una figura imponente può certamente far pendere la bilancia verso il negativo nel calcolo costi/benefici di proporre studi in contrasto con la teoria dominante. Ciò spinge i ricercatori esterni a ritardare la pubblicazione di certi risultati in attesa “di tempi migliori”, o li spinge a concentrarsi su attività alternative.

D’altro canto gli scienziati devono essere considerati alla stregua di ogni altro lavoratore. Giacché persone normali, non dobbiamo pensare che lo scienziato persegua il sapere, la conoscenza o il progresso ad ogni costo. Anche lui ha esigenze e aspirazioni comuni. Anche lui ambisce ad acquisire fama, prestigio e il potere che esso comporta. Anche lui ha la necessità di mantenere il suo posto di lavoro e “portare a casa” il suo stipendio. Insomma, le logiche che sottintendono la ricerca sono diverse da quelle a cui comunemente si pensa. Per ulteriori approfondimenti in merito, suggerisco la lettura del precedente articolo “ La scienza ha un problema di Fake News ”.

Tornando ai risultati dello studio di Azoulay, per quanto riguarda le superstar oggetto dello studio, queste piuttosto che concentrare i loro sforzi per ostacolare direttamente l’arrivo di potenziali “estranei” concorrenti, sembra che demandino implicitamente questo compito ai loro collaboratori (controllo indiretto).

Infatti, è vero che le superstar in carica all'interno di un campo, possono fungere “da guardiani” dei finanziamenti e dell'accesso alle pubblicazioni su un determinato giornale. Potrebbero essere in grado di allontanare efficacemente le minacce d’ingresso da parte di estranei. Nello studio però, non è stato possibile rilevare alcuna attività in tal senso. Allo stesso tempo, è implicitamente vero che i collaboratori, come capita sovente, sono i principali destinatari dei finanziamenti che arrivano in quel campo di ricerca.

Dai risultati dello studio emerge infatti, che il controllo indiretto (quello esercitato dai collaboratori) sembra quindi essere un potenziale meccanismo attraverso il quale le superstar possono esercitare un'influenza sull'evoluzione dei loro campi, anche dopo la loro morte.

I coautori degli studi della superstar, sia attraverso il loro sforzo diretto per mantenere viva la fiamma intellettuale della superstar scomparsa, sia semplicemente per la loro posizione dominante (finanziaria) sul campo, erigono barriere all'entrata in quei campi, impedendo in prima battuta, il ringiovanimento del settore con l’ingresso da parte di estranei.

Insomma, presi insieme, questi risultati suggeriscono che gli estranei sono riluttanti a sfidare l'egemonia leadership in un campo quando la stella è viva, mentre sono più propensi a correre il rischio quando questa scompare.

Concludendo, appare ormai oggettivo che le superstar della scienza condizionino, non sempre positivamente e non sempre volutamente, il progresso o, almeno, la sua linearità e la sua velocità. La loro influenza, diretta o indiretta, è spesso finalizzata al mantenimento dello status quo.

Gli autori di questo studio precisano che i risultati ottenuti nel campo da loro esaminato (biomedicina), non debbano necessariamente intendersi esemplificativi delle dinamiche presenti in tutti i settori della scienza. Alcuni settori, come quello della fisica ad esempio, in cui gli scienziati lavorano spesso individualmente o in gruppi di pochissime unità, queste dinamiche potrebbero essere differenti.

Tuttavia esistono molti altri settori (archeologia, astronomia, ecc.) in cui le dinamiche sono certamente simili se non addirittura più accentuate (come nel campo delle scienze di frontiera), poiché la ricerca è subordinata e condizionata da finanziamenti soprattutto privati.

Gli autori della ricerca sottolineano infine, come simili dinamiche (e quindi simili ostacoli all’andamento auspicabile del progresso scientifico) si verificano e vengono addirittura accentuate, quando la superstar scientifica si occupa anche di divulgazione al pubblico.

Le superstar scientifiche che si occupano di comunicazione scientifica, o i comunicatori scientifici che diventano superstar, potrebbero rappresentare un ulteriore problema per l’avanzare della scienza nell’interesse collettivo (e forse in Italia lo sappiamo bene!)

In ultimo, perchè i risutlati di questa ricerca non hanno trovato spazio nei mass media mainstram in Italia? Forse perchè mettono in risalto, per la prima volta in modo oggettivo, la presenza di un sistema di potere che mina le fondamenta dello status quo e può ledere l'immagine e la credibilità di qualche superstar scientifica italiana?

Approfondimento su questo ed altri temi riguardanti il mondo della comunità scientifica leggi qui

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Le persone possono prevedere ciò che scriverai sui social anche se non sei sui social

Ormai molti sanno che viviamo in un’epoca di raccolta dati. Internet e tutte le tecnologie connesse alla rete (dagli smartphone ai nuovi agli elettrodomestici di casa) forniscono ai giganti del web (con Google, Facebook, Microsoft schierate in prima fila), terabyte di dati ogni secondo che rivelano ogni aspetto delle nostre vite.

Sebbene ormai questa sia cosa abbastanza nota, quante persone sono davvero coscienti di quanto questi dati possano rivelare di ciascun cittadino?

La quantità e la qualità dei dati sono così importanti che, oltre ad alimentare un vero e proprio mercato delle informazioni, in cui pacchetti di dati sono poi venduti da un’azienda a un’altra per fini commerciali, alimenta anche un mercato clandestino nel dark web dove tra la moltitudine di dati, quelli riguardanti lo stato di salute delle persone sono quelli più costosi, ancor più di user e password di conti bancari.

Ma non tutti sono interessati ai dati per trarne un profitto, diretto o indiretto.

Sono soprattutto i Governi a essere interessati ad analizzare e “lavorare” i dati raccolti dai grandi giganti del web, poiché da questi possono ricavare un quadro abbastanza preciso di ciascun cittadino.

Che ciò accade sistematicamente e che questa tendenza sia in aumento lo dimostrano i report, pubblicati periodicamente dai vari social, delle richieste di accesso ai dati ricevuti dai vari governi (liste nelle quali è il “democraticissimo e garantista” Governo a stelle e strisce a fare la parte del leone).

In articoli di alcuni anni fa, ho già fornito evidenza di come già solo attraverso i dati raccolti sui social, si può tracciare facilmente il profilo di un’utente individuando con precisione il suo orientamento politico, sessuale, religioso, ecc., in modo rapido e automatizzato.

Negli ultimi anni, sempre più utenti ne hanno avuto abbastanza, limitando il loro uso dei social media o eliminando completamente i loro account, pensando che questo sia sufficiente a sfuggire a questa costante profilazione coatta.

Tuttavia questa non è garanzia di privacy, come ha confermato un nuovo studio compiuto dai ricercatori dell'Università del Vermont di Burlington .

Dai risultati di questo studio è emerso che è molto più facile di quanto sembri capire il carattere, le abitudini e le idee di una persona da una “sorveglianza di seconda mano". Ma di cosa si tratta?

I ricercatori dell'Università del Vermont di Burlington hanno provato a profilare utenti che non avevano più account social, monitorando l’attività e il contenuto di altri utenti a lui collegati. Il loro obiettivo è stato quello di provare a prevedere il contenuto di nuovi messaggi (su Twitter).

Sostanzialmente hanno messo appunto degli algoritmi in grado di anticipare le parole future che un utente avrebbe scritto nei suoi successivi twitter, usando una misura nota come entropia. Più entropia significa più casualità e meno ripetizioni.

Se è vero che qualcosa di simile è già presente nelle “tastiere virtuali” degli smartphone, che spesso “suggeriscono” la parola che vorremmo scrivere ancor prima di digitare la prima lettera, a differenza di questi sistemi già esistenti (che utilizzano le sequenze di parole che abbiamo già digitato in precedenza per fornire il suggerimento), i nuovi algoritmi messi a punto dall’equipe di ricercatori anglo-statunitensi, utilizzano invece le informazioni delle altre persone che sono in contatto con l’utente sotto esame.

Per valutare l’attendibilità della previsione dei nuovi algoritmi, i ricercatori hanno prima esaminato i flussi Twitter di 927 utenti, ognuno dei quali aveva da 50 a 500 follower, prestando particolare attenzione ai primi 15 utenti con cui ciascuno di loro aveva twittato di più. Nel flusso di ciascuno dei 927 individui, hanno calcolato la quantità di entropia (casualità) contenuta nella sequenza di parole. Hanno quindi inserito quel numero in uno strumento, un’equazione, dalla teoria dell'informazione chiamato "disuguaglianza di Fano" per calcolare quanto bene il flusso di dati di una persona potesse predire la prima parola nel suo prossimo tweet. L’accuratezza è stata in media, del 53%, ma la percentuale scendeva nel prevedere ogni parola successiva alla prima.

Una volta ottenuto un parametro di riferimento, hanno calcolato l’accuratezza della previsione in base non solo allo stream dell'utente, ma anche a quello dei 15 contatti più vicini. La precisione è salita al 60%. Quando hanno rimosso il flusso dell'utente dall'equazione, lasciando soltanto i tweet dei contatti, tale cifra è scesa a circa il 57%.

Nello studio pubblicato su Nature Human Behaviour, i ricercatori hanno concluso che osservare i flussi dei contatti di un utente è quasi altrettanto valido, o addirittura meglio che sorvegliare direttamente l’utente stesso.

Con questo studio quindi, non solo si è dimostrata l’attendibilità del famoso adagio “dimmi con chi vai e ti dirò chi sei”, ma addirittura hanno dimostrato che non è necessario sorvegliare una persona per tracciarne il profilo.

È sufficiente “monitorare” le persone, gli amici o gli individui con cui interagisce maggiormente per riuscire addirittura a prevedere le parole che utilizzerà in futuro e dunque, volendo estenderne sommariamente il concetto, sebbene per ora soltanto in modo circoscritto, i pensieri.

Ciò che i tuoi contatti scrivono sui social può rivelare una quantità sorprendente di informazioni su di te.

Sono stati sufficienti solo 10 contatti per superare la precisione predittiva derivante dal proprio flusso Twitter individuale.

Per fare un confronto, la previsione di ciò che qualcuno scriverà basandosi su un assortimento casuale di tweet di estranei produce una precisione massima del 51%. Ciò rappresenta pressoché la stessa prevedibilità (53%) che si ottiene usando i tweet della persona stessa (anche perché c'è molta regolarità nella lingua inglese e in quello di cui parlano le persone.)

“I risultati mostrano quindi che, in linea di principio, si potrebbe approssimativamente prevedere cosa twitterebbe qualcuno che non è nemmeno su Twitter, o su un altro social” ha affermato James Bagrow, uno degli autori dello studio.

È sufficiente scoprire chi sono gli amici di una persona offline e poi trovare i feed di quegli amici sui social.

Come ho già fatto notare in un articolo del 2015 dal titolo “Smartphone o smartspy”, ma molte App (anche quelle preinstallate) richiedono l'accesso a molte funzioni del telefono che non rientrano nella diretta esigenza di quell’applicazione. In particolare molte richiedono accessi alla galleria delle foto, al registro delle chiamate e agli elenchi di contatti.

Oggi sappiamo, a seguito dei numerosi scandali che sono emersi negli ultimi anni, che alcune App, acquisiscono dati per poi condividerli e utilizzarli per profilare l’utente.

Facebook (App spesso preinstallata su tutti i telefoni), ad esempio, ha utilizzato le liste di contatti degli utenti per creare “profili ombra”, vale a dire pagine di persone che non si trovano nemmeno sulla rete.

In altri studi, altri ricercatori hanno già dimostrato come si posano utilizzare i tweet delle persone (o qualunque altro dato messo in rete) per prevedere la personalità, segni di depressione e orientamento politico, religioso e sessuale.

I tweet ipotetici basati sui tweet degli amici, come dimostrato da questa ricerca, potrebbero consentire le stesse conclusioni.

"Abbiamo appena scalfito la superficie di quali tipi d’informazioni possono essere rivelate in questo modo", ha affermato Joanne Hinds, altra coautrice della ricerca.

Ciò che dovrebbe essere preoccupante per tutti in termini di privacy, è che ci sono così tanti modi in cui i giganti del web stanno acquisendo dati, che la possibilità di controllo della popolazione sembra non avere limiti.

La gente non si rende conto di quanto tutto ciò comporti, comporterà (o potrebbe comportare) in termini di minaccia alla democrazia e alla libertà individuale.

Un'altra cosa che le persone non comprendono e non prendono neanche in considerazione, è che quando inseriscono i propri dati, le proprie abitudini ecc, nella rete attraverso la moltitudine di dispositivi “smart” che ormai ci circondano, non solo stanno mettendo a rischio o addirittura rinunciando alla propria privacy, ma stanno compromettendo anche quella dei propri amici.

Ciò che tutti pensano sia una scelta individuale, in realtà in un mondo interconnesso, non lo è.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

Ti potrebbero anche interessare:

Continua...

Il pianeta X non è necessario (forse)

 

Si torna a parlare nuovamente del pianeta X. Negli scorsi anni sono stati pubblicati diversi studi, ad opera di differenti atenei europei e statunitensi, che evidenziavano la presenza di anomalie orbitali nei pianeti del nostro sistema solare. I ricercatori, dati alla mano, avevano proposto modelli matematici per spiegare queste anomalie dovute, secondo la loro ipotesi, alla presenza di uno o più grandi corpi celesti oltre l’orbita di Nettuno.

Nello scorso decennio si è scoperto che oltre l’orbita di Nettuno, si trova la fascia di Kuiper, che è costituita da piccoli corpi, rimasti dalla formazione del sistema solare. Nettuno e gli altri pianeti giganti, con la loro gravità, influenzano gli oggetti nella fascia di Kuiper e oltre, collettivamente noti come oggetti trans nettuniani (TNO), che orbitano il Sole su percorsi quasi circolari in quasi tutti i piani orbitali.

Tuttavia, gli astronomi hanno scoperto alcuni misteriosi “fuori linea”, oggetti, circa una trentina, con orbite molto ellittiche e che condividono tra loro lo stesso orientamento spaziale. Questa scoperta, non potendo essere spiegata dai vecchi modelli del sistema solare a otto pianeti (più Plutone inizialmente considerato il 9° pianeta per poi essere declassato a pianeta nano), ha fatto ipotizzare la presenza del pianeta X, poi “confermata” da successivi studi.

In questi studi s’ipotizzava la presenza di un grande corpo celeste, il pianeta X appunto. Con un’orbita molto ellittica durerebbe addirittura tra i 10.000 e i 20.000 anni e una massa 10 volta a quella della Terra, successivi studi avevano addirittura concluso che questo pianeta, sebbene non ancora visivamente scoperto, sia addirittura il responsabile “dell’inclinazione” del Sole.

Questi studi hanno riscosso molti consensi all’interno della comunità scientifica, al punto che la maggioranza degli astronomi considera la presenza di questo pianeta ormai scontata e la sua scoperta visiva pressoché una questione di tempo.

Ma come spesso accade, finché non si ha certezza, nulla può essere dato per scontato.

Secondo un recente studio proposto dai ricercatori dell’Università di Cambridge e dall’università americana di Beirut, e pubblicato su The Astronomical Journal, le anomalie orbitali potrebbero avere una spiegazione differente, spiegazione che non richiederebbe necessariamente la presenza di un corpo gigantesco come il pianeta X.

La spiegazione alternativa si basa sull’ipotesi che al posto del pianeta X ci sia invece un disco composto da piccoli corpi ghiacciati con una massa complessiva fino a dieci volte quella della Terra. Nel nuovo studio, la forza gravitazionale combinata di questi piccoli oggetti in orbita attorno al Sole nella fascia oltre Nettuno, combinate con un modello semplificato del sistema solare, può spiegare l’insolita architettura orbitale esibita da alcuni oggetti alle estremità esterne del sistema solare.

Questa nuova teoria, anch’essa al pari dei precedenti studi che sotto intendevano la presenza del pianeta X, riesce quindi ad ottenere i medesimi risultati, dal punto di vista matematico. Dopo essere balzato alle cronache ormai decenni or sono, con la pubblicazione delle teorie dello scrittore azero Zacharia Sitchin (che aveva tratto informazioni dell’esistenza di un decimo pianeta, chiamato Nibiru in alcuni miti sumero-accadici), il Pianeta X sembrava ormai, sebbene con molte differenze, aver travalicato il limite della mitologia o della fantascienza, per fare il suo ingresso nella scienza ufficiale.

Gli studi ufficiali degli ultimi anni sembravano sul punto di confermare l’esistenza di un altro importante pianeta nel nostro sistema solare, un membro avente caratteristiche (l’orbita fortemente ellittica e le notevoli dimensioni) che richiamavano i racconti sumeri.

Il nuovo studio quindi rimette, di fatto, in discussione l’esistenza di questo famigerato pianeta.

Il nuovo studio infatti, al pari di tutti quelli che hanno supposto la presenza del pianeta X, non ha né maggiore né minore valenza degli studi precedenti.

Allora, il pianeta X esiste o no?

La comunità scientifica torna a dividersi sul tema ma, siccome come diceva Galileo Galilei: ”Le verità scientifiche non si decidono a maggioranza”, al momento e in attesa di nuovi dati, tutte le ipotesi rimangono quindi sul tavolo.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

La Cina sul lato oscuro della Luna

La Cina sul lato oscuro della Luna, là dove nessuno mai è giunto prima (almeno ufficialmente).

Dopo decenni di disinteresse generale, la Luna sembra essere tornata di moda.

La corsa al nostro satellite si aprì ufficialmente nel settembre 1959, quando la sonda sovietica Luna 2 si posò sul suolo lunare. La precedente missione sovietica, Luna 1, mancò il bersaglio. Luna 2 fu invece un successo. Era la prima volta per un veicolo umano, anche se l’atterraggio fu tutt’altro che morbido. La sonda era sprovvista di un sistema di atterraggio o propulsione e dunque impattò violentemente al suolo.

Il successo sovietico fu ripetuto un mese più tardi, con la missione Luna 3 che raggiunse e fotografò, per la prima volta nella storia, la faccia opposta della Luna, quasi totalmente invisibile dalla Terra e per questo spesso noto come “il lato oscuro della Luna”. Grazie alle foto inviate dalla macchina, furono creati i primi atlanti della nuova regione lunare seguita da molti fallimenti.

In piena corsa allo spazio, la Luna era l’obiettivo principale e irrinunciabile anche per gli Stati Uniti. Nel 1958 l’ente spaziale americano lanciò le sonde Pioneer, seguite dalle Ranger, collezionando una lunga serie d’insuccessi. Ci vollero diversi anni per eguagliare i successi sovietici. Solo fra il 1964 e il 1965, infatti, le missioni Ranger cominciarono a inviare a Terra le prime foto della Luna vista da vicino, prima di impattare contro il suolo lunare.

La metà degli anni '60 segnò una svolta positiva anche per l'Urss, che aggiunsero un nuovo primato alla loro collezione di successi spaziali. Nel febbraio 1966, la missione sovietica Luna 9 fu la prima a compiere con successo l’atterraggio morbido sulla Luna.

Lo stesso obiettivo fu raggiunto qualche mese più tardi (nel maggio dello stesso anno) dagli Usa con la missione con il Surveyor 1. Fu questo l’anno in cui le due superpotenze ebbero consapevolezza di avere raggiunto un pari livello tecnologico.

Quello della Surveyor fu anche il primo di una lunga serie di successi che aprì, di fatto, la strada allo storico allunaggio dell'Apollo 11, la missione che il 20 luglio 1969 ha portato i primi uomini sulla Luna. Nelle cinque missioni Apollo che l'hanno seguita (di cui una fallita, l’Apollo 13), 12 uomini hanno camminato sul suolo lunare e sono stati riportati a Terra numerosi campioni del suolo lunare, studiati in tutto il mondo ancora oggi.

Il fiore all'occhiello del programma sovietico restarono invece le missioni Luna 16, che nel 1970 riportò a Terra i primi campioni di suolo lunare (altro primato sovietico), e Luna 17, che rilasciò il rover Lunokhod 1 sul suolo lunare. All’Unione sovietica spettò anche il primato di chiudere, il 9 agosto 1976, la storia degli allunaggi, con la missione sovietica Luna 24.

Dei motivi, più o meno misteriosi che portarono all’improvviso e inspiegabile disinteresse verso il nostro satellite, ho già parlato in articoli precedenti. Così come rimane ancora ufficialmente molto strana la collaborazione tra USA e URSS del 1975, con la missione Apollo-Sojuz in piena guerra fredda.

Per quasi quarant’anni la Luna fu abbandonata. Le missioni di esplorazione si concentrarono su altri obiettivi come l’esplorazione di Marte (soprattutto con le missioni americano Mariner e Viking, anche se ai sovietici spetta ancora una volta il primato di aver fatto giungere il primo veicolo umano sul pianeta rosso) e del nostro sistema solare con le missioni Voyager.

Negli ultimi cinque anni però, la Luna torna a essere un obiettivo interessante come lo era stato alla fine degli anni '50, per quasi 18 anni. Oggi interessa soprattutto i Paesi che si affacciano allo spazio, come Cina e India, ma è tornata ad essere considerata un punto interessante anche per Usa e Russia oltre che per l’Europa.

Nel dicembre del 2013 la sonda spaziale Chang'e-3 (preceduta dalla sonda orbitale Chang’e 1 del 2007, e Chang’e 2 del 2010) si è posata sulla Luna, facendo così diventare la Cina, la terza nazione a riuscire nell'allunaggio, dopo Stati Uniti e Unione Sovietica. L'arrivo della sonda cinese Chang'e 3 sulla Luna ha rotto 37 anni di silenzio. Era, infatti, dal 1976 che un veicolo spaziale non si posava sulla superficie lunare e finora a raggiungere quest’obiettivo erano stati solo Unione Sovietica e Stati Uniti.

Nel 2013 la Cina è entrata in scena in grande stile, non limitandosi al semplice allunaggio ma facendo sbarcare dalla sonda Chang’e 3 (dal nome di una dea della Luna cinese), un piccolo rover (chiamato Yutu, come il coniglio che nella mitologia cinese accompagna la dea Chang'e nel viaggio verso la Luna) che per tre mesi ha esplorato il suolo lunare.

I dati e le immagini fornite dalle sonde cinesi hanno fatto molto discutere. Da alcune di esse si evincerebbe la presenza di strutture insolite che alcuni sostengono essere artificiali.

Negli anni successivi anche Unione Europea, India e Giappone sono riusciti con successo a far atterrare i propri rover, sulla faccia visibile della Luna e, mentre Stati Uniti Russia ed Europa, si stanno concentrando sulla creazione di una stazione spaziale in orbita cislunare e, in seguito alla creazione di basi permanenti sulla Luna, lo sfruttamento minerario della Luna ha allettato molte compagnie private.

Come spesso accade, mentre gli altri parlano e discutono, altri agiscono.

Incoraggiata dai successi della Chang’e 3, il prossimo 8 dicembre 2018 la Cina si prepara a lanciare l’ambiziosa missione Chang’e 4, con l’obiettivo ma riuscito ad alcuno, di far atterrare un lander sul lato nascosto della Luna.

Già annunciato come obiettivo raggiungibile entro il 2020, la Cina è addirittura in anticipo nei tempi previsti. Un inedito nelle missioni spaziali e che dimostra con quale e quanta rapidità ed efficienza la Cina si sta affacciando nel panorama internazionale anche nel settore aerospaziale. Il programma lunare cinese è infatti partito solo 2004.

Anche in questo caso, il lander ospiterà a bordo un rover, che esplorerà l’emisfero più misterioso del nostro satellite.

Dal momento che allunerà dal lato opposto, la Luna bloccherà il contatto radio diretto tra il controllo missione sulla Terra, il lander Chang'e 4 e il rover, il collegamento è stato affidato ad un micro satellite chiamato Queqiao, già lanciato nei giorni scorsi, che si posizionerà nel punto di equilibrio gravitazionale Terra-Luna, chiamato Punto di Lagrange 2 a circa 65.000 chilometri al di là della Luna stessa.

Il lander Chang'e-4 atterrerà nel cratere Von Kármán, la struttura d’impatto più grande, profonda e antica della Luna; all'interno del bacino del Polo Sud-Aitken. Probabilmente formato da un gigantesco impatto di un asteroide, il bacino è di circa 2500 chilometri di diametro e 12 chilometri di profondità. Secondo i geologi cinesi, l'impatto potrebbe aver portato in superficie il materiale dal manto superiore della Luna, uno scenario che i dati di uno spettrometro che misura lo spettro visibile e quello vicino all'infrarosso potrebbero essere in grado di verificare. Lo spettrometro a bordo della sonda cinese esplorerà anche la composizione geochimica del terreno del “lato oscuro della Luna”, che si ritiene differisca dal suolo del lato a noi rivolto a causa degli stessi processi che hanno prodotto la differenza nello spessore della crosta.

Infine, il radar del rover, simile a quello a bordo della precedente missione Chang'e-3, fornirà un altro sguardo fino a circa 100 metri sotto la superficie, sondando la profondità della regolite e cercando strutture sottosuperficiali. Combinare i dati del radar con le immagini di superficie raccolte dalle telecamere montate sul lander e sul rover, potrebbe far avanzare la comprensione degli scienziati del processo che ha portato i due emisferi Lunari, ad essere così diversi.

Esplorando il “lato oscuro della Luna” si apre anche "una finestra completamente nuova per la radioastronomia", ha affermato Ping Jinsong, un radioastronomo dell'Osservatorio astronomico nazionale cinese dell'Accademia delle Scienze (NAOC) di Pechino. Infatti, sulla Terra, e persino nello spazio vicino alla Terra, l'interferenza naturale e umana ostacola le osservazioni radio a bassa frequenza. La Luna invece blocca questo rumore terrestre. La missione sul lato nascosto della Luna dispone quindi di un trio di ricevitori a bassa frequenza: uno sul lander, uno (di fabbricazione olandese) sul rover e un terzo sul micro satellite Queqiao in un'orbita lunare (il contatto con un secondo micro satellite che trasporta un quarto ricevitore è andato perso).

I ricevitori potranno così ascoltare senza interferenze le raffiche di radiazioni solari, i segnali delle aurore su altri pianeti e i deboli segnali delle nubi primordiali di gas idrogeno che si sono formate nelle prime stelle dell'universo.

Oltre ai citati strumenti per lo studio della geologia lunare la sonda porterà anche un contenitore di 3 kg in lega di alluminio pieno di semi e insetti.

Zhang Yuanxun, capo progettista di una parte del Progetto Chang’e-4 ha detto al Chongqing Morning Post: “A bordo della sonda vi saranno patate, semi di arabidopsis  uova di bachi da seta. Le uova si schiuderanno dando vita ai bachi da seta che produrranno anidride carbonica, mentre le patate e i semi emetteranno ossigeno attraverso la fotosintesi. Insieme potranno creare un semplice ecosistema sul nostro satellite naturale”.

Una telecamera in miniatura ne mostrerà l’eventuale crescita. Se l’esperimento avrà successo non sarà comunque la prima volta che una pianta terreste crescerà nello spazio. Ormai sono decine le piante messe a cultura sulla Sazione Spaziale Internazionale. Il prima anche in questo campo spetta però sempre ai sovietici. Nel 1982, l'equipaggio della stazione spaziale sovietica Salyut 7 hanno coltivato con successo alcune Arabidopsis, diventando così le prime piante a fiorire e produrre semi nello spazio. Le piante hanno prosperato per 40 giorni.

L'ambizioso programma lunare della Cina continuerà poi il prossimo anno con Chang'e-5. Questa missione recupererà fino a 2 chilogrammi di terriccio e roccia lunare dall'Oceanus Procellarum, una vasta pianura lunare sul lato visibile della Luna, non toccata da precedenti allunaggi, originatasi, secondo i geologi, da uno dei più giovani flussi vulcanici della Luna.

Cosa scopriranno le missioni cinesi questa volta?

La Luna è il programma spaziale più strategico varato dalla Cina, ma nel frattempo si sta lavorando anche per la costruzione di una stazione spaziale (già sono stati sperimentati i moduli abitati Tyangong) e in prospettiva per arrivare su Marte. Per questo ultimo obiettivo Pechino sta collaborando anche con Mosca.

Il rinnovato interesse internazionale verso la Luna è certamente motivato da interessi economici (quali quello dello sfruttamento delle risorse energetiche lunari come l’Elio 3), da motivi strategici legati all’esplorazione di altri corpi celesti del nostro sistema solare (come lo sbarco dell’uomo su Marte) ma anche da motivazioni scientifiche. La lune da sempre ci affascina e forse ci nasconde sopra e sotto la sua superficie, sul “lato oscuro” in particolar modo, importanti informazioni riguardanti la nostra storia e quella del nostro pianeta.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

Lune aliene: aumentano le possibilità di vita extraterreste

Solo vent'anni fa alla domanda “siamo soli nell’universo?” la maggioranza della comunità scientifica rispondeva in maniera assolutamente negativa, ipotizzando al massimo solo la possibilità di una vita intesa come presenza di batteri o organismi molto semplici, e utilizzando frasi come “è assolutamente improbabile che ci siano omini verdi presenti nel cosmo”, prendendosi gioco apertamente di chi aveva posto loro la domanda.*

Nonostante non tutti fossero di quest’avviso, gli scienziati che si dimostravano più aperti alla possibilità di vita extraterrestre e che avevano il coraggio di partecipare a progetti di ricerca come quelli del SETI, venivano guardati con scetticismo e ilarità dagli altri membri della comunità scientifica.

Quest’ultima infatti, non riconosceva la serietà di questi studi, poiché arroccata sulle posizioni tradizionali della visione antropocentrica dell’universo (principio antropico) e sull’assurda presunzione dell’unicità della vita sulla Terra.

Quest’atteggiamento si registrava soprattutto tra i membri più anziani e più autorevoli della  comunità scientifica , quelli che, di fatto, ne tiravano le fila.

La perentorietà delle risposte, il sarcasmo e la presunzione di questi scienziati, nascondeva in realtà la paura degli stessi, di non essere in grado di rispondere alle inevitabili domande che, anche la semplice ammissione della possibilità di esistenza della vita aliena avrebbe comportato.

La conferma di tutto questo arrivò direttamente da un membro autorevole della comunità scientifica, l’astronomo Geoff Marcy dell’Università della California, il più famoso scopritore di pianeti extrasolari (ha scoperto 70 dei primi 100 esopianeti). In un’intervista televisiva rilasciata nel 2011, ha dichiarò: “…..fino agli anni ’90 il mondo scientifico non si poneva neanche la domanda riguardo alla possibilità dell’esistenza di vita intelligente su pianeti appartenenti ad altri sistemi solari, questo perché non si sapeva come scovare questi pianeti e quindi, volutamente, si evitava di parlarne perché non si sarebbe potuto dare una risposta”.*

Già, perché il 5 Ottobre 1995 all'improvviso e inaspettatamente tutto cambiò.

Michel Mayor e Didier Queloz, dell'Osservatorio di Ginevra, annunciarono di avere scoperto il primo pianeta extrasolare, di massa paragonabile a quella di Giove, attorno alla stella 51 Pegasi. Benché già nel 1989 e poi nel 1992 e nel 1993 fosse stata annunciata la scoperta di pianeti extrasolari, quella del 1995 fu davvero per l’intera comunità scientifica, la scoperta spartiacque.

Adesso che la tecnologia attuale consente di individuare in modo univoco altri pianeti che orbitano intorno ad altre stelle e identificare addirittura quelli presenti nella così detta “fascia abitabile”, la presenza di vita intelligente su altri mondi viene addirittura quasi data per scontata.*

Da quel giorno, infatti, sono stati scoperti migliaia di esopianeti. La scoperta procede a un ritmo esponenziale. Nei primi 18 anni (cioè fino al 2013) i pianeti extrasolari sono stati 1.000 mentre nei 5 anni successivi il numero è più che triplicato. Al 30 novembre 2018 i pianeti extrasolari scoperti sono 3.901 pianeti extrasolari in 2.907 sistemi planetari diversi (di cui 647 in sistemi multipli). Altri 213 esopianeti scoperti sono in attesa di conferma mentre altri 2.443 sono corpi celesti già individuati potenziali candidati a essere catalogati come pianeti. (Guarda 300 anni di scoperte esopianeti in 30 secondi)

Se prima nell’ambito della comunità scientifica si riteneva estremamente rara la presenza di pianeti attorno alle stelle, i dati raccolti negli ultimi anni hanno dimostrato che quasi ogni stella ha il suo gruppo di pianeti che le orbita attorno. Sono pianeti molto diversi ovviamente alcuni rocciosi, altri gassosi, alcuni nella cosiddetta fascia di abitabilità (né troppo vicini né troppo lontani dalla stella di riferimento, in modo che presentino condizioni di temperatura al suolo e pressione da consentire la presenza di acqua liquida), altri al di fuori.

Negli anni ’60-’70, ben prima della scoperta del primo pianeta extrasolare, l’astronomo Carl Sagan, uno dei fondatori del progetto SETI, aveva stimato che, solo nella nostra galassia, ci fossero un milione di civiltà intelligenti.*

Il suo collega Frank Drake, un po’ più conservatore, nel 1961 aveva sviluppato un’equazione matematica, nota come “Equazione di Drake” per calcolare il numero di civiltà intelligenti possibili. Questa equazione è entrata in tutti i libri di astrofisica del mondo.*

Secondo Drake le civiltà intelligenti presenti nella nostra galassia sarebbero “solo” 10.000. L'equazione tiene conto di numerose variabili quali ad esempio il numero delle stelle presenti nella galassia, il numero di pianeti rocciosi presenti nella cosiddetta fascia abitabile, il numero di questi in cui è presente acqua allo stato liquido, la durata di una civiltà prima che si autodistrugga. Ci sono però ancora troppe variabili a cui non siamo ancora in grado di dare un valore certo. Pertanto il risultato esatto di questa equazione, è destinato continuamente a essere aggiornato, sulla base dell’evoluzione delle nostre conoscenze in campo astronomico.*

L’ultimo aggiornamento in ordine di tempo è appunto avvenuto a fine 2012, quando l’astronomo italiano Claudio Maccone ha rivisto l’Equazione di Drake alla luce delle ultime scoperte dei pianeti extrasolari. I risultati delle più recenti ricerche hanno appunto rivelato, che i pianeti sono molto più diffusi di quanto si potesse immaginare cinquanta anni fa. Tutto ciò ha quindi reso indispensabile l’aggiornamento dell’Equazione di Drake, trasformandola appunto nella così detta Equazione di Drake Statistica.*

Il risultato della nuova equazione ha dunque stabilito che il numero delle civiltà intelligenti della nostra galassia sarebbero approssimativamente 4.590. La nuova formula ha permesso anche di abbassare drasticamente la distanza media alla quale si troverebbero dalla Terra queste civiltà. Si stima, infatti, una distanza media di “soli” 2.670 anni luce dalla Terra, con il 75% di probabilità che almeno una di queste civiltà si trovi tra i 1.361 e i 3.979 anni luce da noi. Una distanza tuttavia pur sempre enorme, che sembrerebbe escludere ogni possibilità di comunicazione.*

Questa stima però è stata fatta con i dati disponibili fino al 2012, quando, come detto, i pianeti extrasolari scoperti erano ancora meno di 1.000.

Oggi questo numero è più che triplicato oltre al fatto che si è scoperto che esistono altre stelle (le nane rosse) non visibili a occhio nudo, poiché emettono una luce nello spettro dell’infrarosso, che sono numericamente le più diffuse nella nostra galassia (il triplo di quelle simili al nostro Sole). La maggioranza dei pianeti extrasolari scoperti orbita proprio attorno a questo tipo di stelle, più piccole e meno calde del Sole. Sebbene oggi si ritenga più difficile che possano consentire ai pianeti del loro sistema di ospitare forme di vita, la questione non può essere esclusa.

Negli ultimi anni, infatti, sono state scoperte sulla Terra forme di vita in grado di prosperare in condizioni estreme, senza luce, acqua e/o ossigeno, in grado di resistere a pressioni incredibili o di vivere in luoghi apparentemente inospitali come laghi di arsenico o idrocarburi.

L’acqua ritenuta da sempre essenziale, benché come appena detto, questo sappiamo oggi non sia necessariamente vero, è stat scoperta sulla Luna, su Marte, su Cerere e su Mercurio.

Se tutto questo non fosse ancora sufficiente ad ampliare le possibilità di vita extraterrestre, c’è da aggiungere che già nel nostro sistema solare, ben fuori dalla “fascia di abitabilità” e lontano dai pianeti rocciosi prima considerati essenziali per la vita, sono stati individuati altri ambienti potenzialmente ospitali alla vita. Parliamo delle lune che orbitano attorno a pianeti gassosi come Giove e Saturno. Le lune Europa (Giove), Ganimede (Giove) ed Encelado (Saturno) hanno oceani di acqua salata sotto a una crosta di ghiaccio, in condizioni tali da poter ospitare forme di vita. Ma anche gli oceani d’idrocarburi della luna Titano (Saturno) potrebbero averne.

Nel nostro Sistema Solare sono presenti un gran numero di lune che orbitano attorno ai pianeti. L’astronomia di oggi tenta di scoprire se i satelliti naturali sono così comuni anche al di fuori del Sistema Solare. Risale, infatti, al mese di ottobre 2018 l’annuncio della scoperta del primo esopianeta candidato a ospitare un’esoluna, ma la conferma delle prime rilevazioni dell’oggetto è ancora in corso.

Un passo in più verso la soluzione del mistero delle esolune ci viene fornito da un nuovo studio, pubblicato su Astrophysical Journal Letters, condotto dai ricercatori dell’università di Zurigo, guidati dall’astrofisico Judit Szulágyi.

Se giganti di ghiaccio possono formare i loro satelliti naturali, significa che la popolazione delle lune nell’Universo è molto più abbondante di quanto si pensasse, dato che nel cosmo la categoria di pianeti ghiacciati è molto comune” - riassume il Dr.Szulágyi. “Possiamo quindi aspettarci molte altre scoperte di esolune nel prossimo decennio”,  ha affermato l’astrofisico.

Questo risultato è significativo anche nell’ottica della ricerca mondi abitabili. Gli oceani sotto la superficie sono posti ovvi in ​​cui la vita come noi la conosciamo potrebbe potenzialmente svilupparsi” - ha continuato Judit Szulágyi. “Quindi una popolazione molto più grande di lune ghiacciate nell’Universo implica un maggior numero di mondi potenzialmente abitabili, molti di più di quanto si era immaginato finora. Saranno quindi degli obiettivi eccellenti per cercare la vita al di fuori del Sistema Solare”. Le esolune saranno dunque la nuova frontiera della ricerca di vita aliena?

L’equazione di Drake dovrà dunque essere radicalmente rivista. Dovrà contemplare no più solo i pianeti rocciosi nella fascia abitabile ma anche tutte le lune, sia quella dei pianeti rocciosi, sia quelle dei pianeti gassosi dentro e fuori la fascia di abitabilità, oltre a dover aggiungere tutti quei pianeti che orbitano attorno a stelle diverse dal Sole, come le numerosissime nane rosse.

Alla luce di tutto ciò, la scienza sì è dovuta ricredere. In attesa di riscontri ufficiali, quantomeno la possibilità che la vita (anche in forma intelligente) si sia sviluppata solo sulla Terra è pressoché esigua se non nulla. Siamo dunque soli nell’universo? Solo vent’anni fa la comunità scientifica rispondeva “quasi certamente sì”.

Oggi la risposta è diametralmente opposta: “Quasi certamente no”.

*(i paragrafi con l’asterisco sono tratti dal libro del 2015 Il Lato Oscuro della Luna)

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...

Proposta l'istituzione della Banca mondiale del DNA

La rivista Scienze ha pubblicato la proposta di istituire una banca dati universale del Dna al servizio della medicina forense. La proposta è stata avanzata da un gruppo di ricerca della Vanderbilt University di Nashville, negli Stati Uniti, guidato da James Hazel.

Recentemente, negli Stati Uniti ma anche in Europa, i database con i dati genetici disponibili al pubblico, che appartengono alle aziende private, hanno permesso di identificare dei presunti killer, collegando il Dna trovato sulla scena del crimine con le informazioni genetiche date volontariamente dai loro familiari. Al di fuori delle banche dati pubbliche, i dati genetici conservati in quelle private possono invece essere ottenuti dietro un mandato di comparizione.

Secondo i ricercatori, le richieste di dati privati inoltrate delle forze dell'ordine sono destinate ad aumentare, a seguito della sempre maggiore diffusione di questi metodi d’indagine. Anche se il Dna è un potente strumento per risolvere i crimini, sorge la questione riguardo quali corpi di polizia potrebbero avervi accesso e dell'unione dei dati genetici provenienti da server pubblici e privati.

Secondo questi “scienziati” l'istituzione di una banca mondiale del DNA sarebbe più produttiva, meno discriminatoria e garantirebbe una maggiore privacy, poiché permetterebbe di superare alcuni pregiudizi collegati agli attuali database forensi, che sono costituiti in gran parte da campioni di persone arrestate o condannate generalmente giovani e di colore, a differenza di quelli privati che invece hanno il Dna di persone bianche.

Siamo al paradosso! Come è possibile affermare che una schedatura definitiva completa e sistematica della popolazione (perché questo in sostanza è stato proposto, nascosto con il nome di “Banca dati universale del DNA per la medicina forense”) come possa garantire maggiore privacy.

Viviamo in un mondo in cui ogni aspetto della nostra vita è ormai osservato, catalogato e studiato attraverso la massiccia raccolta di dati che avviene con ogni mezzo, dagli smartphone, ai computer, dagli ormai onnipresenti oggetti SMART (connessi alla rete), alle carte fedeltà o di pagamento, dai miliardi di telecamere con riconoscimento facciale poste in ogni dove nelle città e nei centri commerciali, fino ai satelliti che scrutano dall’alto ogni cosa. Continuamente ogni cosa che facciamo è osservata, ogni parola pronunciata è registrata. In tutto questo, mentre la “propaganda” spinge sempre più verso l’integrazione uomo macchina iniziando ad esempio, dalla promozione all'uso dei microchip sottocutanei già diffusi in molti Paesi dell’Europa settentrionale, il concetto di privacy, ultimo apparente baluardo di quella una pallida idea che chiamiamo ancora libertà, viene minacciato.

Con l’introduzione della carta d’identità elettronica (che ha imposto il prelevamento delle impronte digitali, già proposto in precedenza per il rilascio dei passaporti) la "schedatura classica" sistematica delle persone, fin dai bambini, è divenuta una realtà.

Fino a una decina di anni fa, o poco più, la schedatura classica, cioè la raccolta delle generalità (nome, cognome, età, sesso, altezza, peso, ecc.) dei segni particolari e distintivi (come foto del volto di fronte e di profilo e le impronte digitali) che oggi sono genericamente chiamati “parametri biometrici”, era riservata ai criminali. Una volta tratti in arresto, si passava appunto a “schedare” il criminale o presunto tale.

Oggi, il medesimo trattamento è riservato indiscriminatamente a tutta la popolazione, ma nessuno sembra essersi indignato per questo. La scusa è quella di garantire maggiore sicurezza ma, la realtà dei fatti dimostra che non è assolutamente così.

In quelle che noi continuiamo a chiamare impropriamente “democrazie” l’ingerenza dello Stato, si fa sempre più pressante e coercitiva. Non si è più propriamente liberi di manifestare pubblicamente, sebbene non si calunni, insulti o diffami nessuno, il proprio pensiero se questo non è conforme ad alcune idee dominanti (il riferimento è alle leggi sul negazionismo). Non si è più padroni del proprio corpo e della propria salute (il riferimento è ai crescenti e sempre più diffusi obblighi vaccinali).

In Francia, spesso considerata patria della democrazia in Europa (poiché i principi democratici erano francesi erano stati “importati” dai nascenti Stati Uniti, nel 1776), le cose vanno addirittura peggio. È stata infatti proposta dal “democratico” Macron, l’istituzione di un tribunale deputato a stabilire, in perfetto stile orwelliano, cosa sia vero e cosa no. Un “ministero della verità” insomma.

Oggi dai “democraticissimi” Stati Uniti, quelli che esportano la “democrazia” con le bombe e che spiano tutti, Governi amici e nemici e l’intera popolazione mondiale,  si propone di istituire l’ennesimo, ma non ultimo dato che il microchip sottocutaneo non è ancora obbligatorio, strumento di controllo, come la banca dati mondiale del DNA.

Possibile che nessuno si ponga la questione riguardo la minaccia che questo eventuale sistema di raccolta dati, pone alla libertà personale e alla democrazia.

È davvero necessario dover ricordare che questi dati, conservati su server, potrebbero finire nelle mani sbagliate? Ogni sistema informatico è violabile, non solo da hacker criminali ma, soprattutto (Edward Snowden docet) dai Governi, che possono legalmente o illegalmente accedere a questi dati e farne ciò che vogliono. La concentrazione di dati nelle mani di pochi, costituisce una seria minaccia alla libertà e alla democrazia. Le informazioni sono la primaria fonte per l'ottenimento o il mantenimento del potere!

Solo per fare un esempio, sostituire sui server il nome di un profilo genetico con un altro, può determinare l’accusa o l’assoluzione di una persona. Pensate davvero che queste cose non possano accadere o che ci sarà qualcuno che potrà mai garantire che ciò non accada?

Negli ultimi anni è già la seconda volta che la rivista Science pubblica una proposta di raccolta massiva e sistematica del DNA di tutta la popolazione. Anche nel precedente caso, avvenuto nel gennaio del 2017, la proposta veniva da scienziati statunitensi.

Nel frattempo altri Paesi (Italia compresa) hanno istituito i propri centri di raccolta del DNA. Per il momento dei soli carcerati ma si sa, come già avvenuto ad esempio per i vaccini, una volta fatto accettare alla popolazione il provvedimento in linea di principio, ad allargare la platea degli obbligati si fa presto, è solo il passo successivo.

Parallelamente continuano le iniziative private per creare banche dati del DNA (come quella dell'industria farmaceoutica Astra Zeneca).

Ma l’opinione pubblica dov’è? I Mass media? E gli scienziati nostrani cosa ne pensano?

Secondo il genetista Giuseppe Novelli, intervistato dalla’agenzia ANSA, si tratta di una proposta interessante, ma che suscita diverse perplessità: "Al momento ci sono pochi dati a supporto dell'idea che una banca dati universale possa aiutare a ridurre il crimine. Prima di dire che è efficace e ha dei benefici, bisognerebbe sperimentarla almeno in uno stato per alcuni anni e vederne l'impatto". Secondo Novelli sarebbe meglio usare banche dati del genere "per identificare i cadaveri senza nome o nei luoghi dei disastri di massa".

Se questo rappresenta il massimo della discussione, appare chiaro quindi, che siamo già oltre. Non si discute se sia opportuno istituirla o meno, quanto piuttosto cosa farne dei dati raccolti.

Siamo o stiamo andando, ormai verso un futuro orwelliano in cui chiameremo “democrazia” la dittatura, tanto per illuderci di essere ancora liberi.

Quando i nostri figli, o più probabilmente i nostri nipoti, guarderanno alle nostre generazioni odierne, piangeranno pensando a quanto avevamo ottenuto a livello di diritti e libertà, e a quanto abbiamo perso senza fare assolutamente nulla ma anzi, plaudendo e accompagnando ciascuna di queste privazioni illiberali e antidemocratiche con soddisfazione e sorriso sulle labbra, pensando che si tratti di complottismo. Ci ricorderanno con rancore a causa della nostra indifferenza, il nostro egoismo, il nostro egocentrismo che non ci ha permesso di unirci per fronteggiare il subdolo avanzare di questo autoritarismo che si respira ormai in ogni campo, dalla scienza alla politica.

Stiamo vivendo un nuovo medioevo. Anche se apparentemente più civilizzati, più tecnologicamente avanzati, mediamente più eruditi, enormi passi indietro sono stati fatti negli ultimi due decenni dal punto di vista del rispetto dei valori e dei diritti individuali e democratici. Distratti dai gadget tecnologici e dalla propaganda mediatica, la società moderna ha perso molti dei suoi principi e valori individuali e sociali.

Politica ed economia hanno utilizzato (e stanno utilizzando) il progresso scientifico e tecnologico per circoscrivere sempre più i diritti dei cittadini, facendosi sempre più oppressivi. In presenza dell’incapacità conclamata della gente di discutere di valori e principi, di identificare quelli comuni e di unirsi in difesa di questi, non resta che dire “si salvi chi può”, consapevoli che forse non c’è più alcun posto in questo mondo, dove cercare salvezza.

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore
Continua...

InSight è giunta su Marte con un “equipaggio speciale”

Il 26 novembre 2018, alle 20:54 ora italiana, la sonda InSight è ammartata.

InSight è il 15/o veicolo a toccare il suolo marziano a partire dal 1971, quando sul pianeta rosso si era posato il sovietico Mars 2, distrutto durante la discesa. Non sono mancati i fallimenti delle missioni precedenti, se consideriamo che solo 7 missioni su 16 sono state pienamente operative. L’ultimo fallimento risale a poco più di due anni fa. Il Lander Schiaparelli dell’ESA, si schiantò sulla superficie del pianeta rosso a causa del malfunzionamento di un software. Oggi sono al lavoro su Marte altri due veicoli, entrambi della Nasa: Curiosity, che era arrivato nel 2012, e Opportunity, del 2004. Molti di più sono quelli ancora operativi se consideriamo anche gli orbiter:

  • Mars Odissey in orbita intorno a Marte dal 24 ottobre 2001, era stata inviata con l’obiettivo di trovare tracce di acqua sul Pianeta Rosso. In questo momento è usato come ripetitore tra Opportunity e la Terra;
  • Mars Reconnaissance Orbiter (MRO): lanciato il 12 agosto 2005 ed entrato in orbita il 10 marzo del 2006. Sta tuttora analizzando il pianeta alla ricerca di un luogo idoneo all’atterraggio per missioni future. Attraverso le sue immagini ad altissima risoluzione e a una strumentazione d’avanguardia (almeno all’epoca del lancio), aveva ed ha ancora, l’obiettivo di analizzare la geologia e l’atmosfera del pianeta. Grazie alle immagini di MRO era stata scoperta sul suolo marziano già dal 2017, la presenza di rivoli d’acqua stagionale, scoperta annunciata ufficialmente dalla Nasa solo nel settembre 2016.
  • MAVEN (Mars Atmosphere and Volatile EvolutioN): la missione ha come obiettivo lo studio del clima di Marte. Orbita intorno al pianeta dal 22 settembre 2014.
  • Mars Express: missione dell’ESA lanciata il 2 giugno ed entrata nell’orbita di Marte il 25 dicembre 2003. Era composta dal modulo Mars Express Orbiter (ancora in funzione), che ha mostrato per la prima volta e con dettagli inaspettati la Valles Marineris, e dal lander Beagle 2 (non più operativo), scomparso fino al 16 gennaio 2015 (trovato poi da MRO).
  • Orbiter Mission Mars: prima missione marziana indiana. La sonda chiamata anche Mangalyaan (veicolo marziano in sanscrito) è arrivata sul pianeta rosso il 24 settembre del 2014.
  • ExoMars: missione dell’Esa, composta dall’omonimo orbiter (ancora operativo) che ha il compito di studiare l’atmosfera Marziana, e dallo sfortunato lander Schiaparelli.

In somma, InSight è in buona compagnia e dopo aver viaggiato assieme a due minisatelliti Cubesat MarCO A e B (acronimo di MARs Cube One, che hanno avuto il compito di trasmettere i primi segnali di InSight dal suolo di Marte) avrà il compito di esplorare il sottosuolo marziano.

Rob Grover, responsabile della fase Edl (entrata, discesa e atterraggio) di InSight, aveva spiegato così la scelta del sito di ammartaggio, nella regione Elysium Planitia: "Questa regione vulcanica, in prossimità dell'equatore, sembra essere ancora geologicamente attiva e rappresenta il luogo ideale per studiare il mantello e il sottosuolo marziano”.

Come si evince facilmente da questa dichiarazione, infatti, Marte non è più considerato un pianeta morto.

La missione InSight non sarebbe neanche stata progettata se i dati delle precedenti missioni, sia quelle ancora attive, sia quelle ormai terminate, non avessero stravolto completamente l’idea trentennale che la comunità scientifica si era fatta di Marte, sulla base delle poche immagini e dati raccolti dalle missioni Mariner e Viking degli anni ’70.

Fino a qualche anno fa infatti, l’idea prevalente di un Marte freddo, arido, inospitale alla vita, geologicamente morto era ormai considerata una certezza. Le missioni che sono state progettate dalla metà degli anni ’90 fino ai primi del nuovo millennio, avevano lo scopo di cercare conferme a questa idea.

I dati raccolti però non solo non hanno confermato questa idea, ma l’hanno addirittura smentita completamente.

Scoperte sensazionali si sono avute senza soluzione di continuità:

Tutte queste evidenze hanno aperto scenari inimmaginabili solo vent’anni fa, obbligando a ridiscutere l’idea che l’uomo aveva di Marte, del suo passato e del suo futuro.

Nell’ultimo decennio, infatti, anche i privati (come Space X di Elon Musk e MarsOne di Bas Lansdorp) hanno iniziato a sviluppare progetti per colonizzare Marte.

Sì, perché scoprire che il pianeta presente caratteristiche tali da poter consentire ancora (con i dovuti accorgimenti) il sostentamento della vita è un qualcosa di veramente rivoluzionario.

Ma in attesa che qualcuno di questi progetti possa veramente venire alla luce e consentire così all’uomo di calcare le sabbie di Marte, si continuano a cercare conferme alla nuova idea di un Marte ancora vivo. Si sa, scardinare delle idee decennali è difficile, soprattutto in ambito scientifico dove, nonostante ci si dovrebbe basare sull’evidenza dei dati, troppi sono gli interessi, di lobby e gruppi di potere ma anche semplicemente personali, che sottintendono le logiche di gestione della scienza, del suo sapere e della divulgazione presso il pubblico.

InSight proverà a fornire altre conferme e, come dice il suo nome (letteralmente “guardare dentro”) avvalendosi di un sismografo e di una sonda, misurerà la temperatura fino alla profondità di cinque metri, rivelando così se all'interno del pianeta rosso esista ancora una forma di calore. 

Se l’ipotesi fosse confermata, si potrebbe dedurre che l’acqua salata scoperta nel luglio 2018 sotto i ghiacci del polo sud Marziano, potrebbe essere addirittura più calda di quanto si pensi, aggiungendo così un nuovo tassello alle probabilità di trovare forme di vita marziane.

Mentre si cercano segni di vita marziana, e in attesa che l’uomo arrivi fisicamente sul pianeta rosso, InSight ha virtualmente portato la prima colonia umana su Marte.

Una colonia molto numerosa, composta di 2.429.807 persone di tutto il mondo (gli italiani sono 75.093, l’Italia è il sesto Paese più rappresentato dopo Stati Uniti, Cina, India, Regno Unito e Turchia) che, aderendo ad una campagna di divulgazione scientifica della Nasa, hanno potuto scrivere il proprio nome su due chip di silicio di appena 8mm montati su InSight.

Dopo un viaggio di quasi sei mesi e di quasi 100.000.000 di km, all’ammartaggio di InSight del 26 novembre 2018, simbolicamente una parte di queste persone, rappresentato dal loro nome, è giunta per la prima volta su un altro pianeta e lì vi rimarrà forse per sempre.

Un’idea romantica ma anche di forte impatto mediatico. Chissà se un giorno qualcuno, ritrovando InSight su Marte, riuscirà a recuperare il chip e vedere i nomi scritti sopra. Chissà se questi nomi sono stati davvero i primi nomi propri di forme di vita intelligenti a essere presenti su Marte. Chissà se sono stati i primi nomi di esseri umani a giungere sul pianeta rosso. Chissà se saranno gli ultimi.

Le prossime missioni Mars2020 della Nasa ed Exomars2020 dell’Esa forse potranno rispondere a queste domande. Nel frattempo ogni possibilità resta sul tavolo….

Stefano Nasetti

© Tutti i diritti riservati. E' vietata la riproduzione, anche solo parziale dei contenuti di questo articolo, senza il consenso scritto dell'autore

 

Continua...