Il Tredicesimo Cavaliere

Scienze dello Spazio e altre storie

Dalla Terra di Nessuno alla Terra di Mezzo

Tolkien e la Grande Guerra

“Nel terriccio della mente”. Con questa sua tipica frase J.R.R.Tolkien intendeva dire che i semi di idee, ricordi, impressioni, fantasie, suggestioni giacevano a fermentare e poi crescere e germogliare per dar vita a quanto scriveva, tutto plasmato dalla sua prodigiosa immaginazione. Il suo Mondo Secondario, teorizzato nella fondamentale conferenza (poi saggio)  “Sulle fiabe”, elaborata per rispondere all’accusa di escapismo lanciatagli contro dai critici progressisti dopo l’uscita de Lo Hobbit  nel 1937, nasce così.

DeTurris-WWILa Terra di Mezzo con la sua geografia, la sua cosmologia, i suoi popoli, i suoi protagonisti e i suoi linguaggi, ha quindi una origine lunga, tormentata e assai complessa, che può quindi essere interpretata in modi diversi a causa delle molteplici suggestioni che ne sono base, anche se le ragioni fondamentali della sua creazione, come Tolkien disse, sono due: linguistica e mitologica. Facciamo un esempio: Se si pensa alla descrizione di Mordor e della landa paludosa che Frodo e Sam attraversano faticosamente ne Il Signore degli Anelli per raggiungere il Monte Fato e gettarvi l’Unico Abello, molte similitudini possono venire in mente: l’aldilà oscuro e la terra dei morti della mitologia classica; le terre imputridite dall’inquinamento industriale contro il quale lo scrittore lanciava le sue invettive quando viveva a Oxford; e anche la no man’s land di fronte alle trincee inglesi e francesi che le divideva da quelle tedesche sul fronte della Somme: crateri di bombe, fumi delle esplosioni, filo spinato, esalazioni di gas, pozze d’acqua infetta, cadaveri putrefatti, ruderi di case sventrate dalle cannonate. Uno scenario apocalittico rimasto impresso nella mente e nel cuore di Tolkien, che con tante altre suggestioni si riverbera rielaborato nella sua scrittura.
Il giovane scrittore che nel 1916 aveva 24 anni, inquadrato come sottufficiale segnalatore nell’ 11° Fucilieri del Lancashire giunse in Francia il 6 giugno e raggiunse la linea del fronte il 6 luglio partecipando all’attacco di Ovillers il 14. Dopo molte vicissitudini e spostamenti, nel corso dei quali apprenderà della morte di due suoi amici che facevano parte della associazione dei TCBS, il 27 ottobre a Beauval si ammala della “febbre da trincea” causata dai pidocchi”, il 29 viene ricoverato all’ospedale di La Touquet e l’8 novembre viene rimpatriato con la nave Asruruas. e venne portato all’Ospedale Universitario di Birmingham, quindi in quello di Hargate. Cento giorni nelle trincee delle Fiandre lo hanno segnato profondamente. E’ in ospedale che elabora il primo nucleo del suo legendarium, che aveva già iniziato a scrivere nei campi di addestramento in patria: Il Libro dei Racconti Perduti, a cominciare da La caduta di Gondolin. John Garth nel suo nel suo Tolkien e la Grande Guerra, uscito nel 2003 nel trentesimo della sua morte, e pubblicato nel 2007 da Marietti in una edizione non priva di  qualche menda, ne ricostruisce minuziosamente non solo questa esperienza in un grande collage che attinge a documenti pubblici e privati, come potrebbe far immaginare il titolo del lungo e complesso saggio, ma la giovinezza e gli esordi della carriera di studioso e narratore considerando l’esperienza bellica  “la soglia della Terra di Mezzo”,  èta il sottotitolo del libro.

Il Libro dei Racconti PerdutiMoltissime volte in pubblico e in privato Tolkien ha considerato inaccettabili le analisi psicanalitiche di un testo per spiegare le intenzioni di uno scrittore e individuarne i reconditi spunti, così come ha sempre respinto la tecnica della “applicabilità” di quanto egli scrive a eventi e personaggi della realtà. Garth è d’accordo, ma certamente non si può negare che quanto Tolkien vide e subì nelle trincee della Somme sono rintracciabili nella sua creazione della Terra di Mezzo (soprattutto nelle battaglie), insieme alle suggestioni mitologiche, leggendarie, storiche e personali. Nel terriccio della mente rielaborò negli anni il tutto inconsapevolmente e ne uscì il suo capolavoro epico, l’unica narrazione epica del XX secolo, come dice anche Garth, che con la sua bella opera ci ha fornito nuovi spunti di analisi. Una storia ricchissima di simboli rivolti a quel passato mitico che il filologo e linguista tenente Tolkien amava e che lo fanno distinguere, come Garth sottolinea, dagli innumerevoli “scrittori delle trincee” inglesi: non scrisse memoriali né pro né contro la terribile esperienza bellica che costò decine di milioni di morti, ma semplicemente la rifuse mitizzandola nel Mondo Secondario della Terra di Mezzo.

GIANFRANCO de TURRIS

27 settembre 2014 Posted by | Fantascienza | , , , | 5 commenti

Sulle ali del Buran

immagine 1Se ci fossimo trovati sulla pista del cosmodromo di Baikonur il 15 novembre 1988, avremmo visto atterrare lo Shuttle dell’immagine qui accanto e ci saremmo certamente domandati perché mai un veicolo spaziale statunitense avrebbe dovuto atterrare in un cosmodromo sovietico.

(immagine 1)

Se avessimo potuto avvicinarci per chiedere spiegazioni ai piloti della navetta, avremmo scoperto che all’interno non c’era nessuno! I tecnici nei pressi della pista ci avrebbero allora spiegato l’arcano, con un sorrisetto di sufficienza: quella navetta spaziale così simile allo Shuttle statunitense era in realtà di costruzione sovietica, completamente automatizzata, cosa che all’epoca gli americani nemmeno sognavano. Il suo nome era quello del vento gelido e insistente che soffia  sulla steppa e, quando arriva sull’altopiano del Carso, accelera tra le doline e si abbatte su Trieste con lunghe velocissime raffiche. Noi lo chiamiamo Bora, i russi Buran.

Per comprendere come abbiano fatto i sovietici a sviluppare una navetta spaziale molto simile allo shuttle statunitense, dobbiamo fare un salto indietro di qualche anno. Siamo nel 1974 e nel programma spaziale sovietico avvengono grandi cambiamenti: la conquista della Luna non è più la priorità e quindi il razzo vettore N1-L3 viene cancellato dal programma dopo vari fallimenti. Gli USA stavano mettendo a punto una navetta spaziale parzialmente riutilizzabile, che oggi conosciamo come Shuttle, e l’Unione Sovietica non voleva perdere la parità militare con i suoi antagonisti, elemento fondamentale per scongiurare una possibile sconfitta sul campo, come enunciato nel cosiddetto principio della Mutua Distruzione Assicurata (MAD), uno degli assiomi della Guerra Fredda. I sovietici temevano infatti che gli USA volessero eventualmente utilizzare gli Shuttle per lanciare testate atomiche dallo spazio e colpire ogni punto della superficie terrestre in pochi secondi (1). Fu così che la corsa allo spazio mantenne i suoi rapporti con la politica e Mosca colse l’occasione per dimostrare la propria preparazione tecnologica e la capacità di essere ancora competitiva dopo il fallimento del vecchio programma spaziale.

Il programma denominato Sistema Spaziale Riutilizzabile (MKS) venne affidato al team della NPO Energia, che condusse dal 1974 al 1975 studi preliminari su una nuova tipologia di razzi spaziali sotto il coordinamento dell’ingegner Glushko. A differenza degli ingegneri statunitensi, quelli sovietici non avevano alcuna dimestichezza con i razzi a combustibile solido. Utilizzarono quindi quello già collaudato nel precedente razzo N1: combustibile liquido di ossigeno-cherosene per quattro razzi RD-170 nel primo stadio e un razzo alimentato ad ossigeno-idrogeno RD-0120 per il secondo stadio (2). Per la navetta furono ipotizzate diverse configurazioni: una senza ali a sezione conica;  un’altra dotata di ali ispirata al precedente progetto Spiral (3); infine un velivolo alato a forma di “croce”. Il primo modello a sezione conica sembrava essere il più semplice e versatile da alloggiare sulla parte superiore del razzo, con la libertà di inserire da quattro a sei razzi laterali a seconda delle missioni. L’atterraggio sarebbe avvenuto con un paracadute e retrorazzi nella fase finale (4).

immagine2

(Immagine 2)

Dopo gli studi preliminari il governo autorizzò lo sviluppo del progetto Buran-Energia con il decreto 132-51 del 12 febbraio 1976 con il titolo “Sviluppo di uno MKS (sistema spaziale riutilizzabile) composto da razzi a stadi, aeromobili orbiter, sistema di rimorchiatore inter-orbitale, di orientamento, lancio e di atterraggio, strutture di montaggio e di riparazione, e di altre risorse correlate, con l’obiettivo di mettere in orbita a 200 km Nord-Est un carico utile di 30 tonnellate e 20 tonnellate per il ritorno“ (5). Il progetto doveva realizzare una navetta con carico utile superiore a quella statunitense e soddisfare i seguenti obiettivi per essere approvata definitivamente:

•    Impedire l’uso dello spazio per scopi militari
•    Ricerca per lo sviluppo militare, scientifico ed economico della nazione
•    Riuscire a portare in orbita cosmonauti, veicoli spaziali e forniture
•    Riuscire a portare in orbita 30 tonnellate a 200 km di altezza con un angolo di inclinazione di 50,7°, poter eseguire missioni in orbita di almeno una settimana di durata e poter rientrare in atmosfera con 20 tonnellate di carico
•    Sfruttare la tecnologia della navetta spaziale statunitense per migliorare la tecnologia spaziale sovietica.

In conseguenza a problemi tecnici riscontrati nell’uso della navetta senza ali a sezione conica, soprattutto nelle fasi di rientro, il decreto governativo sancì che il disegno aerodinamico dello shuttle statunitense era quello più idoneo. Esso era il frutto di un lungo lavoro di selezione attraverso ben 64 diverse configurazioni. Con la scelta di guardare al progetto della NASA si decise di inserire la navetta in posizione laterale rispetto al razzo e di utilizzare la configurazione di Energia con i quattro razzi laterali.

immagine 3(Immagine 3)

Il 21 novembre 1977 il governo con il decreto numero 1006-323 deliberò la pianificazione del progetto. Si prevedeva un primo lancio di prova nel 1983, seguito da un secondo lancio ufficiale nel 1984, e lanci di routine per l’anno 1987, in coincidenza con il 70º anniversario dell’Unione Sovietica.
Nel 1978 venne completato il progetto tecnico di Buran e dal 1979 prese il via la produzione di modelli di prova (denominati BOR-4 e BOR-5, in continuità con le navette BOR-1, BOR-2 e BOR-3 del precedente progetto Spiral (6) ) con i quali, negli anni successivi, si eseguirono numerosi test di volo al fine di migliorarne le prestazioni.

Immagine 5(Immagine 5)

Nel dicembre del 1983 vennero anche realizzati modelli statici di Buran denominati con la sigla “OK-ML” (OK-ML-1 e OK-ML-2): il primo, nel 1983, doveva essere utilizzato per il primo lancio di Energia, ma servì solo per testare la movimentazione e i comandi; mentre il secondo, del 1984, venne destinato a collaudare l’integrazione dei sistemi di bordo.

Immagine6(Immagine 6)

Nonostante alcuni test incoraggianti il programma registrò una brusca frenata proprio nell’anno 1983, in quanto vennero riscontrati alcuni problemi negli impianti elettrico, idraulico ed elettronico. Era chiaro che non si sarebbe potuto rispettare la tabella di marcia stabilita nel decreto del 1977.
Il 29 dicembre 1984 venne eseguito il primo volo di prova di un modello a grandezza naturale di Buran, chiamato BST-02 o OK-GLI, che poteva decollare e atterrare grazie a motori turboventola Ljul’ka AL-31 posizionati sulla coda.

Immagine7(Immagine 7)

Il 15 maggio 1987 ebbe luogo il primo lancio del vettore Energia, che avrebbe dovuto mettere in orbita il veicolo spaziale Polyus. Tutto andò bene per Energia ma non altrettanto per Polyus, il quale era stato caricato sulla razzo in posizione ribaltata e avrebbe dovuto eseguire una manovra di 180° per tornare in posizione corretta. Sfortunatamente la navetta ruotò di 360°, cadendo nell’oceano Pacifico. Si susseguirono numerosi test di volo nel corso degli anni, in particolare la navetta OK-GLI ne effettuò 25, di cui 15 completamente automatizzati (7). Il primo volo di Buran-Energia era previsto per il 29 ottobre 1988 alle ore 6.23 di Mosca. Il 23 ottobre la navetta Buran venne portata sulla rampa di lancio Baikonur e il 26 ottobre la commissione tecnica si riunì per definire la data esatta della partenza. Il giorno 29, 51 secondi prima del lancio, nel momento in cui il controllo del conto alla rovescia passò al computer di bordo, un errore nel software interruppe la sequenza di lancio: il ritardo temporale di un giroscopio non aveva sganciato in tempo un cordone dal razzo alla rampa di lancio. Risolto il problema, il 15 novembre 1988 alle 6.00 di Mosca (03,00 GMT) ecco il primo lancio di Buran ed Energia, nonostante che le condizioni atmosferiche non fossero delle migliori. Buran con la sua massa di 79,4 tonnellate si separò da Energia raggiungendo l’altitudine di 154,2 km, eseguendo una manovra a 66,6 m/s, entrò in una nuova orbita tra i 251 e i 263 km dalla Terra. Successivamente, dopo aver compiuto un volo orbitale completo in 140 minuti a 775 m/s ed aver acceso i retrorazzi, la navetta atterrò perfettamente nella base di Baikonur 206 minuti dopo il lancio  (8).

Il volo di Buran fu eseguito in modo completamente automatico e fu uno dei maggiori successi del programma spaziale sovietico. Dopo 12 anni di sviluppo tra alti e bassi, il programma spaziale sovietico vantava la realizzazione di un progetto che poteva rivaleggiare con il programma Space Shuttle. Sfortunatamente quello sarà l’ultimo volo di Buran ed Energia. Il 29 dicembre 1989 venne eseguito a Baikonur l’ultimo test della navetta OK-GLI e qualche anno dopo, il 30 giugno 1993, Boris Yeltsin cancellò definitivamente il progetto Buran-Energia. Una delle motivazioni di questa scelta potrebbe essere stata la sopraggiunta disgregazione dell’Unione Sovietica. Un forte peso potrebbe averlo avuto il costo dell’intero progetto che, al momento della cancellazione, ammontava a 16,4 miliardi di rubli (9) (tenendo presente che l’intero programma Space Shuttle costò 192 miliardi di dollari (10). La fine ingloriosa della navetta Buran si concluse definitivamente il 13 maggio 2002, quando l’hangar di Baikonur in cui era conservata collassò su di essa, distruggendola. Una parte di Energia, invece, è oggi utilizzata nel razzo Zenit (11).

Caratteristiche tecniche e confronto con il progetto statunitense

Fin qui abbiamo visto la storia e alcune caratteristiche tecniche di Buran e del lanciatore Energia, ma ora vediamo un po’ più nel dettaglio queste caratteristiche al fine di confrontarle con quelle dello Space Shuttle.
immagine9 - 2

(Immagine 9-2)

Partiamo dai sistemi a razzo disponibili. Energia non era progettato per essere necessariamente accoppiato a Buran, e poteva quindi essere utilizzato anche in missioni e configurazioni diverse (13). La capacità di mettere in orbita carichi compresi tra 80 e 100 t, in configurazione normale, e 175 t in configurazione potenziata, faceva di Energia uno dei lanciatori più potenti e versatili. Un’altra differenza importante stava nell’alimentazione: lo Space Shuttle era alimentato a combustibile solido, mentre Buran a combustibile liquido. Questo permetteva al lanciatore sovietico di raggiungere una potenza maggiore e un più alto livello di sicurezza rispetto a quello statunitense perché l’attivazione delle sezioni a combustibile solido era data da piccole detonazioni, che in caso di guasto o malfunzionamento avrebbero potuto provocare incidenti devastanti, analoghi a quello del  Challenger (14).

Siccome Energia era progettato per funzionare indipendentemente dal trasporto di Buran, il serbatoio centrale ospitava dei razzi a propellente liquido di ossigeno-idrogeno, utili per portare la navetta spaziale in orbita bassa. Al contrario nello Shuttle statunitense i razzi per raggiungere l’orbita bassa erano alloggiati direttamente sulla navetta e alimentati dal serbatoio centrale, privo di motori. Questa configurazione riduceva la grandezza della stiva e rendeva la navetta parzialmente riutilizzabile. Buran possedeva comunque due motori alimentati ad ossigeno-cherosene, che potevano essere accesi per agevolare le manovre orbitali (15).

 

Immagine 8(Immagine 8)

Energia è stato progettato prevedendo la possibilità di un suo completo riutilizzo. Nel primo lancio del 1988 si equipaggiarono i razzi laterali con dei paracadute per il rientro in atmosfera. Per le missioni successive si prevedeva la progettazione di  Energia-2, dotato di razzi laterali con ali estensibili per planare fino a terra in maniera automatizzata, così come il serbatoio centrale dotato di ali a delta per atterrare automaticamente in aeroporto (16).

 

immagine9(Immagine 9)

Per quanto riguarda il confronto tra la navetta Buran e lo Shuttle, vi sono alcune sostanziali differenze nonostante la loro apparente somiglianza. Buran venne progettata per portare in orbita 30 t e riportarne a terra almeno 20 t, mentre lo Shuttle riusciva a portare in orbita 20 t e a terra solo 15 t. E questo perché Buran aveva una stiva più spaziosa, mentre lo Shuttle doveva trasportare il peso dei motori per la messa in orbita (17). Nella fusoliera del Buran c’era  spazio per il trasporto dai due ai quattro membri dell’equipaggio e fino a sei passeggeri, mentre nello Shuttle trovavano posto otto astronauti. Il rivestimento di piastrelle termiche venne studiato in maniera autonoma dagli ingegneri sovietici, ottenendo un rivestimento molto più efficace di quello dello Shuttle. Con l’elaborazione di software computerizzati si è stabilita la posizione migliore di ogni mattonella termica sulla fusoliera del Buran (18).

 

immagine10(Immagine 10)

Per la tecnologia di bordo gli ingegneri cercarono di emulare quella dello Shuttle, ma ne conoscevano solo i principi generali senza sapere come funzionassero nel dettaglio. Per questi motivi entrambe le navette producevano energia elettrica con celle a combustibile d’idrogeno e usavano idrazina per alimentare i sistemi idraulici di bordo. Questa convergenza tecnologica fu possibile solo perché gli ingegneri sovietici si fidavano del fatto che questi erano stati adottati con successo dagli ingegneri statunitensi. Perciò gli ingegneri sovietici dovettero cimentarsi in una sfida tecnologica molto complessa per raggiungere gli stessi risultati (19).
Il tratto distintivo di Buran era quello di riuscire a compiere missioni orbitali senza piloti: essendo completamente automatizzato poteva tornare nell’atmosfera e atterrare usando i computer di bordo. Questo suggerisce che i sovietici possedevano già una tecnologia informatica che ancora mancava agli statunitensi.
Infine il modo di trasportare Buran ed Energia sulla rampa di lancio era completamente diverso da quello dello Shuttle. Il primo utilizzava uno speciale vagone ferroviario e si trovava in una posizione orizzontale, mentre il secondo viaggiava su un cingolato di grandi dimensioni e in posizione verticale: di conseguenza il trasporto di Buran ed Energia era logisticamente più semplice e sicuro rispetto a quello dello Space Shuttle.

Immagine 11(Immagine 11)

In conclusione i sovietici crearono una navetta spaziale e un lanciatore orbitale con prestazioni sorprendenti, ma il crollo dell’Unione Sovietica e la mancanza di fondi non permisero ulteriori sviluppi del progetto, che forse avrebbe potuto diventare remunerativo nel corso degli anni. Oramai oggi sia Buran che lo Shuttle sono sistemi superati, e considerati troppo costosi e poco sicuri.
Sta di fatto che la competizione tecnologica tra Stati Uniti e Unione Sovietica ha, ancora una volta, il merito di aver dato vita ad uno dei progetti più avveniristici dell’intera storia dell’astronautica.

«L’atterraggio automatico del velivolo [Buran ndr.] ha ispirato gli aerei da combattimento di quinta generazione e numerosi velivoli senza equipaggio. Solo che, come è avvenuto con i satelliti artificiali, ci arrivammo prima noi.» (20)

(Valerij Burdakov)

LUCA DI BITONTO

 

Note

1: http://www.astronautix.com/craft/buran.htm
2: http://www.energia.ru/english/energia/launchers/vehicle_energia-e.html
3: Spiral era un progetto del 1965 che prevedeva la realizzazione di uno spazioplano da utilizzare per operazioni belliche. Questo progetto non venne mai completato e nel 1978 fu cancellato a favore di Buran dopo numerosi voli di prova e oggi è esposto al museo dell’aviazione di Monino in Russia. L’idea dello spazio plano, ovvero un aereo che riuscisse a raggiungere lo spazio, era già stata pensata dall’ingegnere sovietico Friederich Zander. Uno dei primi progetti è il bombardiere sub-orbitale Silbervogel, progettato dall’ingegnere austriaco  Eugen Sänger nella seconda metà degli anni trenta.
4: http://www.astronautix.com/craft/buran.htm
5: http://www.astronautix.com/craft/buran.htm
6: Le navette BOR furono lanciate dal vettore Kosmos fino al 1978, anno della cancellazione del progetto Spiral. I dati tecnici saranno utilizzati per la messa a punto del Buran.
7: http://www.buran.ru/htm/molniya5.htm
8: http://www.k26.com/buran/Info/Timeline/1987-93/buran-energia_history_timeline.html
9: http://www.buran-energia.com/
10: http://complottilunari.blogspot.it/2014/04/costava-di-piu-il-saturn-v-o-lo-shuttle.html
11: http://www.k26.com/buran/html/sea_launch.html
12:http://www.buran-energia.com/
13: Una delle configurazioni più potenti era la Vulkan con 8 booster laterali, in grando di lanciare in orbita un carico di 175 tonnellate. Un’altra configurazione era Energia-M, pensata per lanciare una navetta simile a Buran ma di dimensioni minori.
14:http://www.k26.com/buran/Info/A_Comparison/a_comparison.html
15: http://www.k26.com/buran/Info/A_Comparison/a_comparison.html
16: http://www.k26.com/buran/Info/Energia_HLV/energia_fly_back_booster.html
17:http://www.buran-energia.com/bourane-buran/bourane-desc.php
18:http://www.buran.ru/htm/molniya5.htm
19: http://aurorasito.wordpress.com/2013/11/21/i-sovietici-costruirono-uno-space-shuttle-migliore/
20: http://aurorasito.wordpress.com/2014/01/20/cose-successo-alla-navetta-spaziale-buran/

23 settembre 2014 Posted by | Astronautica, Difesa Planetaria, News, Scienze dello Spazio | , , , , , | Lascia un commento

Pianeti nomadi o fantapianeti?

pianeta nomadeAnche se la notizia non è certo fresca, l’esistenza dei cosidetti pianeti nomadi non è di quelle che si possano scordare in fretta. Dato che è ormai quasi un  anno che non leggo novità in merito, ho pensato che i lettori del Tredicesimo Cavaliere avebbero gradito trovare qui  un riepilogo della situazione, ma non mi stanco di ripetere: le cifre sotto riportate in relazione al numero dei pianeti nomadi esistenti nella Galassia sono sconvolgenti per la loro enormità e vanno prese con molta cautela. E’ utile ricordare che sia il microlensing gravitazionale che l’esistenza dei pianeti vagabondi sono due settori di studio ancora nuovi. Forse l’atteggiamento più consono da tenere in questi casi è quello di  Debra Fischer (Yale University): “Sarebbero una specie di gramigna dello spazio”, ha dichiarato a Nature, non senza un tocco di humour.

Pare proprio, infatti, che questi corpi celesti esistano veramente, e vaghino in grande numero nello spazio profondo seguendo il senso di rotazione galattico. Oggi disponiamo però di una prima base teorica,  che ci aiuta a capire come e perché questi corpi planetari si siano sviluppati e ad un certo punto abbiano assunto un’orbita iperbolica, abbandonando il proprio sistema. Ricercatori di tutto il mondo partecipano a questo sforzo, ma due gruppi in particolare sembrano aver dato ad oggi i contributi più significativi: l’uno diretto da Abbot e Switzer presso l’Università di Chicago, e l’altro da Louis Strigari della Stanford University. Per il momento è stato raggiunto un punto fermo: i pianeti nomadi, nella maggioranza dei casi, hanno origine nella nube a disco primordiale insieme a tutti gli altri corpi planetari del sistema, e solo più tardi, in una successiva, turbolenta fase di assestamento possono venire espulsi da esso come risultato di un “duello gravitazionale”, evento comune in tali occasioni.

baby planetHardware & numeri

La tecnica normalmente in uso per la ricerca dei pianeti nomadi è il cosidetto microlensing gravitazionale, che per sua natura fornisce le migliori prestazioni su bersagli lontani, tra i 10.000 e i 20.000 anni luce, e di rilevanti dimensioni.   Da qui  la stima di 400 miliardi di pianeti nomadi nella Via Lattea, e si parla di masse planetarie non inferiori a quella di Giove. Il telescopio ideale per qesto tipo di ricerca sarà il tanto atteso SKA, online intorno al 2020, che secondo Johnatan Nichols dell’Università di Leicester, potrebbe scoprire, entro il suo raggio d’azione di 185 anni-luce, almeno 2.800 pianeti nomadi. Inoltre i più recenti sviluppi delle teorie sulla formazione dei pianeti indicano che quelli di massa minore dovrebbero essere espulsi da un sistema stellare più facilmente dei giganti gassosi, e ciò farebbe ulteriormente aumentare la stima del numero dei pianeti nomadi in giro per la Galassia.
In proposito Matteo Bernabé, un astronomo italiano che ha collaborato alle ricerche, ha dichiarato a Media-Inaf: “La nostra stima del numero dei pianeti nomadi presenti nella nostra galassia è stata calcolata sulla base della recente scoperta, mediante una tecnica chiamata microlensing, di circa dieci di questi oggetti  in una piccola regione nel disco centrale galattico, cioè nei pressi del centro della nostra galassia. Abbiamo tratto le conseguenze di questa scoperta per quanto riguarda la popolazione globale dei pianeti nomadi, mostrando che potrebbero esistere, per ogni normale stella della sequenza principale, fino a 700 nomadi con la massa della Terra e fino a 100.000 nomadi con la massa di Plutone”.  Peccato che corpi planetari più piccoli di Giove (quelli tipo-Terra, per esempio) non rientrino nella sensibilità del microlensing, ma piuttosto in quella del  WFIRST (Wide-Field InfraRed Survey Telescope), uno strumento molto atteso che però non potrà essere lanciato prima del 2023.

disco protoplanetarioFormazione dei pianeti nomadi

David Nesvorny del Southwest Research Institute (SwRI) sta studiando la possibilità che proprio il nostro sistema solare sia stato teatro dell’espulsione di un pianeta gigante, avvenuta quando il sistema era nato da appena 600 milioni di anni, come dimostrerebbero indizi disseminati nella Fascia di Kuiper e sulla Luna. All’inizio della simulazione i pianeti giganti interagiscono con il disco protoplanetario e finiscono in configurazioni in cui coppie di pianeti vicini si bloccano a vicenda in una risonanza orbitale. Tale risonanza si verifica quando due pianeti esercitano una regolare influenza gravitazionale periodica uno sull’altro, come nel caso delle lune di Giove Ganimede, Europa ed Io, che sono in risonanza tra loro in un rapporto 1:2:4 : per un’orbita compiuta da Ganimede, Europa ne percorre due, e Io quattro.  Nesvorny suggerisce che questi sistemi risonanti diventino instabili dinamicamente una volta che il gas del disco protoplanetario si esaurisce, mentre i pianeti assumono orbite eccentriche.

Per arrivare alla situazione presente, il sistema solare esterno deve aver subito  una fase di assestamento molto violenta. Il sistema si è successivamente stabilizzato eliminando l’energia orbitale in eccesso nel disco protoplanetario i cui resti sopravvivono fino ad oggi nella fascia di Kuiper. Il quadro qui delineato suggerisce che Giove, partendo da una posizione più esterna dell’attuale, si sia mosso verso l’interno del sistema spargendo una quantità di planetesimi sia verso il Sole, causando devastazione tra i pianeti interni e la Luna, sia in direzione opposta.
Nesvorny ha aggiunto al modello un pianeta gigante supplementare, stabilendo che allo stato iniziale della simulazione i giganti di ghiaccio (Urano e Nettuno), si trovassero in risonanza tra loro entro un intervallo di 15 UA dal Sole, e il quinto gigante fosse posizionato tra loro e Saturno. Il risultato finale della simulazione, che è stata eseguita 6000 volte variando la massa totale dei planetesimi in gioco, offre una soluzione interessante: il sistema solare, una volta esauriti i planetesimi  e l’energia orbitale in eccesso, risulta essere simile all’originale con frequenza maggiore di 10 volte se il quinto pianeta gigante viene  effettivamente espulso dal sistema.

 

Wandering JupiterAvvistamenti

Per concludere cito qui di seguito alcuni avvistamenti che potrebbero riguardare i pianeti nomadi, scelti non necessariamente tra i più recenti, ma piuttosto tra i più inconsueti. Infine vorrei brevemente segnalare che dedicherò un articolo alla possibilità che l’Uomo, un giorno molto lontano, possa decidere di stabilire colonie o avamposti nella cintura di Kuiper, nella Nube di Oort e nello spazio interstellare.

L’oggetto CFBDSIR2149 (Canada-France Brown Dwarfs Survey) appare associato a un gruppo di una trentina di stelle giovani conosciuto come AB Doradus Moving Group, che si raccoglie attorno alla stella AB Doradus. Se ci fossero le prove che il candidato nomade appartiene effettivamente al gruppo, se ne potrebbe stabilire l’età a  un valore compreso tra i 50 e i 120 milioni di anni, la massa da 4 a 7 volte quella di Giove e la temperatura superficiale a 700 K.

HD106906b non è un vero pianeta  nomade, perché in effetti ha una stella intorno alla quale orbita. La cosa strana è la sua distanza dalla stella, pari a 650 UA (circa 97 miliardi di km). Un’enormità se si considera che Nettuno orbita ad una distanza media di 30 UA dal Sole. E non è tutto: il pianeta è grande e giovane, 11 volte Giove per soli 13 milioni d’anni d’età, contro i 4,5 miliardi della Terra.  Come ha fatto il pianeta a raggiungere le sue  attuali dimensioni in così poco tempo e avendo a disposizione solo le poche risorse del disco protoplanetario che si trovano a una  simile distanza. Sono state avanzate diverse ipotesi per giustificare questi dati anomali, la più accreditata è che HD106906 sarebbe stato un sistema binario in cui la seconda stella non sarebbe riuscita ad accendersi.

La scoperta del pianeta-nano 2006 SQ372 fu resa nota soltanto nel 2008 nel corso di un simposio specializzato tenutosi a Chicago. In quel momento  l’oggetto si trovava nei paraggi di Nettuno, impegnato a percorrere un’orbita fortementte ellittica, assai simile a quella di Sedna, che l’avrebbe condotto a 150 miliardi di km. dal Sole. Il corpo celeste avrebbe potuto formarsi, come Plutone, nella Cintura di Kuiper, o più probabilmente provenire dalla parte più interna della Nube di Oort. Tali oggetti potrebbero essere in alcuni casi dei pianeti nomadi, e sarebbe utile studiarli più a fondo quando se ne presenta la possibilità, ma per quanto riguarda 2006 SQ372 possiamo essere sicuri che non lo rivedremo prima di 22000 anni.

ROBERTO FLAIBANI 

Fonti:

  • Slow Boat to Centauri: a Millennial Journey Exploiting Resources Along the Way
    by Paul Gistler – JBIS vol. 66 – 2013 pp 302 , 311
  • Nomads of the Galaxy, by Louis E. Strigari et. al.  – Kavli Institute for Particle Astrophysics and Cosmology, Stanford University
  • The Steppenwolf: a Proposal for a Habitable Planet in Interstellar Space
    by D.S. Abbot (Department of the Geophysical Sciences, University of Chicago) and E.R. Switzer (Kavli Institute for Cosmological Physics, University of Chicago)
  • So many lonely planets with no star to guide them
    by Nadia Drake – Nature 2/12/13
  • HD106906b
    by Sabrina Pieragostini – Panorama 14/12/13
  • Pianeti nomadi, la Via Lattea ne è piena
    MEDIA INAF  venerdì 24 febbraio 2012

From Centauri Dreams:

  1. A Gas Giant Ejected from our System?
    by Paul Gilster on November 11, 2011
  2. An Icy Wanderer from the Oort Cloud
    by Paul Gilster on August 18, 2008
  3. Finding an Interstellar Wanderer
    by Paul Gilster on May 17, 2011
  4. New Findings on Rogue Planets
    by Paul Gilster on May 19, 2011

 

17 settembre 2014 Posted by | Astrofisica, Astronautica, Planetologia, Radioastronomia, Scienze dello Spazio, Volo Interstellare | , , | Lascia un commento

Fantascienza e fascismo

Tra le innumerevoli, anzi infinite, colpe attribuite nei decenni al fascismo in tutti i campi possibili e immaginabili, non si può certamente aggiungere adesso quella di aver ostracizzato e/o boicottato la narrativa fantastica e fantascientifica straniera, specificatamente americana.

huxley(nella foto: Aldous Huxley)

E’ quanto sembra di capire dalla introduzione del professor Carlo Pagetti all’ottimo saggio  Fantascienza italiana (ed. Mimesis) di Giulia Iannuzzi (la sua tesi di dottorato divisa in due tomi), un lavoro cui sarebbe il caso di tornare in modo approfondito dato che è stata scritta da un’autrice di una generazione diversa da quella che ha “fatto” questo genere letterario nel dopoguerra, dagli anni Cinquanta agli anni Ottanta almeno.
Pagetti è un pioneristico critico della fantascienza in Italia sin dal suo Il senso del futuro (1970), la sua tesi di laurea, stampato dalle prestigiose Edizioni di Storia e Letteratura, critico militante e curatore delle opere di Philip Dick (dove tra sommi capolavori sono però apparse anche cose pessime e giustamente bocciate e rimaste nel cassetto vivente lo scrittore). Quindi ci si sarebbe aspettati da lui qualcosa di più approfondito e meno generico tipo:

“Solo allora [dopo il 1945] la cultura italiana poté aprirsi a una molteplicità di influssi e di suggerimenti provenienti dal nuovo mondo americano, che, pur essendosi già fatto sentire anche durante il fascismo con l’inarrestabile ascesa del cinema come mezzo di comunicazione di massa privilegiato, era guardato con sospetto e perfino con disprezzo dal regime. E’ semmai interessante ricordare la pronta traduzione italiana di Brave New World di Aldous Huxley, pubblicato in Inghilterra nel 1932 e subito dopo arrivato da noi come Il mondo nuovo, ma in questo caso si trattava appunto di un romanzo futuristico, anzi di una distopia (…) e dunque poteva benissimo essere accettato nell’ambito dell’ideologia fascista…”.

Espresse così sono tesi semplicistiche e politicamente corrette: ci si potrebbe ad esempio chiedere che differenza si poteva fare allora tra un romanzo “futuristico” ed uno “fantascientifico” (anche se l’aggettivo non esisteva). Quello “futuristico… poteva benissimo essere accettato dall’ideologia fascista” forse perché il mondo allucinante descritto da Huxley poteva ricordare in qualche modo quelli immaginati da Marinetti & C.? Appunto, non è affatto chiaro. Il problema di fondo, che Pagetti non coglie, è il rapporto tra la narrativa alta e quella bassa, tra il mainstream e il popolare, come si dirà.
Si devono precisare allora alcune cose ricostruendo un contesto: soltanto così si spiegano esattamente i motivi per cui la fantascienza “popolare” americana nata nel 1926 con Amazing Stories di Hugo Gersnack e con Astounding Science Fiction (1930), cioè la fantascienza delle riviste, dei pulp magazines,non ebbe eco in Italia, perché è quella che conta e incide sui lettori, non i grandi scrittori del mainstream, come Huxley (ma anche altri) che Pagetti cita.
Infatti, come ho lungamente elencato nella mia introduzione a Le aeronavi dei Savoia (Nord, 2001) praticamente tutti i grandi scrittori “futuristici”, “fantastici” o “antiutopici” dell’epoca di lingua inglese e francese erano tradotti da importanti editori italiani: da Poe a Wells, a Stevenson a Conan Doyle, da Rider Haggard a Verne, da Benoit  a Flammarion, sino a giungere alla russo-americana Ayn Rand con La vita è nostra nel 1939, anno dello scoppio della guerra. Per non parlare dei citati futuristi che appunto scrivevano romanzi e racconti che definiremmo oggi di fantascienza.
burroughs

(nella foto: E.R.Burroughs)

All’epoca anche E.R.Burroughs era noto in Italia con le sue le avventure di Tarzan, ma non con quelle di John Carter su Marte o Carson Napier su Venere, anche se  le riviste a fumetti stampavano le storie avventuroso-spaziali, molto simili a quelle di Burroughs, di Gordon Flash e Brick Bradford.
Si vede bene dai fatti che non c’era alcun ostracismo o ostilità ufficiale al genere in sé, né italiano né straniero, e questo almeno sino alla vigilia del conflitto quando avvenne una stretta “autarchica” a livello popolare (fumetti, polizieschi ecc.).
Il fatto è, come dimostrano i dati e le tabelle pubblicati sin dagli anni Settanta da Mike Ashley nella sua History of Science Fiction Magazines in più volumi tradotti anche in italiano, che in Europa, quasi neppure in Gran Bretagna, uscirono riviste specializzate in sola fantascienza sino al 1940, e noi non facevamo eccezione, indipendentemente dalla ostilità o meno, “sospetto” o “disprezzo” che fosse, del regime a quel genere letterario in quanto espressione della cultura americana.
Che in realtà non esistette perché, come credo di aver ampiamente documentato nel citato mio Le aeronavi dei Savoia, in Italia esso era diffuso sin dall’inizio del Novecento nei media dell’epoca, anche se aveva altri nomi: sia nei supplementi dei grandi quotidiani (La Tribuna Illustrata, La domenica del Corriere, Il Romanzo Mensile, Il Mattino Illustrato), sia i settimanali di cultura e informazione che ospitavano narrativa (La Lettura, Il Secolo XX, Noi e il mondo, Le Grandi Firme ecc.) pullulavano di racconti fantastici, fantascientifici, sovrannaturali, avventurosi e dell’orrore, soprattutto italiani ma anche stranieri. Per non parlare di due testate che potremmo definire a loro modo specializzate: Il Giornale Illustrato dei Viaggi (quindicinale) e il mensile Il romanzo d’avventure, zeppi di questo genere di storie, e dove i romanzi a puntate erano soprattutto stranieri (francesi, inglesi, americani, tedeschi). Tra essi c’era vera e propria fantascienza “spaziale” con astronavi, extraterrestri, invasioni, guerre del futuro. (Un prolifico autore di guerre in un domani più o meno lontano era Luigi Motta, allievo, seguace, concorrente e poi “continuatore” di Emilio Salgari.)
La mancanza di una grande diffusione del genere “fantascientifico” in Italia durante quel periodo fu quindi dovuta soltanto a scelte e decisioni editoriali,  non politiche, né religiose, né sociali, né culturali, né di arretratezza industriale come vari hanno ipotizzato. Fu un motivo squisitamente tecnico: come nel resto d’Europa mancarono le riviste a esso dedicate che lo divulgassero in modo ampio presso un pubblico soprattutto giovanile. Mondadori credette al progetto di Alberto Tedeschi e pubblicò nel 1933 I Gialli, facendo conoscere il poliziesco di marca americana, inglese e francese, che non era ignoto ma non aveva ancora una collana tutta sua e un nome che lo identificasse in modo particolare. Se in quegli anni un Giorgio Monicelli non così giovane come in effetti era gli avesse proposto una collana di narrativa avveniristica basandosi soprattutto sulla editoria americana, invece che un ventennio dopo, e Mondadori avesse pubblicato anche, poniamo, I Rossi o I Bianchi o I Blu dedicati alla “fantascienza” il gioco sarebbe stato fatto. Su questo si potrebbe scrivere un saggetto di storia alternativa (in parte qualcuno lo  ha già fatto…).
Ci provò nella realtà  l’ingegner Armando Silvestri (1909-1990), pioniere della fantascienza in Italia avendone scritta giovanissimo su Il Giornale Illustrato dei Viaggi, il quale, avendo comprato i pulp magazines americani nelle edicole di Via Montenapoleone a Milano e Via Veneto a Roma, ed essendo redattore di riviste tecniche e poi di aviazione, nel 1938 propose alla Editoriale Aereonautica che faceva capo al relativo Ministero di pubblicare a cadenza mensile quattro riviste, L’avventura, Avventure del mare, Avventure del cielo e Avventure dello spazio. Ovviamente venne accettata soltanto Avventure del cielo che uscì dal 1939 al 1941 (e non nel 1943, come ebbi a scrivere in una precedente occasione), quando chiuse per il razionamento della carta a causa della guerra. Fosse uscita anche Avventure dello spazio, la storia della fantascienza italiana e in Italia sarebbe stata molto diversa (idea buona anch’essa per una ucronia su cui anche qui qualcuno si è cimentato) in quanto avrebbe creato in tre-quattro anni un pubblico di lettori e una piccola squadra di scrittori che, in concomitanza con l’apparire di Urania nel 1952, avrebbero creato un retroterra italiano non da poco, forse sottraendo il genere alla esterofilia che lo caratterizzò almeno sino al 1990.

GIANFRANCO de TURRIS

9 settembre 2014 Posted by | Fantascienza | , , | Lascia un commento

Platone è stato il primo scrittore di fantascienza?

libri_B_Platone_Opera_omniaL’articolo di Gianfranco de Turris sui luoghi mitici e sulle terre perdute  è molto ben scritto e focalizza un punto importante nella storia del mito. Ma anche della letteratura, e per di più della letteratura di genere fantastico-fantascientifico.
In tutta la letteratura fantastica, ma da adesso in poi parliamo specificamente di quella fantascientifica, ci sono terre perse da qualche parte, sulla Terra ma anche nella Galassia. Le “terre perdute”, ossia pianeti colonizzati dagli umani che poi hanno perduto i contatti con il resto dell’umanità, sono letteralmente uno dei topoi della fantascienza. E tutti in un modo o nell’altro si rifanno alla prima terra perduta, Atlantide.
La quale è stata raccontata più e più volte nella fantascienza in tutti i modi possibili ed immaginabili. Benoit l’ha posizionata perfino nel deserto, circondata da un mare di sabbia.
Permettetemi un ricordo personale:  avevo da poco cominciato a leggere, nel senso che avevo otto o nove anni, e leggevo sopratutto fumetti, in particolare Nembo Kid (sì, lo so che il vero nome era Superman, ma cosa volete uno si affeziona) ed in particolare la storia in cui lui incontra Lori Lemaris, appunto la “sirena” originaria di Atlantide. Da allora ho dato per anni la caccia ad Atlantide su tutte le enciclopedie possibili ed immaginabili ed ho trovato i dialoghi Crizia e Timeo letteralmente decenni dopo, pur trovandone tracce altrove.
Ma il punto è che pur essendo Atlantide un luogo letterario e ben conosciuto come tale anche dai contemporanei di Platone, fin da subito ha avuto la “parvenza del vero”, da subito e per sempre creando molte ricerche come la mia, soprattutto però una ricerca a trovare tracce di qualcuno che prima di Platone l’avesse raccontata, il che sarebbe stata prova della realtà di Atlantide. Traccia di papiri dei famosi sacerdoti egiziani che avrebbero raccontato la storia a Platone.
Questo IMHO sta a dimostrare la potenza di quel mito, che però mito non è, ma invenzione lettaria pura e semplice. Invenzione letteraria che ha tutte le caratteristiche di quella che oggi chiamiamo fantascienza.
plato2Platone non dice che Atlantide sia mito. I greci sapevano benissimo cosa era il mito, se lo sono inventato loro! Almeno il termine. E sapevano che il mito non è proprio “vero-vero”, è un racconto che serve a raccontare cose importani, e significative per la polis.
Ma Platone racconta che Atlantide è esistita davvero. Certo è stata distrutta per volere degli Dei, ma negli Dei lui ufficialmente crede: gli Dei sono reali, appartengono alla realtà. Atlantide è metafora di molte cose, dell’orgoglio, della ubris, ma è raccontato come luogo reale, una grande isola che un tempo si trovava nel mezzo dell’Oceano Atlantico oltre le Colonne d’Ercole. Atlantide non è Utopia,  un non-luogo, “Atlantide – dice Platone – era reale ed era lì”.
Ma o Platone era pazzo o sapeva benissimo che se l’era inventata lui, che era un luogo fittizio, di finzione.
In sintesi. Il racconto platonico di Atlantide ha tutte le caratteristiche dei luoghi fantastici raccontati dalla fantascienza e non dal fantasy: Mordor non è mai esistita e non potrebbe esistere se non nel Signore degli Anelli, Atlantide non è esistita,  ma avrebbe potuto esistere.
Quindi Atlantide è un luogo della fantascienza, ergo Platone è il primo scrittore di fantascienza noto nella storia della cultura occidentale, cinque secoli prima del pur ottimo Luciano di Samosata.
Sempre IMHO-AMMP.

MASSIMO MONGAI

1 settembre 2014 Posted by | Fantascienza | , , | 1 commento

L’esplorazione dei giganti di ghiaccio

Mentre i pianeti interni sono già stati attivamente studiati, almeno in merito alla possibilità di ospitare forme di vita autoctona, i due giganti gassosi, e alcuni dei loro satelliti, sono attualmente al centro dell’attenzione.

Sistema Solare masse(nell’immagine: le masse planetarie nel Sistena  Solare: Urano e Nettuno sono le due sfere azzurre  in basso a destra)

Nel sistema di Saturno la sonda Cassini si aggira  ormai da anni, raccogliendo dati scientifici importanti (l’ultimo flyby di Titano risale al 18 giugno scorso) tanto da meritare, come sembra, un prolungamento della sua vita operativa. Giove, invece, è l’obiettivo di ben tre missioni: Juno, già partita, che studierà la magnetosfera del pianeta, JUICE, fiore all’occhiello dell’ESA, da lanciare nel 2022 e dedicata ai satelliti Ganimede, Callisto ed Europa, e  poi Europa Clipper, ancora in fase di progettazione. Infine, nella primavera dell’anno prossimo, New Horizons eseguirà un flyby di Plutone per poi inoltrarsi nell’inesplorata Fascia di Kuiper, fino ad esaurimento dell’energia.

Ecco quindi l’attenzione dei ricercatori rivolgersi all’unica area ancora semi-inesplorata del Sistema Solare, dove orbitano i cosidetti giganti di ghiaccio, Urano e Nettuno. Sono diversi da Giove e Saturno, oltre che nelle dimensioni, anche nella composizione dell’atmosfera: nei primi riscontriamo solo il 25% di idrogeno, e invece abbondano di ammoniaca, metano e sopratutto acqua (da cui il ghiaccio), mentre gli altri presentano quasi esclusivamente idrogeno e un po’ d’elio. L’unica esplorazione diretta di Urano e Nettuno è stata eseguita dal Voyager 2, rispettivamente nel 1986  e nel 1989. Poi più nulla.

(nella foto: la sonda Cassini) Cassini

Come e quando
I progetti di missione di cui siamo a conoscenza sono due: il primo si chiama Progetto ODINUS, o meglio: “Progetto di una missione diretta ai pianeti giganti ghiacciati, con due astronavi gemelle per svelare la storia del Sistema Solare.” Il documento ufficiale è stato inviato all’ESA per partecipare alle selezioni previste nell’ambito del programma Cosmic Vision 2015-2025 e presenta come primo firmatario il dott. Diego Turrini dell’Istituto di Astrofisica e  Planetologia dell’ INAF-IAPS di Roma, insieme a 14 colleghi  quasi tutti italiani. Una prima proposta è stata  accettata ed è stata anche fissata una data indicativa per il lancio, il 2034 . Nel caso di ODINUS, è prevista la messa in orbita di due sonde identiche, una intorno a Urano, l’altra a Nettuno, e la raccolta di dati analoghi, registrati sui due pianeti nello stesso lasso di tempo e nel mezzo interplanetario durante la crociera, servendosi di set di strumenti uguali. Di conseguenza, ci sarebbe la possibilità di creare nuovi protocolli e una metodologia completamente nuova, comparata, dell’esame dei dati raccolti. Se ne avrebbero senz’altro grandi vantaggii scientiifici, ma anche un certo incremento di spesa, che non sappiamo se l’ESA potrà e vorrà affrontare. Fortunatamente, il Senior Committee Survey dell’Agenzia ha già dichiarato che l’esplorazione dei giganti di ghiaccio “sembra essere una pietra miliare tempestiva, del tutto adeguata per una missione di classe L (large)”. Speriamo bene!

e-Sail(nella foto: Pekka Janhunen illustra il funzionamento della e-Sail)

Il secondo progetto in esame si chiama “Missione con propulsione a vela solare elettrica per l’esplorazione profonda dell’atmosfera di Urano” ed è firmato da Pekka Janhunen, scienziato finlandese già noto ai nostri lettori come inventore  della vela solare-elettrica. Si tratta di una cooperazione tra l’Istituto Meteorologico Finlandese, il CNES e l’Università di Pisa. Prevede il lancio di una sonda di 550 kg. per giungere fino a Urano in meno di 6 anni, grazie alla spinta fornita da una vela solare-elttrica da 0,5 N. Il veicolo è composto da tre moduli distinti: il primo (e-sail module – 150 kg.), ospita la vela e viene espulso in prossimità dell’orbita di Saturno, perché a quella distanza il vento solare non ha più energia sufficiente da trasferire all’astronave. Il secondo modulo (carrier module – 150 kg.) è dotato di un  sistema autonomo di propulsione grazie al quale può mettersi in orbita intorno a Urano. Ci sarebbe inoltre spazio disponibile dove alloggiare della strumentazione scientifica e configurare così una serie di missioni “orbiter” che gli autori non vogliono però approfondire. Il carrier module ospita anche un’antenna ad alto guadagno di 1 metro di diametro con cui  ritrasmettere alla Terra i dati ricevuti dal terzo modulo (entry module – 250 kg., di cui 36 di strumentazione scientifica), che eseguirà l’esplorazione profonda dell’atmosfera uraniana. Fatte le debite distinzioni, gli autori non fanno mistero di essersi ispirati all’entry module della Missione Galileo, che nel 1989 apriva la campagna di esplorazione del Sistema Solare esterno, e anch’essi si chiedono se non sia opportuno pianificare con maggiore anticipo le future missioni  in quest’area, standardizzando hardware e procedure delle prossime sonde automatiche.

new_horizons(nella foto,  la sonda New Horizons)

Gli obiettivi scientifici più importanti

I pianeti giganti apparvero probabilmente molto presto nella storia del Sistema Solare, formandosi nel lasso di tempo in cui il Sole era ancora circondato dal disco circumstellare di gas e polvere. Fin dagli anni ’50 era stato riconosciuto il ruolo dei pianeti giganti nella formazione e nell’evoluzione del giovane Sistema Solare  con Giove che avrebbe iniettato nuovo materiale nelle regioni di formazione di Urano e Nettuno, in forma di planetesimi sparsi. L’importanza del Modello di Nizza, la teoria oggi più accreditata sull’evoluzione del Sistema ai suoi primordi, sta nel fatto di sostenere con forza l’idea che i pianeti giganti non si sono formati dove li vediamo oggi o, in altre parole, che ciò che osserviamo oggi non è necessariamente un riflesso del Sistema Solare come era immediatamente dopo la fine del processo di formazione. Il successo di questa teoria nello spiegare diverse caratteristiche del Sistema Solare ha però aperto la strada a scenari più estremi. Di recente, infatti, una nuova interpretazione della formazione planetaria ottenuta attraverso lo studio di sistemi extrasolari, ha dato origine all’idea che il Sistema Solare potrebbe aver subito un’evoluzione molto più caotica e violenta di quanto precedentemente teorizzato.

Nuove conoscenze sui primordi del Sistema Solare, possibilità di sottoporre a  verifica il “Modello di Nizza” e di acquisire grandi quantità di misurazioni in loco, tra cui la composizione chimica e isotopica dell’atmosfera: sarebbe questo l’allettante bottino scientifico che attende i ricercatori.

ROBERTO FLAIBANI

editing DONATELLA LEVI

 

 

FONTI:

Return to the Ice Giants, published by Paul Gilster on Centauri Dreams – June 18, 2014

Outer Planet Exploration Strategies,  published by Paul Gilster on Centauri Dreams – June 19, 2014

Fast e-Sail Uranus Entry Probe Mission, by Pekka Janhunen et al. – arXiv: 1312.6554v1

The Scientfic Case for a Mission to the Ice Giant Planets with Twin Spacecraft to Unveil the History of our Solar System, by Diego Turrini et al.

 

 

 

25 agosto 2014 Posted by | Astrofisica, Astronautica, Planetologia, Scienze dello Spazio | , , , , | Lascia un commento

Le menti digitali e il volo interstellare

Andreas Hein ha tratto questo articolo, che vi presentiamo qui di seguito in traduzione italiana, dal suo intervento nel volume Beyond the Boundary, in uscita tra breve per I4IS. L’autore è Deputy Director  e Director of  the Technical Research Committee dell’Initiative for Interstellar Studies (I4IS), un centro studi inglese specializzato in scienze dello spazio. Egli è stato uno dei fondatori di Icarus Interstellar, e, in quell’ambito, ideatore e attuale dirigente di Project Hyperion. Ha ricevuto un master in ingegneria aerospaziale al Technical University of Munich e nella stesso istituto sta lavorando per ottenere un PhD in ingegneria dei sistemi spaziali. Ha passato sei mesi all’Institut Superieur de l’Aeronautique et de l’Espace a Toulouse, partecipando al programma  di simulazione numerica di  impatto a ipervelocità della polvere interstellare sulle antenne dei veicoli spaziali. Ha lavorato  presso lo Strategy and Architecture Office  dell’ESA. La versione originale del presente articolo è stata pubblicata su Centauri Dreams il 13 giugno scorso, col titolo di: “Transcendence Going Interstellar: How the Singularity Might Revolutionize Interstellar Travel” . (R.F.)

Hein_official_LRT_picture_v21nella foto: Andreas Hein, l’autore

Nel film “Trascendenza”, la mente del dott. Will Caster (interpretato da Johnny Depp), viene “caricata” in un computer quantistico. Questo provoca una cascata di cambiamenti tecnologici in rapida accelerazione, che culminano in una “singolarità tecnologica”. È probabilmente la prima volta che tale concetto gioca un ruolo centrale in un blockbuster hollywoodiano. Comunque l’idea del tutto ipotetica di caricare la coscienza di qualcuno in un computer, procedimento conosciuto anche come “emulazione dell’intero cervello”, è stato un argomento trattato nella FS per decenni. Il caricamento della mente su supporto informatico, all’apparenza inverosimile, potrebbe essere invece non molto lontano dalla realtà. Recentemente il programma “Cervello Umano” dell’Unione Europea ha inserito tra i suoi obiettivi la simulazione di tale organo. Con un bilancio preventivo di oltre un miliardo di euro, si tratta del più vasto progetto di questo tipo mai condotto prima. Sebbene l’obiettivo del progetto “Cervello Umano” sia quello di simulare il cervello umano, la discussione sulla reale possibilità di copiare digitalmente la mente ne è stata fortemente rivitalizzata. Tale tecnologia, infatti, potrebbe davvero trasformare la nostra civiltà in diversi modi. Tra questi la capacità potenziale di acquisire una sorta di immortalità digitale e la creazione di menti emulate che potrebbero trasformare il lavoro intellettuale, se si potesse copiarle e usarle su richiesta per lavori particolarmente impegnativi. (Hanson, 2008 & 2008b).

La copiatura della mente apre inoltre eccitanti opportunità per il volo interstellare. In questo articolo tenterò di offrire una breve panoramica delle idee già esistenti riguardo all’utilizzo del “caricamento cerebrale” nei viaggi interstellari, e di proporre concetti nuovi che potrebbero cambiare  radicalmente il modo in cui gli uomini viaggerebbero verso le stelle. Inoltre presenterò alcuni possibili scenari di missione, che avrebbero profonde conseguenze sul modo in cui la missione stessa raggiungerebbe i propri obiettivi.

transcendence-la-locandina-italiana-302815_1-560x800-210x300Nella foto: Johnny Depp in “Trascendenza”

Prima di tutto voglio chiarire  che in questo articolo col termine “caricamento cerebrale” intendo il trasferimento di contenuti mentali (per esempio della memoria a lungo termine o della mente stessa) dalla materia cerebrale a un dispositivo artificiale, cioè una rete neurale artificiale digitale, analogica o quantistica (Sandberg & Bostrom, 2008). Una volta caricato, il materiale potrà essere “eseguito” sul dispositivo come una simulazione o semplicemente memorizzato e stoccato. Analogamente, con “scaricamento cerebrale” si intende il trasferimento dei contenuti mentali da un dispositivo artificiale a un cervello fisico . La fase dello “scaricamento” andrebbe di pari passo con la ricreazione del corpo umano nella sua interezza, altrimenti non avrebbe molto senso nell’ambito dei viaggi interstellari. Nel caso che il corpo umano potesse essere liberamente caricabile e scaricabile, si potrebbe parlare di “emulazione del corpo completo”. In questo articolo i confini tra “caricamento della mente” ed “emulazione umana” sono  spesso un po’ vaghi e da considerarsi quindi interscambiabili.

L’obiettivo principale di un viaggio interstellare pilotato (cioè con equipaggio) è trasportare uomini da un sistema stellare a un altro e all’arrivo dar vita a una nuova civiltà. L’idea di base consiste nel caricare in formato digitale la mente e/o il corpo umani alla partenza e nel ricrearli a destinazione nella forma originale. Dar vita lassù a una prospera civiltà richiede un trasferimento di conoscenza sufficiente a eseguire tutte le necessarie attività. Trasportare uomini sotto forma digitale comporta  straordinari benefici, in primo luogo enormi risparmi in termini di massa: non saranno più necessari vasti habitat e complessi sistemi di supporto vitale. Nello stesso tempo diventa possibile “resuscitare” gli uomini solo quando si è arrivati a destinazione, e con essi recuperare la loro conoscenza e cultura, facilitando così il decollo della nuova civiltà. Conoscenza e tecnologia verrebbero così  trasferite dai cervelli emulati agli apparati o corpi di destinazione, sia con l’educazione tradizionale che con le nuove tecniche di emulazione.

Ovviamente si potrebbe indagare sulla radicale possibilità di una sostituzione completa della vita biologica con una artificiale. In tale scenario, la spedizione sarebbe caso mai il “seme” di una civiltà non biologica (Kurzweil, 2005).

Per i concetti fondamentali di una colonizzazione interstellare basata sul caricamento della mente si veda la tabella qui accanto:

Tab1tabella 1

Il processo di caricamento potrebbe essere eseguito grazie a un tipo avanzato di scansione. Hans Moravec fu uno dei primi a immaginare una forma di scansione grazie alla quale il cervello veniva caricato pezzo per pezzo, provocando però la distruzione dell’originale. (Moravec, 1988). Kurzveil e altri immaginarono invece una forma di scansione non distruttiva (Kurzweil, 2005, p.145), per esempio usando nanorobot che potessero agire dall’interno del cervello  da copiare.

Creare la copia di un cervello è un compito che intimidisce. Non si tratta semplicemente di copiarne la struttura generale, ma anche la struttura di ogni singolo neurone e la rete di collegamenti che si crea tra un neurone e l’altro. Bisogna inoltre copiare il comportamento dei singoli neuroni e delle più vaste strutture del cervello.
È una situazione simile a quella di un sistema tecnico. Capire in che relazione si trovano le parti di un’automobile l’una con l’altra non stabilisce in che modo esse debbano lavorare tutte insieme per eseguire la funzione desiderata, cioè trasportare dei passeggeri. Si può solo dedurre, dopo un paziente e accurato esame, come le componenti individuali, e gruppi di esse di maggiori dimensioni,  eseguono le subfunzioni, le quali producono insieme la funzione principale. Questo tipo di analisi “all’inverso” per scoprire i sistemi di funzionamento di un dispositivo viene definito un approccio “bottom-up”, ovvero dal basso verso l’alto. In alternativa si possono analizzare le funzioni dall’alto verso il basso (top-down), avendo cura di scomporre prima le funzioni di più alto livello nelle relative subfunzioni. Un approccio di questo tipo (conosciuto  come reverse engineering) è stato proposto per creare emulazioni del cervello. (Sandberg & Bostrom, 2008).

Dopo che un’emulazione è stata creata, potrebbe essere attivata, copiata, eseguita a richiesta, e anche spenta del tutto.  (Hanson, 2008a & 2009b). Per  una missione interstellare, le emulazioni potrebbero essere prima immagazzinate e poi attivate a destinazione. Questo farebbe  risparmiare l’energia che altrimenti verrebbe consumata per mantenere in funzione le emulazioni durante il volo. Una volta arrivati, le emulazioni verrebbero attivate per organizzare l’ambiente circostante e scegliere la miglior strategia per cominciare la colonizzazione. Si potrebbe attivare anche un’intera popolazione di emulazioni, che discuterebbero sulle migliori strategie e i vantaggi ad esse associati. Robin Hanson immagina vari tipi di emulazioni organizzate in gerarchie basate sulla velocità di elaborazione. Queste “città” abitate da emulazioni consumerebbero sulla Terra un’imponente quantità di energia per sostenere le emulazioni e l’ambiente virtuale in cui condurrebbero la loro esistenza. Le manipolazioni del mondo fisico sarebbero eseguite da vari tipi di manipolatori e robot (Hanson, 2008a & 2008b). Una strategia per una missione interstellare potrebbe consistere nella riattivazione iniziale di un piccolo gruppo di emulazioni che prenderebbero le prime decisioni su come procedere con la colonizzazione. Poi si comincerebbero a sfruttare le risorse minerarie  allo scopo di creare una più grande capacità computazionale e accendere un crescente numero di emulazioni. Queste a loro volta darebbero vita vita a esseri umani biologici e ai loro habitat. Un’altra opzione è il trasporto simultaneo di zigoti ed emulazioni.

mind-uploadingUna versione più avanzata di tale missione prevede la creazione iniziale di una infrastruttura entro il sistema stellare di riferimento usando dei replicatori e la costruzione di un impianto ricevente per segnali elettromagnetici, per esempio dei raggi laser. Una volta costruito l’impianto, i dati riferiti agli oggetti potrebbero essere spediti alla velocità della luce. Questo è appunto il concetto del teletrasporto, spesso considerato irrealizzabile perché l’ammontare di informazioni da trasmettere per assemblare un corpo umano molecola per molecola sarebbe proibitivo. In uno studio del 2012, ad esempio, Roberts e altri sostengono che un totale di 2,6*1042 bit sarebbero necessari per ricreare un cervello umano, cifra che renderebbe insignificante quella di 1,2*1010, stimata per ricreare il resto del corpo umano. Alla velocità di trasmissione di circa 3,0*1019 bit al secondo, sarebbero necessari 4,85 trilioni di anni per trasmettere un essere umano completo. Comunque, un esame attento dei presupposti dello scritto rivela che per calcolare la quantità di dati richiesta per ricreare il cervello era stato usato il cosiddetto Bekenstein bound, un’equazione che indica il massimo di informazione richiesta per ricreare un sistema fisico fino a livello quantistico (Bekenstein, 73), (Lokhorst, 00).

È dubbio che una descrizione talmente dettagliata sia effettivamente necessaria. Stime recenti che descrivono la riproduzione del cervello a livello molecolare sono piuttosto in un ordine di grandezza  tra i 1022 e i 1027  bit (Sandberg, 2008, p.80) . Una tale mole di dati potrebbe essere trasmessa in un intervallo di tempo compreso tra un’ora e dieci anni, supponendo di utilizzare la stessa velocità di trasmissione di 3,0*1019. Quindi il teletrasporto potrebbe non essere una tecnologia così remota nel tempo come l’attuale letteratura scientifica suggerisce. L’architettura di una missione basata sul teletrasporto è mostrata nella figura 3.

tab2 tabella 2

Uno degli approcci più speculativi per rendere possibile il viaggio interstellare pilotato è quello in cui il tempo di volo si riduce praticamente a zero usando un qualche tipo di propulsione superluminale. Esiste una vera pletora di congetture a questo proposito (Davis et al., 2009). Inviare solo dati o nano-sonde attraverso delle scorciatoie nel tessuto dello spazio-tempo, sarebbe assai più semplice che viaggiare in una imponente nave spaziale pilotata.  Kurzveil ipotizza che dei minuscoli cunicoli spazio-temporali, detti anche wormhole (il fenomeno è conosciuto dal pubblico televisivo col nome di “stargate”), potrebbero consentire la trasmissione di dati o nano-sonde ad un altro luogo dell’universo (Kurzweil, 2005, p.354-355). All’architettura di missione basata su questo concetto è dedicata la figura 4.

 

Architetture di missione

Le missioni interstellari digitali aprono un nuovo spazio per interessanti architetture di missione. A seconda delle tecnologie disponibili, si possono realizzare varie architetture, come mostra la tabella 2 (vedi sopra).

 

Architettura A

1. Manda il replicatore + emulatore / nave magazzino
2. Crea la colonia e l’infrastruttura per la resurrezione (downloading/scaricamento)
3. Crea la popolazione

Arch AFig.1: la missione è affidata a una singola nave dotata di replicatore digitale. Questo grafico mostra la sequenza della missione da sinistra a destra. L’inclinazione delle frecce mostra quanto velocemente l’astronave copre la distanza dal sistema stellare bersaglio. A maggior inclinazione corrisponde maggior velocità.

Questa è la architettura di missione più semplice: l’astronave consiste praticamente di un emulatore e di un replicatore che avviano lo sfruttamento delle risorse locali per costruire la colonia spaziale iniziale. Successivamente verranno creati i corpi umani e scaricate le emulazioni che li utilizzeranno.

 

Architettura B

Suddivide la missione in due: la prima viaggia col replicatore, la seconda con l’emulatore.

1. Manda il replicatore
2. Crea la colonia e l’infrastruttura per la resurrezione
3. Manda l’emulatore /nave magazzino
4. Crea la popolazione

Arch BFig.2: divide in due la missione precedente separando il replicatore dal carico utile digitale.

L’architettura B è basata  su due astronavi. La nave col replicatore viene lanciata per prima, in modo da iniziare la costruzione della colonia prima che arrivi la nave con l’emulatore. Questo metodo ha senz’altro senso se la costruzione della   colonia avviene in tempi lunghi (decenni o secoli). Il vantaggio più importante è la riduzione del rischio dovuto al fallimento nella costruzione della prima colonia: la seconda nave verrebbe lanciata solo una volta  che la colonia fosse diventata operativa. Un altro vantaggio è l’uso di un differente sistema di propulsione per le due navi, che consentirebbe alla nave con l’emulatore di compiere un viaggio di minor durata, riducendo il rischio di guasti dei sistemi di bordo, più critici per la nave che trasporta emulazioni di esseri umani.

 

Architettura C

1. Manda l’astronave col replicatore
2. Crea un impianto ricevente nel sistema stellare di destinazione
3. Riceve dati per creare sistemi tecnici ed esseri umani

Arch CFig.3: la missione col replicatore costruisce un ricevitore per le tecnologie e gli esseri umani.

Innanzi tutto, un impianto di ricezione viene costruito nel sistema di destinazione grazie  al carico della nave col replicatore. Poi viene costruito un impianto di assemblaggio molecolare, ovvero una stampante 3D universale, per ricreare gli oggetti originali. Il vantaggio più grande di questa architettura è che la durata del  viaggio per gli oggetti trasferiti è la minore possibile, dato che il viaggio avviene alla velocità della luce.

 

Architettura D

1. Manda la nave col replicatore
2. Costruisce il ricevitore
3. Usa uno stargate per trasmettere informazioni al ricevente
4. Crea sistemi tecnologici ed esseri umani

Arch DFig. 4: usare uno stargate per trasmettere dati relativi a sistemi tecnologici ed esseri umani a velocità superiori a quella della luce.

Dopo la costruzione degli impianti di ricezione ed assemblaggio, i dati sono trasmessi quasi istantaneamente tramite uno stargate o qualche altro metodo “esotico”.

 Conclusioni

Il concetto di emulazione cerebrale è spesso associato al presentarsi di una cosiddetta “singolarità tecnologica”, che è a sua volta associata all’emergere di una intelligenza artificiale generale in grado di aumentare le proprie capacità esponenzialmente. Se sia ragionevole o no aspettarsi che una tale singolarità si verifichi è materia di intenso dibattito tra gli studiosi (Sandberg, 2010), (Sandberg & Bostrom, 2011), (Goertzel, 2007). Da conversazioni personali con vari ricercatori del settore è emerso piuttosto un certo scetticismo sulla prospettiva di creare emulazioni del cervello nel prossimo futuro. Nonostante tutto,  non c’è dubbio che qualche progresso è stato fatto. L’emulazione del cervello e l’intelligenza artificiale generale non dovrebbero essere definitivamente scartate dal novero delle alternative realizzabili, dato che ci vorranno ancora decenni, se non secoli, prima che si riesca a realizzare un viaggio interstellare.

Come ultima osservazione, Launius & McCurdy (2008, pp.218-219) rilevano come una civiltà postumana possa non essere necessariamente motivata a condurre esplorazioni interstellari. Bisogna quindi tenere bene a mente che cambiare la condizione umana così profondamente avrà certamente conseguenze anche sul suo comportamento.

Sebbene le prospettive per il caricamento cerebrale  siano controverse, la sua realizzazione nel corso del ventunemiso secolo non dovrebbe essere considerata impossibile. È imperativo invece riflettere sulle possibili implicazioni di questa tecnologia, che se effettivamente realizzata cambierebbe drasticamente tanto la nostra civiltà quanto i viaggi interstellari. Cosa si proverebbe a viaggiare fra le stelle? Dopo essere stati scansionati, ci risveglieremmo improvvisamente in un esopianeta in un nuovo corpo? O mentre attraversiamo lo spazio che ci separa dal nostro obiettivo passeremo invece il nostro tempo in un mondo virtuale, per trasformarci infine di nuovo in un essere biologico? Sono pensieri affascinanti ma anche in qualche modo agghiaccianti….

 

traduzione di ROBERTO FLAIBANI

editing di DONATELLA LEVI

 

 

FONTI:

Bekenstein, J. D. (1973). Black holes and entropy. Physical Review D, 7(8), 2333.

Davis, E. W., & Millis, M. G. (2009). Frontiers of propulsion science. American Institute of Aeronautics and Astronautics.

Goertzel, B. (2007). Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil’s The Singularity Is Near, and McDermott’s critique of Kurzweil. Artificial Intelligence, 171(18), 1161-1173.

Hanson, R. (2001). Economic growth given machine intelligence. Journal of Artificial Intelligence Research.

Hanson, R. (2008a). Economics of brain emulations. In Tomorrow’s people – proceedings of the james martin institute’s first world forum: EarthScan.

Hanson, R. (2008b). Economics of the singularity. Spectrum, IEEE, 45(6), 45-50.

Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology, Penguin Books.

Launius, R. D. (2008). Robots in space: technology, evolution, and interplanetary travel. JHU Press.

Lokhorst, G. J. (2000, May). Why I am not a super-Turing machine. In Hypercomputation Workshop, University College, London (Vol. 24).

Moravec, H. (1988). Mind children. Cambridge, MA: Harvard University Press.

Sandberg, A., & Bostrom, N. (2008). Whole brain emulation: A roadmap. Future of Humanity Institute, Oxford University. Available at: http://www.fhi.ox.ac.uk/brain-emulation-roadmap-report.pdf Accessed July, 3, 2010.

Sandberg, A. (2010). An overview of models of technological singularity. In Roadmaps to AGI and the future of AGI workshop, Lugano, Switzerland, Mar. 8th. http://agiconf. org/2010/wp-content/uploads/2009/06/agi10singmodels2. pdf.

Sandberg, A., & Bostrom, N. (2011). Machine intelligence survey. Technical Report, 2011-1. Future of Humanity Institute, University of Oxford. http://www.fhi.ox.ac.uk/reports/2011-1. pdf

4 agosto 2014 Posted by | Astronautica, Ciberspazio, Fantascienza, Scienze dello Spazio, Volo Interstellare | , , , | 2 commenti

Il planetario: un percorso tra archeologia e tecnologia

Planetario tipo

Il Planetario, oggi, si presenta come uno strumento di sintesi tra la sfera celeste e la rappresentazione dei principali moti dei corpi celesti che su di essa si spostano. In passato questi due aspetti erano studiati separatamente: per la sfera celeste venivano utilizzati mappe e globi, per il moto dei corpi si utilizzavano le sfere armillari. Nel III secolo a. C., ad Alessandria d’Egitto, Eratostene costruì la prima sfera armillare, costituita da anelli metallici (armillae), ciascuno dei quali rappresentava uno dei cerchi di riferimento per l’orientamento celeste: equatore, orizzonte, eclittica, meridiani e paralleli. Tale strumento, nato come espressione del sistema geocentrico, seguì l’evoluzione delle conoscenze dell’uomo e venne adeguata al sistema eliocentrico, sostenuto da Copernico. Nei musei se ne trovano di varia dimensione e foggia, espressione del valore estetico relativo al periodo di costruzione.
Comunque, l’esigenza di rappresentare un cielo trapunto di stelle (su pareti, mappe, quadri o meglio ancora su di un soffitto, così da simulare proprio la volta celeste) risale alla notte dei tempi…
In epoca sumerica, III millennio a.C., venivano costruiti planisferi in terra cotta su cui erano riportati segmenti con l’iscrizione del nome di un mese dell’anno, associato ad una costellazione e ad un numero. Sul retro, poi, era descritta in cuneiforme la posizione di determinate stelle.

??????????????????????????????? (fig.1)

Sempre risalenti al III millennio a.C. sono le incisioni rupestri rinvenute in Armenia, sul monte Gegama non lontano dal lago Sevan; su di esse sono raffigurate le stelle del Leone, dello Scorpione e del Sagittario, così come erano visibili ad occhio nudo. Le stelle sono rappresentate da un cerchio con un punto al centro e di diametro diverso in base alla loro luminosità. Alcuni studiosi sostengono che gli abitanti degli altopiani armeni praticavano la divisione della sfera celeste in costellazioni già molto tempo prima dei Greci e degli Egizi.
Ed ancora, datato 1.600 a.C. è un manufatto, noto come Disco di Nebra, rinvenuto in Germania una ventina  di anni fa, nel quale è rappresentato il cielo notturno.
Tra le mappe una delle più antiche, se non la più antica, è la mappa celeste cinese, risalente al VII secolo d.C., rinvenuta nella grotta di Dunhuang, in Cina, intorno agli anni cinquanta ed ora conservata presso il British Museum di Londra. Lunga circa 2 metri, mostra 1339 stelle rappresentate con tre colori diversi e organizzate in costellazioni, tra le quali sono  riconoscibili forme quali il Grande Carro e Orione.

Sicuramente le rappresentazioni più suggestive del cielo stellato sono quelle che raffigurano la volta celeste su di un soffitto. Diverse erano le motivazioni alla base della loro realizzazione, dalla pura esigenza estetica alla rappresentazione del cielo di un determinato giorno per suggellare un evento particolare.
Una delle testimonianze più antiche di rappresentazione del cielo notturno su di un soffitto è nella tomba di Senenmut, l’architetto di corte e amante della regina-faraone Hatshepsut, figlia legittima del faraone Tuthmosi I nella XVIII dinastia. Per la gloria ultraterrena della regina fu costruito il grande complesso templare di Deir el Bahari, vicino al quale si trova la toma dell’architetto; nella camera A di questa è dipinta una delle più complete rappresentazioni del cielo degli Egizi. Dalla posizione degli astri, gli scienziati sono potuti risalire al periodo della realizzazione individuato intorno al 1463 a.C.. Un altro bellissimo soffitto astronomico si trova nella tomba ipogea della bella regina Nefertari (1295-1255 a.C.), moglie del faraone egizio Ramses II, nella Valle delle Regine. Tutto il soffitto ha come sfondo un cielo stellato di un intenso blu scuro, su cui risaltano i dipinti che illustrano il viaggio verso la notte e il sonno eterni di Nefertari. Presso gli Egizi la notte era simboleggiata dalla dea del cielo Nut, rappresentata come una donna piegata ad arco sopra la terra, nell’atto di inghiottire il Sole al tramonto per partorirlo di nuovo all’alba.

2_rappresentazione dea Nut(fig.2)

Le stelle, disseminate su questo soffitto, come su tutte quelle di tombe e templi egizi, sono sempre a cinque punte: un tipo di stella (detta anche pentagramma o stella pitagorica) a figura geometrica, costruita sulla base della sezione aurea. Un altro esempio importante del periodo egizio, ma più tardo, IV-III sec. a.C., si trovava nel Tempio di Hathor a Dendera, ora in esposizione al Louvre di Parigi. Si tratta di un bassorilievo, in pietra arenaria, di forma quadrangolare che racchiude un disco centrale di 155cm. di diametro, costruito presumibilmente tra il 54 e il 21 a.C.. Esso, riconosciuto al momento come la più importante rappresentazione delle costellazioni egizie e la mappa più completa di tutto il cielo antico, si presenta come una sintesi tra le 12 costellazioni zodiacali di origine assiro-babilonese e greca, posizionate al centro, e quelle egizie che le circondano.

(fig.3)??????????????????????

Ampie volte trapunte da mosaici di stelle, generalmente prive di riferimenti astronomici, caratterizzano edifici e chiese di epoca bizantina, come il Mausoleo di Galla Placidia a Ravenna (V secolo d.C.), la cui cupola è ricoperta da ben 570 stelle dorate disposte in cerchi che sembrano creare quasi un effetto di proiezione verso lo spazio infinito. E più tardi le volte affrescate del periodo medioevale, quali la Cappella degli Scrovegni a Padova, la Basilica superiore di San Francesco ad Assisi, la cattedrale di Siena, il Duomo di San Gimignano e molte altre. Un esempio diverso di volta stellata è presente identico in due monumenti fiorentini: la Sagrestia Vecchia nella chiesa di San Lorenzo e la Cappella dei Pazzi in quella di Santa Croce. Gli affreschi riportano la stessa configurazione astronomica del cielo che, dopo accurati studi, è stata identificata in quella visibile su Firenze il 4 luglio 1442, giorno in cui Renato d’Angiò arrivò nella città per chiedere un appoggio militare, per riconquistare il trono del Regno di Napoli sottrattogli da Alfonso d’Aragona.

4_Sagrestia vecchia_San Lorenzo_Firenze(fig.4)

Ed ancora, nella prima metà del Cinquecento, in periodo Rinascimentale, il cielo stellato sulla volta dell’Oratorio romanico di Santa Maria in Solario a Brescia. Particolare, invece, è la volta del salone del Collegio del Cambio a Perugia, divisa in sei spicchi triangolari ed una la vela centrale a forma di losanga, che il Perugino affrescò nel 1500. In ciascuno spicchio si trova la personificazione di un dio/pianeta abbinato a segni zodiacali e raffigurato su un carro trionfale trainato da animali. Sono presenti anche il Sole, rappresentato da Apollo, e Diana che simboleggia la Luna.

5_collegio del Cambio_Giove(fig.5)

A tutte queste espressioni di cielo stellato, però, manca un aspetto importante l’effetto tridimensionale, che si ha all’interno della cupola di un planetario. Testimonianza dei primi tentativi di costruzione di globi celesti tridimensionali si ha già nel VI e nel III secolo a.C. ma nessun reperto è giunto fino a noi. Si hanno solo documentazioni indirette, come testi, illustrazioni o addirittura mosaici, quale quello conservato nel Museo Nacional de Arte Romano a Merida, in cui è raffigurato un globo affiancato dal poeta astronomo greco Arato (III secolo a.C.), autore del poema Phoenomena e costruttore di un globo, basato sulle concezioni astronomiche di Eudosso del IV secolo a.C., anche questo andato perduto. Un particolare globo in marmo bianco, inciso da numerosi cerchi e fori, fu rinvenuto nel 1985 nella città di Matelica, mentre venivano eseguiti lavori di restauro del palazzo pretorio. Un accurato studio sia dal punto di vista astronomico che archeologico, ancora peraltro in atto, ha riconosciuto il reperto, databile tra il II e il I secolo a.C., come la sintesi tra due diversi strumenti: una sfera armillare ed un orologio solare sferico. Altro globo astronomico antico è quello in marmo di 65 cm di Ø, portato da Atlante sulle spalle, “Atlante Farnese”, scultura del II sec. d.C. forse riproduzione di un’opera antecedente, che troneggia all’ingresso del Museo Archeologico Nazionale di Napoli. Su di esso è scolpita la posizione occupata dalle costellazioni nel cielo, secondo il catalogo di Ipparco di Nicea del II sec. a.C..

6_atlante farnese(fig.6)

Bello il globo in legno, conservato presso il museo di Khiva (Uzbekistan) e costruito da Ulugh Bek, sovrano dell’Impero timuride ed importante astronomo e matematico del XV sec.. Su di esso sono raffigurate le principali costellazioni, secondo il catalogo delle Tavole Zig, sempre stilato dal sovrano nel 1437 e usato in Europa fino al XVII sec..

??????????????????????                                                           (fig.7)

Interessante anche quello costruito nel 1589 da Petrus Plancius (Pieter Platevoet) insieme a Jacob Floris van Langren, in cui sono raffigurate, anche se in posizione non precisa, le costellazioni dell’emisfero celeste sud.I globi, comunque, offrono una visione del cielo dall’esterno, e non quella immersiva che si ha nei planetari moderni. Per trovare una struttura concettualmente simile a questi, bisogna aspettare la metà del Seicento, almeno secondo le testimonianze storiche ed archeologiche finora raccolte. Questa si trova presso l’Antico Osservatorio Astronomico di Pechino, costruito nell’epoca delle dinastie Ming e Qing ed uno dei più antichi del mondo. La costruzione dell’osservatorio iniziò nel 1437, in sostituzione di un’antecedente torre astronomica di legno, e fu successivamente implementato prima ad opera dei musulmani e in seguito dei gesuiti; da ricordare tra questi ultimi l’importante figura di padre Matteo Ricci.

8_costellazioni sull'emisfero celeste(fig.8)

Nelle sale adiacenti al corpo principale dell’osservatorio si trova un museo dedicato all’astronomia cinese; sul tetto, invece, sono collocati gli strumenti in bronzo progettati nel 1674 dai gesuiti su commissione dell’imperatore Kangxi: un’armilla eclittica, un teodolite, un sestante e un quadrante a forma di drago. Questi, decorati in stile cinese, sostituirono le vecchie versioni mongole in uso da secoli. Altri strumenti di diversi materiali e dimensioni sono alloggiati nel piccolo parco che circonda l’osservatorio; in fondo al parco, dalla parte opposta al corpo centrale si trova una costruzione in pietra con una forma leggermente a tronco di piramide, sormontata da un emisfero in metallo. Su di esso sono rappresentate le costellazioni, con incisioni per le linee che ne definiscono il disegno e fori più o meno grandi per la simulazione delle stelle. Una piccola porta dava accesso all’interno di una camera angusta, da cui era possibile vedere l’effetto del cielo stellato guardando sulla volta traforata.

La storia dei planetari moderni era iniziata!

SIMONETTA ERCOLI

 

 

Bibliografia

1. David P. Silverman, Antico Egitto, E. Mondadori;
2. Descrizione dell’Egitto, pubblicata per ordine di Napoleone Bonaparte, Bibliotheque de L’Imagine;
3. Raccolte, I testi delle piramidi;
4. Antoine Gautier, L’observatoire du prince Ulugh Beg, in L’Astronomie, Octobre 2008, volume 122.
5. http://planet.racine.ra.it/testi/egizi.htm;
6. http://www.starlightgroup.it/index.php/approfondimenti/sotto-il-cielo-di-dendera-di-simonetta-ercoli.html
7. http://www.acacialand.com/Orion.html.
8. http://www.antiqui.it/archeoastronomia/armenia.htm
9. http://planet.racine.ra.it/testi/mesopo.htm
10. http://www.lescienze.it/news/2003/01/26/news/la_piu_antica_mappa_stellare_-588610/
11. http://www.eanweb.com/2012/astronomia-in-cina-una-storia-plurimillenaria/
12. http://it.wikipedia.org/wiki/Planetario
13. http://www.didatticarte.it
14. https://archeologiavocidalpassato.wordpress.com/tag/senenmut
15. http://www.cartigli.it/Graffiti_ed_iscrizioni/Senmut/Tomba%20di%20Senmut.htm
16. http://www.antiqui.it/archeoastronomia/globo.htm

28 luglio 2014 Posted by | Epistemologia, Scienze dello Spazio | , , | Lascia un commento

Il fumetto europeo da Mortimer a Nathan Never

Quando ho iniziato  ad avventurarmi in questa analisi sulla fantascienza a fumetti, non mi ero reso conto di stare scoperchiando il vaso di Pandora. Attirato dai volumi della Mondadori, collana Fantastica, che riproponevano autori per lo più europei di ‘culto’, ben presto mi sono accorto che il fumetto è fantascienza, perlomeno  all’80 per cento. Addio quindi pretesa di esaustività, mi devo accontentare di tracciare le grandi linee di questo mondo, limitandomi a ciò che nell’accezione comune è sf .

mortimerHo ritenuto necessaria questa premessa perché, dopo aver esplorato il mondo supereroistico americano e quello dei manga nipponici, intendo tornare nel ‘Vecchio mondo’, in Europa, i cui autori hanno dato tantissimo al genere, ma in modo molto diverso, “dirompente” è l’aggettivo che mi viene in mente per primo.  Lo stile, espresso principalmente dagli autori francesi e italiani, è molto colto e giustifica anche le perplessità di chi è abituato alla classica sf.  Si pensi alle bandes dessinées francesi e belga. Le avventure del capitano dell’MI5 inglese Francis Blake, con il professor Angus Mortimer, furono inventate dal belga Edgar P. Jacobs e sebbene le loro atmosfere ricordino maggiormente l’horror di Lovecraft, devono essere menzionate, anche per introdurre il maggiore Dan Cooper, dall’aviazione canadese, creatura di un altro autore belga, Albert Weinberg, certamente più votato alla sf. I tratti comuni di queste due opere belga sono l’estrema cura del disegno, molto realistico nel tratto, che ne riflette in qualche modo i contenuti: avventure fantastiche certamente, ma ben calate nella realtà. Altrettanto rifinito e curato, diciamo “razionale”, è il tratto del britannico Sydney Jordan, come pure le splendide storie del suo ben noto personaggio  Jeff Hawke, pilota della RAF e astronauta.

nathanneverDi diverso avviso è la scuola francese, con Moebius in testa, Jean Giraud all’anagrafe ufficiale, e il suo Garage Ermetico di Jerry Cornelius. Giraud, insieme al gruppo degli Humanoides Associes, creò la rivista trimestrale Metal Hurlant –poi ripresa negli Stati Uniti con il nome di Heavy Metal.
Moebius è stato  autore realmente rivoluzionario, insieme ai suoi compagni di avventura che rispondono a nomi come Philippe Druillet, Jean-Pierre Dionnet e Bernard Farkas. Giraud è anche l’autore di Arzach, altro fumetto ‘storico’. Le atmosfere dei lavori francesi rasentano spesso il visionario e l’onirico e hanno lasciato un’eredità che ho ritrovato in molti autori italiani, anche se di una generazione successiva, come il Manara ‘felliniano’ o il Corto Maltese di Hugo Pratt.

Ma qui stiamo sconfinando oltre quei limiti che ho cercato di impormi. Gli autori italiani contemporanei a Moebius hanno nomi che sono come fucilate di nostalgia nella pancia di chi ha vissuto in pieno il’68 (o meglio il suo secondo atto, il 1977): Tanino Liberatore, Stefano Tamburini sono autori che si spingono oltre la fantascienza dai tratti delicati dei francesi. RankXerox è un esempio su tutti: protagonista è una specie di cyborg-punk ultravitaminico creato da Stefano Tamburini, il cui originario nome verrà modificato in Ranxerox per motivi di copyright.

51pTsdb0oqL._“Gli autori americani devono molto alla cultura fumettistica europea ma anche alla scuola sudamericana, con l’Eternauta in testa,  che è addirittura del 1957”. A parlare è Davide Decina, curatore di Cartgallery, galleria d’arte romana dedicata alle tavole originali di fumetti e illustrazioni. “In Italia c’è sempre stata una forte tradizione legata all’illustrazione. Testimoni ne sono le copertine di Urania, soprattutto le opere di Carlo Jacono o di Karel Thole. “Di fumetto di fantascienza  in senso stretto è più difficile parlare” continua Decina, “bisogna arrivare ad anni più recenti per parlare di una scuola italiana di fantascienza a fumetti”. In quest’ambito nasce Druuna, di Paolo Eleuteri Serpieri, “fumetto erotico ma sicuramente di fantascienza” dice ancora Decina, precisando “però siamo già negli anni Ottanta”.

Oggi i nostri autori lavorano per le case editrici estere, americane e francesi per lo più. “In Italia la produzione di fumetti, che siano di fantascienza o no, è ostacolata da un grosso problema, i costi di distribuzione”. Rimangono i grandi editori, come Bonelli. Il suo Nathan Never, tra numeri della collana e fuori, più gli spin off, si pone all’avanguardia sul mercato e ha soprattutto il merito di avere diffuso, come già fece Urania per la letteratura, la cultura della sf in Italia.

GIANVITTORIO FEDELE

24 luglio 2014 Posted by | Fantascienza | , , , | 1 commento

Il tempo rivoluzionario

Fin dall’antichità l’uomo ha sempre cercato di tenere il conto del tempo per  organizzare meglio le giornate e le attività dell’intero anno. Così nacquero i primi calendari, con i quali si dava una collocazione temporale a tutte le attività annuali della comunità.
Organizzare il tempo non significava stabilire solamente l’esatta durata dell’anno, ma organizzare il lavoro, la vita sociale, politica e religiosa della comunità. In altre parole: il modo in cui organizziamo il tempo si riflette sul modo di vivere, con inevitabili ricadute sul modo di pensare. Se partiamo da queste premesse comprendiamo le ragioni storiche che hanno spinto allo sviluppo di calendari appositamente modellati su credenze religiose, eventi naturali e ricorrenze storiche.  Questo è tanto vero che nella storia si sono creati dei calendari il cui preciso scopo era di rompere la tradizione, comunicando i nuovi ideali rivoluzionari.

Nell’articolo mostreremo alcuni dei calendari con cui si è tentato di riscrivere la tradizione alla luce di nuovi ideali, attraverso un percorso che parte con il calendario repubblicano francese, passando per il calendario rivoluzionario sovietico, fino alla curiosa vicenda del calendario mondiale, che tentò di attuare una piccola rivoluzione “organizzativa” in seno al calendario gregoriano.

Il calendario rivoluzionario francese o calendario repubblicano francese
Con la rivoluzione francese si cercò di creare un nuovo ordine, animato dalla volontà di superare i vecchi schemi a favore di una società più equa e razionale. La riforma del sistema metrico decimale si inseriva sulla scia di una maggiore razionalizzazione della vita sociale, ed era così motivata da spingere i riformatori a mettere mano anche alla misura il tempo.
La riforma del “tempo” voleva creare un calendario più “razionale” e funzionale rispetto a quello gregoriano. Un’apposita commissione di astronomi e matematici, tra cui Monge e Lagrange, denominata “Comitato di Istituzione Pubblica in seno alla Convenzione Nazionale”, adottò il calendario copto modificandone alcuni aspetti.
Al nuovo calendario venne dato il nome di “calendario rivoluzionario francese”, o “calendario repubblicano francese”. Era suddiviso in 12 mesi di 30 giorni ciascuno, per una durata complessiva dell’anno di 360 giorni. I restanti cinque giorni (o sei giorni se l’anno era bisestile) erano conteggiati fuori dai mesi come giorni complementari, tutti di festa e dedicati ai sanculotti (i protagonisti della rivoluzione francese) (1).

Immagine 1

Ai mesi vennero assegnati nuovi nomi che riflettevano le condizioni metereologiche e agricole della Francia nella stagione di appartenenza (messi a punto dal poeta Fabre d’ Eglantine), in quanto l’anno venne suddiviso in quattro stagioni della durata di tre mesi.
Nella riforma si abolirono le settimane e si adottarono le decadi, in questo modo ogni mese fu suddiviso in tre decadi precise, ed ogni giorno della decade rinominato con una parola composta che indicava il numero del giorno seguito dall’aggettivo dì (primodì, duodì, tredì, ecc..). Siccome un mese conteneva precisamente tre decadi, questo iniziava con il primo giorno della decade e finiva con l’ultimo (ovviamente dal computo erano esclusi i giorni complementari).

 

Immagine 2

Infine l’inizio dell’anno venne spostato dal 1 gennaio al 22/23 settembre, giorno dell’equinozio d’autunno calcolato dall’Osservatorio di Parigi. Per gli anni bisestili non esisteva una regola precisa, e lo slittamento di un giorno era individuato con osservazioni astronomiche. Il computo degli anni (o era del calendario) iniziava dall’anno di fondazione della Prima Repubblica francese: il 22 settembre 1792 era l’anno 1 del calendario Repubblicano francese (2).
Il calendario non mutava mai nel corso degli anni, per cui i giorni e i mesi restavano sempre gli stessi. Le nuove denominazioni dei mesi e dei giorni mettevano in risalto la dimensione del lavoro e della natura, centrali per la mentalità illuminista. Tutto ciò viene descritto dallo storico J.P. Bertand:
“I giorni della settimana portano il nome che corrisponde al loro posto nella decade : primidi’, duodi’, tridi’… decadi’. Ai nomi dei santi si sostituiscono quelli delle messi, degli alberi, delle radici, dei fiori o dei frutti del momento. A ogni quindicesimo giorno (il quinto di una decade) corrisponde un nome di animale domestico e ad ogni decade quello di uno strumento agricolo. Per esempio il 22 settembre, primo di vendemmiaio, e’ uva, poi vengono zafferano, castagna, colchico, cavallo, balsamina, carota, amaranto, pastinaca e infine tino per la decade. I repubblicani vengono invitati a dare ai loro figli nomi che figurano nel nuovo calendario o nel linguaggio politico. A Etrechy, per esempio, 36 bambini su 43 battezzati nell’anno II si chiamano Rose, Marguerite, Jasmin, Oranger, Froment, Café, Narcisse, Basilic, Lilas, Fraise, Houblon o Belle-de-Nuit. Nei registri dello stato civile li affiancano coloro che i genitori hanno chiamato Union, Vertu, La Montagne, o più prosaicamente Armoire o Lettre. (3)
Secondo altri vi erano motivazioni anticlericali nella riforma del calendario: la nuova organizzazione dell’anno stravolgeva quella del calendario gregoriano, storicamente influenzato dalla tradizione cristiana.
La riforma del tempo non coinvolse solo il calendario, ma cercò di creare una nuova misura delle ore, abbandonando l’orologio a cui siamo abituati in favore di quello decimale: così il giorno era composto da 10 ore, suddivise in 100 minuti, a sua volta composti da 100 secondi. Quindi 1 ora del nostro orologio corrisponde a circa 2,24 ore decimale (demì). I principali vantaggi dovevano derivare dalla semplificazione dei conti: se una giornata si componeva di 10 ore, allora 20 ore corrispondevano a due giorni. Inoltre si tentò persino di convertire le misure angolari in base decimale, ottenendo una piena corrispondenza con le misure temporali (una delle ricadute pratiche poteva essere la semplificazione del calcolo delle rotte marittime).
Il calendario repubblicano francese fu reso obbligatorio con un atto del Direttorio, datato 24 ottobre 1793, ma venne abrogato il 31 dicembre 1805 da Napoleone Bonaparte, preferendo il calendario Gregoriano. Nella storia della Francia tornerà ad essere utilizzato solo durante la breve parentesi della Comune di Parigi del 1871 (4).
Diverso fu il destino delle ore decimali, che dopo essere entrate in vigore nel 1793 furono soppresse indefinitamente dopo appena due anni, nel 1795, a causa delle difficoltà di adattarsi al nuovo sistema di misura.

Il calendario rivoluzionario sovietico
La storia del calendario rivoluzionario sovietico è abbastanza particolare, e la si può comprendere solo alla luce degli enormi sforzi compiuti dall’Unione Sovietica nel suo sviluppo industriale.
Il calendario rivoluzionario sovietico voleva instaurare un nuovo rapporto con il tempo, ottimizzando e incrementando la produzione industriale.
La prima riforma del calendario fu varata da Lenin nel 1918, quando ancora si utilizzava il calendario giuliano. Con Lenin si passa al calendario gregoriano, eliminando alcuni giorni di scarto che correvano con quello giuliano: passando direttamente dal 31 gennaio al 14 febbraio. Tuttavia nei territori ancora controllati dall’Armata Bianca si continuava l’uso del calendario giuliano.
Alla fine degli anni ’20 l’Armata Bianca venne sconfitta e la guerra civile si concluse con la vittoria dei bolscevichi. Di conseguenza il calendario gregoriano si affermò in tutto il territorio sovietico. Da allora in poi l’industrializzazione del paese divenne la priorità e con essa si incoraggiarono tutte le proposte che potessero migliorare il sistema produttivo.
Nel maggio del 1929, durante il “I congresso dei lavoratori, soldati e contadini”, l’economista Yuri Larin propose un calendario che applicava un sistema di produzione continua: cioè senza giorno di riposo comune per tutti i lavoratori, al fine di incrementare la produzione industriale. Durante il congresso l’idea passò inosservata, ma le cose cambiarono nel giugno dello stesso anno quando riscosse il parere positivo di Stalin.
Con l’approvazione di Stalin il sistema della produzione continua fu promossa da una campagna di stampa, e il Consiglio Economico Supremo compilò una positiva valutazione di fattibilità. Per convincere i vertici dell’Unione Sovietica, Yuri Larin sosteneva che già il 15% dell’industria lavorava conformemente alla sua proposta. A fine agosto il consiglio di governo manifestava necessità di approvare il nuovo sistema produttivo durante l’anno economico 1929-1930.
L’1 ottobre del nuovo anno economico si mise in pratica la transizione verso la settimana di produzione continua e con essa la riforma radicale del calendario civile.
La riforma del calendario prevedeva la riduzione della settima a 5 giorni, ma con delle eccezioni: 6 giorni per i settori dell’edilizia e costruzione; e 6 o 7 giorni per le fabbriche che dovevano fermare la produzione una volta al mese. Ogni giorno della nuova “settimana” era identificato da un numero progressivo compreso tra uno e cinque e un colore: utili per stabilire i turni di riposo ai quali erano associati gruppi di lavoratori.

Immagine 3

Con questa riforma esistevano 72 “settimane” da 5 giorni in un anno (52 settimane nel calendario gregoriano). Inoltre esistevano 5 giorni intercalare (non conteggiati nei mesi) tutti di festa, questi nel 1929 corrispondevano a: 22 gennaio, anniversario della domenica di sangue o giornata di Lenin; 1 e 2 maggio, giornata internazionale dei lavoratori; 7 e 8 novembre, commemorazione della rivoluzione d’ottobre.
Con l’introduzione della “settimana” di cinque giorni anche i mesi subivano cambiamenti, perché tutti dovevano durare 30 giorni suddivisi in sei “settimane”: il mese si apriva con il primo giorno della “settimana” e si concludeva con l’ultimo, in analogia col calendario repubblicano francese.
Durante l’applicazione della riforma ci furono diverse anomalie, testimoniate dalla massiccia presenza di calendari gregoriani dopo il 1930 (anche se in alcuni febbraio era da 30 giorni), e altri con settimane da sette giorni.
La riforma del tempo stravolse i ritmi della comunità e i riti religiosi non potevano più essere seguiti con regolarità. La vita sociale dei lavoratori peggiorò per via dei turni di lavoro continuati, che rendevano difficoltoso incontrarsi nel dopo lavoro. In compenso i giorni di riposo di un lavoratore sovietico erano maggiori rispetto alla maggior parte degli operai del blocco occidentale. Quest’ultimi godevano di un giorno di riposo ogni sette, e solo i lavoratori della Ford adottavano la settimana corta di cinque giorni con due di riposo (definitiva solo a partire dal 1940) (5).
Dal punto di vista produttivo non si registrarono sostanziali miglioramenti, inoltre le macchine industriali si deterioravano più velocemente, perché non progettate per lavorare senza sosta. La difficoltà di manutenzione delle macchine era dovuta all’impossibilità di fermarle senza spezzare i turni di lavoro.
Nonostante le varie problematiche la riforma continuò ad essere applicata. All’inizio del 1930 il 43% delle industrie applicava la produzione continua e questa sarebbe dovuta salire al 67% per il mese di ottobre. Tuttavia nel maggio del 1930 molte aziende abbandonarono la riforma, anche se Yuri Larin affermò che l’implementazione aveva raggiunto il 79%, ma non esistono cifre ufficiali che confermino tale dato. Sembra che la riforma fu applicata a tutto il sistema burocratico e del commercio.
Nel 1931 La grande impopolarità della riforma spinse Stalin a bloccarne l’applicazione, apportando modifiche al calendario: si abbandona la “settimana” di 5 giorni e se ne adotta una di 6, così che tutti i mesi fossero di 30 giorni suddivisi in 5 “settimane” (il primo giorno del mese era sempre il primo della “settimana” e l’ultimo del mese corrispondeva all’ultimo della “settimana”). Con quest’ultima riforma si reintrodusse il giorno di festa comune per tutti i lavoratori, ad eccezione dei mesi con il 31º giorno: da considerarsi giornata di lavoro fino al completamento dei sei giorni lavorativi, al contrario erano sempre di riposo per i funzionari statali e commercianti (6).

Immagine 4

Nel novembre del 1931 la produzione continua è ristretta alle sole istituzioni che non potevano fermare il lavoro: fonderie, ospedali, istituzioni sociali e culturali.
Il 1 dicembre 1931 viene soppressa la produzione continua, ma per l’abolizione del calendario rivoluzionario sovietico si dovrà aspettare il 27 giugno 1940, quando Stalin lo abrogherà in favore del calendario gregoriano.

- Il calendario mondiale
Per ultimo abbiamo un curioso tentativo di riforma del calendario gregoriano, proposto negli Stati Uniti d’America. Quest’ultimo tentativo di riforma era l’unico che non scaturiva da una rivoluzione politica.
A dire il vero, la prima descrizione di questa proposta di riforma risale al 1834, in un libro pubblicato a Roma dall’abate Marco Mastrofini (7). L’abate italiano voleva riformare il calendario dandogli una struttura che lo rendesse immutabile nel corso degli anni, come un calendario perpetuo (8). Nella sua proposta l’1 gennaio doveva cadere sempre di domenica, e l’anno civile veniva suddiviso in quattro trimestri da 91 giorni ciascuno. Ogni trimestre era composto da 13 settimane: il primo giorno di ogni trimestre iniziava con la domenica e si concludeva di sabato; inoltre il primo mese del trimestre aveva 31 giorni e tutti gli altri 30. Nel computo totale dell’anno vi erano due giorni festivi conteggiati fuori dai mesi e individuati dalla lettera “W”: uno alla fine di dicembre, e l’altro tra giugno e luglio (se l’anno è bisestile).

Immagine 6

L’ipotesi di Marco Mastrofini passò inosservata fino al 1930, quando la statunitense Elisabeth Achelis fondò la “The World Calendar Association”(T.W.C.A.) con lo scopo di promuovere la riforma. Dal 1931 Elisabeth Achelis propaganda il calendario mondiale su giornali e libri, continuando durante i successivi 25 anni. Tra gli argomenti a favore di questo calendario vi sarebbero: una migliore facilità nel dividere l’anno in trimestri, in quanto tutti della stessa durata; una più facile memorizzazione dell’anno; e siccome i giorni nel calendario non cambiano nel tempo, non sarebbe stato più necessario stampare nuovi calendari ogni anno, con un conseguente risparmio di soldi e carta (9).
Inizialmente il calendario mondiale  incassò il sostegno dalle Nazioni Unite, e successivamente anche quello del Governo degli Stati Uniti d’America. Le cose cambiarono nel 1955, quando il Congresso degli Stati Uniti d’America ritirò l’appoggio alla riforma. L’anno seguente la “The World Calendar Association” venne sciolta.
C’è da tener presente che nel calendario mondiale si continuava ad avere le settimane spezzate come nel calendario classico. Inoltre crea problemi con i calendari liturgici, soprattutto per la presenza dei giorni intercalare che falsano la durata dell’anno e delle settimane. Infine, per i più superstiziosi, si avrebbero ben 4 venerdì 13 per ogni anno (10).
Siamo giunti al termine della nostra disamina sulle mancate riforme del calendario gregoriano, e come abbiamo visto il calendario, che tutti noi diamo così per scontato, è portatore di una storia ricca di significati molto più complessi e profondi di quanto si possa immaginare. Nonostante i vari tentativi tesi a sostituire il calendario gregoriano, esso rimane uno dei calendari più utilizzati al mondo.

LUCA di BITONTO

 

 

Bibliografia

- http://www.theworldcalendar.org/

- http://personal.ecu.edu/mccartyr/world-calendar.html

- Marco Mastrofini, Amplissimi frutti da raccogliersi ancora sul calendario gregoriano, Roma, 1834.

- http://www.cabovolo.com/2010/11/y-la-revolucion-sovietica-llego-al.html

- J.P. Bertand, La vita quotidiana in Francia al tempo della Rivoluzione, Milano, BUR, 1988.

- http://www.robespierre.it/dizionario_dett.asp?ID=4

- http://calendario.eugeniosongia.com/francese.htm

- http://fisa.altervista.org/cal_francese.html

- http://astro.bonavoglia.eu/cal_francese.phtml

- Davide Calonico e Riccardo Oldani, Il tempo è atomico: Breve storia della misura del tempo, Ulrico Hoepli Editore S.p.A, Milano, 2013.

Note
1: http://www.robespierre.it/dizionario_dett.asp?ID=4
2: http://calendario.eugeniosongia.com/francese.htm
3: J.P. Bertand, La vita quotidiana in Francia al tempo della Rivoluzione, Milano, BUR, 1988.
4: Davide Calonico e Riccardo Oldani, Il tempo è atomico: Breve storia della misura del tempo, Ulrico Hoepli Editore S.p.A, Milano, 2013.
5: http://www.cabovolo.com/2010/11/y-la-revolucion-sovietica-llego-al.html
6: http://www.cabovolo.com/2010/11/y-la-revolucion-sovietica-llego-al.html
7: Marco Mastrofini, Amplissimi frutti da raccogliersi ancora sul calendario gregoriano, Roma, 1834.
8: Davide Calonico e Riccardo Oldani, Il tempo è atomico: Breve storia della misura del tempo, Ulrico Hoepli Editore S.p.A, Milano, 2013.
9: http://www.theworldcalendar.org/
10: http://personal.ecu.edu/mccartyr/world-calendar.html

14 luglio 2014 Posted by | Scienze dello Spazio | , , | Lascia un commento

Iscriviti

Ricevi al tuo indirizzo email tutti i nuovi post del sito.

Unisciti agli altri 521 follower