Il Tredicesimo Cavaliere

Scienze dello Spazio e altre storie

Grilli, api e hamburger di vermi

Sono un esperto di cucina fantascientifica. Su di me come scrittore di fantascienza chiunque può dire quello che gli pare, lo fanno, ma almeno datemi atto di essere un esperto di cucina fantascientifica: 30.000 (e passa…) copie vendute in due edizioni di “Memorie di un cuoco d’astronave” mi autorizzano a definirmi tale.

Solo che parlare di mangiare insetti ormai non è più fantascienza. Le foto che vedete in questo articolo sono foto reali scaricate dalla rete di una moda estiva statunitense: lecca-lecca agli insetti. Uno li scarta , li succhia, succhia lo zucchero che li avvolge e poi si mangia gli insetti.

popteqil2Non è fantascienza. E’ un prodotto commerciale, i cui realizzatori si vantano dei loro allevamenti di insetti e di come vengano nutriti in modo biologicamente controllato e corretto…

D’altra parte il miele lo mangiate? Scusate se ve lo dico così, ma il miele è un liquido fatto al 90% di zucchero secreto da una ghiandola specifica che sta a pochi millesimi di millimetro dall’ano dell’ape. E non sto scherzando.

Anzi, dato che non voglio disgustarvi , nemmeno ve lo dico che cos’é veramente la “pappa reale” che tanta gente usa come ricostituente…

bugcandyIn realtà tutto ciò nasce da una cena con amici, nel corso della quale una amica che stava per bere un bicchierino di Mescal, non lo ha fatto solo perché io le ho chiesto (avendo capito il tipo) “Tu non hai nulla contro i vermi, vero?”.

Lei non sapeva che nella bottiglia del vero e genuino Mescal, nel fondo, c’è sempre un verme (in realtà una “pupa”, ma non stiamo a sottolizzare) che ci viene messo a garantire la genuinità del Mescal (una specie di grappa fatta con la polpa dell’agave messicana) dato che quel verme vive esattamente all’interno della pianta. Lei era inorridita solo all’idea (cosa comprensibilissima, intendiamoci) e non ha bevuto il Mescal. E’ anzi rimasta ancora più disgustata quando le ho detto che in realtà il verme prima di essere messo nella bottiglia viene leggermente tostato così da risultare croccante quando lo si mangai, alla fine della bottiglia.

Avete mai sentito la leggenda urbana che dice che gli hamburger di Mac Donalds sono fatti di un impasto di lombrichi? Ha girato per tutti gli anni 90 negli stati Uniti ed anche da noi, e non è vero naturalmente.

Non è “ancora” vero!

Allevare e mangiare insetti molto probabilmente sarà il modo in cui risolveremo il problema dell’alimentazione del pianeta in futuro.

E per molti ottimi motivi:

  • la stessa quantità, diciamo 100 grammi di carne di manzo o di vermi, dà quantità di proteine , vitamine e sali minerali diversissime, con un vantaggio del 50% nel caso dei vermi (pupe di farfalle et similia, prevalentemente, secondo i futuri allevatori)

  • allevare insetti è mille volte meno inquinante e distruttivo che allevare mucche: non solo per le mucche occorre distruggere foreste per fare spazio ai campi (come si dice di solito: la mucca in realtà divora la Terra, fra desertificazione erosione dei suoli eccetera) ma è omrai appurato statisticamente che il metano pordotto daglianimali da allevamento per l’alimentazione umana produce un buon 15/20% del metano presente nell’aria del pianeta. Se non avete capito come lo producono, ve lo dico io: scoreggiano! Mucche, pecore, capre, cavalli, maiali, in centinaia e centinaia di esemplari scoreggiano tonnellate di metano nell’atmosfera. E anche questo non è uno scherzo.

  • per moltissime culture di questo pianeta (primi fra tutti i cinesi, e scusate se son pochi: 1,5 miliardi) mangiare insetti è addirittura una leccornìa tradizionale; non ci sarbbero problemi per loro

ambersideGli arabi no, invece; la famosa storia di San Giovanni che si ritira nel deserto a mangiare “miele e locuste” è solo un errore di traduzione: la parola che significa “locusta” in aramaico è estremamente simile a quela che significa “focaccia”. E’ un errore che va avanti da 2000 anni in tutte le traduzioni del Vangelo, ma tant’è, storici e linguisti lo sanno da un centinaio di anni: San Giovanni nel deserto mangiava miele e focacce.

Insomma, mangeremo insetti? Dico, noi italiani, dato che i teen-ager americani hanno già cominciato.

Ah, saperlo…

MASSIMO MONGAI

27 ottobre 2014 Posted by | Fantascienza, News | , , | Lascia un commento

SF-SFX (*) Effetti speciali e FS, vexata quaestio

12-lucy-scarlett-johansson_0

I tre film di Fantascienza con Scarlett Johanson di cui voglio parlare sono: Lei (Her), Under the Skin, Lucy. I film sono indicati nell’ordine in cui io li ho visti nel corso di quest’anno, che è l’ordine in cui sono apparsi sul mercato italiano. Ma Scarlet è tutt’altro che nuova al genere, anzi. Ha infatti interpretato ruoli di protagonista o comunque significativi anche in altri 6 film di FS: The Island, The Prestige, The Spirit, Iron Man 2, The Avengers e Captain America: The Winter Soldier. In totale ben nove dunque, in soli nove anni e tutti rigorosamente di genere. Se va avanti così diventerà una icona della FS!

her 2Nel primo Lei (Her), Scarlett Johanson è presente solo come voce, dato che il suo personaggio è il sistema operativo ospitato nel computer dell’altro personaggio principale. Nella versione italiana la voce è quella  di Micaela Ramazzotti. Diversamente dal solito nei film di fantascienza, gli effetti speciali in questo film sono zero. Potremmo dire forse che l’unico effetto speciale è l’aver girato il film a Shangai, nella super moderna Shangai di oggi che in effetti sembra un effetto speciale futuristico. In questo mondo i sistemi operativi dei computer sono evoluti al punto di essere pienamente senzienti, sono persone a tutto tondo, autonomi e fanno scelte autonome fino al punto di interagire alla pari con gli esseri umani e da combinar loro uno scherzetto non da poco che non vi dico per non spoilerare il film.

Film Review Under the SkinUnder the skin è un “film di fantascienza d’autore” o se volete è un “film d’autore ma di fantascienza”. A dire che è un film d’autore, ossia un film in cui le scelte stilistiche autorali sono forti, nette, hanno un livello alto, ma al tempo stesso si tratta di un film di genere, correttamente di genere per di più. E’ probabile che non lo abbiate visto, è stato pochissimo nelle sale, pur essendo un bel fim anche se leggermente noioso, come, scusatemi, quasi tutti i film d’autore. E se la noia la si perdona al film autorale,  molto più difficilmente la si perdona al film di genere. Comunque, a dimostrare la peculiarità di questo film, qui troverete i commenti dei critici americani, fra loro a dir poco contraddittori eppure proprio per questo condivisibili. Per apprezzarli in pieno dovreste vedere il film, però.

skin4Il film è difficilmente raccontabile: un alieno o una aliena va a capire, letteralmente indossa una pelle di una donna bellissima per sedurre maschi umani ai quali sottrarre altre pelli per futuri interventi sul pianeta, chissà, una invasione, una esplorazione, una ricerca, non si capisce. Qui gli effetti speciali ci sono e sono molto belli, ma anche molto strani! Sono essenziali alla storia? Forse. Il film, ripeto è corretto secondo le regole del genere, non ha nulla di criptoproustiano (**), è fantascienza di quella vera e tosta. Ripeto essendo autorale è un po’ noioso, ma resta fantascienza vera. Nell’insieme a me pare un film corretto dal punto di vista del genere (non ci sono salti logici, abusi dei canoni fantascientifici, impossibilità scientifiche) quindi è senza dubbio un film di fantascienza e al tempo stesso è vero che è un film un po’ noioso ed è noioso perché è un “film d’autore”.

LucyInfine Lucy è ancora in sala quando scrivo ed è un classico bel film di FS, godibilissimo e pieno di effetti speciali (del resto Luc Besson è una garanzia). Ho visto Lucy e come mi aspettavo è un film non solo di fantascienza, ma assolutamente NON noioso e commerciale. Quest’anno Scarlett è stata pressoché onnipresente nel mondo della FS cinematografica.
La quale ogni anno riversa nelle sale italiane una ventina di film di FS quasi tutti buoni se non ottimi e mai “autorali”, ossia film nei quali gli autori per fare qualcosa che “non sia solo fantascienza” puntano molto sulla forma, su elementi e stilemi che con il genere non hanno nulla a che fare. E’ interessante notare che nelle sale i film di FS sono visti indifferentemente da un pubblico femminile e maschile diversamente dal pubblico dei lettori (pare, dicono, sembra…) e di tutte le età.

Lucy 2La presenza di tanti film nelle sale (e considerate che per ogni film che arriva da noi almeno un altro non arriva, e passerà in TV o nei pc, quindi parliamo di letteralmente decine di film di FS) dimostra che c’è non solo un mercato per la FS, ma proprio un vero e proprio BISOGNO di immaginario fantascientifico. Commedie a parte, la FS è rimasta praticamente l’ultimo “genere” cinematografico chiaramente riconoscibile almeno nella lista di quelli tradizionali.

Donne onnipresenti nella Fs dunque, sugli schermi e in sala. Non nella produzone dei film però visto che registi e sceneggiatori sono in tutti e tre uomini. E’ che non sanno farlo… Scherzo. Il perché in realtà è ovvio: il ruolo di regista è un ruolo di grande potere, per ottenere il quale gli uomimini si battono con efficienza evidentemente maggiore delle donne, è una questione di puro e semplice patriarcato; le quali donne infatti fanno sì le registe, ma sono decisamente di meno e fra loro, le registe di film d’azione in realtà sono altro che poche, se non sbaglio c’è solo Katherine Bigelow, che se non altro costituisce una clamorosa eccezione che conferma la regola, nel senso che i suoi sono film che definire adrenalinici è dire poco, e ne ha fatto uno di fantascienza, Strange Days (con pochissimi effetti speciali fra l’altro)…. Fra gli sceneggiatori le donne sono molte di più, più nella TV che nel cinema.
Ma a questo punto vorrei sottolineare come la FS non è fatta dagli effetti speciali o lo è solo in minima parte. Moltissimi i casi, valga uno per tutti: “Fiori per Algernon”. Cos’è quindi l’essenza della FS?
Tre film di vera FS, diversi per forma e sostanza, ma non per essenza, con in comune una attrice ed un forte personaggio femminile. E in sala nutrito pubblico femminile in tutti e tre i casi. Considerate che per Under the skin eravamo dieci, quindi metà e metà, mentre per Lucy, ma anche per Lei 400 di nuovo metà e metà.
Resta però sempre vero che le donne leggono FS molto meno degli uomini. Non ho intenzione di dimostrarlo per l’ennesima volta: sappiatelo, è così e se non ci credete andate sul sito dell’ISTAT e nella stinga di ricerca digitate la paola “fantascienza”, spunterà una ricerca sui lettori di FS.
Altri articoli sull’argomento si trovano sul Trediscesimo Cavaliere, utilizzate per la ricerca l’apposita e ben visibile finestrella.
Ma a questo punto o mio lettore, tu appartieni ad una delle due categorie: sei d’accordo su questo assunto e ti chiedi perché; oppure non sei d’accordo, neghi il fatto e quindi non ti chiedi il perché. Il che per quel che mi riguarda chiude la discussione: è sterile ed ormai l’ho capito, non porta da nessuna parte.
Però…
Asimov diceva che in fondo l’essenza della FS è un racconto che parte dal What if…, cosa accadrebbe se una certa ipotesi fosse vera.
Bene. Facciamo finta che sia vero che le donne non leggono e quindi non scrivono FS. Se questo fosse vero, in un ipotetico mondo parallelo, in un anotherwhen, un altroquando a qualche universo parallelo da noi, perché sarebbe vero? In base a quali meccanismi psicologici, comportamentali, genetici, potrebbe essere vero che le donne non leggono e non scrivono Fs? Potete non essere d’accordo, naturalmente, ma io penso che il rapporto che c’è fra le donne e la fantascienza (almeno in quel mondo parallelo lì, certo) sia essenziale oggi per capire cos’è la fantascienza.
Non come si è evoluta, o come sta cambiando, ma proprio cos’è, cos’è sempre stata.
Intendiamoci, io non so come si possa spiegare questo legame, lancio un sasso nello stagno.

No non è vero, io lo so perché.

 

Massimo MONGAI

(*) Science Fiction Special Effect

(**) Dicesi criptoproustiano (di un film o di un testo di FS) quando il testo in questione per volontà di solito esplicita e dichiarata dell’autore, vuole essere “non solo di fantascienza”, ossia l’autore vorrebbe essere Proust o almeno famoso e considerato come Proust dal mondo critico ed accademico, ma gli è capitato di essere pubblicato come autore di FS. Il termine è mio, ma lo uso da molti anni ed è entrato almeno in parte in uso o se non altro compreso nel Fandom italiano. La FS criptoproustiana è il male assoluto anche perché è la causa principale del ridursi di pubblico e di occasioni di pubblicazioni. E’ male antico.

(***) Mi si permettano due considerazioni OT in relazione a UTS. Scarlet Johanson è un sex-symbol del cinema americano ed internazionale e se vi interessa in UTS la si vede abbastanza nuda. Ahimè, ha il culo basso. Inoltre la Scozia descritta nel film è invernale, brutta e piena di gente cattiva e brutta. Che c’entra direte voi? Due cose sgradevoli che non mi aspettavo, tutto qui.

 

21 ottobre 2014 Posted by | Fantascienza, News | , , | 2 commenti

LightSail + Cubesat: il Sistema Solare sarà aperto a tutti?

LightSail in orbita 2

Mentre i principi fondamentali della propulsione a vela solare erano noti già da lungo tempo, fin dall’epoca di Giulio Verne, solo recentemente la tecnologia dei materiali e di costruzione dei veicoli spaziali si è sviluppata abbastanza da rendere la vela solare un metodo di propulsione praticabile. La cosa è concettualmente molto semplice: costruisci una grande e leggerissima struttura (la vela), agganciala a un’astronave e lanciala nello spazio, dove la tenue pressione della luce del Sole può fare da propellente. Se la vela è grande abbastanza e l’altitudine sufficiente a far sì che non ci sia alcun effetto frenante dovuto all’atmosfera, la leggera ma costante accelerazione generata dalla pressione della luce del Sole può essere utilizzata per ottenere le altissime velocità di cui qualsiasi astronave ha bisogno per navigare nel Sistema Solare. Non c’è dubbio che i principi di fisica della vela solare funzionino. La sfida risiede nella loro applicazione pratica: costruire una vela sufficientemente grande, robusta eppure leggerissima, sistemarla ben piegata dentro l’astronave insieme a un affidabile meccanismo di dispiegamento, controllare l’orientamento del veicolo nello spazio (assetto) in modo che la vela possa essere usata per mandare l’astronave esattamente dove vogliamo. Fino a che queste capacità non saranno state messe alla prova e verificate, nessuna agenzia spaziale spenderà mai milioni di dollari per missioni che siano basate su questa tecnologia, a prescindere dai tanti potenziali benefici che promette. Ed è a questo punto che LightSail entra in gioco.

Il progetto LightSail è stato concepito circa cinque anni fa da Louis Friedman, Presidente uscente e co-fondatore  della Planetary Society, e da Tomas Svitek, della società Stellar Exploration, come metodo a basso costo di dimostrazione e convalida della tecnologia della vela solare. Gli obiettivi del progetto sono chiari: dispiegare e stabilizzare con successo una vela solare in orbita terrestre, dimostrare di saper controllare l’assetto del veicolo spaziale con sufficiente accuratezza, e usare la vela solare per modificarne intenzionalmente l’orbita. Per poter rappresentare un passo significativo verso future missioni, la vela deve essere abbastanza grande da fornire l’accelerazione richiesta, ma il sistema in generale deve essere piccolo e semplice per poter essere abbordabile economicamente.

Cubesat1Per fortuna, più o meno nello stesso tempo, il tipo di veicolo spaziale noto come Cubesat stava migliorando velocemente, fornendo una piattaforma ideale per la dimostrazione di LightSail. L’astronave è progettata come un Cubesat a tre unità (3U); consiste cioè in una colonna di tre cubi, ognuno dei quali misura 10 centimetri per lato. Tutte le funzioni, inclusa la vela e il meccanismo di  dispiegamento, sono sistemati in questo piccolo spazio. Mantenere il sistema piccolo e leggero abbastanza per entrare in un Cubesat 3U significa che una vela di dimensioni relativamente contenute, nel nostro caso 32 mq., può essere usata per fornire un’accelerazione utile. Se ne ottiene un veicolo spaziale a costo molto basso  eppure con elevate prestazioni, che darà un importante contributo alla tecnologia della vela solare. Sebbene ci siano state altre missioni equipaggiate con  vela solare, tra le quali la più nota è la giapponese  IKAROS, che nel 2010 dispiegò una vela solare nello spazio interplanetario eseguendo una serie di test, LightSail  sarà la prima del formato Cubesat. Con il loro profilo compatto e la componentistica standard, i Cubesat rientrano nella capacità di spesa di molte università e di altre organizzazioni; le grandi compagnie e le agenzie spaziali governative non saranno ancora per molto le sole a potersi permettere di costruire e lanciare satelliti. Ma a causa delle loro ridotte dimensioni, i Cubesat non hanno spazio per i motori a razzo e il relativo propellente che potrebbero permettere loro di viaggiare attraverso il Sistema Solare in maniera indipendente, e quindi non possono spingersi oltre le orbite terrestri . LightSail cambia tutto questo. Il matrimonio tra la vela solare e il paradigma Cubesat  è uno dei maggiori contributi di LightSail e della Planetary Society, sicuramente un passo avanti verso l’apertura del Sistema Solare a tutti.

Profilo di missione

LightSail sarà lanciato nell’aprile del 2016 come carico utile secondario del lanciatore Falcon Heavy, attualmente in sviluppo presso Space X. Una volta raggiunta l’orbita terrestre e distaccatosi dal vettore, LightSail, con la vela stivata al sicuro all’interno, verrà seguito e controllato lungo la sua traiettoria  per alcune settimane, allo scopo di determinarne accuratamente l’orbita e verificare che tutte le apparecchiature lavorino correttamente. Dopo circa quattro settimane dal lancio – l’esatto periodo di tempo non è stato ancora precisato – verrà dato il comando di dispiegare la vela solare. Ciò avverrà quando si avrà la certezza che il veicolo sarà in collegamento con una stazione terrestre di rilevamento, in modo da controllare il dispiegamento in tempo reale. Questo avverrà molto rapidamente: nel giro di un paio di minuti la vela sarà completamente estesa. A bordo, i sistemi noti come “torque rods” allineeranno automaticamente LightSail al campo magnetico terrestre e stabilizzeranno l’assetto del veicolo per la fase successiva, dedicata alla modificazione dell’orbita. Durante questa fase, il veicolo verrà riorientato due volte per ogni orbita, allo scopo di ottenere il massimo vantaggio dalla luce del Sole che colpisce la vela. Rettificando regolarmente il suo assetto durante un gran numero di orbite, mentre controlliamo accuratamente la dimensione, la forma e l’inclinazione dell’orbita sull’equatore terrestre, saremo in grado di confermare che la vela si sta comportando come previsto e sta eseguendo le attese modificazioni della traiettoria. Questo convaliderà pienamente il sistema e il processo di controllo dell’assetto. L’intera missione è pianificata per durare circa tre mesi, ma se il veicolo rimanesse efficiente non ci sarebbe motivo per non estenderla allo scopo di permettere ulteriori caratterizzazioni della prestazione dell’intero sistema.

Ciao LightSailConsiderazioni sull’altitudine dell’orbita

Una delle limitazioni nell’uso della vela solare in orbita terrestre è che la pressione della radiazione solare deve superare l’attrito atmosferico preferibilmente da 5 a 10 volte per garantire un sufficiente margine operativo. Questo dipende in parte dal fatto che l’alta atmosfera è variabile: si espande o si contrae secondo il ciclo del sole, l’attività delle macchie solari, e altri fattori meno prevedibili. Un’altitudine orbitale di 800 chilometri è considerata di solito la migliore per la configurazione  LightSail. In effetti, una delle sfide che ha impedito in passato di completare la missione LightSail è stata l’impossibilità di trovare un passaggio a buon mercato per l’orbita degli 800 km. Come dire, non erano previste possibilità di lanci gratuiti.

Per evitare il collo di bottiglia e portare finalmente LightSail nello spazio, abbiamo dovuto fare un compromesso sull’altitudine dell’orbita, e l’attuale piano di missione  prevede di piazzare l’astronave a circa 720 km. d’altitudine. Calcoli preliminari dimostrano che durante la missione la pressione della radiazione solare supererà l’attrito dell’atmosfera di un fattore che va da 2,5 a 5, sufficiente per una dimostrazione di volo a vela solare. Modificheremo l’orbita in vari altri modi, non solo rispetto all’energia orbitale, che ci obbliga a lavorare direttamente contro l’attrito atmosferico, ma anche in relazione ad altri parametri che non ne sono così drammaticamente influenzati. La pianificazione e il rilevamento accurati dell’orbita ci permetteranno di dare una dimostrazione efficace della tecnologia, anche a questa quota leggermente più bassa.

I partner dell’astronave LightSail

La Planetary Society stava giusto cercando un modo di completare la missione a prezzi sostenibili, quando dal Georgia Institute for Technology ci fu offerta una formidabile opportunità che ha grandemente favorito la missione. Gli studenti del Georgia Tech hanno vinto una gara per costruire e lanciare una missione chiamata Prox-1, che darà dimostrazioni di nuove tecnologie per operazioni di prossimità tra due veicoli nello spazio. Per farla breve, loro avevano bisogno di un’astronave che facesse da partner per i loro esperimenti, LightSail aveva bisogno di un passaggio verso un’orbita alta, non servì quindi molto tempo per rendersi conto che le due missioni sembravano fatte l’una per l’altra.

LightSail +Cubesat

Il nuovo piano della missione richiede che LightSail venga trasportato da Prox-1 e sganciato da esso una volta raggiunta l’orbita. Per varie settimane prima del dispiegamento della vela, Prox-1 prenderà immagini e telerilevamenti di LightSail da una distanza di sicurezza, mentre porterà avanti i suoi esperimenti di operazioni in prossimità. Quando tali esperimenti saranno completati, Prox-1 osserverà LightSail mentre dispiega la vela e conduce le sue prime manovre di assetto. Le immagini restituite da Prox-1 saranno estremamente utili per comprendere la dinamica del dispiegamento della vela, poiché saremo in grado di osservare la sequenza degli eventi in tempo reale oltre a ricevere i soliti dati via radio. Stiamo lavorando gomito a gomito con i ragazzi della Georgia Tech su questa missione combinata!

LightSail a terraL’astronave LightSail

È una meraviglia di progettazione innovativa e di confezionamento intelligente. Due delle sue tre unità Cubesat sono dedicate all’avionica e a ospitare la vela. La terza contiene invece il meccanismo di dispiegamento, inclusi i bracci estendibili a cui la vela è agganciata, il motore di navigazione, l’antenna per le telecomunicazioni e altri componenti. Durante le procedure di lancio i pannelli solari sono ripiegati sopra la vela, aiutando a tenerla nella corretta posizione fino al dispiegamento. Prima dell’apertura della vela, l’intero sistema misura 10×30 cm., circa la metà di un tostapane. La vela è realizzata in Mylar (polietilene tereftalato, una resina termoplastica) e una volta pienamente dispiegata misurerà 32 metri quadrati. L’astronave è quasi completa e verrà sottoposta agli ultimi test entro la fine dell’anno.

Prove di volo

È risaputo che il modo migliore per ridurre i rischi in un progetto di volo spaziale è quello di avere a disposizione due astronavi uguali (il massimo della ridondanza ndt), e LightSail è tra questa eletta schiera di fortunati. Grazie a un po’ di intelligente pianificazione nelle prime fasi del programma, due copie quasi identiche del sistema di volo sono pronte per essere lanciate. Inoltre la NASA ci ha regalato  un’altra opzione di lancio, così che  speriamo di poter eseguire un test di volo completo nel maggio 2015, ben un anno prima della missione primaria. Questo lancio mira a un’orbita più bassa, inadatta per una dimostrazione di volo vera e propria, ma sufficiente per permettere la verifica dei sistemi di dispiegamento e di assetto, e delle altre funzioni chiave proprie del Cubesat, con molto anticipo sulla data primaria di lancio. Il sistema di test di volo è in corso di preparazione e sta per essere a sua volta messo alla prova, e se saremo soddisfatti dei risultati, tutto il materiale sarà stivato e spedito in attesa del lancio. Dopo che avrà lasciato le nostre mani, la prima tappa sarà la Naval Postgraduate School di Monterey in California, dove LightSail, insieme ad altri Cubesat, sarà montata su una struttura di schieramento, poi il tutto verrà mandato al sito di lancio presso il Kennedy Space Center in Florida. Una volta che la vela si sarà dispiegata nello spazio con successo, la missione di prova durerà solo qualche altro giorno ancora, ma noi avremo certamente acquisito nuove conoscenze sulle prestazioni dell’astronave che ci aiuteranno a cogliere il successo con la missione primaria, nell’aprile 2016.

Avete dato una mano perché tutto questo accadesse!

Dopo anni di pianificazione, sviluppo e prove, LightSail ha oggi una data di lancio fissata e un’astronave quasi pronta. Con un possibile test di volo nel maggio 2015 e  una data ufficiale di lancio nel 2016, in collaborazione  con la missione Prox-1 della Georgia Tech, LightSail è pronta a dare esaustive dimostrazioni su Cubesat e la vela solare, e a rendere disponibile la tecnologia per missioni a basso costo in tutto il Sistema Solare. Durante il volo, ambedue le astronavi dovrebbero essere visibili a occhio nudo, dando al pubblico una chiara visione di cosa la Planetary Society è stata capace di fare grazie al generoso apporto dei suoi associati e semplici sostenitori.

Cosmos.1COSMOS-1: l’inizio

Il 21 giugno 2005, la Planetary Society lanciava Cosmos-1, la sua prima vela solare. Costruita in collaborazione con Cosmos Studios e assemblata dallo Space Research Institute russo, questa astronave assolutamente innovativa avrebbe dovuto essere la prima vela a volare intorno al mondo sospinta solo dalla luce del sole. Invece finì in fondo al Mare di Barents quando il suo veicolo di lancio, il missile russo Volna, non riuscì a separare il primo stadio dal secondo.
Per niente scoraggiati, e confortati dalla richiesta dei nostri associati di tentare ancora, abbiamo fatto tesoro dell’esperienza, prendendo nota di ciò che avevamo sbagliato – o fatto bene – e giurando di non arrenderci. Così, nove anni più tardi, eccoci pronti a mettere alla prova ancora una volta le nostre ali in Mylar. Rendiamo onore a Cosmos-1 e siamo grati a tutti coloro che hanno lavorato al progetto insieme a noi. È stato un altro primo passo per una organizzazione che ha già compiuto molti primi passi nel cercare di portare creativamente gli Uomini nello spazio.

 

Titolo originale : “Preparing to Sail” di Doug Stetson, pubblicato nel volume 34, numero 2, anno 2014, di “The Planetary Report”, a cura della Planetary Society, che ringraziamo anche per il materiale iconografico.

Traduzione di ROBERTO FLAIBANI
Editing di DONATELLA LEVI

13 ottobre 2014 Posted by | Astrofisica, Astronautica, News, Scienze dello Spazio | , , , , | 1 commento

Il planetario: un percorso tra archeologia e tecnologia (seconda parte)

Il planetario moderno ha mosso i suoi primi passi nella seconda metà del XVII secolo, quando furono soddisfatte due condizioni fondamentali: una conoscenza completa del cielo e un livello apprezzabile della tecnologia. Numerose, infatti, erano le difficoltà da superare per gli antichi astronomi (si veda la prima parte dell’articolo), non tanto per ricostruire la volta stellata, che varia la sua configurazione in tempi molto lunghi, quanto per rappresentare i moti apparenti, che su di essa compiono i “corpi erranti” (Sole, Luna e pianeti visibili ad occhio nudo) in conseguenza ai moti propri e a quelli di rotazione e di rivoluzione della Terra. Inoltre, per soddisfare una simulazione più convincente necessitava di ospitare le persone all’interno e di conseguenza la struttura doveva essere di grandi dimensioni.

In questa ottica la Sfera armillare Gottorp si può considerare il progenitore del planetario moderno. Si tratta di uno strumento meccanizzato costruito in Germania da Andreas Busch nel 1653: un bel manufatto, che mostrava il movimento del Sole e i pianeti allora conosciuti, raffigurati da sei angeli d’argento. In essa veniva simulato anche il moto di precessione degli equinozi, facendo ruotare il piano dell’equatore rispetto a quello dell’eclittica, che conteneva lo zodiaco, a una velocità corrispondente a una rivoluzione ogni 25.000 anni circa.

 

fig. 1_disegno del Globo di Gottorp(fig. 1 – il globo di Gottorp)

Il passo dalla sfera armillare a un globo meccanizzato fu breve ed infatti ecco nel 1664 apparire alla ribalta il Globo di Gottorp, sempre costruito da Busch in Germania per il duca Federico III di Holstein-Gottorp. Era una sfera cava di rame di poco più di tre metri di diametro e di circa tre tonnellate e mezzo di peso, sulla cui superficie esterna erano raffigurati i continenti e gli oceani della Terra e su quella interna una mappa del cielo costituita da stelle dorate. Internamente vi era posto per una dozzina di persone, che potevano così osservare il cielo da una posizione più naturale, cioè dall’interno, e percepire la simulazione della rotazione terrestre, in quanto il globo era azionato da un dispositivo idraulico, che ne permetteva la rotazione completa in 24 ore.

 

 

fig. 2_planetario van Ceulen su disegno di C. Huygens(fig.2 – il planetario di Huygens)

Anche il grande matematico, astronomo e fisico olandese Christiaan Huygens (14 aprile 1629 – 8 luglio 1695) descrisse la costruzione di un planetario meccanico, in un testo che fu pubblicato postumo, per dimostrare non solo la fondatezza del sistema eliocentrico copernicano ma anche l’ipotesi kepleriana. Le orbite, infatti, erano progettate eccentriche e il moto dei pianeti era prodotto da una serie di ruote dentate, realizzate in modo tale che il numero dei denti fosse proporzionale al periodo orbitale di ciascun pianeta e che venissero mostrate anche le rispettive variazioni di velocità. Il progetto fu ripreso nel 1682 dall’orologiaio tedesco Johannes van Ceulen, che ne realizzò un planetario da parete in legno con un diametro di circa 60 cm. e una profondità di 15, ora conservato al Museo Boerhaave, in Olanda.

fig. 3_Orrery del 1704(fig. 3 – il primo Orrery)

Sull’onda dello sviluppo tecnologico legato all’orologeria, nella prima parte del 1700 iniziò l’era degli “Orrieres”, o planetari meccanici, nome derivato dall’irlandese Charles Boyle, quarto conte di Orrery, che commissionò a John Rowley, un tecnico di George Graham, inventore londinese del pendolo compensato e costruttore di orologi, la costruzione nel 1704 del primo grande planetario dell’era moderna. Questo era costituito da un modello del sistema solare azionato da un meccanismo ad orologeria, che simulava le relative posizioni e movimenti dei pianeti e delle loro lune intorno al Sole.

fig. 4_orrery di Eise Eisinga(fig. 4 – l’Orrerey di Eisinga).

Molto particolare fu l’Orrery costruito dall’astronomo olandese Eise Jelteszn Eisinga, per dimostrare che non si sarebbe verificata nessuna apocalittica collisione nella congiunzione della Luna e dei pianeti Mercurio, Venere, Marte e Giove prevista nel 1774. Egli costruì sul soffitto del salone della sua casa un modello in scala del sistema solare, azionato da un orologio installato nella soffitta sovrastante, con il quale il periodo di rivoluzione dei pianeti allora conosciuti veniva regolato sullo stesso tempo dei pianeti reali: Saturno impiegava realmente 29,5 anni per orbitare attorno al Sole! Nel 1825 il planetario fu acquistato dallo Stato olandese, che nel 1859 lo donò alla città di Franeker ed oggi è incluso nella lista dei cento monumenti olandesi valutati dall’UNESCO patrimonio dell’umanità. Gli orreries furono un valido strumento didattico per la divulgazione dell’astronomia durante tutto il ‘700, ma l’avvento di meccanismi più sofisticati li fece cadere in disuso e divennero degli interessanti oggetti da museo di Storia della Scienza.

 

fig. 5_globo di Atwood(fig . 5 - globo di Atwood)

Nel 1758, Roger Long, professore di astronomia e geometria presso il Pembroke College di Cambridge, prendendo spunto dal globo di Gottorp, costruì Uranium: una sfera di 5,5 metri di diametro, in cui le posizioni delle stelle non erano più disegnate ma realizzate con piccoli fori, attraverso i quali poteva penetrare la luce esterna, dando l’illusione alle 30 persone che vi potevano prendere posto, di un cielo stellato più reale. Un’ulteriore evoluzione del globo di Gottorp fu rappresentata dal globo di Atwood, una sfera di circa 5 metri di diametro, realizzata in materiali leggeri in modo da ridurne il peso e mossa da un motore elettrico, progettata e costruita nel 1912 da Wallace Atwood, direttore dell’Accademia delle Scienze di Chicago. Anche su di esso le posizioni di 692 stelle (fino alla quarta magnitudine apparente) erano rappresentate tramite forellini di diverso diametro, attraverso i quali la luce penetrava all’interno della sfera. Internamente, inoltre, una lampada mobile visualizzava la posizione del Sole, alcuni dischi mostravano la Luna con le sue fasi e le posizioni dei pianeti erano riportate sulla fascia dello zodiaco tramite un’altra serie di forellini, che potevano essere chiusi per mostrare la variazione della loro posizione nei diversi periodi. Oggi questo planetario, perfettamente funzionante, è esposto presso l’Adler Planetarium di Chicago.

Con la realizzazione dell’Orbitoscope da parte del prof. E. Hindermann di Basilea sempre nel 1912, i tempi erano maturi per la costruzione dei planetari a proiezione. In esso, infatti, per la prima volta due pianeti orbitanti attorno ad un sole centrale venivano proiettati su una superficie tramite un sistema di ombre create con una lampadina. L’inizio della Prima Guerra Mondiale, però, portò al blocco di ogni progetto in questo campo. Al termine del conflitto, Walter Bauersfeld, direttore dell’azienda ottica tedesca Zeiss di Jena, riprese gli studi sulla costruzione di un planetario commissionato alla ditta nel 1913 dall’ingegnere Oskar von Miller, fondatore e primo direttore del Museo della Tecnica di Monaco (1903). Bauersfeld, con uno staff di scienziati ed ingegneri, rivoluzionò del tutto il concetto di planetario fino a portarlo alla odierna configurazione. La sfera celeste mobile fu trasformata in una semisfera proiettata su una cupola fissa bianca e l’illuminazione esterna divenne interna e generata da una macchina rotante, posta nel centro di una sala perfettamente oscura. Nell’agosto del 1923 venne realizzata una prima cupola di 16 metri di diametro sul tetto della ditta: lo scheletro esterno era formato da una struttura metallica leggera e la parte interna da una base di legno, spruzzata di un sottile strato di cemento, successivamente dipinto di bianco.

fig. 6_proiettore Zeiss Modello I(fig. 6 - La meraviglia di Jena)

All’interno venne installato il primo proiettore Zeiss, Modello I, una macchina costituita da un corpo su cui erano posizionati dei dischi, che riportavano le posizioni di circa 4500 stelle, quale base del cielo notturno, e diversi proiettori secondari per l’illuminazione di pianeti, Luna e Sole, ciascuno dotato di movimento autonomo. Il tutto comandato con semplici interruttori elettrici!  La meraviglia di Jena era pronta e il 21 ottobre 1923, dopo essere stata smontata e trasferita al Museo della Tecnica di Monaco, Bauersfeld la inaugurò con la prima dimostrazione pubblica durante un congresso. Questo primo planetario, a parte le traversie subite durante la seconda guerra mondiale, rimase in funzione fino al 1951, anno in cui venne sostituito da un modello più moderno, Modello IV.

 

fig. 7_proiettore giattonese GOTO mod. E 5(fig. 7 – Promozione della Scienza, il modelo GOTO)

Da allora i modelli della Zeiss progredirono con il miglioramento delle macchine sotto molteplici aspetti e contemporaneamente si affacciarono sul mercato nuove case produttrici, quali la giapponese Goto che, approfittando dell’entrata in vigore in Giappone nel 1954 della legge sulla Promozione della Scienza in tutti gli ordini di insegnamento, iniziò lo studio di modelli di proiettori adatti a tale scopo. Nel 1963 uno dei modelli più piccoli di questa casa costruttrice, E-3 o E-5 (3 e 5 corrispondono all’ampiezza in metri della cupola) fu installato in ogni scuola elementare giapponese.

Un’altra casa costruttrice, la Spitz, dal nome del suo fondatore il Dr. Armand Spitz,  sviluppò un proiettore ottico di piccole dimensioni, l’”A-1″, adatto per scuole e piccoli musei, che fu prodotto e installato negli istituti scolastici statunitensi per tutti gli anni ’50. Il planetario opto-meccanico era ormai diventato un diffuso strumento per l’informazione astronomica a livello didattico, divulgativo e perfino militare!

fig. 8_planetario optomeccanico tradizionale(fig. 8 – il planetario opto-meccanico tradizionale)

In genere i modelli di ultima generazione di questo tipo di planetario (oggi molti utilizzano la fibra ottica) sono formati da una sfera cava, sulla cui superficie si aprono i fori corrispondenti alle stelle visibili ad occhio nudo, di diametro diverso in base alla grandezza della stella, e coperti da piccole lenti che ne amplificano la differenza di dimensione sulla cupola di proiezione. Proiezione assicurata da una lampadina interna di bassa potenza per creare un buon contrasto con la restante parte di sfondo scuro della superficie della cupola: il realismo dell’esperienza di visione in un planetario dipende proprio dal contrasto dinamico tra buio e luce. La sfera è dotata in genere di tre movimenti: uno rotatorio est-ovest per simulare la rotazione giornaliera della Terra, uno nord-sud per adeguare la latitudine alle diverse posizioni sulla superficie terrestre ed uno di rotazione per riprodurre l’effetto di precessione degli equinozi. Alcuni tipi di planetario sono costituiti da due sfere distinte per la simulazione dei due emisferi celesti. Lo strumento è poi corredato da un numero variabile di altri proiettori, per riprodurre i corpi del Sistema Solare con i loro movimenti e per simulare funzioni quali la Via Lattea, i crepuscoli, le coordinate astronomiche e così via.

fig. 9_esposizione di planetari portatili all'IPS Conference 2014(fig. 9 – planetari portatili in esposizione)

Ogni planetario si accoppia con una cupola di proiezione adeguata. Sono in produzione cupole da un minimo di 3m ad un massimo di 35m e ne esistono di tipo fisso o portatile; queste ultime possono essere gonfiabili in pochi minuti o realizzate in materiale leggero da costruire in poche ore. L’ americana Learning Technologies Inc. realizzò il primo planetario trasportabile nel 1977. Le cupole fisse sono oggi generalmente prodotte con profilati di alluminio molto sottili e di colore grigio tenue per diminuire la capacità riflettente della superficie ed offrire così un miglior contrasto. Nel bordo di base presentano, inoltre, il profilo dell’area circostante al planetario e un’illuminazione regolabile per simulare l’effetto dell’inquinamento luminoso.

Fino agli anni ’70 le cupole erano montate in modo orizzontale, così da corrispondere all’orizzonte naturale del cielo notturno, ed avevano i sedili reclinabili e distribuiti in modo concentrico, per favorire una visione più confortevole. Ma agli inizi del 1970 Spitz costruì la prima configurazione di cupola inclinata, con sedili disposti a gradinata per garantire una visione ottimale: iniziò così la rapida evoluzione tecnologica dei planetari, che ha portato alla vasta disponibilità attuale di modelli, controllati dal computer e sofisticati sistemi di automazione. Anche gli architetti poi si sono sbizzarriti nel creare le forme più varie per queste strutture: il planetario annesso alla Biblioteca di Alessandria in Egitto è addirittura una sfera! In alcuni moderni planetari il pavimento è di vetro, per permette agli spettatori di sentirsi al centro di una sfera, sulla cui superficie interna vengono proiettate immagini in tutte le direzioni: l’impressione è quella di galleggiare nello spazio! In altri ancora pulsanti o joystick sui braccioli dei sedili consentono al pubblico di percepire fisicamente lo spettacolo in tempo reale.

 

fig. 10_ planetario sferico ad Alessandria d'Egitto(fig. 10 – planetario sferico in Alessandria d’Egitto)

Già, spettacolo, perché è questo che oggi rappresenta la frontiera dell’evoluzione dello strumento-planetario. Nel 1967 Phillip Stern, docente presso l’Hayden Planetarium di New York, costruì il piccolo planetario Apollo, programmato per registrare lezioni e filmati, ed aprì la strada ai planetari multimediali, che non solo potevano proiettare immagini e filmati del cielo, ma erano programmati per contenere registrazioni di relazioni destinate al pubblico o a operatori scolastici di vario livello che potevano scegliere se creare il proprio prodotto o seguire il programma del planetario dal vivo. Nel 1970 fu prodotto il progenitore dell’odierno IMAX Dome, un sistema cinematografico concepito per essere proiettato sulle cupole dei planetari. E nel 1983, la ditta Evans & Sutherland installò nel Planetario Hansen di Salt Lake City in Utah il primo proiettore per planetari completamente computerizzato, il Digistar, dotato di un obiettivo fisheye unico in grado di riprodurre il cielo in tre dimensioni.

fig. 11_ proiezione fulldome sull'astronautica(fig.11 – proiezione fulldome sull’astronautica)

Inizia così l’era dei planetari a proiezione digitale, basata sulla costruzione di immagi e/o video generati da un computer e poi proiettati sulla cupola con diversi tipi di tecnologie, quali tubo catodico, LCD, DLP e proiettori laser. Il sistema di proiezione può essere a singolo proiettore montato al centro della cupola e dotato di obiettivo fisheye per diffondere la luce su tutta la sua superficie o a più proiettori (4, 5, 6 fino a 12) disposti lungo l’orizzonte della cupola, che fondono insieme le immagini senza soluzione di continuità e con un buon grado di pixel come risoluzione per migliorare l’esperienza visiva. Di fatto un planetario digitale è un sistema di proiezione simile a quello di un cinema ma con un valore aggiunto, la tecnologia video fulldome: la proiezione copre l’intera cupola semisferica della sala del planetario ed offre ulteriori possibilità, quali i wide-screen o film “avvolgenti” sui più svariati argomenti e gli spettacoli laser che combinano musica con modelli disegnati a laser; il tutto ad elevato grado di risoluzione.  E proprio la risoluzione è diventata la protagonista dei planetari d’avanguardia: una corsa all’Ultra High Definition (UHD)… 2K… 4K… 8K…

Ma alcuni planetari, a fianco delle avveniristiche tecnologie digitali, hanno ancora anche il “vecchio” proiettore opto-meccanico per creare l’emozione della visione del solo cielo stellato!

 

SIMONETTA ERCOLI

 

 

Bibliografia

1. From the Arratus Globe to the Zeiss Planetarium, Helmet, Werner, Publ. Gustav Fischer, Stuttgart, 1957. (Available only from Carl Zeiss, N.Y.)

2. Letter to Shelter Publications from Dr. W. Degenhard, Carl Zeiss, June 19, 1973.

3. James Clayton Lecture: Projection Planetarium and Shell Construction at Institution of Mechanical Engineering, London, May 10, 1957 by Professor Walter Bauersfeld.

4. Geodesic Domes and  Charts of the Heavens

5. Christiaan Huygens’, Planetarium H.H.N. Amin (1220241) WI3606, December 12, 2008

6. http://www.telacommunications.com/geodome.htm

7. http://it.wikipedia.org/wiki/Planetario

8. http://articles.adsabs.harvard.edu/cgi-bin/nph-iarticle_query?bibcode=1934PA…..42..489S&db_key=AST&page_ind=0&plate_select=NO&data_type=GIF&type=SCREEN_GIF&classic=YES

9. http://www.irem.univ-mrs.fr/IMG/pdf/huygens-delft.pdf

10. http://www.museumboerhaave.nl/object/planetarium-v09997/

11. http://www.adlerplanetarium.org/blogs/the-worlds-first-tabletop-planetarium

12. http://it.wikipedia.org/wiki/Eise_Eisinga

13. http://www.goto.co.jp/english/corporation/corpo_history.html

14. http://en.wikipedia.org/wiki/Planetarium

15. http://www.spitzinc.com/docs/history.html

5 ottobre 2014 Posted by | Epistemologia, Scienze dello Spazio | , , , , , , , , , | Lascia un commento

Dalla Terra di Nessuno alla Terra di Mezzo

Tolkien e la Grande Guerra

“Nel terriccio della mente”. Con questa sua tipica frase J.R.R.Tolkien intendeva dire che i semi di idee, ricordi, impressioni, fantasie, suggestioni giacevano a fermentare e poi crescere e germogliare per dar vita a quanto scriveva, tutto plasmato dalla sua prodigiosa immaginazione. Il suo Mondo Secondario, teorizzato nella fondamentale conferenza (poi saggio)  “Sulle fiabe”, elaborata per rispondere all’accusa di escapismo lanciatagli contro dai critici progressisti dopo l’uscita de Lo Hobbit  nel 1937, nasce così.

DeTurris-WWILa Terra di Mezzo con la sua geografia, la sua cosmologia, i suoi popoli, i suoi protagonisti e i suoi linguaggi, ha quindi una origine lunga, tormentata e assai complessa, che può quindi essere interpretata in modi diversi a causa delle molteplici suggestioni che ne sono base, anche se le ragioni fondamentali della sua creazione, come Tolkien disse, sono due: linguistica e mitologica. Facciamo un esempio: Se si pensa alla descrizione di Mordor e della landa paludosa che Frodo e Sam attraversano faticosamente ne Il Signore degli Anelli per raggiungere il Monte Fato e gettarvi l’Unico Abello, molte similitudini possono venire in mente: l’aldilà oscuro e la terra dei morti della mitologia classica; le terre imputridite dall’inquinamento industriale contro il quale lo scrittore lanciava le sue invettive quando viveva a Oxford; e anche la no man’s land di fronte alle trincee inglesi e francesi che le divideva da quelle tedesche sul fronte della Somme: crateri di bombe, fumi delle esplosioni, filo spinato, esalazioni di gas, pozze d’acqua infetta, cadaveri putrefatti, ruderi di case sventrate dalle cannonate. Uno scenario apocalittico rimasto impresso nella mente e nel cuore di Tolkien, che con tante altre suggestioni si riverbera rielaborato nella sua scrittura.
Il giovane scrittore che nel 1916 aveva 24 anni, inquadrato come sottufficiale segnalatore nell’ 11° Fucilieri del Lancashire giunse in Francia il 6 giugno e raggiunse la linea del fronte il 6 luglio partecipando all’attacco di Ovillers il 14. Dopo molte vicissitudini e spostamenti, nel corso dei quali apprenderà della morte di due suoi amici che facevano parte della associazione dei TCBS, il 27 ottobre a Beauval si ammala della “febbre da trincea” causata dai pidocchi”, il 29 viene ricoverato all’ospedale di La Touquet e l’8 novembre viene rimpatriato con la nave Asruruas. e venne portato all’Ospedale Universitario di Birmingham, quindi in quello di Hargate. Cento giorni nelle trincee delle Fiandre lo hanno segnato profondamente. E’ in ospedale che elabora il primo nucleo del suo legendarium, che aveva già iniziato a scrivere nei campi di addestramento in patria: Il Libro dei Racconti Perduti, a cominciare da La caduta di Gondolin. John Garth nel suo nel suo Tolkien e la Grande Guerra, uscito nel 2003 nel trentesimo della sua morte, e pubblicato nel 2007 da Marietti in una edizione non priva di  qualche menda, ne ricostruisce minuziosamente non solo questa esperienza in un grande collage che attinge a documenti pubblici e privati, come potrebbe far immaginare il titolo del lungo e complesso saggio, ma la giovinezza e gli esordi della carriera di studioso e narratore considerando l’esperienza bellica  “la soglia della Terra di Mezzo”,  èta il sottotitolo del libro.

Il Libro dei Racconti PerdutiMoltissime volte in pubblico e in privato Tolkien ha considerato inaccettabili le analisi psicanalitiche di un testo per spiegare le intenzioni di uno scrittore e individuarne i reconditi spunti, così come ha sempre respinto la tecnica della “applicabilità” di quanto egli scrive a eventi e personaggi della realtà. Garth è d’accordo, ma certamente non si può negare che quanto Tolkien vide e subì nelle trincee della Somme sono rintracciabili nella sua creazione della Terra di Mezzo (soprattutto nelle battaglie), insieme alle suggestioni mitologiche, leggendarie, storiche e personali. Nel terriccio della mente rielaborò negli anni il tutto inconsapevolmente e ne uscì il suo capolavoro epico, l’unica narrazione epica del XX secolo, come dice anche Garth, che con la sua bella opera ci ha fornito nuovi spunti di analisi. Una storia ricchissima di simboli rivolti a quel passato mitico che il filologo e linguista tenente Tolkien amava e che lo fanno distinguere, come Garth sottolinea, dagli innumerevoli “scrittori delle trincee” inglesi: non scrisse memoriali né pro né contro la terribile esperienza bellica che costò decine di milioni di morti, ma semplicemente la rifuse mitizzandola nel Mondo Secondario della Terra di Mezzo.

GIANFRANCO de TURRIS

27 settembre 2014 Posted by | Fantascienza | , , , | 5 commenti

Sulle ali del Buran

immagine 1Se ci fossimo trovati sulla pista del cosmodromo di Baikonur il 15 novembre 1988, avremmo visto atterrare lo Shuttle dell’immagine qui accanto e ci saremmo certamente domandati perché mai un veicolo spaziale statunitense avrebbe dovuto atterrare in un cosmodromo sovietico.

(immagine 1)

Se avessimo potuto avvicinarci per chiedere spiegazioni ai piloti della navetta, avremmo scoperto che all’interno non c’era nessuno! I tecnici nei pressi della pista ci avrebbero allora spiegato l’arcano, con un sorrisetto di sufficienza: quella navetta spaziale così simile allo Shuttle statunitense era in realtà di costruzione sovietica, completamente automatizzata, cosa che all’epoca gli americani nemmeno sognavano. Il suo nome era quello del vento gelido e insistente che soffia  sulla steppa e, quando arriva sull’altopiano del Carso, accelera tra le doline e si abbatte su Trieste con lunghe velocissime raffiche. Noi lo chiamiamo Bora, i russi Buran.

Per comprendere come abbiano fatto i sovietici a sviluppare una navetta spaziale molto simile allo shuttle statunitense, dobbiamo fare un salto indietro di qualche anno. Siamo nel 1974 e nel programma spaziale sovietico avvengono grandi cambiamenti: la conquista della Luna non è più la priorità e quindi il razzo vettore N1-L3 viene cancellato dal programma dopo vari fallimenti. Gli USA stavano mettendo a punto una navetta spaziale parzialmente riutilizzabile, che oggi conosciamo come Shuttle, e l’Unione Sovietica non voleva perdere la parità militare con i suoi antagonisti, elemento fondamentale per scongiurare una possibile sconfitta sul campo, come enunciato nel cosiddetto principio della Mutua Distruzione Assicurata (MAD), uno degli assiomi della Guerra Fredda. I sovietici temevano infatti che gli USA volessero eventualmente utilizzare gli Shuttle per lanciare testate atomiche dallo spazio e colpire ogni punto della superficie terrestre in pochi secondi (1). Fu così che la corsa allo spazio mantenne i suoi rapporti con la politica e Mosca colse l’occasione per dimostrare la propria preparazione tecnologica e la capacità di essere ancora competitiva dopo il fallimento del vecchio programma spaziale.

Il programma denominato Sistema Spaziale Riutilizzabile (MKS) venne affidato al team della NPO Energia, che condusse dal 1974 al 1975 studi preliminari su una nuova tipologia di razzi spaziali sotto il coordinamento dell’ingegner Glushko. A differenza degli ingegneri statunitensi, quelli sovietici non avevano alcuna dimestichezza con i razzi a combustibile solido. Utilizzarono quindi quello già collaudato nel precedente razzo N1: combustibile liquido di ossigeno-cherosene per quattro razzi RD-170 nel primo stadio e un razzo alimentato ad ossigeno-idrogeno RD-0120 per il secondo stadio (2). Per la navetta furono ipotizzate diverse configurazioni: una senza ali a sezione conica;  un’altra dotata di ali ispirata al precedente progetto Spiral (3); infine un velivolo alato a forma di “croce”. Il primo modello a sezione conica sembrava essere il più semplice e versatile da alloggiare sulla parte superiore del razzo, con la libertà di inserire da quattro a sei razzi laterali a seconda delle missioni. L’atterraggio sarebbe avvenuto con un paracadute e retrorazzi nella fase finale (4).

immagine2

(Immagine 2)

Dopo gli studi preliminari il governo autorizzò lo sviluppo del progetto Buran-Energia con il decreto 132-51 del 12 febbraio 1976 con il titolo “Sviluppo di uno MKS (sistema spaziale riutilizzabile) composto da razzi a stadi, aeromobili orbiter, sistema di rimorchiatore inter-orbitale, di orientamento, lancio e di atterraggio, strutture di montaggio e di riparazione, e di altre risorse correlate, con l’obiettivo di mettere in orbita a 200 km Nord-Est un carico utile di 30 tonnellate e 20 tonnellate per il ritorno“ (5). Il progetto doveva realizzare una navetta con carico utile superiore a quella statunitense e soddisfare i seguenti obiettivi per essere approvata definitivamente:

•    Impedire l’uso dello spazio per scopi militari
•    Ricerca per lo sviluppo militare, scientifico ed economico della nazione
•    Riuscire a portare in orbita cosmonauti, veicoli spaziali e forniture
•    Riuscire a portare in orbita 30 tonnellate a 200 km di altezza con un angolo di inclinazione di 50,7°, poter eseguire missioni in orbita di almeno una settimana di durata e poter rientrare in atmosfera con 20 tonnellate di carico
•    Sfruttare la tecnologia della navetta spaziale statunitense per migliorare la tecnologia spaziale sovietica.

In conseguenza a problemi tecnici riscontrati nell’uso della navetta senza ali a sezione conica, soprattutto nelle fasi di rientro, il decreto governativo sancì che il disegno aerodinamico dello shuttle statunitense era quello più idoneo. Esso era il frutto di un lungo lavoro di selezione attraverso ben 64 diverse configurazioni. Con la scelta di guardare al progetto della NASA si decise di inserire la navetta in posizione laterale rispetto al razzo e di utilizzare la configurazione di Energia con i quattro razzi laterali.

immagine 3(Immagine 3)

Il 21 novembre 1977 il governo con il decreto numero 1006-323 deliberò la pianificazione del progetto. Si prevedeva un primo lancio di prova nel 1983, seguito da un secondo lancio ufficiale nel 1984, e lanci di routine per l’anno 1987, in coincidenza con il 70º anniversario dell’Unione Sovietica.
Nel 1978 venne completato il progetto tecnico di Buran e dal 1979 prese il via la produzione di modelli di prova (denominati BOR-4 e BOR-5, in continuità con le navette BOR-1, BOR-2 e BOR-3 del precedente progetto Spiral (6) ) con i quali, negli anni successivi, si eseguirono numerosi test di volo al fine di migliorarne le prestazioni.

Immagine 5(Immagine 5)

Nel dicembre del 1983 vennero anche realizzati modelli statici di Buran denominati con la sigla “OK-ML” (OK-ML-1 e OK-ML-2): il primo, nel 1983, doveva essere utilizzato per il primo lancio di Energia, ma servì solo per testare la movimentazione e i comandi; mentre il secondo, del 1984, venne destinato a collaudare l’integrazione dei sistemi di bordo.

Immagine6(Immagine 6)

Nonostante alcuni test incoraggianti il programma registrò una brusca frenata proprio nell’anno 1983, in quanto vennero riscontrati alcuni problemi negli impianti elettrico, idraulico ed elettronico. Era chiaro che non si sarebbe potuto rispettare la tabella di marcia stabilita nel decreto del 1977.
Il 29 dicembre 1984 venne eseguito il primo volo di prova di un modello a grandezza naturale di Buran, chiamato BST-02 o OK-GLI, che poteva decollare e atterrare grazie a motori turboventola Ljul’ka AL-31 posizionati sulla coda.

Immagine7(Immagine 7)

Il 15 maggio 1987 ebbe luogo il primo lancio del vettore Energia, che avrebbe dovuto mettere in orbita il veicolo spaziale Polyus. Tutto andò bene per Energia ma non altrettanto per Polyus, il quale era stato caricato sulla razzo in posizione ribaltata e avrebbe dovuto eseguire una manovra di 180° per tornare in posizione corretta. Sfortunatamente la navetta ruotò di 360°, cadendo nell’oceano Pacifico. Si susseguirono numerosi test di volo nel corso degli anni, in particolare la navetta OK-GLI ne effettuò 25, di cui 15 completamente automatizzati (7). Il primo volo di Buran-Energia era previsto per il 29 ottobre 1988 alle ore 6.23 di Mosca. Il 23 ottobre la navetta Buran venne portata sulla rampa di lancio Baikonur e il 26 ottobre la commissione tecnica si riunì per definire la data esatta della partenza. Il giorno 29, 51 secondi prima del lancio, nel momento in cui il controllo del conto alla rovescia passò al computer di bordo, un errore nel software interruppe la sequenza di lancio: il ritardo temporale di un giroscopio non aveva sganciato in tempo un cordone dal razzo alla rampa di lancio. Risolto il problema, il 15 novembre 1988 alle 6.00 di Mosca (03,00 GMT) ecco il primo lancio di Buran ed Energia, nonostante che le condizioni atmosferiche non fossero delle migliori. Buran con la sua massa di 79,4 tonnellate si separò da Energia raggiungendo l’altitudine di 154,2 km, eseguendo una manovra a 66,6 m/s, entrò in una nuova orbita tra i 251 e i 263 km dalla Terra. Successivamente, dopo aver compiuto un volo orbitale completo in 140 minuti a 775 m/s ed aver acceso i retrorazzi, la navetta atterrò perfettamente nella base di Baikonur 206 minuti dopo il lancio  (8).

Il volo di Buran fu eseguito in modo completamente automatico e fu uno dei maggiori successi del programma spaziale sovietico. Dopo 12 anni di sviluppo tra alti e bassi, il programma spaziale sovietico vantava la realizzazione di un progetto che poteva rivaleggiare con il programma Space Shuttle. Sfortunatamente quello sarà l’ultimo volo di Buran ed Energia. Il 29 dicembre 1989 venne eseguito a Baikonur l’ultimo test della navetta OK-GLI e qualche anno dopo, il 30 giugno 1993, Boris Yeltsin cancellò definitivamente il progetto Buran-Energia. Una delle motivazioni di questa scelta potrebbe essere stata la sopraggiunta disgregazione dell’Unione Sovietica. Un forte peso potrebbe averlo avuto il costo dell’intero progetto che, al momento della cancellazione, ammontava a 16,4 miliardi di rubli (9) (tenendo presente che l’intero programma Space Shuttle costò 192 miliardi di dollari (10). La fine ingloriosa della navetta Buran si concluse definitivamente il 13 maggio 2002, quando l’hangar di Baikonur in cui era conservata collassò su di essa, distruggendola. Una parte di Energia, invece, è oggi utilizzata nel razzo Zenit (11).

Caratteristiche tecniche e confronto con il progetto statunitense

Fin qui abbiamo visto la storia e alcune caratteristiche tecniche di Buran e del lanciatore Energia, ma ora vediamo un po’ più nel dettaglio queste caratteristiche al fine di confrontarle con quelle dello Space Shuttle.
immagine9 - 2

(Immagine 9-2)

Partiamo dai sistemi a razzo disponibili. Energia non era progettato per essere necessariamente accoppiato a Buran, e poteva quindi essere utilizzato anche in missioni e configurazioni diverse (13). La capacità di mettere in orbita carichi compresi tra 80 e 100 t, in configurazione normale, e 175 t in configurazione potenziata, faceva di Energia uno dei lanciatori più potenti e versatili. Un’altra differenza importante stava nell’alimentazione: lo Space Shuttle era alimentato a combustibile solido, mentre Buran a combustibile liquido. Questo permetteva al lanciatore sovietico di raggiungere una potenza maggiore e un più alto livello di sicurezza rispetto a quello statunitense perché l’attivazione delle sezioni a combustibile solido era data da piccole detonazioni, che in caso di guasto o malfunzionamento avrebbero potuto provocare incidenti devastanti, analoghi a quello del  Challenger (14).

Siccome Energia era progettato per funzionare indipendentemente dal trasporto di Buran, il serbatoio centrale ospitava dei razzi a propellente liquido di ossigeno-idrogeno, utili per portare la navetta spaziale in orbita bassa. Al contrario nello Shuttle statunitense i razzi per raggiungere l’orbita bassa erano alloggiati direttamente sulla navetta e alimentati dal serbatoio centrale, privo di motori. Questa configurazione riduceva la grandezza della stiva e rendeva la navetta parzialmente riutilizzabile. Buran possedeva comunque due motori alimentati ad ossigeno-cherosene, che potevano essere accesi per agevolare le manovre orbitali (15).

 

Immagine 8(Immagine 8)

Energia è stato progettato prevedendo la possibilità di un suo completo riutilizzo. Nel primo lancio del 1988 si equipaggiarono i razzi laterali con dei paracadute per il rientro in atmosfera. Per le missioni successive si prevedeva la progettazione di  Energia-2, dotato di razzi laterali con ali estensibili per planare fino a terra in maniera automatizzata, così come il serbatoio centrale dotato di ali a delta per atterrare automaticamente in aeroporto (16).

 

immagine9(Immagine 9)

Per quanto riguarda il confronto tra la navetta Buran e lo Shuttle, vi sono alcune sostanziali differenze nonostante la loro apparente somiglianza. Buran venne progettata per portare in orbita 30 t e riportarne a terra almeno 20 t, mentre lo Shuttle riusciva a portare in orbita 20 t e a terra solo 15 t. E questo perché Buran aveva una stiva più spaziosa, mentre lo Shuttle doveva trasportare il peso dei motori per la messa in orbita (17). Nella fusoliera del Buran c’era  spazio per il trasporto dai due ai quattro membri dell’equipaggio e fino a sei passeggeri, mentre nello Shuttle trovavano posto otto astronauti. Il rivestimento di piastrelle termiche venne studiato in maniera autonoma dagli ingegneri sovietici, ottenendo un rivestimento molto più efficace di quello dello Shuttle. Con l’elaborazione di software computerizzati si è stabilita la posizione migliore di ogni mattonella termica sulla fusoliera del Buran (18).

 

immagine10(Immagine 10)

Per la tecnologia di bordo gli ingegneri cercarono di emulare quella dello Shuttle, ma ne conoscevano solo i principi generali senza sapere come funzionassero nel dettaglio. Per questi motivi entrambe le navette producevano energia elettrica con celle a combustibile d’idrogeno e usavano idrazina per alimentare i sistemi idraulici di bordo. Questa convergenza tecnologica fu possibile solo perché gli ingegneri sovietici si fidavano del fatto che questi erano stati adottati con successo dagli ingegneri statunitensi. Perciò gli ingegneri sovietici dovettero cimentarsi in una sfida tecnologica molto complessa per raggiungere gli stessi risultati (19).
Il tratto distintivo di Buran era quello di riuscire a compiere missioni orbitali senza piloti: essendo completamente automatizzato poteva tornare nell’atmosfera e atterrare usando i computer di bordo. Questo suggerisce che i sovietici possedevano già una tecnologia informatica che ancora mancava agli statunitensi.
Infine il modo di trasportare Buran ed Energia sulla rampa di lancio era completamente diverso da quello dello Shuttle. Il primo utilizzava uno speciale vagone ferroviario e si trovava in una posizione orizzontale, mentre il secondo viaggiava su un cingolato di grandi dimensioni e in posizione verticale: di conseguenza il trasporto di Buran ed Energia era logisticamente più semplice e sicuro rispetto a quello dello Space Shuttle.

Immagine 11(Immagine 11)

In conclusione i sovietici crearono una navetta spaziale e un lanciatore orbitale con prestazioni sorprendenti, ma il crollo dell’Unione Sovietica e la mancanza di fondi non permisero ulteriori sviluppi del progetto, che forse avrebbe potuto diventare remunerativo nel corso degli anni. Oramai oggi sia Buran che lo Shuttle sono sistemi superati, e considerati troppo costosi e poco sicuri.
Sta di fatto che la competizione tecnologica tra Stati Uniti e Unione Sovietica ha, ancora una volta, il merito di aver dato vita ad uno dei progetti più avveniristici dell’intera storia dell’astronautica.

«L’atterraggio automatico del velivolo [Buran ndr.] ha ispirato gli aerei da combattimento di quinta generazione e numerosi velivoli senza equipaggio. Solo che, come è avvenuto con i satelliti artificiali, ci arrivammo prima noi.» (20)

(Valerij Burdakov)

LUCA DI BITONTO

 

Note

1: http://www.astronautix.com/craft/buran.htm
2: http://www.energia.ru/english/energia/launchers/vehicle_energia-e.html
3: Spiral era un progetto del 1965 che prevedeva la realizzazione di uno spazioplano da utilizzare per operazioni belliche. Questo progetto non venne mai completato e nel 1978 fu cancellato a favore di Buran dopo numerosi voli di prova e oggi è esposto al museo dell’aviazione di Monino in Russia. L’idea dello spazio plano, ovvero un aereo che riuscisse a raggiungere lo spazio, era già stata pensata dall’ingegnere sovietico Friederich Zander. Uno dei primi progetti è il bombardiere sub-orbitale Silbervogel, progettato dall’ingegnere austriaco  Eugen Sänger nella seconda metà degli anni trenta.
4: http://www.astronautix.com/craft/buran.htm
5: http://www.astronautix.com/craft/buran.htm
6: Le navette BOR furono lanciate dal vettore Kosmos fino al 1978, anno della cancellazione del progetto Spiral. I dati tecnici saranno utilizzati per la messa a punto del Buran.
7: http://www.buran.ru/htm/molniya5.htm
8: http://www.k26.com/buran/Info/Timeline/1987-93/buran-energia_history_timeline.html
9: http://www.buran-energia.com/
10: http://complottilunari.blogspot.it/2014/04/costava-di-piu-il-saturn-v-o-lo-shuttle.html
11: http://www.k26.com/buran/html/sea_launch.html
12:http://www.buran-energia.com/
13: Una delle configurazioni più potenti era la Vulkan con 8 booster laterali, in grando di lanciare in orbita un carico di 175 tonnellate. Un’altra configurazione era Energia-M, pensata per lanciare una navetta simile a Buran ma di dimensioni minori.
14:http://www.k26.com/buran/Info/A_Comparison/a_comparison.html
15: http://www.k26.com/buran/Info/A_Comparison/a_comparison.html
16: http://www.k26.com/buran/Info/Energia_HLV/energia_fly_back_booster.html
17:http://www.buran-energia.com/bourane-buran/bourane-desc.php
18:http://www.buran.ru/htm/molniya5.htm
19: http://aurorasito.wordpress.com/2013/11/21/i-sovietici-costruirono-uno-space-shuttle-migliore/
20: http://aurorasito.wordpress.com/2014/01/20/cose-successo-alla-navetta-spaziale-buran/

23 settembre 2014 Posted by | Astronautica, Difesa Planetaria, News, Scienze dello Spazio | , , , , , | Lascia un commento

Pianeti nomadi o fantapianeti?

pianeta nomadeAnche se la notizia non è certo fresca, l’esistenza dei cosidetti pianeti nomadi non è di quelle che si possano scordare in fretta. Dato che è ormai quasi un  anno che non leggo novità in merito, ho pensato che i lettori del Tredicesimo Cavaliere avebbero gradito trovare qui  un riepilogo della situazione, ma non mi stanco di ripetere: le cifre sotto riportate in relazione al numero dei pianeti nomadi esistenti nella Galassia sono sconvolgenti per la loro enormità e vanno prese con molta cautela. E’ utile ricordare che sia il microlensing gravitazionale che l’esistenza dei pianeti vagabondi sono due settori di studio ancora nuovi. Forse l’atteggiamento più consono da tenere in questi casi è quello di  Debra Fischer (Yale University): “Sarebbero una specie di gramigna dello spazio”, ha dichiarato a Nature, non senza un tocco di humour.

Pare proprio, infatti, che questi corpi celesti esistano veramente, e vaghino in grande numero nello spazio profondo seguendo il senso di rotazione galattico. Oggi disponiamo però di una prima base teorica,  che ci aiuta a capire come e perché questi corpi planetari si siano sviluppati e ad un certo punto abbiano assunto un’orbita iperbolica, abbandonando il proprio sistema. Ricercatori di tutto il mondo partecipano a questo sforzo, ma due gruppi in particolare sembrano aver dato ad oggi i contributi più significativi: l’uno diretto da Abbot e Switzer presso l’Università di Chicago, e l’altro da Louis Strigari della Stanford University. Per il momento è stato raggiunto un punto fermo: i pianeti nomadi, nella maggioranza dei casi, hanno origine nella nube a disco primordiale insieme a tutti gli altri corpi planetari del sistema, e solo più tardi, in una successiva, turbolenta fase di assestamento possono venire espulsi da esso come risultato di un “duello gravitazionale”, evento comune in tali occasioni.

baby planetHardware & numeri

La tecnica normalmente in uso per la ricerca dei pianeti nomadi è il cosidetto microlensing gravitazionale, che per sua natura fornisce le migliori prestazioni su bersagli lontani, tra i 10.000 e i 20.000 anni luce, e di rilevanti dimensioni.   Da qui  la stima di 400 miliardi di pianeti nomadi nella Via Lattea, e si parla di masse planetarie non inferiori a quella di Giove. Il telescopio ideale per qesto tipo di ricerca sarà il tanto atteso SKA, online intorno al 2020, che secondo Johnatan Nichols dell’Università di Leicester, potrebbe scoprire, entro il suo raggio d’azione di 185 anni-luce, almeno 2.800 pianeti nomadi. Inoltre i più recenti sviluppi delle teorie sulla formazione dei pianeti indicano che quelli di massa minore dovrebbero essere espulsi da un sistema stellare più facilmente dei giganti gassosi, e ciò farebbe ulteriormente aumentare la stima del numero dei pianeti nomadi in giro per la Galassia.
In proposito Matteo Bernabé, un astronomo italiano che ha collaborato alle ricerche, ha dichiarato a Media-Inaf: “La nostra stima del numero dei pianeti nomadi presenti nella nostra galassia è stata calcolata sulla base della recente scoperta, mediante una tecnica chiamata microlensing, di circa dieci di questi oggetti  in una piccola regione nel disco centrale galattico, cioè nei pressi del centro della nostra galassia. Abbiamo tratto le conseguenze di questa scoperta per quanto riguarda la popolazione globale dei pianeti nomadi, mostrando che potrebbero esistere, per ogni normale stella della sequenza principale, fino a 700 nomadi con la massa della Terra e fino a 100.000 nomadi con la massa di Plutone”.  Peccato che corpi planetari più piccoli di Giove (quelli tipo-Terra, per esempio) non rientrino nella sensibilità del microlensing, ma piuttosto in quella del  WFIRST (Wide-Field InfraRed Survey Telescope), uno strumento molto atteso che però non potrà essere lanciato prima del 2023.

disco protoplanetarioFormazione dei pianeti nomadi

David Nesvorny del Southwest Research Institute (SwRI) sta studiando la possibilità che proprio il nostro sistema solare sia stato teatro dell’espulsione di un pianeta gigante, avvenuta quando il sistema era nato da appena 600 milioni di anni, come dimostrerebbero indizi disseminati nella Fascia di Kuiper e sulla Luna. All’inizio della simulazione i pianeti giganti interagiscono con il disco protoplanetario e finiscono in configurazioni in cui coppie di pianeti vicini si bloccano a vicenda in una risonanza orbitale. Tale risonanza si verifica quando due pianeti esercitano una regolare influenza gravitazionale periodica uno sull’altro, come nel caso delle lune di Giove Ganimede, Europa ed Io, che sono in risonanza tra loro in un rapporto 1:2:4 : per un’orbita compiuta da Ganimede, Europa ne percorre due, e Io quattro.  Nesvorny suggerisce che questi sistemi risonanti diventino instabili dinamicamente una volta che il gas del disco protoplanetario si esaurisce, mentre i pianeti assumono orbite eccentriche.

Per arrivare alla situazione presente, il sistema solare esterno deve aver subito  una fase di assestamento molto violenta. Il sistema si è successivamente stabilizzato eliminando l’energia orbitale in eccesso nel disco protoplanetario i cui resti sopravvivono fino ad oggi nella fascia di Kuiper. Il quadro qui delineato suggerisce che Giove, partendo da una posizione più esterna dell’attuale, si sia mosso verso l’interno del sistema spargendo una quantità di planetesimi sia verso il Sole, causando devastazione tra i pianeti interni e la Luna, sia in direzione opposta.
Nesvorny ha aggiunto al modello un pianeta gigante supplementare, stabilendo che allo stato iniziale della simulazione i giganti di ghiaccio (Urano e Nettuno), si trovassero in risonanza tra loro entro un intervallo di 15 UA dal Sole, e il quinto gigante fosse posizionato tra loro e Saturno. Il risultato finale della simulazione, che è stata eseguita 6000 volte variando la massa totale dei planetesimi in gioco, offre una soluzione interessante: il sistema solare, una volta esauriti i planetesimi  e l’energia orbitale in eccesso, risulta essere simile all’originale con frequenza maggiore di 10 volte se il quinto pianeta gigante viene  effettivamente espulso dal sistema.

 

Wandering JupiterAvvistamenti

Per concludere cito qui di seguito alcuni avvistamenti che potrebbero riguardare i pianeti nomadi, scelti non necessariamente tra i più recenti, ma piuttosto tra i più inconsueti. Infine vorrei brevemente segnalare che dedicherò un articolo alla possibilità che l’Uomo, un giorno molto lontano, possa decidere di stabilire colonie o avamposti nella cintura di Kuiper, nella Nube di Oort e nello spazio interstellare.

L’oggetto CFBDSIR2149 (Canada-France Brown Dwarfs Survey) appare associato a un gruppo di una trentina di stelle giovani conosciuto come AB Doradus Moving Group, che si raccoglie attorno alla stella AB Doradus. Se ci fossero le prove che il candidato nomade appartiene effettivamente al gruppo, se ne potrebbe stabilire l’età a  un valore compreso tra i 50 e i 120 milioni di anni, la massa da 4 a 7 volte quella di Giove e la temperatura superficiale a 700 K.

HD106906b non è un vero pianeta  nomade, perché in effetti ha una stella intorno alla quale orbita. La cosa strana è la sua distanza dalla stella, pari a 650 UA (circa 97 miliardi di km). Un’enormità se si considera che Nettuno orbita ad una distanza media di 30 UA dal Sole. E non è tutto: il pianeta è grande e giovane, 11 volte Giove per soli 13 milioni d’anni d’età, contro i 4,5 miliardi della Terra.  Come ha fatto il pianeta a raggiungere le sue  attuali dimensioni in così poco tempo e avendo a disposizione solo le poche risorse del disco protoplanetario che si trovano a una  simile distanza. Sono state avanzate diverse ipotesi per giustificare questi dati anomali, la più accreditata è che HD106906 sarebbe stato un sistema binario in cui la seconda stella non sarebbe riuscita ad accendersi.

La scoperta del pianeta-nano 2006 SQ372 fu resa nota soltanto nel 2008 nel corso di un simposio specializzato tenutosi a Chicago. In quel momento  l’oggetto si trovava nei paraggi di Nettuno, impegnato a percorrere un’orbita fortementte ellittica, assai simile a quella di Sedna, che l’avrebbe condotto a 150 miliardi di km. dal Sole. Il corpo celeste avrebbe potuto formarsi, come Plutone, nella Cintura di Kuiper, o più probabilmente provenire dalla parte più interna della Nube di Oort. Tali oggetti potrebbero essere in alcuni casi dei pianeti nomadi, e sarebbe utile studiarli più a fondo quando se ne presenta la possibilità, ma per quanto riguarda 2006 SQ372 possiamo essere sicuri che non lo rivedremo prima di 22000 anni.

ROBERTO FLAIBANI 

Fonti:

  • Slow Boat to Centauri: a Millennial Journey Exploiting Resources Along the Way
    by Paul Gistler – JBIS vol. 66 – 2013 pp 302 , 311
  • Nomads of the Galaxy, by Louis E. Strigari et. al.  – Kavli Institute for Particle Astrophysics and Cosmology, Stanford University
  • The Steppenwolf: a Proposal for a Habitable Planet in Interstellar Space
    by D.S. Abbot (Department of the Geophysical Sciences, University of Chicago) and E.R. Switzer (Kavli Institute for Cosmological Physics, University of Chicago)
  • So many lonely planets with no star to guide them
    by Nadia Drake – Nature 2/12/13
  • HD106906b
    by Sabrina Pieragostini – Panorama 14/12/13
  • Pianeti nomadi, la Via Lattea ne è piena
    MEDIA INAF  venerdì 24 febbraio 2012

From Centauri Dreams:

  1. A Gas Giant Ejected from our System?
    by Paul Gilster on November 11, 2011
  2. An Icy Wanderer from the Oort Cloud
    by Paul Gilster on August 18, 2008
  3. Finding an Interstellar Wanderer
    by Paul Gilster on May 17, 2011
  4. New Findings on Rogue Planets
    by Paul Gilster on May 19, 2011

 

17 settembre 2014 Posted by | Astrofisica, Astronautica, Planetologia, Radioastronomia, Scienze dello Spazio, Volo Interstellare | , , | Lascia un commento

Fantascienza e fascismo

Tra le innumerevoli, anzi infinite, colpe attribuite nei decenni al fascismo in tutti i campi possibili e immaginabili, non si può certamente aggiungere adesso quella di aver ostracizzato e/o boicottato la narrativa fantastica e fantascientifica straniera, specificatamente americana.

huxley(nella foto: Aldous Huxley)

E’ quanto sembra di capire dalla introduzione del professor Carlo Pagetti all’ottimo saggio  Fantascienza italiana (ed. Mimesis) di Giulia Iannuzzi (la sua tesi di dottorato divisa in due tomi), un lavoro cui sarebbe il caso di tornare in modo approfondito dato che è stata scritta da un’autrice di una generazione diversa da quella che ha “fatto” questo genere letterario nel dopoguerra, dagli anni Cinquanta agli anni Ottanta almeno.
Pagetti è un pioneristico critico della fantascienza in Italia sin dal suo Il senso del futuro (1970), la sua tesi di laurea, stampato dalle prestigiose Edizioni di Storia e Letteratura, critico militante e curatore delle opere di Philip Dick (dove tra sommi capolavori sono però apparse anche cose pessime e giustamente bocciate e rimaste nel cassetto vivente lo scrittore). Quindi ci si sarebbe aspettati da lui qualcosa di più approfondito e meno generico tipo:

“Solo allora [dopo il 1945] la cultura italiana poté aprirsi a una molteplicità di influssi e di suggerimenti provenienti dal nuovo mondo americano, che, pur essendosi già fatto sentire anche durante il fascismo con l’inarrestabile ascesa del cinema come mezzo di comunicazione di massa privilegiato, era guardato con sospetto e perfino con disprezzo dal regime. E’ semmai interessante ricordare la pronta traduzione italiana di Brave New World di Aldous Huxley, pubblicato in Inghilterra nel 1932 e subito dopo arrivato da noi come Il mondo nuovo, ma in questo caso si trattava appunto di un romanzo futuristico, anzi di una distopia (…) e dunque poteva benissimo essere accettato nell’ambito dell’ideologia fascista…”.

Espresse così sono tesi semplicistiche e politicamente corrette: ci si potrebbe ad esempio chiedere che differenza si poteva fare allora tra un romanzo “futuristico” ed uno “fantascientifico” (anche se l’aggettivo non esisteva). Quello “futuristico… poteva benissimo essere accettato dall’ideologia fascista” forse perché il mondo allucinante descritto da Huxley poteva ricordare in qualche modo quelli immaginati da Marinetti & C.? Appunto, non è affatto chiaro. Il problema di fondo, che Pagetti non coglie, è il rapporto tra la narrativa alta e quella bassa, tra il mainstream e il popolare, come si dirà.
Si devono precisare allora alcune cose ricostruendo un contesto: soltanto così si spiegano esattamente i motivi per cui la fantascienza “popolare” americana nata nel 1926 con Amazing Stories di Hugo Gersnack e con Astounding Science Fiction (1930), cioè la fantascienza delle riviste, dei pulp magazines,non ebbe eco in Italia, perché è quella che conta e incide sui lettori, non i grandi scrittori del mainstream, come Huxley (ma anche altri) che Pagetti cita.
Infatti, come ho lungamente elencato nella mia introduzione a Le aeronavi dei Savoia (Nord, 2001) praticamente tutti i grandi scrittori “futuristici”, “fantastici” o “antiutopici” dell’epoca di lingua inglese e francese erano tradotti da importanti editori italiani: da Poe a Wells, a Stevenson a Conan Doyle, da Rider Haggard a Verne, da Benoit  a Flammarion, sino a giungere alla russo-americana Ayn Rand con La vita è nostra nel 1939, anno dello scoppio della guerra. Per non parlare dei citati futuristi che appunto scrivevano romanzi e racconti che definiremmo oggi di fantascienza.
burroughs

(nella foto: E.R.Burroughs)

All’epoca anche E.R.Burroughs era noto in Italia con le sue le avventure di Tarzan, ma non con quelle di John Carter su Marte o Carson Napier su Venere, anche se  le riviste a fumetti stampavano le storie avventuroso-spaziali, molto simili a quelle di Burroughs, di Gordon Flash e Brick Bradford.
Si vede bene dai fatti che non c’era alcun ostracismo o ostilità ufficiale al genere in sé, né italiano né straniero, e questo almeno sino alla vigilia del conflitto quando avvenne una stretta “autarchica” a livello popolare (fumetti, polizieschi ecc.).
Il fatto è, come dimostrano i dati e le tabelle pubblicati sin dagli anni Settanta da Mike Ashley nella sua History of Science Fiction Magazines in più volumi tradotti anche in italiano, che in Europa, quasi neppure in Gran Bretagna, uscirono riviste specializzate in sola fantascienza sino al 1940, e noi non facevamo eccezione, indipendentemente dalla ostilità o meno, “sospetto” o “disprezzo” che fosse, del regime a quel genere letterario in quanto espressione della cultura americana.
Che in realtà non esistette perché, come credo di aver ampiamente documentato nel citato mio Le aeronavi dei Savoia, in Italia esso era diffuso sin dall’inizio del Novecento nei media dell’epoca, anche se aveva altri nomi: sia nei supplementi dei grandi quotidiani (La Tribuna Illustrata, La domenica del Corriere, Il Romanzo Mensile, Il Mattino Illustrato), sia i settimanali di cultura e informazione che ospitavano narrativa (La Lettura, Il Secolo XX, Noi e il mondo, Le Grandi Firme ecc.) pullulavano di racconti fantastici, fantascientifici, sovrannaturali, avventurosi e dell’orrore, soprattutto italiani ma anche stranieri. Per non parlare di due testate che potremmo definire a loro modo specializzate: Il Giornale Illustrato dei Viaggi (quindicinale) e il mensile Il romanzo d’avventure, zeppi di questo genere di storie, e dove i romanzi a puntate erano soprattutto stranieri (francesi, inglesi, americani, tedeschi). Tra essi c’era vera e propria fantascienza “spaziale” con astronavi, extraterrestri, invasioni, guerre del futuro. (Un prolifico autore di guerre in un domani più o meno lontano era Luigi Motta, allievo, seguace, concorrente e poi “continuatore” di Emilio Salgari.)
La mancanza di una grande diffusione del genere “fantascientifico” in Italia durante quel periodo fu quindi dovuta soltanto a scelte e decisioni editoriali,  non politiche, né religiose, né sociali, né culturali, né di arretratezza industriale come vari hanno ipotizzato. Fu un motivo squisitamente tecnico: come nel resto d’Europa mancarono le riviste a esso dedicate che lo divulgassero in modo ampio presso un pubblico soprattutto giovanile. Mondadori credette al progetto di Alberto Tedeschi e pubblicò nel 1933 I Gialli, facendo conoscere il poliziesco di marca americana, inglese e francese, che non era ignoto ma non aveva ancora una collana tutta sua e un nome che lo identificasse in modo particolare. Se in quegli anni un Giorgio Monicelli non così giovane come in effetti era gli avesse proposto una collana di narrativa avveniristica basandosi soprattutto sulla editoria americana, invece che un ventennio dopo, e Mondadori avesse pubblicato anche, poniamo, I Rossi o I Bianchi o I Blu dedicati alla “fantascienza” il gioco sarebbe stato fatto. Su questo si potrebbe scrivere un saggetto di storia alternativa (in parte qualcuno lo  ha già fatto…).
Ci provò nella realtà  l’ingegner Armando Silvestri (1909-1990), pioniere della fantascienza in Italia avendone scritta giovanissimo su Il Giornale Illustrato dei Viaggi, il quale, avendo comprato i pulp magazines americani nelle edicole di Via Montenapoleone a Milano e Via Veneto a Roma, ed essendo redattore di riviste tecniche e poi di aviazione, nel 1938 propose alla Editoriale Aereonautica che faceva capo al relativo Ministero di pubblicare a cadenza mensile quattro riviste, L’avventura, Avventure del mare, Avventure del cielo e Avventure dello spazio. Ovviamente venne accettata soltanto Avventure del cielo che uscì dal 1939 al 1941 (e non nel 1943, come ebbi a scrivere in una precedente occasione), quando chiuse per il razionamento della carta a causa della guerra. Fosse uscita anche Avventure dello spazio, la storia della fantascienza italiana e in Italia sarebbe stata molto diversa (idea buona anch’essa per una ucronia su cui anche qui qualcuno si è cimentato) in quanto avrebbe creato in tre-quattro anni un pubblico di lettori e una piccola squadra di scrittori che, in concomitanza con l’apparire di Urania nel 1952, avrebbero creato un retroterra italiano non da poco, forse sottraendo il genere alla esterofilia che lo caratterizzò almeno sino al 1990.

GIANFRANCO de TURRIS

9 settembre 2014 Posted by | Fantascienza | , , | Lascia un commento

Platone è stato il primo scrittore di fantascienza?

libri_B_Platone_Opera_omniaL’articolo di Gianfranco de Turris sui luoghi mitici e sulle terre perdute  è molto ben scritto e focalizza un punto importante nella storia del mito. Ma anche della letteratura, e per di più della letteratura di genere fantastico-fantascientifico.
In tutta la letteratura fantastica, ma da adesso in poi parliamo specificamente di quella fantascientifica, ci sono terre perse da qualche parte, sulla Terra ma anche nella Galassia. Le “terre perdute”, ossia pianeti colonizzati dagli umani che poi hanno perduto i contatti con il resto dell’umanità, sono letteralmente uno dei topoi della fantascienza. E tutti in un modo o nell’altro si rifanno alla prima terra perduta, Atlantide.
La quale è stata raccontata più e più volte nella fantascienza in tutti i modi possibili ed immaginabili. Benoit l’ha posizionata perfino nel deserto, circondata da un mare di sabbia.
Permettetemi un ricordo personale:  avevo da poco cominciato a leggere, nel senso che avevo otto o nove anni, e leggevo sopratutto fumetti, in particolare Nembo Kid (sì, lo so che il vero nome era Superman, ma cosa volete uno si affeziona) ed in particolare la storia in cui lui incontra Lori Lemaris, appunto la “sirena” originaria di Atlantide. Da allora ho dato per anni la caccia ad Atlantide su tutte le enciclopedie possibili ed immaginabili ed ho trovato i dialoghi Crizia e Timeo letteralmente decenni dopo, pur trovandone tracce altrove.
Ma il punto è che pur essendo Atlantide un luogo letterario e ben conosciuto come tale anche dai contemporanei di Platone, fin da subito ha avuto la “parvenza del vero”, da subito e per sempre creando molte ricerche come la mia, soprattutto però una ricerca a trovare tracce di qualcuno che prima di Platone l’avesse raccontata, il che sarebbe stata prova della realtà di Atlantide. Traccia di papiri dei famosi sacerdoti egiziani che avrebbero raccontato la storia a Platone.
Questo IMHO sta a dimostrare la potenza di quel mito, che però mito non è, ma invenzione lettaria pura e semplice. Invenzione letteraria che ha tutte le caratteristiche di quella che oggi chiamiamo fantascienza.
plato2Platone non dice che Atlantide sia mito. I greci sapevano benissimo cosa era il mito, se lo sono inventato loro! Almeno il termine. E sapevano che il mito non è proprio “vero-vero”, è un racconto che serve a raccontare cose importani, e significative per la polis.
Ma Platone racconta che Atlantide è esistita davvero. Certo è stata distrutta per volere degli Dei, ma negli Dei lui ufficialmente crede: gli Dei sono reali, appartengono alla realtà. Atlantide è metafora di molte cose, dell’orgoglio, della ubris, ma è raccontato come luogo reale, una grande isola che un tempo si trovava nel mezzo dell’Oceano Atlantico oltre le Colonne d’Ercole. Atlantide non è Utopia,  un non-luogo, “Atlantide – dice Platone – era reale ed era lì”.
Ma o Platone era pazzo o sapeva benissimo che se l’era inventata lui, che era un luogo fittizio, di finzione.
In sintesi. Il racconto platonico di Atlantide ha tutte le caratteristiche dei luoghi fantastici raccontati dalla fantascienza e non dal fantasy: Mordor non è mai esistita e non potrebbe esistere se non nel Signore degli Anelli, Atlantide non è esistita,  ma avrebbe potuto esistere.
Quindi Atlantide è un luogo della fantascienza, ergo Platone è il primo scrittore di fantascienza noto nella storia della cultura occidentale, cinque secoli prima del pur ottimo Luciano di Samosata.
Sempre IMHO-AMMP.

MASSIMO MONGAI

1 settembre 2014 Posted by | Fantascienza | , , | 1 commento

L’esplorazione dei giganti di ghiaccio

Mentre i pianeti interni sono già stati attivamente studiati, almeno in merito alla possibilità di ospitare forme di vita autoctona, i due giganti gassosi, e alcuni dei loro satelliti, sono attualmente al centro dell’attenzione.

Sistema Solare masse(nell’immagine: le masse planetarie nel Sistena  Solare: Urano e Nettuno sono le due sfere azzurre  in basso a destra)

Nel sistema di Saturno la sonda Cassini si aggira  ormai da anni, raccogliendo dati scientifici importanti (l’ultimo flyby di Titano risale al 18 giugno scorso) tanto da meritare, come sembra, un prolungamento della sua vita operativa. Giove, invece, è l’obiettivo di ben tre missioni: Juno, già partita, che studierà la magnetosfera del pianeta, JUICE, fiore all’occhiello dell’ESA, da lanciare nel 2022 e dedicata ai satelliti Ganimede, Callisto ed Europa, e  poi Europa Clipper, ancora in fase di progettazione. Infine, nella primavera dell’anno prossimo, New Horizons eseguirà un flyby di Plutone per poi inoltrarsi nell’inesplorata Fascia di Kuiper, fino ad esaurimento dell’energia.

Ecco quindi l’attenzione dei ricercatori rivolgersi all’unica area ancora semi-inesplorata del Sistema Solare, dove orbitano i cosidetti giganti di ghiaccio, Urano e Nettuno. Sono diversi da Giove e Saturno, oltre che nelle dimensioni, anche nella composizione dell’atmosfera: nei primi riscontriamo solo il 25% di idrogeno, e invece abbondano di ammoniaca, metano e sopratutto acqua (da cui il ghiaccio), mentre gli altri presentano quasi esclusivamente idrogeno e un po’ d’elio. L’unica esplorazione diretta di Urano e Nettuno è stata eseguita dal Voyager 2, rispettivamente nel 1986  e nel 1989. Poi più nulla.

(nella foto: la sonda Cassini) Cassini

Come e quando
I progetti di missione di cui siamo a conoscenza sono due: il primo si chiama Progetto ODINUS, o meglio: “Progetto di una missione diretta ai pianeti giganti ghiacciati, con due astronavi gemelle per svelare la storia del Sistema Solare.” Il documento ufficiale è stato inviato all’ESA per partecipare alle selezioni previste nell’ambito del programma Cosmic Vision 2015-2025 e presenta come primo firmatario il dott. Diego Turrini dell’Istituto di Astrofisica e  Planetologia dell’ INAF-IAPS di Roma, insieme a 14 colleghi  quasi tutti italiani. Una prima proposta è stata  accettata ed è stata anche fissata una data indicativa per il lancio, il 2034 . Nel caso di ODINUS, è prevista la messa in orbita di due sonde identiche, una intorno a Urano, l’altra a Nettuno, e la raccolta di dati analoghi, registrati sui due pianeti nello stesso lasso di tempo e nel mezzo interplanetario durante la crociera, servendosi di set di strumenti uguali. Di conseguenza, ci sarebbe la possibilità di creare nuovi protocolli e una metodologia completamente nuova, comparata, dell’esame dei dati raccolti. Se ne avrebbero senz’altro grandi vantaggii scientiifici, ma anche un certo incremento di spesa, che non sappiamo se l’ESA potrà e vorrà affrontare. Fortunatamente, il Senior Committee Survey dell’Agenzia ha già dichiarato che l’esplorazione dei giganti di ghiaccio “sembra essere una pietra miliare tempestiva, del tutto adeguata per una missione di classe L (large)”. Speriamo bene!

e-Sail(nella foto: Pekka Janhunen illustra il funzionamento della e-Sail)

Il secondo progetto in esame si chiama “Missione con propulsione a vela solare elettrica per l’esplorazione profonda dell’atmosfera di Urano” ed è firmato da Pekka Janhunen, scienziato finlandese già noto ai nostri lettori come inventore  della vela solare-elettrica. Si tratta di una cooperazione tra l’Istituto Meteorologico Finlandese, il CNES e l’Università di Pisa. Prevede il lancio di una sonda di 550 kg. per giungere fino a Urano in meno di 6 anni, grazie alla spinta fornita da una vela solare-elttrica da 0,5 N. Il veicolo è composto da tre moduli distinti: il primo (e-sail module – 150 kg.), ospita la vela e viene espulso in prossimità dell’orbita di Saturno, perché a quella distanza il vento solare non ha più energia sufficiente da trasferire all’astronave. Il secondo modulo (carrier module – 150 kg.) è dotato di un  sistema autonomo di propulsione grazie al quale può mettersi in orbita intorno a Urano. Ci sarebbe inoltre spazio disponibile dove alloggiare della strumentazione scientifica e configurare così una serie di missioni “orbiter” che gli autori non vogliono però approfondire. Il carrier module ospita anche un’antenna ad alto guadagno di 1 metro di diametro con cui  ritrasmettere alla Terra i dati ricevuti dal terzo modulo (entry module – 250 kg., di cui 36 di strumentazione scientifica), che eseguirà l’esplorazione profonda dell’atmosfera uraniana. Fatte le debite distinzioni, gli autori non fanno mistero di essersi ispirati all’entry module della Missione Galileo, che nel 1989 apriva la campagna di esplorazione del Sistema Solare esterno, e anch’essi si chiedono se non sia opportuno pianificare con maggiore anticipo le future missioni  in quest’area, standardizzando hardware e procedure delle prossime sonde automatiche.

new_horizons(nella foto,  la sonda New Horizons)

Gli obiettivi scientifici più importanti

I pianeti giganti apparvero probabilmente molto presto nella storia del Sistema Solare, formandosi nel lasso di tempo in cui il Sole era ancora circondato dal disco circumstellare di gas e polvere. Fin dagli anni ’50 era stato riconosciuto il ruolo dei pianeti giganti nella formazione e nell’evoluzione del giovane Sistema Solare  con Giove che avrebbe iniettato nuovo materiale nelle regioni di formazione di Urano e Nettuno, in forma di planetesimi sparsi. L’importanza del Modello di Nizza, la teoria oggi più accreditata sull’evoluzione del Sistema ai suoi primordi, sta nel fatto di sostenere con forza l’idea che i pianeti giganti non si sono formati dove li vediamo oggi o, in altre parole, che ciò che osserviamo oggi non è necessariamente un riflesso del Sistema Solare come era immediatamente dopo la fine del processo di formazione. Il successo di questa teoria nello spiegare diverse caratteristiche del Sistema Solare ha però aperto la strada a scenari più estremi. Di recente, infatti, una nuova interpretazione della formazione planetaria ottenuta attraverso lo studio di sistemi extrasolari, ha dato origine all’idea che il Sistema Solare potrebbe aver subito un’evoluzione molto più caotica e violenta di quanto precedentemente teorizzato.

Nuove conoscenze sui primordi del Sistema Solare, possibilità di sottoporre a  verifica il “Modello di Nizza” e di acquisire grandi quantità di misurazioni in loco, tra cui la composizione chimica e isotopica dell’atmosfera: sarebbe questo l’allettante bottino scientifico che attende i ricercatori.

ROBERTO FLAIBANI

editing DONATELLA LEVI

 

 

FONTI:

Return to the Ice Giants, published by Paul Gilster on Centauri Dreams – June 18, 2014

Outer Planet Exploration Strategies,  published by Paul Gilster on Centauri Dreams – June 19, 2014

Fast e-Sail Uranus Entry Probe Mission, by Pekka Janhunen et al. – arXiv: 1312.6554v1

The Scientfic Case for a Mission to the Ice Giant Planets with Twin Spacecraft to Unveil the History of our Solar System, by Diego Turrini et al.

 

 

 

25 agosto 2014 Posted by | Astrofisica, Astronautica, Planetologia, Scienze dello Spazio | , , , , | Lascia un commento

Iscriviti

Ricevi al tuo indirizzo email tutti i nuovi post del sito.

Unisciti agli altri 517 follower