Il Tredicesimo Cavaliere

Scienze dello Spazio e altre storie

Ci siamo quasi…

locandina tredicesimo cavaliere blog facebookpage web2.0

 

A breve sarà on-line il nuovo blog: “IL TREDICESIMO CAVALIERE 2.0“, che si propone di stupire i fedelissimi e di coinvolgere sempre più appassionati ed esperti di scienze delle spazio e fantascienza.    

Il Team di autori e  in particolar modo il responsabile supremo, sua eccellenza Roberto Flaibani, stanno lavorando a ritmi serratissimi  con l’intento di creare un ambiente accogliente, che riesca a coinvolgere e a nutrire la sete di conoscenza verso ciò che ci circonda. 

Completamente rinnovato in grafica e funzionalità, ma sulla consolidata  linea guida del suo predecessore, Il Tredicesimo Cavaliere 2.0 vi invita a lasciare commenti, idee e suggerimenti al fine di prepararsi al meglio al suo lancio.

 

Annunci

31 maggio 2016 Posted by | 4th Symposium IAA - SETI, Astrofisica, Astronautica, by G. de Turris, Carnevale della Chimica, Carnevale della Fisica, Carnevale della Matematica, Ciberspazio, Cinema e TV, Difesa Planetaria, Epistemologia, Fantascienza, Giochi, Letteratura e Fumetti, missione FOCAL, News, NON Carnevale della Fisica, Planetologia, Radioastronomia, Referendum Prima Direttiva, Scienze dello Spazio, Senza categoria, SETI, Volo Interstellare | Lascia un commento

Le menti digitali e il volo interstellare

Andreas Hein ha tratto questo articolo, che vi presentiamo qui di seguito in traduzione italiana, dal suo intervento nel volume Beyond the Boundary, in uscita tra breve per I4IS. L’autore è Deputy Director  e Director of  the Technical Research Committee dell’Initiative for Interstellar Studies (I4IS), un centro studi inglese specializzato in scienze dello spazio. Egli è stato uno dei fondatori di Icarus Interstellar, e, in quell’ambito, ideatore e attuale dirigente di Project Hyperion. Ha ricevuto un master in ingegneria aerospaziale al Technical University of Munich e nella stesso istituto sta lavorando per ottenere un PhD in ingegneria dei sistemi spaziali. Ha passato sei mesi all’Institut Superieur de l’Aeronautique et de l’Espace a Toulouse, partecipando al programma  di simulazione numerica di  impatto a ipervelocità della polvere interstellare sulle antenne dei veicoli spaziali. Ha lavorato  presso lo Strategy and Architecture Office  dell’ESA. La versione originale del presente articolo è stata pubblicata su Centauri Dreams il 13 giugno scorso, col titolo di: “Transcendence Going Interstellar: How the Singularity Might Revolutionize Interstellar Travel” . (R.F.)

Hein_official_LRT_picture_v21nella foto: Andreas Hein, l’autore

Nel film “Trascendenza”, la mente del dott. Will Caster (interpretato da Johnny Depp), viene “caricata” in un computer quantistico. Questo provoca una cascata di cambiamenti tecnologici in rapida accelerazione, che culminano in una “singolarità tecnologica”. È probabilmente la prima volta che tale concetto gioca un ruolo centrale in un blockbuster hollywoodiano. Comunque l’idea del tutto ipotetica di caricare la coscienza di qualcuno in un computer, procedimento conosciuto anche come “emulazione dell’intero cervello”, è stato un argomento trattato nella FS per decenni. Il caricamento della mente su supporto informatico, all’apparenza inverosimile, potrebbe essere invece non molto lontano dalla realtà. Recentemente il programma “Cervello Umano” dell’Unione Europea ha inserito tra i suoi obiettivi la simulazione di tale organo. Con un bilancio preventivo di oltre un miliardo di euro, si tratta del più vasto progetto di questo tipo mai condotto prima. Sebbene l’obiettivo del progetto “Cervello Umano” sia quello di simulare il cervello umano, la discussione sulla reale possibilità di copiare digitalmente la mente ne è stata fortemente rivitalizzata. Tale tecnologia, infatti, potrebbe davvero trasformare la nostra civiltà in diversi modi. Tra questi la capacità potenziale di acquisire una sorta di immortalità digitale e la creazione di menti emulate che potrebbero trasformare il lavoro intellettuale, se si potesse copiarle e usarle su richiesta per lavori particolarmente impegnativi. (Hanson, 2008 & 2008b).

La copiatura della mente apre inoltre eccitanti opportunità per il volo interstellare. In questo articolo tenterò di offrire una breve panoramica delle idee già esistenti riguardo all’utilizzo del “caricamento cerebrale” nei viaggi interstellari, e di proporre concetti nuovi che potrebbero cambiare  radicalmente il modo in cui gli uomini viaggerebbero verso le stelle. Inoltre presenterò alcuni possibili scenari di missione, che avrebbero profonde conseguenze sul modo in cui la missione stessa raggiungerebbe i propri obiettivi.

transcendence-la-locandina-italiana-302815_1-560x800-210x300Nella foto: Johnny Depp in “Trascendenza”

Prima di tutto voglio chiarire  che in questo articolo col termine “caricamento cerebrale” intendo il trasferimento di contenuti mentali (per esempio della memoria a lungo termine o della mente stessa) dalla materia cerebrale a un dispositivo artificiale, cioè una rete neurale artificiale digitale, analogica o quantistica (Sandberg & Bostrom, 2008). Una volta caricato, il materiale potrà essere “eseguito” sul dispositivo come una simulazione o semplicemente memorizzato e stoccato. Analogamente, con “scaricamento cerebrale” si intende il trasferimento dei contenuti mentali da un dispositivo artificiale a un cervello fisico . La fase dello “scaricamento” andrebbe di pari passo con la ricreazione del corpo umano nella sua interezza, altrimenti non avrebbe molto senso nell’ambito dei viaggi interstellari. Nel caso che il corpo umano potesse essere liberamente caricabile e scaricabile, si potrebbe parlare di “emulazione del corpo completo”. In questo articolo i confini tra “caricamento della mente” ed “emulazione umana” sono  spesso un po’ vaghi e da considerarsi quindi interscambiabili.

L’obiettivo principale di un viaggio interstellare pilotato (cioè con equipaggio) è trasportare uomini da un sistema stellare a un altro e all’arrivo dar vita a una nuova civiltà. L’idea di base consiste nel caricare in formato digitale la mente e/o il corpo umani alla partenza e nel ricrearli a destinazione nella forma originale. Dar vita lassù a una prospera civiltà richiede un trasferimento di conoscenza sufficiente a eseguire tutte le necessarie attività. Trasportare uomini sotto forma digitale comporta  straordinari benefici, in primo luogo enormi risparmi in termini di massa: non saranno più necessari vasti habitat e complessi sistemi di supporto vitale. Nello stesso tempo diventa possibile “resuscitare” gli uomini solo quando si è arrivati a destinazione, e con essi recuperare la loro conoscenza e cultura, facilitando così il decollo della nuova civiltà. Conoscenza e tecnologia verrebbero così  trasferite dai cervelli emulati agli apparati o corpi di destinazione, sia con l’educazione tradizionale che con le nuove tecniche di emulazione.

Ovviamente si potrebbe indagare sulla radicale possibilità di una sostituzione completa della vita biologica con una artificiale. In tale scenario, la spedizione sarebbe caso mai il “seme” di una civiltà non biologica (Kurzweil, 2005).

Per i concetti fondamentali di una colonizzazione interstellare basata sul caricamento della mente si veda la tabella qui accanto:

Tab1tabella 1

Il processo di caricamento potrebbe essere eseguito grazie a un tipo avanzato di scansione. Hans Moravec fu uno dei primi a immaginare una forma di scansione grazie alla quale il cervello veniva caricato pezzo per pezzo, provocando però la distruzione dell’originale. (Moravec, 1988). Kurzveil e altri immaginarono invece una forma di scansione non distruttiva (Kurzweil, 2005, p.145), per esempio usando nanorobot che potessero agire dall’interno del cervello  da copiare.

Creare la copia di un cervello è un compito che intimidisce. Non si tratta semplicemente di copiarne la struttura generale, ma anche la struttura di ogni singolo neurone e la rete di collegamenti che si crea tra un neurone e l’altro. Bisogna inoltre copiare il comportamento dei singoli neuroni e delle più vaste strutture del cervello.
È una situazione simile a quella di un sistema tecnico. Capire in che relazione si trovano le parti di un’automobile l’una con l’altra non stabilisce in che modo esse debbano lavorare tutte insieme per eseguire la funzione desiderata, cioè trasportare dei passeggeri. Si può solo dedurre, dopo un paziente e accurato esame, come le componenti individuali, e gruppi di esse di maggiori dimensioni,  eseguono le subfunzioni, le quali producono insieme la funzione principale. Questo tipo di analisi “all’inverso” per scoprire i sistemi di funzionamento di un dispositivo viene definito un approccio “bottom-up”, ovvero dal basso verso l’alto. In alternativa si possono analizzare le funzioni dall’alto verso il basso (top-down), avendo cura di scomporre prima le funzioni di più alto livello nelle relative subfunzioni. Un approccio di questo tipo (conosciuto  come reverse engineering) è stato proposto per creare emulazioni del cervello. (Sandberg & Bostrom, 2008).

Dopo che un’emulazione è stata creata, potrebbe essere attivata, copiata, eseguita a richiesta, e anche spenta del tutto.  (Hanson, 2008a & 2009b). Per  una missione interstellare, le emulazioni potrebbero essere prima immagazzinate e poi attivate a destinazione. Questo farebbe  risparmiare l’energia che altrimenti verrebbe consumata per mantenere in funzione le emulazioni durante il volo. Una volta arrivati, le emulazioni verrebbero attivate per organizzare l’ambiente circostante e scegliere la miglior strategia per cominciare la colonizzazione. Si potrebbe attivare anche un’intera popolazione di emulazioni, che discuterebbero sulle migliori strategie e i vantaggi ad esse associati. Robin Hanson immagina vari tipi di emulazioni organizzate in gerarchie basate sulla velocità di elaborazione. Queste “città” abitate da emulazioni consumerebbero sulla Terra un’imponente quantità di energia per sostenere le emulazioni e l’ambiente virtuale in cui condurrebbero la loro esistenza. Le manipolazioni del mondo fisico sarebbero eseguite da vari tipi di manipolatori e robot (Hanson, 2008a & 2008b). Una strategia per una missione interstellare potrebbe consistere nella riattivazione iniziale di un piccolo gruppo di emulazioni che prenderebbero le prime decisioni su come procedere con la colonizzazione. Poi si comincerebbero a sfruttare le risorse minerarie  allo scopo di creare una più grande capacità computazionale e accendere un crescente numero di emulazioni. Queste a loro volta darebbero vita vita a esseri umani biologici e ai loro habitat. Un’altra opzione è il trasporto simultaneo di zigoti ed emulazioni.

mind-uploadingUna versione più avanzata di tale missione prevede la creazione iniziale di una infrastruttura entro il sistema stellare di riferimento usando dei replicatori e la costruzione di un impianto ricevente per segnali elettromagnetici, per esempio dei raggi laser. Una volta costruito l’impianto, i dati riferiti agli oggetti potrebbero essere spediti alla velocità della luce. Questo è appunto il concetto del teletrasporto, spesso considerato irrealizzabile perché l’ammontare di informazioni da trasmettere per assemblare un corpo umano molecola per molecola sarebbe proibitivo. In uno studio del 2012, ad esempio, Roberts e altri sostengono che un totale di 2,6*1042 bit sarebbero necessari per ricreare un cervello umano, cifra che renderebbe insignificante quella di 1,2*1010, stimata per ricreare il resto del corpo umano. Alla velocità di trasmissione di circa 3,0*1019 bit al secondo, sarebbero necessari 4,85 trilioni di anni per trasmettere un essere umano completo. Comunque, un esame attento dei presupposti dello scritto rivela che per calcolare la quantità di dati richiesta per ricreare il cervello era stato usato il cosiddetto Bekenstein bound, un’equazione che indica il massimo di informazione richiesta per ricreare un sistema fisico fino a livello quantistico (Bekenstein, 73), (Lokhorst, 00).

È dubbio che una descrizione talmente dettagliata sia effettivamente necessaria. Stime recenti che descrivono la riproduzione del cervello a livello molecolare sono piuttosto in un ordine di grandezza  tra i 1022 e i 1027  bit (Sandberg, 2008, p.80) . Una tale mole di dati potrebbe essere trasmessa in un intervallo di tempo compreso tra un’ora e dieci anni, supponendo di utilizzare la stessa velocità di trasmissione di 3,0*1019. Quindi il teletrasporto potrebbe non essere una tecnologia così remota nel tempo come l’attuale letteratura scientifica suggerisce. L’architettura di una missione basata sul teletrasporto è mostrata nella figura 3.

tab2 tabella 2

Uno degli approcci più speculativi per rendere possibile il viaggio interstellare pilotato è quello in cui il tempo di volo si riduce praticamente a zero usando un qualche tipo di propulsione superluminale. Esiste una vera pletora di congetture a questo proposito (Davis et al., 2009). Inviare solo dati o nano-sonde attraverso delle scorciatoie nel tessuto dello spazio-tempo, sarebbe assai più semplice che viaggiare in una imponente nave spaziale pilotata.  Kurzveil ipotizza che dei minuscoli cunicoli spazio-temporali, detti anche wormhole (il fenomeno è conosciuto dal pubblico televisivo col nome di “stargate”), potrebbero consentire la trasmissione di dati o nano-sonde ad un altro luogo dell’universo (Kurzweil, 2005, p.354-355). All’architettura di missione basata su questo concetto è dedicata la figura 4.

 

Architetture di missione

Le missioni interstellari digitali aprono un nuovo spazio per interessanti architetture di missione. A seconda delle tecnologie disponibili, si possono realizzare varie architetture, come mostra la tabella 2 (vedi sopra).

 

Architettura A

1. Manda il replicatore + emulatore / nave magazzino
2. Crea la colonia e l’infrastruttura per la resurrezione (downloading/scaricamento)
3. Crea la popolazione

Arch AFig.1: la missione è affidata a una singola nave dotata di replicatore digitale. Questo grafico mostra la sequenza della missione da sinistra a destra. L’inclinazione delle frecce mostra quanto velocemente l’astronave copre la distanza dal sistema stellare bersaglio. A maggior inclinazione corrisponde maggior velocità.

Questa è la architettura di missione più semplice: l’astronave consiste praticamente di un emulatore e di un replicatore che avviano lo sfruttamento delle risorse locali per costruire la colonia spaziale iniziale. Successivamente verranno creati i corpi umani e scaricate le emulazioni che li utilizzeranno.

 

Architettura B

Suddivide la missione in due: la prima viaggia col replicatore, la seconda con l’emulatore.

1. Manda il replicatore
2. Crea la colonia e l’infrastruttura per la resurrezione
3. Manda l’emulatore /nave magazzino
4. Crea la popolazione

Arch BFig.2: divide in due la missione precedente separando il replicatore dal carico utile digitale.

L’architettura B è basata  su due astronavi. La nave col replicatore viene lanciata per prima, in modo da iniziare la costruzione della colonia prima che arrivi la nave con l’emulatore. Questo metodo ha senz’altro senso se la costruzione della   colonia avviene in tempi lunghi (decenni o secoli). Il vantaggio più importante è la riduzione del rischio dovuto al fallimento nella costruzione della prima colonia: la seconda nave verrebbe lanciata solo una volta  che la colonia fosse diventata operativa. Un altro vantaggio è l’uso di un differente sistema di propulsione per le due navi, che consentirebbe alla nave con l’emulatore di compiere un viaggio di minor durata, riducendo il rischio di guasti dei sistemi di bordo, più critici per la nave che trasporta emulazioni di esseri umani.

 

Architettura C

1. Manda l’astronave col replicatore
2. Crea un impianto ricevente nel sistema stellare di destinazione
3. Riceve dati per creare sistemi tecnici ed esseri umani

Arch CFig.3: la missione col replicatore costruisce un ricevitore per le tecnologie e gli esseri umani.

Innanzi tutto, un impianto di ricezione viene costruito nel sistema di destinazione grazie  al carico della nave col replicatore. Poi viene costruito un impianto di assemblaggio molecolare, ovvero una stampante 3D universale, per ricreare gli oggetti originali. Il vantaggio più grande di questa architettura è che la durata del  viaggio per gli oggetti trasferiti è la minore possibile, dato che il viaggio avviene alla velocità della luce.

 

Architettura D

1. Manda la nave col replicatore
2. Costruisce il ricevitore
3. Usa uno stargate per trasmettere informazioni al ricevente
4. Crea sistemi tecnologici ed esseri umani

Arch DFig. 4: usare uno stargate per trasmettere dati relativi a sistemi tecnologici ed esseri umani a velocità superiori a quella della luce.

Dopo la costruzione degli impianti di ricezione ed assemblaggio, i dati sono trasmessi quasi istantaneamente tramite uno stargate o qualche altro metodo “esotico”.

 Conclusioni

Il concetto di emulazione cerebrale è spesso associato al presentarsi di una cosiddetta “singolarità tecnologica”, che è a sua volta associata all’emergere di una intelligenza artificiale generale in grado di aumentare le proprie capacità esponenzialmente. Se sia ragionevole o no aspettarsi che una tale singolarità si verifichi è materia di intenso dibattito tra gli studiosi (Sandberg, 2010), (Sandberg & Bostrom, 2011), (Goertzel, 2007). Da conversazioni personali con vari ricercatori del settore è emerso piuttosto un certo scetticismo sulla prospettiva di creare emulazioni del cervello nel prossimo futuro. Nonostante tutto,  non c’è dubbio che qualche progresso è stato fatto. L’emulazione del cervello e l’intelligenza artificiale generale non dovrebbero essere definitivamente scartate dal novero delle alternative realizzabili, dato che ci vorranno ancora decenni, se non secoli, prima che si riesca a realizzare un viaggio interstellare.

Come ultima osservazione, Launius & McCurdy (2008, pp.218-219) rilevano come una civiltà postumana possa non essere necessariamente motivata a condurre esplorazioni interstellari. Bisogna quindi tenere bene a mente che cambiare la condizione umana così profondamente avrà certamente conseguenze anche sul suo comportamento.

Sebbene le prospettive per il caricamento cerebrale  siano controverse, la sua realizzazione nel corso del ventunemiso secolo non dovrebbe essere considerata impossibile. È imperativo invece riflettere sulle possibili implicazioni di questa tecnologia, che se effettivamente realizzata cambierebbe drasticamente tanto la nostra civiltà quanto i viaggi interstellari. Cosa si proverebbe a viaggiare fra le stelle? Dopo essere stati scansionati, ci risveglieremmo improvvisamente in un esopianeta in un nuovo corpo? O mentre attraversiamo lo spazio che ci separa dal nostro obiettivo passeremo invece il nostro tempo in un mondo virtuale, per trasformarci infine di nuovo in un essere biologico? Sono pensieri affascinanti ma anche in qualche modo agghiaccianti….

 

traduzione di ROBERTO FLAIBANI

editing di DONATELLA LEVI

 

 

FONTI:

Bekenstein, J. D. (1973). Black holes and entropy. Physical Review D, 7(8), 2333.

Davis, E. W., & Millis, M. G. (2009). Frontiers of propulsion science. American Institute of Aeronautics and Astronautics.

Goertzel, B. (2007). Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil’s The Singularity Is Near, and McDermott’s critique of Kurzweil. Artificial Intelligence, 171(18), 1161-1173.

Hanson, R. (2001). Economic growth given machine intelligence. Journal of Artificial Intelligence Research.

Hanson, R. (2008a). Economics of brain emulations. In Tomorrow’s people – proceedings of the james martin institute’s first world forum: EarthScan.

Hanson, R. (2008b). Economics of the singularity. Spectrum, IEEE, 45(6), 45-50.

Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology, Penguin Books.

Launius, R. D. (2008). Robots in space: technology, evolution, and interplanetary travel. JHU Press.

Lokhorst, G. J. (2000, May). Why I am not a super-Turing machine. In Hypercomputation Workshop, University College, London (Vol. 24).

Moravec, H. (1988). Mind children. Cambridge, MA: Harvard University Press.

Sandberg, A., & Bostrom, N. (2008). Whole brain emulation: A roadmap. Future of Humanity Institute, Oxford University. Available at: http://www.fhi.ox.ac.uk/brain-emulation-roadmap-report.pdf Accessed July, 3, 2010.

Sandberg, A. (2010). An overview of models of technological singularity. In Roadmaps to AGI and the future of AGI workshop, Lugano, Switzerland, Mar. 8th. http://agiconf. org/2010/wp-content/uploads/2009/06/agi10singmodels2. pdf.

Sandberg, A., & Bostrom, N. (2011). Machine intelligence survey. Technical Report, 2011-1. Future of Humanity Institute, University of Oxford. http://www.fhi.ox.ac.uk/reports/2011-1. pdf

4 agosto 2014 Posted by | Astronautica, Ciberspazio, Fantascienza, Scienze dello Spazio, Volo Interstellare | , , , | 4 commenti

IRRETITI

 L’agente di Pubblica Sicurezza Agatino Catarella, gregario del Commissario Montalbano, è uno dei personaggi più spassosi usciti dalla penna di Andrea Camilleri. Dotato di limitate capacità intellettive, parla un ridicolo e improbabile linguaggio tutto suo, misto tra italiano e dialetto siculo. Ed è con calcolato disprezzo che Camilleri fa proprio di lui l’esperto di informatica della squadra di Montalbano. Camilleri è infatti uno dei più noti “antipatizzanti” di tutto ciò che è digitale, una canuta schiera che dispone di solidi argomenti, almeno in apparenza. Il nostro Gianfranco De Turris ce ne presenta un ben documentato elenco nell’articolo che segue. Fornisce anche un’utile lista di libri da  leggere e conclude chiedendo una pausa di riflessione…. ma la Rete sta già silenziosamente allargando le sue maglie a tutto il Sistema Solare e i teorici cominciano a progettare l’architettura delle telecomunicazioni interstellari. Mi auguro che i nostri lettori, la maggioranza dei quali appartiene alla tribù dei Nativi Digitali o comunque è sopravvissuta allo Shock del Futuro, non si facciano scappare un’occasione così ghiotta per polemizzare su queste pagine.(RF)

 INTERNET2Che il mondo sia caduto nella Rete non ci sono dubbi. Che (quasi) tutti noi per volontà, necessità o obbligatorietà si sia irretiti è palese. Che la “rivoluzione informatica” iniziata pian piano negli anni Ottanta abbia ormai trasformato la nostra vita è sotto gli occhi di tutti. E che questa trasformazione non riguardi soltanto il mondo pratico ma anche il nostro modo di essere, pensare, ragionare ce ne stiamo accorgendo un poco alla volta. Ovviamente, mi riferisco a tutto quanto è “elettronico”, o “telematico” o “digitale”: dal computer al telefonino. Ogni minuto, ha calcolato la Shangai Web Designer, tra le altre cose vengono inviate in tutto il mondo collegato 168 milioni di email, sono effettuate 694.445 ricerche su Google, si caricano oltre 600 filmati su Youtube e sono registrati circa 70 domini sul Web. Un fenomeno di tale ampiezza che a mia memoria nessuna storia di fantascienza “sociologica” aveva immaginato.

Poiché il mondo è stato già globalizzato da questi strumenti, prima che dalla economia e dalla politica, quanto accade in un singolo luogo si ripercuote per l’orbe terracqueo, nel bene e nel male. E poiché tutti questi strumenti sono collegati fra loro, un evento (come un guasto) che si verifica localmente interessa l’intero sistema. Ci vengono i brividi quando entrando ad esempio in una banca ci sentiamo dire “terminali bloccati”: tutto si ferma e nessuno può più lavorare singolarmente come un tempo. Quel che è successo a giugno 2011 alle Poste italiane quando il nuovo sistema IBM ha fatto i capricci per ben tre giorni ne è un esempio eclatante. Se si verificasse una apocalisse informatica l’intero sistema mondiale andrebbe a rotoli dato che ormai tutto si muove attraverso i computer: dalle poste e le banche, appunto, alle comunicazioni, alla borsa, alle autostrade, ferrovie e aeroporti, ai ministeri, ai sistemi di difesa ecc. ecc. Anche questo un bel tema fantascientifico.

Ma, dall’altro punto di vista la Rete può trasmettere anche bufale cui tutti credono senza verifica: la dissidente siriana, per di più lesbica, perseguitata dal regime di Assad, con tanto di foto sul Web, e a cui tutti i mass media mondiali hanno creduto, era solo uno “scherzo” di due coniugi americani in vacanza, che si sono meravigliati del bailamme suscitato a tutti i livelli. Le foto taroccate, considerate la perfezione cui può giungere il ritocco digitale tramite Photoshop, sono un altro esempio di come si possono ingannare non solo le persone comuni, ma anche giornalisti e politici e creare casi mondiali, non sempre riassorbiti quando si scopre la verità.

INTERNET1E invece non c’è più nulla da meravigliarsi. Perché la Rete e soprattutto i sistemi di ricerca automatica come Google sono ormai non tanto come il mitico “manuale delle giovani marmotte” – così lo definisce Edoardo Segantini (Corriere della Sera, 12 giugno 2011) – quanto piuttosto come la Lampada di Aladino: uno strumento fantastico capace di esaudire ogni tuo desiderio, magicamente (perché il 99 per cento degli utenti non sa in fondo esattamente come esso funzioni dal punto di vista tecnico: ne accetta i risultati e basta, come in fondo accade anche per la tecnologia più banale di cui non ci preoccupiamo mai di come essa funzioni ma soltanto dei suoi effetti).

Irretiti dunque in un sistema “magico” che sta allevando una generazione che pensa e quindi agisce in modo del tutto diverso dai suoi genitori: se già i ragazzi degli anni Settanta e Ottanta si sono trovati in mezzo alla rivoluzione informatica, quelli dagli anni Novanta in poi, che adesso sono maggiorenni e anche meno, dal momento dell’uso di ragione (e forse prima) hanno vissuto in una rivoluzione avviata e consolidata. Non conoscono quindi il mondo di prima, cioè un mondo senza cellulari, computer, smartphone, Ipod, facebook, youtube, twitter, tablet ecc. ecc. Sono quelli che Paolo Ferri definisce Nativi digitali (Mondadori).

Insomma, come dicono molti specialisti, sta avvenendo, in parte è già avvenuta, una mutazione antropologica in cui il modo di apprendere si è velocizzato al massimo, ma anche semplificato e banalizzato. Basti pensare a come, non solo dagli studenti, ma anche da giornalisti e addirittura docenti e studiosi, viene percepito e utilizzato uno strumento come Wikipedia, quasi fosse la Bocca della Verità, mentre dovrebbe essere usato con cautela, cercando controlli e confronti.

INTERNET4In realtà Wikipedia è il contrario della vera Cultura dato il modo con cui si forma e alimenta: pretende di essere una enciclopedia “aperta”, formata “dal basso”, costituita “da tutti e da nessuno”, insomma “democratica”. Si tratta invece di un luogo in cui la quantità in genere scaccia la qualità: dove una affermazione viene accettata a maggioranza anche se falsa, dato che spesso vige una censura ideologica e certe cose non si possono accettare e quindi scrivere anche se sono la verità (forti polemiche in merito sono rimbalzate sulla stampa). E chi non si conforma, dopo una specie di processo popolare viene allontanato e gli si proibisce di scrivere! E’ come se si fosse costituita, scrive Ferri, una “intelligenza collettiva”, come se i suoi utenti fossero animati da un “sistema nervoso digitale”. Molto oltre il Grande Fratello orwelliano!

E’ il falso mito della Democrazia della Rete che ha creato molti delusi e molti pentiti, come una serie di libri recenti sta dimostrando. In genere si dice che una macchina, uno strumento, sono neutri e dipende da come li si usa se producono poi effetti positivi o negativi. Ma in realtà la macchina ha un potere transitivo, come affermava Ernst Jünger, e pian piano trasforma chi la utilizza acriticamente, senza rendersi conto di quel che fa. E se questo era valido quando lo scrittore tedesco esponeva le sue tesi nel saggio Der Arbeiter che è del 1932 (L’Operaio, Guanda, 1991) e la “macchina” era di un certo tipo, figuriamoci oggi dopo ottant’anni. Nel caso della Rete tramite computer o cellulare, siamo di fronte ad uno strumento per comunicare o apprendere e non per realizzare alcunché di concreto come appunto all’epoca di Jünger e, tutto sommato sino a vent’anni fa. Quindi la possibilità di modificazione mentale, psicologica, di abitudini e modi di fare è assai più facilmente realizzabile. Kevin Kelly, un super-esperto fondatore della rivista Wired, ha portato alle estreme conseguenze questo ragionamento nel suo Quello che vuole la tecnologia (Codice) affermando che il rapporto fra essere umano e tecnologia digitale ha creato quello che lui definisce il technium. Vale a dire una specie di entità a sé che quasi non è più controllabile dall’uomo ed in cui si sta manifestando la “comparsa del sé”. Un Sé che è addirittura fantascientificamente “immortale” in quanto formato da idee! Insomma la Rete sta diventando autonoma e si svincola dal controllo umano. Siamo ben oltre i robot di Asimov che prendono coscienza e dei replicanti di Dick che sentono di essere uomini e donne! Infatti, per Kelly sta nascendo un vero e proprio “superorganismo”, che ci assommerebbe poco alla volta tutti sin a diventare quasi una entità sacra… Siamo al racconto di Brown, in cui una volta collegati tutti i calcolatori elettronici del mondo (così si chiamavano negli anni Sessanta), nasce Dio.

INTERNET3La machina è stata considerata un mezzo per aiutare l’essere umano. Poi si è trasformata in un prolungamento dei suoi organi, poi ancora del proprio Sé. Quando la machina è diventata medium e da concreta è diventata astratta, come oggi è la Rete, ecco che l’espansione del nostro Io si è trasformata in virtuale e si è estesa in tutto il mondo: Internet, con tutti i suoi derivati, è, come dice Nicholas Carr, ormai un “medium universale” che ci impedisce di fuggire dalla Rete.

L’automobile ha modificato il nostro modo di spostarci. Il telefono il nostro modo di comunicare a distanza. Già la vita degli anni Venti era molto diversa da quella di fine Ottocento, ma in fondo non moltissimo diversa. Il telefono mobile e il PC, che ci portiamo ormai senza problemi appresso, hanno invece radicalmente modificato l’approccio: noi siamo raggiungibili, e possiamo essere raggiunti, sempre e dovunque, a meno di non lasciare il cellulare a casa o togliergli la batteria. E’ il terribile Always Connected , il Sempre Collegati, il Sempre Irretiti. Per di più, con l’ormai accertata e confermata possibilità di essere anche Sempre Rintracciati, Sempre Localizzati. Non solo da parte delle forze dell’ordine se abbiamo commesso reati, ma anche se siamo persone perbene che reati non ne hanno compiuti. Il Sistema, i gestori sanno – se lo vogliono –come rintracciarci sempre. E questo in un mondo ipocrita che della riservatezza, la cosiddetta privacy, ha costituito un totem. E infatti, lo ha denunciato ufficialmente il 23 giugno 2011 il professor Francesco Pizzetti, all’epoca presidente dell’Autorità per la protezione dei dati personali, che ha usato la metafora di Pollicino: usando certi strumenti noi lasciamo alle nostre spalle gli attuali “sassolini bianchi per segnare gli spostamenti”, vere e proprie “tracce tecnologiche”.

Ma ci faccia il piacere, avrebbe detto Totò.

INTERNET5Quindi ben vengano libri che su tutto questo ci facciano pensare, anche se dalla Rete non si uscirà mai più a meno di una catastrofe tecnologica universale: almeno si potrà dire che c’era chi ci ha messo in guardia, che ci ha avvertiti di come si potrebbe essere più prudenti e non cadere nei troppo facili entusiasmi di coloro che di una nuova invenzione vedono soltanto la faccia positiva (che ovviamente c’è, basti pensare a come sono state facilitate alcune ricerche, o tutto il patrimonio bibliografico che si può trovare su Internet ecc.). Sicché opere come Internet ci rende stupidi? di Nicholas Carr (Raffaello Cortina), Zero comments di Geert Lovink (Bruno Mondadori), Identità fredde di Eva Illouz (Feltrinelli), Tu non sei un gadget di Jaron Lanier (Mondadori), Dilettanti.com di Andrew Keen (De Agostini), Surplus cognitivo di Clay Shirky (Codice), ci possono mettere in guardia, senza toni apocalittici, ma certamente allarmati, su quante illusioni “politiche” si siano fatte su Internet, di come l’uso di certi strumenti stia modificando cervelli e sentimenti, come anche le identità personali possano cadere in crisi, di come i blogger non siano affatto rivoluzionari ecc. ecc.

Insomma, è il momento di fare una pausa di riflessione.

GIANFRANCO DE TURRIS

10 dicembre 2012 Posted by | by G. de Turris, Ciberspazio | , | 2 commenti

Internet si espande nel Sistema Solare. E oltre?

Immaginate un Internet Siderale, i cui nodi siano costituiti da tutti i manufatti spaziali attualmente in funzione o comunque operativi, e da tutti quelli che verranno lanciati in futuro. Proprio tutti, purché abbiano a bordo un computer, un trasmettitore e un generatore funzionanti: i satelliti in orbita bassa, la ISS, i geostazionari dedicati alle telecomunicazioni e al telerilevamento, gli orbiter, i lander e i rover marziani, le sonde da esplorazione a lungo raggio e anche un buon numero delle infrastrutture, enti di ricerca, società, e università che fanno parte del sistema scientifico – industriale dedicato all’esplorazione dello Spazio. Ecco l’Internet Siderale, una colossale rete wireless e allo stesso tempo mobile, in costante espansione nel cosmo insieme all’Uomo e ai suoi robot. Questa lungimirante visione è frutto della mente di Vint Cerf (nell’immagine), Vicepresidente e Chief Internet Evangelist di Google, uno dei padri di Internet, che sta lavorando all’idea da una decina d’anni. Cerf si è reso conto che l’Internet Siderale non poteva ricorrere alla stessa architettura del primo Internet, ossia alla suite di protocolli nota come TCP/IP, ma aveva bisogno di un nuovo protocollo, basato sulla nozione di “rete a tolleranza di ritardo e di interruzione”, che è stato chiamato semplicemente Bundle Protocol.

Una nuova architettura di rete

Nella maggior parte del mondo, ormai, si può contare su infrastrutture elettriche e telefoniche abbastanza sofisticate e affidabili da consentire il libero accesso del pubblico non sempre alla navigazione in banda larga, ma almeno a servizi telematici di base come la posta elettronica e lo scambio di file tramite FTP. In questo ambiente relativamente protetto, che offre garanzie di connetività a buon livello, la suite di protocolli TCP/IP ha dato prova di funzionare in maniera soddisfacente. Ciò non avviene invece in ambienti estremi, come quello sottomarino, o in zone disastrate, contaminate, o teatro di operazioni belliche. E naturalmente nell’ambiente più estremo di tutti: lo Spazio.

Qualunque apparato o segnale si trovi ad attraversarlo, viene immediatamente esposto all’influenza di svariati elementi che possono pregiudicarne il funzionamento o, nel caso di una trasmissione dati, la qualità e la potenza. Mi riferisco agli effetti dell’attività solare, che sulla Terra vengono di norma filtrati dall’atmosfera o dalla magnetosfera, ossia radiazioni d’ogni lunghezza d’onda e fasci di particelle cariche emessi irregolarmente ad altissima velocità (il cosidetto “vento solare”). Fanno la loro parte anche il rumore della radiazione cosmica di fondo, cioè quanto rimane del calore originario presente alla nascita dell’universo 13,7 miliardi di anni fa, e l’esposizione a violente escursioni termiche, nonché il moto dei pianeti e degli stessi veicoli spaziali, che sono i nodi della nuova Rete. Ma l’elemento perturbante di maggior impatto è qualcosa di cui gli informatici raramente devono tener conto sulla Terra: il “ritardo – luce”, cioè il tempo necessario a un segnale per percorrere, alla velocità della luce, la distanza tra chi trasmette e chi riceve (Esempi: Terra – Luna = 1,28 secondi; Sole – Terra = 8,33 minuti; Sole – Saturno = 1 ora circa).

Ecco quindi prendere corpo l’idea di “rete a tolleranza di ritardo e di interruzione”, un Internet Siderale intermittente e discontinuo, capace di funzionare in qualsiasi ambiente. La parte terrestre della nuova rete è a buon punto e il Bundle Protocol gira già nei computer della ISS, e in quello della sonda EPOXI (ex Deep Impact) che ha appena effettuato un flyby della cometa Hartley 2, a 80 secondi – luce dalla Terra. Nell’anno in corso, Cerf e i suoi collaboratori contano di completare i test del Bundle Protocol per poi offrirlo a tutte le nazioni del mondo in modo che possano liberamente implementarlo nei loro veicoli spaziali, e l’Internet Siderale prenda vita.

Guardare oltre….

Alla nascita dell’Internet Siderale, l’attuale tecnologia sembra essere perfettamente in grado di dare supporto a un complesso sistema di telecomunicazioni esteso a tutto il Sistema Solare. Per guidare i rover della NASA su Marte oppure comunicare alla sonda Cassini di scattare fotografie di Saturno, gli scienziati si affidano oggi al Deep Space Network (DSN) dell’agenzia spaziale americana, la cui antenna è abbastanza potente da mantenere gli scienziati in contatto con Voyager 1 e 2, che si trovano a circa 17,5 miliardi di chilometri dalla Terra, ai confini del Sistema Solare. Ma è roba da poco se paragonata alla distanza di 4,37 anni-luce che ci separa dalle stelle più vicine, ossia il sistema triplo noto come Alpha Centauri. Comunicare a queste distanze con le nostre future sonde interstellari è un vero problema. Infatti le telecomunicazioni risultano indebolite e distorte dal rumore della radiazione cosmica di fondo, che può rendere incomprensibile fino alla metà delle informazioni scambiate tra la Terra e i nostri robot da esplorazione. Così anche se l’Umanità fosse capace di viaggiare tra le stelle, mantenere i contatti potrebbe essere impossibile.

Ma Claudio Maccone (nell’immagine), Direttore Tecnico del International Academy of Astronautics di Parigi e autore di un nuovo studio su questo tema, dice: “Se usiamo il Sole come una lente gravitazionale possiamo mantenere i contatti con le nostre sonde anche a distanze interstellari. Questa è la chiave per esplorare i dintorni del Sistema Solare nei secoli a venire. Anche civiltà aliene potrebbero avere scoperto questo metodo per comunicare a lunga distanza. Se cosi fosse, potremmo essere in grado di intercettare le loro comunicazioni”. Il nostro Sole potrebbe effettivamente rivelarsi il migliore dispositivo possibile per le telecomunicazioni, se la sua gravità potesse essere usata per creare un radiotelescopio gigante in grado di mandare e ricevere segnali enormemente amplificati che potrebbero permetterci perfino di comunicare con una civiltà aliena. (per maggiori informazioni si veda Missione Focal). Questa tecnologia potrebbe essere applicata a radiazioni di qualsiasi lunghezza d’onda, per esempio nello spettro visibile o in quello radio. Anzi, si potrebbe creare una rete ancora più potente posizionando delle sonde relais vicino ad altre stelle per formare ponti radio attraverso il grande vuoto interstellare.

Ponti radio “gravitazionali”

Per crearne uno si dovrebbe cominciare piazzando una sonda relais in corrispondenza del fuoco più vicino della lente gravitazionale del Sole, situato alla distanza di 550 Unità Astronomiche (UA) da esso. Quindi all’altro capo del ponte, continuando con l’esempio di Alpha Centauri, deve essere piazzata una seconda sonda relais per potenziare i segnali in entrata e uscita. Per la maggiore delle tre stelle di tale sistema, che ha massa di poco superiore a quella del Sole, il fuoco gravitazionale più vicino si trova a 749 UA da essa.

Con questi relais in posizione, la percentuale d’errore nelle trasmissioni tra i due capi del ponte crollerebbe da 1 su 2 , a 1 su 2 milioni, pari all’accuratezza raggiunta dal DSN nell’ambito del Sistema Solare. Sorprendentemente, la potenza di trasmissione richiesta è davvero minima, appena un decimo di milliwatt, come dire svariati ordini di grandezza in meno delle antenne del DSN. Maccone ha anche calcolato la posizione dei fuochi e la potenza di trasmissione per due altre stelle nelle vicinanze del Sole: la stella di Barnard, una piccola nana rossa, e Sirio, una gigante blu, che si trovano rispettivamente a una distanza di 5,6 e di 8,6 anni luce dalla Terra.

Tuttavia, la realizzazione di un sistema radio interstellare basato su lenti gravitazionali darebbe un gran da fare agli ingegneri. Tanto per cominciare, i ripetitori dovrebbero restare precisamente allineati uno rispetto all’altro e ai loro amplificatori stellari anche su distanze estreme, afferma Maccone. Ciò richiederebbe un sistema rivoluzionario di navigazione celeste e orientamento, una sorta di GPS galattico basato sulle pulsar. Ma anche se effettivamente questi ponti radio potrebbero aiutarci a tenere i contatti, il limite universale della velocità della luce (e quindi dell’informazione) scoperto da Einstein, implica che il dialogo avrebbe comunque tempi lunghissimi. Data la distanza, una conversazione con una colonia su un ipotetico mondo abitabile (tipo “Avatar”), nel sistema di Alpha Centauri, avrebbe un ciclo domanda – risposta di quasi nove anni. “Attualmente non c’è soluzione al problema del ritardo nelle telecomunicazioni” – dice Maccone – “Ma la buona notizia è che adesso abbiamo un modo affidabile per comunicare attraverso distanze interstellari.”

Fonti:

“Vint Cerf: Deep Space Internet” di Vittorio Solinas  (Wired.it, 12 giugno 2009)

Sun’s Gravity Could Be Tapped to Call E.T.” di Adam  Hadhazy (Space.com, 21 dicembre 2010)

“An Internet designed  for Space” di Paul  Gilster (Centauri Dreams, 23 febbraio 2011)

29 marzo 2011 Posted by | Astronautica, Ciberspazio, missione FOCAL, Scienze dello Spazio, Volo Interstellare | , , | 2 commenti

Progetto Icarus: pericoli e obiettivi del volo interstellare simulato

Se si vuole creare un’astronave virtuale e poi lanciarla in un volo interstellare simulato, bisogna creare anche l’ambiente in cui si svolgerà l’azione, cioè riprodurre lo spazio interstellare in tutte le sue caratteristiche, sopratutto in quelle potenzialmente pericolose per l’astronave. Gli scienziati del Progetto Icarus (si veda Avverrà nel Ciberspazio il primo volo interstellare) sanno bene che lo spazio profondo in realtà non è completamente vuoto, ma che si può parlare di un vero e proprio medium interstellare, seppure estremamente tenue, composto per il 90% da atomi di idrogeno, con la densità di un atomo per centimetro cubo, l’uno per cento di polvere e per il resto atomi di elio. Il che potrebbe sembrare ben poca cosa, se non fosse che Icarus filerà “virtualmente” tra le stelle alla bella velocità di 45.000 km/sec per decenni, sottoponendo così le parti esposte dello scafo a un processo di surriscaldamento ed erosione. Fortunatamente il Sistema Solare, nel suo moto di rivoluzione attorno al centro della Via Lattea, sta attualmente attraversando la cosidetta “Local Bubble”, una zona larga circa 300 anni luce, dove la densità del medium interstellare risulta drasticamente ridotta, facendo probabilmente rientrare qualsiasi allarme [se non fosse per la perdurante presenza di polveri di varia natura, il vero pericolo nel volo a velocità relativistica – addendum 03/12/10]. C’è infine la minaccia rappresentata dagli onnipresenti raggi cosmici, com’è impropriamente definita quella pericolosa radiazione composta quasi esclusivamente da protoni ad altissima energia, che pervade l’intero universo. I timori non sono tanto per lo scafo dell’Icarus, quanto per i computer e per le altre apparecchiature elettroniche, perchè queste particelle sono responsabli del cosidetto “bit flips”: di tanto in tanto, del tutto a caso, capita che in qualche sistema informatico della nave dei bit cambino di valore, obbligando il sistema a operazioni di salvataggio dati molto estese.

Gli immediati dintorni del Sistema Solare sono mostrati nella figura qui accanto. All’interno della più vasta Local Bubble, il Sistema sta ora attraversando una nuvola interstellare locale di scarsa densità (Courtesy Linda Huff  and Priscilla Frisch). Una delle specifiche di base del Progetto Icarus è che il viaggio dell’astronave non deve durare più di 100 anni, possibilmente molti di meno. La velocità massima prevista, cioè il 15% della velocità della luce, non potrà verosimilmente essere raggiunta e mantenuta che durante la traversata interstellare vera e propria. Tenuto conto di questo, e calcolato il tempo necessario per uscire dal Sistema Solare a velocità crescente e per effettuare una manovra di decelerazione una volta raggiunto il sistema stellare di destinazione, lo staff di Icarus ha fissato in 15 anni luce il raggio dell’area di operazioni dell’astronave. Per la verità, il panorama nei pressi del Sistema Solare appare tristemente privo di obiettivi interessanti, almeno per quanto riguarda la ricerca della vita. Ci sono infatti solo 2 stelle di classe G (come il Sole), cioè Alpha Centauri A e Tau Ceti, nonché 5 stelle di classe K, tra cui Epsilon Eridani. Le altre, escluse Sirio e Procione, sono nane rosse. Epsilon Eridani ha un pianeta gigante tipo Giove, del tutto inabitabile, e si attende conferma di un secondo, dello stesso tipo. La nana rossa GJ674 ha un pianeta roccioso di massa pari a 5 volte quella della Terra, ma orbita troppo vicino al suo sole per poter ospitare la vita come noi la conosciamo. Ma la sonda Kepler, l’ormai famoso telescopio spaziale cercatore di esopianeti, potrebbe rovesciare la situazione: stime ottenute in base alle sue prime, clamorose osservazioni, indicano che almeno il 30% delle stelle sia accompagnato da pianeti, il che porterebbe da 2 a 16 o 17 il totale dei sistemi planetari alla portata di Icarus. Speriamo che la mappatura dei dintorni del Sistema Solare venga completata nei prossimi anni.

Fonte: Project Icarus

3 settembre 2010 Posted by | Astrofisica, Astronautica, Ciberspazio, Scienze dello Spazio | , , | Lascia un commento

Avverrà nel Ciberspazio il primo volo interstellare

Icarus non va confuso con Ikaros, la sonda giapponese a vela solare, attualmente in rotta verso Venere, nell’universo reale. Icarus non volerà mai se non nel Ciberspazio, perchè si tratta di uno studio puramente teorico volto alla progettazione, di una sonda automatica capace di compiere voli interstellari della durata di 50-100 anni a velocità “relativistiche”, pari cioè a frazioni rilevanti della velocità della luce. A lavori conclusi, il team di Icarus si propone però di allestire una vera e propria missione virtuale, riutilizzando i modelli matematici computerizzati di tutti i sistemi di bordo, e altro software, che sarà prodotto a vario titolo per esigenze di progettazione. Servirà quindi un programma di Intelligenza Artificiale che coordini il funzionamento delle singole parti, ma, fatto questo, l’astronave virtuale sarà completa e pronta a essere assemblata in orbita.

Comunque sarà necessario creare molto altro software per simulare i differenti ambienti interplanetari in cui la sonda si muoverà nella fase iniziale e finale del volo, e per mantenere la simulazione al passo col crescere delle nostre conoscenze. Sarà in effetti “solo” una simulazione, ma avverrà in tempo reale, e avrà quindi una durata non inferiore ai 40 anni! Così, tra gli addetti ai lavori, sta prevalendo l’opinione di dichiarare l’intero codice sorgente di Icarus di pubblico dominio, una volta conclusa la progettazione, aprendo così la missione nel Ciberspazio al contributo volontario di un gran numero di esperti indipendenti. Ci sono ottimi motivi per far decollare veramente la missione: prima di tutto costituirebbe il migliore e il più completo dei test per tutti i sistemi e sottosistemi in cui il Progetto Icarus è articolato. In secondo luogo, se presentata ad un pubblico di giovani e studenti, avrebbe un notevole valore didattico. Per consentire al pubblico di interagire con l’astronave, verrà programmata un’interfaccia utente la cui schermata base assomiglierà a quella riprodotta qui sotto.

Descrizione figura – da destra verso il basso:


display con i dati generali della missione: tempo trascorso, velocità, distanza dalla Terra, ecc.


mappa stellare, da cui ottenere rotta e posizione


pannello di controllo: cliccando opportunamente i bottoni e le icone disponibili si possono ottenere i grafici delle prestazioni dei vari sistemi e sottosistemi


in basso a sinistra: il display  mostra l’attività in cui Icarus è impegnato in quel momento

Il Progetto Icarus è un’iniziativa della Tau Zero Foundation in collaborazione con la British Interplanetary Society, nel cui ambito era stato organizzato, negli anni 70, il progetto Daedalus, il primo studio relativo a una sonda robotizzata capace di raggiungere la Stella di Barnard, distante 5,9 anni luce dal Sole, in un arco di tempo non superiore alla durata di una vita umana. Icarus rappresenta un aggiornamento di Daedalus e un approfondimento di notevole portata, basti pensare che il team di Daedalus lavorò dal ’73 al ’78 per complessive 10.000 ore/uomo, mentre il ben più numeroso team di Icarus, nello stesso lasso di tempo, prevede di superare le 35.000 ore/uomo.

Oltre alla durata massima della missione e alla capacità di raggiungere velocità relativistiche, Icarus dovrà rispettare un certo numero di specifiche di base, per esempio avere la capacità di trasmettere alla Terra dati scientifici relativi al sistema planetario di destinazione e al mezzo interstelllare; impiegare solo tecnologie d’uso corrente, o che potebbero essere ragionevolmente sviluppate in un futuro prossimo; far fronte a eventuali guasti o danneggiamenti, autoriparandosi. Sono ormai oltre 400 i pianeti extrasolari (esopianeti) individuati con certezza, e la sonda Kepler ha recentemente inviato le coordinate di 750 nuovi possibili esopianeti, raccolte in soli 43 giorni di osservazione! Di fronte a dati come questi, è stato deciso che Icarus dovrà essere in grado di operare correttamente in una varietà di sistemi planetari differenti, e non più solo in quello scelto come obiettivo primario della missione. Come già per Daedalus, anche per Icarus il sistema principale di propulsione dovrà essere un motore a fusione nucleare; mentre, a differenza di Daedalus, una volta arrivato a destinazione, Icarus dovrà essere in grado di compiere una manovra di decelerazione, per avere più tempo da dedicare agli esperimenti scientifici e alla raccolta dei dati.

La progettazione di Icarus è stata suddivisa in 20 moduli, e di alcuni di essi non abbiamo potuto nemmeno accennare, mentre parecchi temi tra quelli qui affrontati meriterrebbero un approfondimento. Ritorneremo presto a parlare del Progetto Icarus.

Fonte: Project Icarus

19 giugno 2010 Posted by | Astronautica, Ciberspazio, Scienze dello Spazio | , , , , | 1 commento

Infuria la battaglia per il Ciberspazio

Gli Stati e le grandi società multinazionali, tradizionali detentori del potere politico e del controllo sulle telecomunicazioni, stanno perdendo il loro monopolio a tutto vantaggio di un nuovo soggetto sociopolitico: la società civile virtuale. Nata col diffondersi della Rete, è cresciuta attorno ai social network, sopratutto Facebook e Twitter. Il rapporto con questi network è non solo strumentale, ma soprattutto strutturale, tanto da poter affermare, parafrasando McLuhan, che è l’architettura stessa del network a costituire il messaggio, e quindi a influenzare i comportamenti dei cittadini virtuali. Per esempio stimolandone il desiderio di partecipare attivamente alla vita politica, e di non considerarsi più solo come spettatori.

In effetti, l’architettura di Facebook sembra essere progettata apposta per favorire la creazione di gruppi di supporto o di pressione, oppure per elaborare vere e proprie campagne o strategie di lungo periodo, magari utilizzando anche strumenti wiki. Ma è con Twitter che si raggiunge la piena interattività in tempo reale. L’architettura di questo tipico social network di terza generazione è basata sullo scambio di messaggi lunghi al massimo 140 caratteri, e per questa evidente somiglianza con gli SMS, Twitter viene spesso utilizzato tramite telefonino. Come Facebook si dimostra utile soprattutto a livello strategico, così Twitter si rivela più adatto ad un uso tattico, legato a eventi specifici. Per esempio, ne è stato fatto largo uso in occasione del terremoto in Cina nel maggio 2008, e dell’ammaraggio di un aereo di linea sul fiume Hudson, in piena New York, l’anno dopo.

Nei paesi dove la censura statale è più invasiva, l’accesso alla Rete può essere reso sicuro grazie a Freegate. Questo programma consente il collegamento con un server che cambia una volta al secondo l’indirizzo IP dell’utente, rendendolo non più individuabile, né tracciabile durante la navigazione. Freegate è stato utilizzato con successo in Cina per difendere dalla repressione governativa il gruppo religioso “Falun Gong”, noto per lo zelo con cui i suoi adepti praticano il Tai Chi Chuan, e per avere reso possibile la nascita di un vasto movimento di blogger in Iran.

Ma chi vincerà la battaglia, o meglio la guerra per il ciberspazio? Al momento attuale la situazione è molto fluida, in presenza di un progresso tecnologico dal ritmo frenetico che fornisce a getto continuo nuovi e sempre più sofisticati armamenti informatici, e li distribuisce ad ambedue gli schieramenti, indifferentemente. La prima, grande battaglia, tuttora in corso, è quella sul diritto d’autore. Il successo iniziale delle multinazionali, rappresentato dalla chiusura di Napster nel 2002, in realtà è servito da catalizzatore per l’ennesima mutazione tecnologica: il file sharing “centralizzato” di Napster si è evoluto nel peer-to-peer di eMule, che ha dato vita a un movimento di disobbedienza civile di massa, orizzontale, ramificato, acefalo e qundi difficile da perseguire a livello legale, e del tutto inarrestabile, almeno fino a oggi.

Gli Stati e le multinazionali si sono schierati fin dall’inizio su posizioni rigide e intransigenti, facendo muro, dal 2007 in poi, intorno al famigerato ACTA (Anti-Counterfeiting Trade Agreement). Gli elementi base dell’accordo e le stesure successive del documento sono state secretate su richiesta dell’amministrazione USA, ma metodiche e massicce fughe di notizie hanno destato viva preoccupazione, tanto che nel marzo scorso il Parlamento Europeo ha formalmente richiesto trasparenza sulle trattative.

Ma è sul piano delle idee che la società civile virtuale ha colto il suo più grande successo, favorendo la crescita del cosiddetto movimento Open Source, nato allo scopo di contrapporre al software realizzato con codice proprietario, e commercializzato dalle grandi aziende con licenze d’uso assai restrittive, altro software realizzato in un’ottica di condivisione della conoscenza e di apertura a contributi provenienti da programmatori indipendenti. Grazie alla filosofia Open Source sono stati realizzati prodotti di altissimo livello come il sistema operativo Linux, il browser Firefox, la suite Open Office, e una miriade di altri prodotti come per esempio il Vassal Game Engine. Naturalmente il movimento Open Source, forte di successi e popolarità, preme per la riforma della legislazione internazionale in senso molto liberale.

Naturalmente non è pensabile, e nemmeno auspicabile, che gli Stati possano abdicare anche solo in parte al loro ruolo di controllo e garanzia nel ciberspazio. Infatti l’uso criminale della Rete esiste, ed è sotto gli occhi di tutti, come anche quello autoritario e lesivo delle libertà civili che se ne vorrebbe talvolta fare. Vengano quindi regole anche per il ciberspazio. Ma che siano poche, al passo coi tempi, liberali e condivise.

Fonte: “Geopolitica del Ciberspazio” di Armando Marques Guedes, in Limes “L’Euro senza Europa” – maggio 2010 – Editing: Massimo Pellerano

10 giugno 2010 Posted by | Ciberspazio | , , , , , , | Lascia un commento

   

%d blogger hanno fatto clic su Mi Piace per questo: