L'informazione non è un optional, ma è una delle condizioni essenziali dell'esistenza dell'umanità. La lotta per la sopravvivenza, biologica e sociale, è una lotta per ottenere informazioni.

Technology (10)

 Gianni Viola        This email address is being protected from spambots. You need JavaScript enabled to view it.a

Pochi giorni fa, a partire dall’articolo 96 della bozza della Legge di Bilancio, è stata annunciata la creazione di un Istituto italiano di Cybersicurezza – IIC, fra i cui fondatori si trovano il Presidente del Consiglio dei Ministri, il Comitato interministeriale per la Sicurezza della Repubblica e il ministro dell’Univeristà e della ricerca Gaetano Manfredi, in stretto coordinamento con i vertici del Dipartimento Informazioni e Sicurezza (DIS).

Fra gli obiettivi dell’Istituto, non solo la promozione e l’accrescimento delle competenze tecnologiche, industriali e scientifiche nazionali, ma soprattutto lo sviluppo della digitalizzazione del sistema-Italia, in un’ottica di sicurezza tale da garantire al Paese il raggiungimento della piena autonomia informatica, a tutela della sicurezza strategica nazionale.

Eppure, dopo appena ventiquattr’ore dall’annuncio, nella versione ufficiale della Legge di Bilancio, dell’IIC non c’è più traccia: svanito, in un acceso faccia a faccia fra il Presidente del Consiglio Giuseppe Conte e il Partito Democratico.

Quali sono le motivazioni dietro l’istituzione dell’IIC, perché è stato “cancellato” in così poco tempo e cosa comporta, proprio per l’Italia, una simile decisione?

Le ragioni del sì

Come già evidenziato in più sedi, l’idea di una fondazione a tutela della dimensione cyber nazionale non è certo nuova: già nel 2017, con la redazione del “Piano Nazionale Cyber” redatto dal Dipartimento Informazioni per la Sicurezza della Repubblica diretto allora da Alessandro Pansa, è possibile ritrovare i principali orientamenti della dottrina oggi (ri)proposta.

Certo, all’epoca le ragioni dell’istituto, semi-privatistico nella struttura, erano tutte inserite all’interno d’una visione sotto l’esclusivo potere dei servizi di intelligence ed era oltretutto assente l’esercizio di vigilanza effettuato da Comitato interministeriale per la sicurezza della Repubblica.
Una fondazione per la cyber-security «applicherebbe un approccio comprensivo nel supporto alla cybersecurity in tutta la catena di valore, dalla ricerca all’applicazione e lo sviluppo delle tecnologie chiave», favorendo – al contempo – «il dialogo col settore privato, le organizzazioni di consumatori e altri stakeholder rilevanti, aiutato dall’istituzione di un comitato industriale e scientifico»[1].

Non solo: sarebbe il perfetto punto di partenza di quella sovranità digitale più volte annunciata da Ursula Von Der Leyen, Presidente della Commissione Europea, per trovare una via tutta continentale a temi quali il nuovo protocollo 5G e la diffusione di tecnologie cloud, il machine learning e lo sviluppo di sempre più sofisticate intelligenze artificiali.

L’avvio dei lavori d’apertura d’un istituto italiano dedicato alla dimensione cyber, poi, condurrebbe l’Italia a beneficiare dei fondi Next Generation EU, destinati – per una tranche tutt’altro che inconsistente – proprio al rafforzamento del fronte cibernetico dei diversi strati membri.

In futuro, infine, parte dei fondi destinati ai progetti denominati Horizon e Digital Europe sarà finalizzato alla realizzazione d’un European Cybersecurity Competence Centre; parliamo, al riguardo, di circa 5 miliardi di euro.

Il solo problema è costituito dalla necessità, da parte dei membri UE, di dotarsi di un centro di competenza nazionale e l’Italia, a oggi, non può certo dire di averne uno.

Di conseguenza, in questa prospettiva, la possibilità di attingere ai fondi per l’EU Competence è praticamente prossima allo zero.

… e perché no?

Per molti, invece, lo stralcio in sede di redazione della Legge di Bilancio della proposta legata all’istituzione di una fondazione per il cyber è una vittoria non di poco conto.

Già nel 2017, l’allora vicepresidente della commissione Difesa della Camera, Massimo Artini, per esempio, aveva giudicato rischioso e inefficace l’affidare un tema di così vasta rilevanza a una fondazione di diritto privato configurata all’interno del raggio d’azione dei servizi di intelligence[2].

Differente sarebbe stato, continuava Artini, se al posto della fondazione fosse stata istituita un’agenzia nel pieno rispetto della direttiva NIS all’interno della Presidenza del Consiglio, con ben specifiche funzioni di sicurezza cyber.

L’errore, secondo invece i ministri PD Franceschini e Guerini, è quello d’aver tentato di riformare l’intero apparato d’intelligence senza consultare tutti gli attori politici coinvolti (maggioranza e minoranza) e soprattutto attraverso il ricorso a una frettolosa proposta inserita fra le pieghe della Legge di Bilancio, avente per natura tutt’altre finalità.

Futuro incerto

Un altolà più politico che altro, ma che secondo molti osservatori potrebbe avviare un’audizione presso il Copasir del direttore generale del DIS, il prefetto Gennaro Vecchione, convocato proprio per spiegare le ragioni della fondazione stessa.

A questo, punto però viene lecito chiedersi se un simile istituto vedrà mai la luce: secondo fonti di governo, la fondazione “ritornerà” per mano di un maxi-emendamento alla manovra stessa.         
Per carità, la speranza è pur sempre l’ultima a morire, specie in merito a uno strumento che potrebbe davvero costituire l’arma più efficace nella promozione e diffusione della cultura della cyber sicurezza nazionale.

Per gentile concessione di Vision & Global Trends

Attualmente viviamo in una società digitalizzata e quale momento migliore per poter fare un’affermazione simile. Tutti noi abbiamo subito l’avvento del virus SARS-CoV-2 e questo ci ha repentinamente catapultati all’interno dell’universo della tecnologia. Qualsiasi tipo di rapporto umano e lavorativo si è automaticamente proiettato sullo schermo dei nostri computer e questo ha modificato l’essenza delle relazioni stesse e di tutte quelle dimensioni proprie della vita sociale. Anche la politica si è lasciata plasmare da questi cambiamenti e senza dubbio si è alimentata, ora più che mai, delle nuove Tecnologie d’informazione e comunicazione (ITC) e dal 5G, elementi che da anni si stanno sviluppando e radicando nei vari paesi del mondo.

Le nuove tecnologie d’informazione e comunicazione sono l’insieme delle tecniche e dei metodi utilizzati nella trasmissione, ricezione ed elaborazione di informazioni ormai presenti nella maggior parte delle professioni dopo l’avvento di Internet negli anni ’90. Fondamentale è il ruolo che esse svolgono anche all’interno delle dinamiche che intercorrono tra i vari attori geopolitici che attualmente sfruttano le nuove tecnologie per muovere le proprie pedine sullo scacchiere del mondo. Se vogliamo proseguire con questo ragionamento, non è difficile riconoscere che la tecnologia nella storia ha sempre avuto un ruolo centrale. Ricordando la teoria mackinderiana, essa focalizzava la sua attenzione sull’introduzione della nave, la quale per l’autore era lo strumento chiave che permetteva all’America del Nord di poter avere l’intero controllo sul globo. A riconfermare questa centralità ancora è lo studioso Spykman che riconosce l’aereo come mezzo tecnologico utile a raggiungere controllo e potere su vaste aree terrestri. 

Oggi, la funzione innovativa rivestita precedentemente dalla nave e l’aereo, è assunta dalle moderne tecnologiche e il 5G le quali delineano nuovi scenari geopolitici, nuovi scontri tra soggetti diversi per l’egemonia e il controllo del pianeta e delle sue risorse. E’ in atto una competizione per l’implementazione di reti mobili 5G di prossima generazione, le quali saranno sia quantitativamente che qualitativamente diverse dalle precedenti generazioni di tecnologia di rete mobile. Le forze politiche e il confronto commerciale tra Stati Uniti e Cina modellano lo sviluppo di standard mobili di prossima generazione e il dispiegamento in mercati e regioni chiave. Le ITC e i servizi relativi ricoprono l’intera gamma di produzione, consumo e distribuzione di informazione in tutti i media, trasmessa da internet e dai satelliti alla radio e alla televisione. Negli ultimi dieci anni nessuna tecnologia ha avuto un impatto globale allo stesso livello delle ITC. Gli Stati Uniti, il Giappone e la Cina sono i tre paesi che spendono di più in ITC, e questo comporta un evidente conflitto sull’egemonia di questo spazio virtuale del quale si fatica a comprenderne i confini fisici ed etici. Per queste ragioni lo sviluppo del 5G e delle ITC avrà un’influenza decisiva sul futuro delle le principali superpotenze tecnologiche mondiali sia in termini di concorrenza economica sia in termini di Balance of power.

Gran parte della discussione pubblica sul 5G si è incentrata sulla velocità di diffusione dei dati notevolmente superiore al 4G, infatti le reti mobili di prossima generazione trasmetteranno i dati circa 100 volte più velocemente rispetto alle attuali reti. A differenza delle precedenti generazioni di reti, costruite pensando ai servizi voce e dati dei consumatori, il 5G consentirà anche comunicazioni ad alta capacità e latenza ultra bassa. Queste funzionalità miglioreranno notevolmente le prestazioni delle reti di dati mobili abilitando nuovi tipi di comunicazione machine-to-machine, aprendo la strada alle applicazioni digitali di prossima generazione che richiedono un accesso quasi istantaneo e altamente affidabile per lo scambio di ingenti quantità di dati.

Le decisioni che i governi e gli attori del settore prenderanno riguardo al “quando” e al “come” costruire le loro reti 5G avranno conseguenze significative, sia sullo sviluppo della rivoluzione digitale negli Stati Uniti, in Cina e negli altri paesi, sia nell’equilibrio dei poteri che intercorrono tra le super potenze. Ci troveremo quindi presto in un mondo suddiviso tra chi potrà orientare lo sviluppo del paese in base a queste nuove tecnologie di comunicazione e informazione, e chi non ne avrà la possibilità, come i Paesi in via di sviluppo. Per quanto riguarda paesi terzi, come quelli europei, accedere a questo circolo virtuoso significherà dover assumere scelte definitive circa le tecnologie di rete 5G e sui relativi ecosistemi applicativi e sempre più dovranno affrontare un difficile compromesso tra i loro interessi commerciali e di sicurezza. Si può facilmente ipotizzare quindi che tali paesi e i loro governi possano subire pressioni da parte degli Stati Uniti e dei suoi alleati al fine di non dipendere dalla Cina per il 5G, che attualmente risulta essere il paese più all’avanguardia. L’economia globale è ormai davanti al rischio di una completa biforcazione delle catene di approvvigionamento della tecnologia globale e della separazione del panorama del mondo in due distinti sistemi regionali: uno basato su norme e regole guidate dagli Stati Uniti, l’altro incentrato sulla Cina.

Nel giuoco delle super potenze, ruolo emblematico è assunto dalla Russia di Putin, la quale si oppone all’implementazione delle ITC e del 5G in quanto considera le modalità di diffusione delle informazioni pericolose soprattutto per la tutela degli individui. Queste nuove modalità di sviluppo e progresso tecnologico comportano ovviamente rischi come quello di una più facile circolazione di fake news, utilizzate sempre più come soluzioni strategiche a scopi geopolitici che mirano alla manipolazione dell’opinione pubblica. Essa si vede quotidianamente sommersa da informazioni delle quali non può, nell’immediato verificarne la veridicità. Per accertarsi della fondatezza delle notizie ogni individuo dovrebbe essere fornito di un bagaglio culturale e di strumenti concettuali che gli consentono di discernere con maggiore consapevolezza le notizie false da quelle vere. Per questo parallelamente alle ITC e al 5G stanno nascendo sistemi di protezione e sicurezza nell’ambito dell’Unione europea.

 

Per gentile concessione di  - Vision & Global Trends. 

 

I responsabili “al di sopra di ogni sospetto


Se da una parte la prescrizione giudiziaria, che attualmente si intende superare con le nuove proposte di legge, consiste in quella sorta di spada di Damocle che potrebbe essere lasciata cadere sulla testa dell’accusato in tempo anche molto differito rispetto a quello del reato attribuito, esistono però, delle circostanze che esprimono il contrario. Vi sono infatti dei casi che si sono protratti nel tempo soltanto per l’ “inerzia” del tutto ingiustificata di chi ha, invece, il compito di assicurare lo stato di legalità ed in particolare, quando si tratta di questioni di importanza internazionale come il caso in questione.

Molti già conoscono il caso del Dott. Celani, già alla ribalta della cronaca negli anni passati per l’ inverosimile boicottaggio ricevuto all’ interno del suo stesso Istituto.

Il Dott. Celani, Primo Ricercatore dell’Istituto Nazionale di Fisica Nucleare di Frascati, (INFN) è impegnato nel campo della ricerca dei cosiddetti “fenomeni nucleari a basse energie” privi di radiazioni per obiettivi essenzialmente civili-industriali e domestici.

Qualche anno fà egli ebbe un’intuizione scientifica che superava il tradizionale impiego dei materiali molto costosi necessari a questo tipo di ricerca.

Si trattava dell’attività sperimentale in corso da parte di scienziati degli Stati più industrializzati del mondo, per ottenere energia termica ed in prospettiva elettrica; per cui la novità non sta nel tipo di studio, ma nei risultati raggiunti e raggiungibili industrialmente, per offrire un futuro migliore a tutti i popoli della Terra.

 

Non fu una questione di costi

Nel caso specifico, il Dott. Celani nel corso delle sue sperimentazioni, sostituì nei suoi test spesso coronati da successo, il prezioso palladio fino allora impiegato, con la costantana che è un semplice composto di rame-nichel con bassa concentrazione di manganese. In questo modo, attraverso una serie di test sempre più raffinati nel proprio laboratorio, riuscì a comprendere che con l’ausilio di alcuni catalizzatori si otteneva una reazione termica qualitativamente significativa nonché la possibilità di generare direttamente energia elettrica. I risultati ottenuti portavano quindi, verso la conclusione finale di produzione di energia nucleare essenzialmente priva di radiazioni ionizzanti ed a bassissimo costo.

Si era così arrivati a concepire la realizzazione di un impianto prototipico per generare, in un futuro non troppo lontano, perfino energia “distribuita”, anche per uso individuale a livello domestico.

 

Il pericolo del successo

Ma con il crescere della notorietà del Dott. Celani, crescono contro di lui le avversità che arrivano dall’interno dello stesso Istituto Nazionale di Fisica Nucleare.

Il periodo più favorevole a questo genere di ostilità è quello delle ferie estive in cui, com’è noto, è difficile reperire il bandolo della matassa quando la maggior parte degli addetti sono in ferie o in procinto di partire e chi resta difficilmente è a conoscenza di ciò che serve sapere. Infatti, nel luglio del 2013 arriva l’ordine del Direttore dei Laboratori Nucleari di Frascati di chiudere, entro settembre dello stesso anno, la sperimentazione del Dott. Celani sulle “energie anomale a bassa energia”.

Si trattava nella sostanza, come si vedrà in seguito, di ostacolare la conclusione della ricerca in Italia di questa nuova fonte di energia: si evince in chiari termini che un atteggiamento di questo genere non può che favorire il mantenimento degli attuali monopoli del mercato mondiale dei carburanti fossili.

 

 

 

Chiusura della sperimentazione LENR

All’esterno dello stesso Istituto il miglioramento dei risultati ottenuti dal Dott. Celani, destano grande interesse nel mondo scientifico, malgrado le avversità tipiche di ogni scoperta di nuove tipologie di energia. Si tratterebbe, in caso di pieno successo, di poter finalmente donare al mondo intero energia a basso costo ed a volontà tanto da considerare il Dott. Celani oltre che uno Scienziato anche un benefattore dell’umanità.

La sua notorietà infatti, supera le frontiere del mondo e giunge in Norvegia, dove nel 2014 in virtù delle sue ricerche, viene proposto (da persone “illustri” che ne avevano la facoltà, cioè provenienti dall’ambito Accademico, Politico, Religioso) per il premio Nobel per la Pace, in considerazione che la sua scoperta avrebbe potuto eliminare gran parte dei continui conflitti per l’accaparramento delle fonti energetiche del mondo. Uno dei punti-chiave che destarono l’interesse di tale prestigiosa istituzione è stato anche la metodologia di ricerca sperimentate denominata “Live Open Science” di cui il Dott. Celani è stato un convinto fautore sin dall’inizio, come proposto dai fondatori (Francia, Inghilterra, USA; Luglio 2012).

 

Oltre il quasi…

I risultati ottenuti dal Dott. Celani sono già sufficienti a superare le valutazioni preliminari ed entrare nella scelta finale per il più alto gradino del podio.

Si sarebbe trattato quindi del premio Nobel per la Pace che in questa circostanza viene conferito ad Oslo, e non ha Stoccolma, sede riservata alle categorie umanistiche e scientifiche.

A questo punto a casa nostra, ossia in Italia, cominciano i cosiddetti dolori di pancia, per il timore che il Dott. Celani possa conseguire l’ambito premio. La questione ancora più grave è che questo tipo di avversione non è stata determinata dall’ antipatia tra colleghi in quanto il Dott. Celani, persona cordiale e simpatica non era inviso a nessuno, ma dall’alto interesse di impedire che con l’assegnazione del premio Nobel venisse ufficializzato e solennemente annunciato al mondo intero, il riconoscimento di questa nuova fonte di energia, pur se ancora a livello di ricerca di base/prototipale.

Dopo parecchi mesi di altalenanti decisioni presso lo INFN sulla chiusura del laboratorio la Direzione aveva temporeggiato: perfino forze politiche (di opposizione nel 2013-2014) in Parlamento si erano interessate al problema formalizzando il tutto con alcune interrogazioni parlamentari. Fino a settembre 2014 ad Oslo tutto sembrava ormai scontato a favore del nostro candidato, ma pochissimi giorni prima dell’assegnazione, qualcosa improvvisamente cambia l’orientamento dei giudici. Così che il premio Nobel per la Pace 2014 viene attribuito per motivazioni politiche agli attivisti (su argomenti comunque di educazione culturale-scolastica) rispettivamente Pachistani ed Indiani Malala Yousafzay e Kailash Satyarthi. La delusione è tanta poiché la differente scelta dell’ultimo momento è stata ritenuta apparentemente…… inspiegabile.

La seconda finale al Nobel –

Le motivazioni per le quali Dott. Celani potesse ottenere il riconoscimento delle sue scoperte crescono ulteriormente per la candidatura del 2015. Egli presenta pertanto i risultati di ricerca ancora più convincenti dell’anno precedente grazie ad ulteriori affinamenti sperimentali. Infatti nel gennaio dello stesso anno viene subito riproposto dal gruppo di lavoro (i “proponitori”), arricchito anche da membri del Parlamento Italiano, per la medesima candidatura

Questa volta le motivazioni con il progresso dei risultati ottenuti, con un anno in più di sviluppi e convalida sperimentale, erano state meglio sopportate e presentate ad Oslo a corredo dei lavori dello stesso Celani. Difficilmente quindi, sarebbe sfuggito ciò che nell’anno prima ha mancato di un soffio. Ma……, come avviene anche nelle storie più belle, dopo le buone notizie sopravviene sempre qualche impedimento che questa volta non si fa attendere. Infatti appena un mese dopo, nei laboratori di Frascati, avviene il colpo di scena.

Per eccesso di lunghezza l’ articolo si concluderà con la seconda parte nel prossimo.

di Alberto Zei

La costellazione Iridium® NEXT conta ora 50 satelliti per la comunicazione in orbita

 

Roma, 30 marzo 2018 – Il quinto gruppo di satelliti Iridium NEXT, realizzati da Thales Alenia Space (joint venture tra Thales 67% e Leonardo 33%), è stato lanciato con successo da SpaceX dalla base militare di Vandenberg in California.

 

Thales Alenia Space è prime contractor per il programma Iridium® NEXT, responsabile della realizzazione, integrazione e validazione in orbita degli 81 satelliti di Iridium Next, oltre che della definizione e validazione dell’intero sistema. I satelliti sono stati integrati in serie da Orbital ATK, sottocontraente di Thales Alenia Space, nel suo stabilimento produttivo di satelliti di Gilbert, in Arizona, sotto la supervisione in loco del team di Thales Alenia Space. Tulle le operazioni di lancio e messa in orbita (LEOP), e di test in orbita ( In Orbit Tests) sono state eseguite nel centro di controllo SNOC (Iridium’s Satellite Network Operation Center) di Leesburgh. Il successo di questo quinto lancio Iridium® NEXT consolida ulteriormente la reputazione dell'azienda per le eccellenti competenze dimostrate in qualità di prime contractor per così sofisticati sistemi di comunicazioni satellitari (SATCOM).

"Due terzi dei nostri satelliti sono ora in orbita e le prestazioni superano le aspettative. I prossimi due gruppi di satelliti Iridium NEXT sono già pronti in previsione del sesto e del settimo lancio - ha dichiarato Denis Allard, Iridium NEXT Vice President per Thales Alenia Space - Tutto procede nella giusta direzione per raggiungere il nostro obiettivo, ovvero lanciare tutti i 75 satelliti Iridium NEXT ad orbita terrestre bassa nel 2018 " .

La costellazione Iridium® NEXT offre connettività globale grazie ai suoi 66 satelliti interconnessi a un’altitudine di 780 km, con nove satelliti di riserva in orbita e sei altri satelliti di riserva a terra. Questo sistema internazionale fornisce capacità senza pari nelle telecomunicazioni in movimento (individui, veicoli di terra, veivoli, navi) e assicura una copertura completa in tutto il mondo, inclusi gli oceani. Grazie alla sua copertura globale e al funzionamento indipendente Iridium NEXT fornisce assistenza indispensabile in condizioni molto difficili, come in aree isolate, durante disastri naturali o durante conflitti, per citarne alcuni. Completamente indipendente da qualsiasi network di terra, offre comunicazioni sicure, protette da intrusioni e hacking.

 

 

A proposito di Thales Alenia Space

Da oltre quaranta anni Thales Alenia Space progetta, integra, testa e gestisce sistemi spaziali innovativi ad alta tecnologia per telecomunicazioni, navigazione, osservazione della Terra, gestione ambientale, ricerca scientifica e infrastrutture orbitali. Joint venture tra Thales (67%) e Leonardo (33%), Thales Alenia Space insieme a Telespazio forma la partnership strategica "Space Alliance", in grado di offrire un’ insieme completo di servizi e soluzioni per enti governativi, istituzioni, gruppi industriali, aziende private. Forte di un’esperienza unica in materia di satelliti per missioni duali, costellazioni, payload flessibili a banda larga, altimetria e meteorologia, osservazione ottica e radar ad alta definizione ed esplorazione spaziale, Thales Alenia Space ha saputo consolidare la propria competenza e allo stesso tempo perseguire una strategia incentrata sull'innovazione. Con l’immissione di nuovi prodotti e l’estensione dei mercati di riferimento, Thales Alenia Space è oggi un attore imprescindibile dell’avventura spaziale e umana in costante evoluzione. Nel 2017 la società ha realizzato un fatturato consolidato di 2,6 miliardi di euro e ha 7.980 dipendenti in 9 Paesi. www.thalesaleniaspace.com

Il mondo del futuro sarà senza alcun dubbio radicalmente diverso da quello che conosciamo: così come quello attuale è radicalmente diverso da quello nel quale io sono cresciuto. Con la differenza che il ritmo delle innovazioni è sempre più incalzante e spasmodico, alimentato da meccanismi drogati, che inducono bisogni non necessari e rendono artificiosamente obsoleti i nuovi prodotti, spesso inservibili dopo pochi anni (obsolescenza programmata), e portano alla crescente sostituzione dei valori umani e sociali con il possesso di beni materiali o  status symbol.

Il mondo del futuro potrà più o meno piacere, ma sembra  indubbio che tra le innovazioni ve  ne saranno anche di terrificanti ed estremamente pericolose nel campo della guerra e degli armamenti, nonché del controllo sociale sempre più pervasivo. Sono tanti gli interrogativi e gli aspetti inquietanti che riguardano gli sviluppi dell’intelligenza artificiale e dell’automazione e il loro controllo (se questo non è un’illusione), ma tra questi occorre includere anche la guerra e il modo in cui queste tecnologie potrebbero (o potranno, se non verranno arrestati) inserirsi nei conflitti bellici del futuro, affiancandosi, se non addirittura sostituendosi per molte funzioni, agli esseri umani. L’automazione crescente interesserà infatti anche gli armamenti perché si stanno approntando le cosiddette armi autonome (fully autonomous weapons), chiamate a volte “killer robot“, armamenti che possono selezionare e ingaggiare bersagli senza ulteriore intervento di un operatore umano.

L’immaginario corre agli scenari della fantascienza, come Guerre Stellari, ma per quanto la fantascienza cerchi di immaginare il futuro più impensabile questo non è evidentemente prevedibile e potrà essere completamente diverso.

Il dibattito sull’innovazione tecnologica è sempre stato molto vivo (risalendo per lo meno dal tempo dei luddisti): è sempre stata presente, e alla fine prevalente (in modo attivo o, spesso, passivo) una corrente che ha salutato con favore tutte le innovazioni, affermando che il problema non è fermare il “progresso” ma controllarlo. Il mio personale parere è che questa idea di “controllo della tecnologia e delle innovazioni” si è rivelata una copertura ideologica e raramente ha funzionato per evitare le ricadute negative delle innovazioni: porto spesso un esempio, siamo riusciti a controllare l’innovazione dell’automobile che esiste da più di un secolo, a valorizzarne solo gli (indubbi) aspetti positivi? A me sembra che lo sviluppo incontrollato dell’automobile si sia tramutato nel soffocamento delle città, in frequenti paralisi della circolazione, in una fonte micidiale di inquinamento ambientale terribilmente nocivo [penso che tutti conoscano le autorevoli e spaventose valutazioni di 9 milioni di decessi prematuri all’anno: ma questa notizia ha forse indotto una riduzione dell’uso dell’auto privata? D’altra parte le automobili autonome (self-driving cars) sono ormai una realtà in via di inserimento nel mercato commerciale (una volta superate le barriere normative, culturali ed economiche)].

Tanto più micidiale è il rischio di uno sviluppo incontrollato delle armi autonome, soprattutto di un loro utilizzo incontrollabile e irresponsabile (ma è mai esistito uno sviluppo responsabile degli armamenti?). Storicamente è sempre avvenuto che lo sviluppo di armi innovative non sia mai stato arrestato, sia stato adottato (spesso con l’illusione, o il pretesto, di acquisire un vantaggio per molto tempo incolmabile sugli avversari) ed abbia rivoluzionato in modo duraturo la natura stessa della guerra: è avvenuto per il fucile e il cannone, fino alla bomba atomica e i suoi sviluppi successivi (bomba termonucleare, missili, difese antimissile, ecc.): salvo poi chiudere la stalla successivamente, mettendo affannosamente al bando le armi più spaventose (chimiche, biologiche, mine anti-uomo, bombe a grappolo: per le armi nucleari siamo all’inizio).

Le armi autonome cominciano già ora ad essere una realtà e non solo uno scenario potenziale, ma non ancora regolamentato. Esso pone in ogni caso già da ora dei problemi etici e legali fondamentali.

Per fortuna sembra che stia maturando una sana preoccupazione e reazione, che però non trova corrispondenza in un’adeguata informazione e non provoca quella presa di coscienza e quella razione dell’opinione pubblica che ne determinerebbe il radicale ripudio. Una volta aperto questo vaso di Pandora, che darà origine agli sviluppi e applicazioni più impensabili, come si potrà tornare indietro?

Le maggiori autorità mondiali dell’intelligenza artificiale e della robotica – fra cui spiccano i nomi di Elon Musk e Mustafa Suleyman, di Google DeepMind – si sono rivolte alle Nazioni Unite per promuovere il bando delle armi autonome. Essi sottolineano che grazie alle evoluzioni tecnologie degli ultimi anni lo sviluppo di queste armi potrebbe scatenare una terza rivoluzione nelle scienze belliche, dopo quelle legate all’invenzione della polvere da sparo e a quella delle armi nucleari (ovviamente la classificazione delle rivoluzioni militari si presta ad arbitrarietà, ma quello che conta è il concetto):

“Una volta sviluppate le armi autonome permetteranno conflitti armati di scala ben più ampia rispetto ad oggi, e con velocità più superiore a quelle che l’uomo può comprendere …Possono essere armi di terrore, armi che despoti e terroristi utilizzeranno contro le popolazioni innocenti, e armi che possono essere manipolate per comportarsi in modalità poco desiderabili”.

La lettera è firmata da 116 leader di società che si occupano di Intelligenza Artificiale provenienti da 26 nazioni differenti. Il suo obiettivo è di sensibilizzare l’Onu affinché venga avviato un dialogo per proporre un divieto globale sullo sviluppo delle armi autonome. È forse il caso di esprimere qualche perplessità sul fatto che a muoversi siano esponenti di imprese del settore. Ma la necessità di sensibilizzare e mobilitare l’opinione pubblica è senz’altro urgente. I media e le istituzioni mondiali sembrano muti, e comunque incapaci di affrontare le sfide che sorgono alle nuove frontiere di conoscenza, scienza e tecnologia, di governare e integrare in uno sviluppo equilibrato, compatibile e sostenibile i più delicati avanzamenti conoscitivi e le loro potenziali ricadute. Mentre il mondo è dominato dal paradigma (o il mito) della comunicazione e allo stesso tempo orfano di un ordine nel comunicare.

Le principali potenze militari che stanno sviluppando questo tipo di tecnologie sono USA, Cina, Russia e Israele. Alcuni sistemi sono già stati utilizzati sul campo, come le torrette di confine autonome sviluppate dalla sudcoreana Dodaam Systems, che adottano dei mitragliatori capaci di identificare e sparare su bersagli senza alcun intervento umano (necessitano solo dell’ok per sferrare il colpo letale).

Come sempre accade vi sono anche voci opposte, che sostengono che queste tecnologie siano in grado di ridurre le morti sul campo di battaglia, con la possibilità di individuare soldati e combattenti in maniera più precisa rispetto agli esseri umani: come non ricordare che i bombardamenti nucleari di Hiroshima e Nagasaki furono surrettiziamente “giustificati” per risparmiare vittime fra i soldati americani in una invasione del Giappone?

 

Per gentile concesssione dell'agenzia di stampa Pressenza

INFN

Boicottaggi, sabotaggi e ostruzionismo all’interno delle nostre Istituzioni di “ricerca” più prestigiose, fino ad arrivare alla distruzione dei documenti in occasione del Premio Nobel.
Sarebbe interessante sapere, da una parte, chi dispone e distribuisce le risorse economiche nazionali già assegnate dal Governo per la ricerca; dall’ altra, dove sono finiti i fondi della ricerca scientifica destinati ai laboratori più promettenti di risultati utili e utilizzabili per l’interesse della collettività.
Il caso specifico in cui il potentato delle lobby nostrane ha operato in modo contrario agli interessi nazionali è quello del Dott. Francesco Celani, noto ricercatore dell’Istituto Nazionale di Fisica Nucleare di Frascati (INFN) che si interessa allo sviluppo di innovative metodologie per la produzione di energia termica ad alta efficienza, a basso costo e praticamente priva di radiazioni nocive, denominata LENR. Il tutto ad integrazione e, nel lungo periodo, in sostituzione dell’energia ottenuta dalla combustione delle varie sostanze fossili inquinanti, da molti ritenute responsabili principali del cosiddetto “Effetto serra” e dei bruschi cambiamenti climatici a queste attribuite.
Questo Ricercatore ha dedicato la parte professionale di maggiore esperienza della propria vita nei Laboratori di Frascati, fino alle soglie dell’età di quiescenza lavorativa.
L’Istituto ha così acquisito risultati eclatanti in questo tipo di ricerca anche in virtù degli approfondimenti professionali che lo stesso Celani ha potuto ottenere in Conferenze internazionali e durante i periodi trascorsi all’ estero con altri Ricercatori.
Ma proprio qui sta il punto perché tanto più Celani più acquistava conoscenza internazionale e stima professionale per le sue ricerche in questo comparto strategico, tanto più in Italia veniva avversato attraverso le lobby economiche e politiche; lobby che sono di fatto, arrivate all’ostruzionismo lavorativo all’interno dello stesso INFN.

 

Chiusura della sperimentazione LENR - Qualche anno fa, l’intuizione scientifica del Dott. Celani supera il tradizionale impiego dei materiali molto costosi come il Palladio, per la produzione di questa energia termica. Egli arrivava infatti, ad un risultato ancora maggiore con l’ impiego della Costantana, ossia di un composto, sostanzialmente, a base di nichel e rame, con l’ aggiunta di un particolare vetro.
Ovviamente il risultato che più interessa ai fini industriali è la quantità di energia e il suo rendimento. Sono questi la prospettiva del futuro sulla quale il mondo intero potrà attingere a volontà energia da impianti semplici a costi molto contenuti, di impiego anche domestico.
Ma con il crescere della notorietà del Dott. Celani, crescono contro di lui le avversità che arrivano all’interno dell’Istituto Nazionale di Fisica Nucleare. Il periodo migliore per questo genere di ostilità è quello delle ferie estive in cui, com’è noto, è difficile reperire il bandolo della matassa. Infatti nel luglio del 2013 arriva l’ordine del Direttore dei Laboratori Nucleari di Frascati di chiudere entro settembre dello stesso anno, la sperimentazione su LENR.
In considerazione però, della abnormità della decisione adottata, vengono presentate ben otto interrogazioni parlamentari, per chiedere le ragioni di tale imperativo; interrogazioni che fortunatamente hanno sortito l’effetto di superare gli intendimenti del Direttore e di far proseguire l’attività di ricerca allo stesso Celani, ma senza alcun finanziamento da parte dell’Istituto.

 

Proposta al premio Nobel - La conoscenza anche all’estero del caso Celani è ormai grande e la sua notorietà scientifica dei successi sperimentali su LENR rompe gli steccati del Laboratorio di Fisica Nucleare di Frascati; notorietà che supera le frontiere del mondo e giunge in Norvegia, dove nel 2014 in virtù delle ricerche, da lui condotte su LENR viene proposta e accettata la candidatura per il premio Nobel per la Pace.
Celani infatti, simbolicamente parlando, alla stregua di un novello Prometeo che regalò il fuoco degli Dei agli uomini, si propone ora, di consegnare all’Umanità il dono dell’ energia a basso costo ed a volontà per tutti. Il premio Nobel per la Pace simboleggia infatti, il contributo del nostro Ricercatore alla eliminazione dei continui conflitti, come la storia insegna, per l’ accaparramento delle fonti energetiche del mondo.
Per queste ragioni egli, per quanto, si è potuto capire, supera le valutazioni preliminari, entrando nella scelta finale per il più alto gradino di Oslo. Di fatto, stante la trepidazione di casa nostra, temendo che il Dott. Celani potesse conseguire l’ambito premio, non si comprende quale sia stata la posizione assunta dalla rappresentanza ufficiale italiana. Ma alla fine, quando tutto sembrava ormai scontato a favore del nostro candidato, il conferimento Nobel viene attribuito per ragioni politiche, agli attivisti indiani Malala Yousafzay e Kailash Satyarthi.

 

La seconda finale al Nobel - L’anno successivo, ossia, nel 2015, accade la medesima cosa. Il Dott. Celani, viene di nuovo prescelto per la candidatura al premio Nobel, evidentemente per il rammarico di qualcuno di un’ingiustizia arrecata al nostro Ricercatore che sotto il profilo formale aveva dato adito, ovviamente, a qualche indimostrata richiesta tecnica, ritenuta decisiva.
Evidentemente in Italia a cui l’attenzione delle lobby si riferisce, la preoccupazione cresce e il rimedio da prendersi perché Celani non riesca a salire il prestigioso gradino, questa volta, dovrà essere ben valido e definitivo.
Celani infatti, a Gennaio del 2015 è già tra i candidati al premio Nobel. Il mese successivo nei Laboratori di Frascati avviene la sorpresa; sorpresa non già per l’ostruzionismo ma per la qualità del rimedio escogitato. Si tratta questa volta di un fatto più unico che raro nella storia del Centro, ma significativo della avversione alla ricerca LENR, identificata in Celani per la grave problematica che questi rappresenterebbe in Italia, qualora fosse a lui attribuito il premio Nobel.
Ubi malum, ibi remedium – dicevano nel passato. E il rimedio c’è stato. Guarda caso! - direbbe qualcuno. Guarda proprio il caso di ciò che è avvenuto! Nel febbraio 2015, il Direttore dei Laboratori di

 Celani
 Il prof. Francesco Celani

Frascati questa volta dà di fatto disposizione affinché tutta la documentazione scientifica del Dott. Celani depositata in un apposito locale del Centro, venga distrutta, all’insaputa dell’interessato, attraverso la macerazione. Dopo il misfatto, neppure con l’immane e affannoso lavoro di ricostruzione, Celani riesce a ricomporre in tempo utile, la documentazione mancante per dimostrare, dopo la seconda candidatura per il Premio Nobel, il merito riconoscibile per l’alto gradino dell’ ambito premio. E quell’anno la preferenza viene attribuita al Quartetto tunisino delle Associazioni per il dialogo politico democratico della cosiddetta “Primavera Araba”.

 

La conferma giapponese - A conferma del giusto indirizzo intrapreso nei Laboratori di Frascati per opera di Celani, si ha in questi giorni notizia giapponese di notevoli miglioramenti quantitativi dell’energia LENR prodotta attraverso lo stesso utilizzo di rame-nichel in stretto contatto con una specifica struttura di vetro, cioè il leit-motiv di Celani: questi rappresentano proprio la base su cui il nostro Ricercatore ha ottenuto i propri risultati in Italia.
Concludiamo l’articolo, facendo presente che il Dott. Celani, arrivato come detto, alle soglie del pensionamento, contrariamente a quanto avviene nella Pubblica Amministrazione con proroghe annuali in attività lavorativa, suo malgrado, dovrà andare obbligatoriamente in quiescenza alla fine di settembre.

In questo caso però, lascerà il proprio lavoro alle soglie del successo, come avvenne per “l’incompiuta di Schubert”; “incompiuta” che a differenza di quanto accadde per il musicista, questa volta sarebbero le stesse lobby antagoniste ad impedire i tentativi a chicchessia di completare l' opera.
Per queste ragioni ci si chiede come lo Stato Italiano, rappresentato dal Parlamento e dalle varie classi politiche che lo compongono, possa rimanere indifferente di fronte ad una serie di così gravi e continuate prevaricazioni all’interno della Pubblica Amministrazione. Con la perentoria messa in quiescenza di Celani, si ottiene proprio ciò che finora le menzionate lobby hanno tentato, ostacolando per i loro interessi la scoperta della produzione di una nuova forma di energia, impedendo cioè, una fondamentale conquista scientifica a discapito dell’ Italia e dell’intera Umanità.

010 Ripresa satellitare Alla base della rilevazione satellitare si trova il processo fotografico e quant’altro attenga alla “visione”, che, tra i fenomeni naturali, è considerata uno dei più affascinanti e complessi, caratterizzata dal fenomeno della luce. Questa è una forma d’energia radiante che consente di rendere visibili gli oggetti circostanti e tali sensazioni luminose rappresentano la più elementare e rudimentale percezione visiva. Posto che la visione avviene attraverso l’organo dell’occhio, si potrebbe essere indotti a dare al fenomeno della percezione visiva una spiegazione puramente fisica. Va detto però, che il fenomeno, in realtà, non può prescindere da importanti fattori psichici. La percezione visiva non è esclusivamente legata agli stimoli sensoriali, essa è un complesso processo dinamico di ricerca svolto dal cervello, il cui scopo è definire la migliore interpretazione possibile dei dati raccolti. La sola fase ottico-fisiologica della visione è insufficiente.

La fotografia è un processo di trasferimento di un oggetto reale in immagine, e tecnicamente essa può essere definita come una rappresentazione ottenuta dall’interazione dell’energia raggiante con l’emulsione fotosensibile della pellicola, come la descrizione di un fenomeno o di un processo mediante la rappresentazione normalmente bidimensionale di informazioni relative al fenomeno o al processo indagati.

Per comprendere il concetto di fotografia, vale riferirsi all’esempio di come funziona una macchina fotografica in rapporto con l’occhio umano, dove l’obiettivo (della macchina) corrisponde al cristallino, la camera oscura corrisponde alla sclerotica, la lastra sensibile è la retina, mentre il diaframma corrisponde all’iride che controlla il flusso luminoso in entrata attraverso la pupilla (il guadagno in termini strumentali); infine, la pellicola fotosensibile corrisponde ai fotorecettori e/o ai rilevatori (dunque alla parte sensoriale) a loro volta equivalenti ai coni e bastoncelli.

Sebbene la “visione” sia un dato dinamico e essa spesso si presenti sotto vari connotati e “vedere” non abbia, dunque, sempre lo stesso significato, tuttavia l’ideale della “visione” è la percezione quanto meno “reale” della scena osservata, parimenti, la “fotografia” ha come scopo la riproduzione “fedele” di ciò che esiste nella realtà.

Una conferma ci giunge, ben a proposito, nell’ambito di un’opera di geomatica1, dove è scritto che “lo scopo che si sono posti da sempre i fotografi è la fedele riproduzione dell’oggetto reale nell’immagine finale in termini sia risolutivi sia cromatici”.2 Per tale motivo un’immagine va giudicata solo ed esclusivamente in conformità a tale parametro: essa è una buona fotografia se riproduce in termini fedeli (ed onesti!) il “reale”.

Interessante a tal proposito quanto leggo nel recentissimo Manuale di fotografia di Silvio Mencarelli3, il quale dice che “(…) fondamentalmente in fotografia è possibile realizzare soltanto due tipi d’immagine: costruendo completamente e artificialmente la scena da riprendere, scegliendo a nostro gusto le luci, l’ambientazione, la posa dei soggetti creando quindi noi una realtà visibile, o non intervenendo sulle caratteristiche della scena che stiamo vivendo: osservando quindi e riprendendo i soggetti e le situazioni senza intervenire.” Il Mencarelli più avanti precisa che il primo caso è un falso, nel secondo, invece, fotografiamo ciò che ci si propone e ci si rappresenta.

Ciò detto, per quanto oggi si sia tentati, trattando del telerilevamento, di enfatizzare i fattori innovativi che spesso paiono straordinari e ammirevoli oltre misura, ciò che è essenziale, e che interessa la nostra ricerca, è soprattutto il “prodotto fotografico”. Di là dei dettagli tecnici (che non formano oggetto del nostro interesse e che in questa sede non hanno valenza alcuna), le immagini digitali, se pur prodotte da un meccanismo differente, devono ugualmente rispondere ai medesimi principî di qualità. Ciò che conta veramente è la capacità di riprodurre in termini reali, una data scena osservata. Se tale obiettivo non fosse raggiunto, non potrebbe mai dirsi di essere davanti ad una buona fotografia. Non solo. Se la “fotografia” mostrata riproducesse dei particolari “inesistenti”, non si tratterebbe propriamente di una fotografia, bensì di un’opera artistica, di un disegno, o di un’immagine creata per elaborazione digitale, o sinteticamente, di una pitto-fotografia che non ha alcun rapporto concreto con la realtà che, invece, vi dovrebbe essere raffigurata.4

In pratica, ciò che ora è possibile, tramite l’uso della tecnica digitale, non lo era un tempo e oggi appaiono sorprendenti, ma vere, e in un certo senso “nostalgiche”,

 017 Camera di ripresa Viking
 Camera di ripresa Viking

le parole contenute in un’opera apparsa, solo un trentennio fa, ma già così distante dai molti “progressi” (o regressi?) raggiunti dalla scienza odierna. Ecco quanto leggiamo nel volume “Astrografia astronomica” di Walter Ferreri:5 Ad alcuni parrà incredibile che esistano metodi per aumentare la nitidezza di una fotografia già scattata. Questo perché è molto diffusa l’opinione secondo la quale la nitidezza sia un fatto esclusivamente oggettivo indicante il numero di dettagli contenuti in una fotografia. In realtà per nitidezza s’intende non solo quanti dettagli si vedono ma anche come si vedono, cioè, detto in altri termini, una foto appare più nitida di un’altra perché i suoi dettagli sono caratterizzati da un maggiore microcontrasto o acutezza. Dunque se è certamente impossibile creare dettagli che non esistono è però possibile operare per renderli più visibili aumentando il loro microcontrasto.”

In tale contesto è osservabile che le forme d’analisi tradizionalmente utilizzate, in alcuni casi specifici, non danno conto della qualità di ciò che l’immagine riproduce e poiché il livello di qualità di una data immagine fotografica è fondamentale e propedeutico per una qualsiasi ulteriore analisi, ci rendiamo conto del minimo valore che assumono le elaborazioni digitali e la fotointerpretazione proposte in loro assenza. Proprio per sopperire a questa grave mancanza metodologica, intervengono, oltre ai tradizionali parametri della risoluzione geometrica e radiometrica, altre tipologie d’analisi (di cui diremo più avanti) che studiano in altro modo i vari elementi di un’immagine satellitare, ponendoli in rapporto con tutti i parametri di riferimento possibili.6

 

 

 

1 La “geomatica” è definita come un “approccio sistemico integrato multidisciplinare per selezionare gli strumenti e le tecniche appropriate per acquisire (in modo metrico e tematico), integrare, trattare, analizzare, archiviare e distribuire dati spaziali georiferiti con continuità in formato digitale”. Cfr. Mario A. Gomarasca, Elementi di Geomatica, Associazione Italiana di Telerilevamento, Milano 2000, p.1.

2 Mario A. Gomarasca, op. cit., p. 76.

3 Edizioni Edup, Roma 2009 – pp. 12,13.

4  In inglese: digitally-created picture.

5 Edizioni Il Castello, Milano 1977, p. 137.

6 Tali parametri supplementari sono la risoluzione topografica e quella analogica.

 

Da più parti si sostiene la tesi della superiore qualità delle immagini satellitari digitali rispetto alle immagini analogiche e, a tal proposito, vale la pena rilevare quale sia realmente la differenza sostanziale tra una macchina fotografica tradizionale e una fotocamera digitale. Posto che la parola “fotografare” significa “scrivere con la luce”, la differenza consiste principalmente nel diverso modo di registrare un’immagine: su pellicola, nelle fotocamere analogiche e mediante un dispositivo ad accoppiamento di carica detta CCD1, concettualmente simile ai sensori utilizzati per le acquisizioni da satellite, nelle fotocamere digitali. Quest’ultimo procedimento consente di ottenere immagini mediante tecnologie elettroniche direttamente in forma digitale e di memorizzarle su un supporto magnetico, ottico o elettronico.

Il processo tradizionale d’acquisizione fotografica consiste invece nella scelta dei materiali fotografici (camera, obiettivi, tipo e sensibilità della pellicola) e nello sviluppo fotochimico e nella relativa stampa.

Il processo fotografico avviene in più fasi operative progressive, mentre con l’acquisizione digitale si ha la disponibilità immediata delle immagini e la possibilità di controllo di tutte le fasi di lavoro. In questo caso, il processo fotogrammetrico tradizionale si riassume nei seguenti punti: 1) Acquisizione/registrazione delle immagini; 2) Orientamento delle immagini e ricostruzione del modello tridimensionale dell’oggetto attraverso tecniche stereoscopiche; 3) Restituzione, cioè misura dell’oggetto e formalizzazione numerica o grafica delle sue caratteristiche dimensionali.

I vantaggi del “digitale” rispetto al processo fotografico analogico si possono riassumere nei seguenti punti: 1) Elevata risoluzione radiometrica; 2) A parità di tempi di ripresa, maggiore rapidità nell’avere a disposizione l’immagine; 3) Facoltà di elaborazione digitale; 4) Riproducibilità identica dell’originale, in tempi brevi e a costi contenuti; 5) Possibilità di inserimento in sistemi informativi e di gestione.

Per quanto sopra detto, è possibile affermare che, nella sostanza, la differenza di qualità fra le immagini digitali e le analogiche, riguarda fattori che non hanno alcun’attinenza con l’adesione dell’immagine alla scena reale ripresa, mentre attengono a fattori accessori che non intaccano il valore obiettivo dell’immagine medesima.

Chiariti i termini tecnici della questione, dobbiamo ora comprendere il valore dei comportamenti “antropologici” connessi all’uso più massiccio della tecnologia digitale. La semplificazione apportata dal digitale ha creato una sorta di “esercito di leva” di fotografi con un tratto evidente (e incipiente) d’analfabetismo fotografico. Mentre un tempo, il “fotografo” era un’artista, padrone della tecnica di ripresa, le cui diverse modalità d’applicazione davano risalto all’ingegno personale, oggi le immagini digitali sono tutte uguali: tutte pronte in fretta, e senza cura alcuna dei particolari (e degli errori), tanto, alla fine, sarà il computer ad aggiustare ogni cosa, a eliminare tutti i difetti riscontrati.

In realtà i programmi d’elaborazione, grafica e video, possono produrre solo immagini finte che, poco alla volta, trasformano una vera possibile immagine in un vero reale “ologramma”.2 Tali programmi d’elaborazione permettono l’uso della cosiddetta “grafica vettoriale” su immagini fotografiche. Tale tecnica riesce a immortalare, nella camera oscura digitale, anche ciò che non esiste o che non è visto davanti all’obiettivo. In altre parole è stato superato il limite “logico” che un tempo confinava la fotografia nel contesto d'una riproduzione fedele della realtà.

Un tratto distintivo di tale “non – cultura”, è stato (ed è in atto, poiché il processo continua inesorabilmente…) l’abbandono del documento cartaceo e il subentro della cultura digitale. Quest’ultima ha di fatto distrutto l’organicità del pensiero, per ciò stesso rendendo impossibile l’applicazione sistematica del metodo scientifico sperimentale, laddove tale processo presupporrebbe l’utilizzo contestuale di documenti visionati in successione logica.

Questo spiega, abbondantemente, la incipiente difficoltà delle generazioni attuali e nondimeno di quella parte delle generazioni precedenti già abbondantemente contaminate dal nuovo corso digitale, alla lettura e alla interpretazione delle immagini satellitari, ormai visionate solo per il tramite del monitor di un computer.

Stupenda l’affermazione di Vilèm Flusser, in “Per una filosofia della fotografia”, secondo cui “L’analfabetismo non è più fisiologicamente compreso, come una volta, entro i ristretti limiti di una cultura codificata nei testi, mentre esso partecipa quasi del tutto alla cultura codificata delle immagini. Se in futuro dovesse compiersi la totale sottomissione dei testi alle immagini, allora dovremmo fare i conti con un analfabetismo generale, e soltanto gli specialisti (quelli che avranno conservato i vecchi codici) impareranno a scrivere”.

 

1Dall’inglese Charge-Coupled Device.

2Un ologramma è una rappresentazione tridimensionale dell'oggetto proiettato.

Roma, 11 Novembre 2015 - Thales Alenia Space,joint venture tra Thales (67%) e Finmeccanica (33%), ha annunciato oggi di aver siglato un contratto con BTRC (Bangladesh Telecom Regulatory Commission) per la costruzione del satellite per telecomunicazioni Bangabandhu, aggiudicandosi l'accordo tra una serie di concorrenti internazionali. Il satellite diminuirà il divario digitale, diffondendo servizi di trasmissione e telecomunicazione alle aree rurali e introducendo servizi redditizi, come quelli direct-to-home, in tutto il paese e la regione.
In quanto prime contractor di questo programma chiavi in mano, Thales Alenia Space sarà responsabile della progettazione, produzione, test e consegna in orbita del satellite.


Il satellite è basato su una piattaforma derivante dall’esperienza di Thales Alenia Space, con 81 Spacebus già ordinati e più di 600 anni accumulati in orbita. Realizzato sulla versione aggiornata della piattaforma Spacebus 4000B2, Bangagandhu sarà dotato di 27 trasponditori in banda Ku e 14 in banda C. L'area di copertura del satellite includerà il Bangladesh e la regione circostante. Questo sistema offrirà capacità in banda Ku al Bangladesh e alle sue acque territoriali sul Golfo del Bengala, India, Nepal, Bhutan, Sri Lanka, Filippine e Indonesia, fornendo inoltre capacità in banda C a tutta la regione.


Thales Alenia Space si occuperà inoltre del segmento di terra, che sfrutterà gli strumenti SpaceOps di Thales Alenia Space per la pianificazione e monitoraggio della missione: includerà due strutture a terra per la gestione del satellite e il Network Operations Center, basato sulla soluzione globale SpaceGate di Thales Alenia Space. Spectra Ltd Company, partner di Thales in Bangladesh, si occuperà delle attività civili delle strutture di terra.


Il lancio è previsto per il 2017 e questo primo satellite del Bangladesh sarà posizionato a 119,1° est.
"Thales Alenia Space è orgogliosa di essere stata scelta da BTRC per il primo, fondamentale satellite di Bangladeshi Telecom. Questo satellite, denominato Bangabandhu come il famoso padre della Nazione, è una milestone chiave per lo sviluppo delle telecomunicazioni in Bangladesh e costituirà anche un notevole supporto alla crescita dell'economica nazionale e al riconoscimento della regione asiatica," ha affermato Jean Loïc Galle, CEO di Thales Alenia Space.
“Il contratto per questo satellite di telecomunicazioni firmato con Thales Alenia Space, player chiave nelle telecomunicazioni spaziali, sottolinea una svolta significativa nella storia del Bangladesh, non solo perché riduce il divario digitale, ma anche perché in grado di generare business e posti di lavoro” ha affermato Md Golam Razzaque, Direttore del progetto Bangabandhu per conto di BTRC. "Noi ci auguriamo di eseguire il lancio in concomitanza del 46⁰ anniversario del giorno della Vittoria del nostro Paese che sarà il 16 dicembre 2017 ".

Forte del suo importante background di tecnologia ed innovazione, che sta destando interesse in tutto il mondo, è iniziato anche in Italia il lancio dell’avveniristica e-bike Neox, completamente made in Italy. Frutto di cinque anni di ricerca e progettazione e di 4 brevetti internazionali depositati, può a buon diritto definirsi unica al mondo perché “nata elettrica”. Ma il bello è che non si vede.

Città intasate dal traffico, difficoltà sempre maggiori nel trovare un parcheggio: ormai la mobilità, urbana e non, necessita sempre più di alternative sostenibili, ma anche confortevoli, eleganti e in sintonia con la modernità.

Da qualche anno anche in Italia, in ritardo sull’Europa, soprattutto del nord, una delle risposte più accreditate sembra essere l’e-bike, altrimenti definita “bicicletta con pedalata assistita”, o in gergo tecnico internazionale “pedelec”. Bici che utilizzano un motorino elettrico come sostegno allo sforzo normalmente richiesto dalla pedalata, con il concetto di ottenere il massimo risultato con il minimo sforzo. Sono nate così una serie di e-bike che montano in modo “vistoso” motori elettrici e cambi, prodotti da terzi, assemblati in modo visibile e antiestetico e, in alcuni casi, con una concezione di cambio che non permette una pedalata assistita fluida. Dalla rilevazione di queste lacune, un gruppo di imprenditori veneti, appassionati di ciclismo e di innovazione tecnologica, ha ideato un nuovo concept di e-bike concepita, da zero, per essere elettrica. Il progetto Neox, brand di Siral, società specializzata nella produzione e ricerca eco-tecnologica, è nato 5 anni fa con l’obiettivo direalizzare ex novo una bike elettrica senza avvalersi di “protesi” altrui, ma soprattutto partendo da alcune innovazioni tecnologiche che la rendono unica al mondo. Una concezione che si è basata su4 brevetti internazionali depositati,inerenti Il cambio, il sistema di innesto, il sensore di coppia e la posizione di folle. Innovativa anche l’ estetica, capace di celare motorino, cambio e altri orpelli - inseriti in blocco in un unico monobraccio - con un design elegante ed estremamente “pulito”. Il risultato è una bike insospettabilmente elettrica, di grande appeal. Fluida nell’assistenza elettrica e nel cambio dei rapporti e con un enorme vantaggio logistico: la possibilità di poterne smontare, in tre secondi d’orologio, entrambe le ruote, per caricarla facilmente anche in un’auto di piccole dimensioni. Il tutto senza neanche doversi sporcare le mani, visto che tutta la trasmissione è celata all’interno della struttura.

Elegante, comoda e sicura, questa e-bike 2.0 risulta utile per spostarsi, senza fatica e senza sporcarsi, da un capo all’altro della città, ma anche per una galvanizzante pedalata “country”. Anche chi non è allenato, potrà così vivere la galvanizzante esperienza di “volare” su una biciclettacoprendo lunghi percorsi, anche in pendio, senza doverne pagare il prezzo in termini di acido lattico o dolori vari del giorno dopo.

Il concept innovativo, unico al mondo, che sta alla base dell’invenzione di Neox risiede nel cambio elettronico sequenziale rotativo, con sistema di cambio direttamente integrato nel motore di assistenza.

Un sistema innovativo, che evita i movimenti trasversali dei cambi tradizionali, garantendo una totale fluidità nel cambio di rapporti e nell’ausilio alla pedalata, che avviene in modo costante e continuativo, senza alcun effetto di “strappo” o di “spinta”. Tutto il sistema è costantemente monitorato da un sensore di sforzo con rilevazione di coppia tra gli ingranaggi primari e secondari.

Non ultimo, Neox monta un antifurto, attivabile con codice Pin, che agisce bloccando il sistema meccanico e mettendo l’e-bike in folle. L’ideale per bere un caffè o un aperitivo senza dover incatenare la bici, con la sicurezza che qualsiasi malintenzionato, in questo modo, si ritroverebbe a far ruotare le pedivelle “a vuoto”, non potendo trasmettere il moto.

La e-bike è garantita 5 anni e permette di beneficiare di assistenza semplicemente sganciando e spedendo il monobraccio contenete tutto il sistema elettro-meccanico di trasmissione.

Costi: Urban € 4.000 (Iva compresa) – Sporter € 4.500 (Iva compresa) – Crosser € 4.900 (Iva compresa)

Per informazioni su distribuzione, modelli e prezzi: www.myneox.itThis email address is being protected from spambots. You need JavaScript enabled to view it.

© 2022 FlipNews All Rights Reserved