A Dutiful Mind http://marco.fotino.it ...il blog di Marco Fotino Thu, 24 May 2018 14:14:28 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.7 https://i0.wp.com/marco.fotino.it/wp-content/uploads/2015/09/cropped-favicon.jpg?fit=32%2C32 A Dutiful Mind http://marco.fotino.it 32 32 71429004 Come affrontare un disastro informatico (e uscirne anche bene) http://marco.fotino.it/2017/02/affrontare-disastro-informatico/ http://marco.fotino.it/2017/02/affrontare-disastro-informatico/#respond Mon, 06 Feb 2017 18:00:23 +0000 http://marco.fotino.it/?p=423 HugOps

Nel tardo pomeriggio dello scorso 31 gennaio, il noto sito GitLab (servizio che ospita progetti software) ha iniziato ad avere dei problemi, tra cui rallentamenti nel servizio e blocchi del sito. Non è una cosa che avviene di rado su Internet, ed è di solito dovuta a qualche tipo di attacco informatico. Quando succede, i gestori del servizio intervengono prontamente per individuare le cause del problema e ripristinare la piena funzionalità del sito web, e ciò è avvenuto anche nel caso di GitLab. La causa era, in questo caso, l’accesso contemporaneo allo stesso progetto da parte di 47mila indirizzi IP (in pratica, qualcuno stava usando GitLab come una specie di CDN, sovraccaricando la banca dati del sito).

In tarda serata, però, la cosa ha preso una piega surreale quando il sito, poco dopo essere tornato online, ha subìto un nuovo blocco, stavolta per “manutenzione d’emergenza del database”.

In gergo tecnico, quello che stava succedendo era un Disaster Recovery, ovvero una procedura di recupero di un sistema o dei suoi dati in seguito a un evento imprevisto e distruttivo (nel senso di perdita di dati o funzionalità). Tutti i sistemi informatici oggi prevedono (o dovrebbero farlo…) un insieme di strumenti che permettano di affrontare qualunque imprevisto (dal guasto di un server all’intrusione informatica) e ripristinare il sistema in tempi ragionevoli e con perdite di dati nulle (o almeno minime). Tra questi strumenti ci sono il backup (la produzione periodica di una copia dei dati e delle configurazioni del sistema), la ridondanza (il salvataggio di tutti i dati su diversi database), la replica delle macchine di produzione (una copia dei server conservata su supporti diversi e geograficamente separati). A questo punto in molti sul web aspettavano l’attuazione di queste procedure e il ripristino di GitLab, ma i più curiosi e tecnici, vista la particolare sequenza di eventi (un sovraccarico, il ripristino e, poi, una “manutenzione d’emergenza”) si chiedevano cosa fosse successo. La risposta è arrivata poco più di un’ora dopo, sempre via Twitter:

“Abbiamo cancellato accidentalmente dei dati di produzione e potremmo doverli ripristinare da un backup”.

In queste poche parole è riassunto l’incubo di ogni sistemista informatico: non un disastro naturale, né un guasto, e nemmeno un attacco informatico. La cancellazione dei dati di produzione (quelli importanti) è stata accidentale, probabilmente causata da un errore umano. Il documento linkato spiegava meglio l’accaduto: nel tentativo di correggere i ripetuti errori di replica del database tra i due sistemi di produzione (“db1” e “db2”), il sistemista che ci stava lavorando (chiamato “YP” nel documento e “team-member-1” negli aggiornamenti successivi) ha cancellato i dati anzichè dal db2 (dove la replica non aveva funzionato e che quindi conteneva dati incompleti) dal db1 (cha a questo punto conteneva l’unica copia della banca dati del sistema). YP ci mette un paio di secondi ad accorgersi dell’errore e a interrompere il comando appena impartito, ma ormai la frittata è fatta: dei 310 GB di dati, ne rimangono solo 4,5!!!

A questo punto, di fronte al “disaster”, non resta che attuare le procedure di “recovery”: bisogna recuperare i dati cancellati da qualche parte. Ma qui il problema, anziché avviarsi a soluzione, non fa che peggiorare di minuto in minuto: su 5 modalità di salvataggio dei dati, nessuna sembra aver funzionato a dovere. In particolare:

  1. il salvataggio di una copia dell’intero server avviene ogni 24 ore (solo per un puro caso, YP aveva effettuato un salvataggio manuale 6 ore prima del disastro);
  2. i backup del database avvengono anch’essi ogni 24 ore, ma per un problema di programmazione non funzionavano;
  3. i backup su cloud Microsoft erano stati attivati solo su alcuni server (non su quello che ha subìto la perdita dei dati);
  4.  i backup su cloud Amazon non avevano funzionato (non c’era nessun dato);
  5. le procedure di replica dei dati, scritte a mano, avevano dato degli errori.

In aggiunta, non era stato previsto nessun meccanismo di avviso in caso di fallimento di una procedura di backup, e così nessuno si era potuto preoccupare del problema fino al momento del bisogno. In definitiva, l’unica strada rimasta era il ripristino dei dati vecchi di 6 ore (e la rassegnazione di aver preso tutto ciò che era successo in quelle 6 ore di funzionamento). E’ iniziata quindi una procedura di ripristino che ha portato il sito GitLab a tornare operativo dopo ore (il sito è tornato online nel tardo pomeriggio del giorno dopo).

La perdita per GitLab ammonta quindi a circa sei ore di attività sul sito (circa 5000 progetti, circa 5000 commenti, circa 700 utenti), ma la vicenda ha anche degli aspetti positivi: restano l’esperienza acquisita e tutte le contromisure che sono state prese per evitare che in futuro si verifichi un problema simile. Gran parte della comunità dei sistemisti informatici, inoltre, ha apprezzato la grande trasparenza con cui tutta l’operazione di recupero è stata gestita dai tecnici di GitLab, che hanno tra l’altro:

La comunità ha risposto in maniera solidale ed empatica alla situazione, riconoscendo che si è trattato di un caso emblematico di legge di Murphy (“se qualcosa può andar male, lo farà”). In particolare, alcuni utenti si sono preoccupati per la sorte lavorativa del povero sistemista che aveva causato il guaio (la società ha ripetutamente garantito che non sarà licenziato), altri hanno offerto il proprio aiuto e le proprie competenze per risolvere il problema. In breve, è nato su Twitter l’hashtag #HugOps, che gioca intorno alle parole “hug” (abbraccia) e “Ops” (il sistemista). In breve, quello che era iniziato come il peggiore dei disastri informatici possibili si è risolto con danni limitati per la società e la sua utenza, dimostrando che la trasparenza e la sincerità nell’affrontare i problemi spesso pagano.

]]>
http://marco.fotino.it/2017/02/affrontare-disastro-informatico/feed/ 0 423
Tecnologia che aiuta a rimettersi in forma http://marco.fotino.it/2016/05/tecnologia-che-aiuta-a-rimettersi-in-forma/ http://marco.fotino.it/2016/05/tecnologia-che-aiuta-a-rimettersi-in-forma/#respond Fri, 13 May 2016 16:00:27 +0000 http://marco.fotino.it/?p=391 mibandUn’altra estate si avvicina, e porta con sé l’ormai consueto terrore per la “prova costume”: i vestiti sempre più leggeri non ci aiuteranno più a coprire quei chiletti di troppo che abbiamo accumulato negli ultimi mesi… Non si tratta ovviamente solo di un problema estetico: chi come me ha superato i “trenta” sa benissimo che il benessere che solo pochi anni fa davamo per scontato (in termini di fiato, agilità, resistenza) diventa col tempo una conquista difficile da raggiungere e ancor più ardua da mantenere. Da questo punto di vista, ho osservato come le persone si dividano in due gruppi molto differenti: da una parte ci sono quelli che fanno del fitness una religione, frequentando palestre con assiduità, iniziando attività semi-professionistiche di cross-fit, body-building, running e così via, dall’altra parte invece si trovano quelli che fanno una fatica immane ad abbozzare qualsivoglia attività fisica, incollati alla scrivania o al sedile dell’automobile dai propri impegni di lavoro e non. Pur provando enorme invidia per gli appartenenti al primo gruppo, io (così come molti miei coetanei) appartengo sicuramente al secondo. Certo, non a quella parte che ha già gettato la spugna, ma resta il fatto che per me iniziare (e soprattutto mantenere nel tempo) un’attività fisica resta una sfida non da poco. Per aiutarmi a vincerla, quindi, meglio ricorrere a tutti i mezzi (leciti!) a disposizione, come l’incoraggiamento da parte di amici più disciplinati di me (ai quali mi aggrego per fare un po’ di sport in compagnia) e, perchè no, sfruttando tutti i mezzi che la moderna tecnologia mette a disposizione per agevolare il compito (dopo tutto, sono sempre un nerd!). In questo post, in particolare, voglio parlarvi di due espedienti che possono aiutare quelli come me a condurre una vita un po’ più sana e regolare e a fare un po’ di attività fisica in più: una funzionalità di Google Calendar recentemente introdotta e un “activity tracker” molto economico.

Iniziando dal calendario di Google (disponibile sia sul web che come app per smartphone), di recente esso ha aggiunto una funzionalità chiamata “Obiettivi”. Fissare un obiettivo nel proprio calendario permette di impostare un’attività meno vincolante rispetto agli impegni di lavoro o agli appuntamenti, ma che si intende mantenere con una certa frequenza. Si può, ad esempio, impostare l’obiettivo di andare a correre una volta a settimana, preferibilmente il lunedì alle 19 (dopo il lavoro). Google fisserà questo appuntamento per le settimane a venire, in modo flessibile e compatibile con gli altri appuntamenti o eventi impostati: per esempio, se lunedì prossimo ho un appuntamento di lavoro che finisce alle 19:30, la corsa verrà automaticamente spostata (per esempio al giorno seguente). All’avvicinarsi del momento fissato, poi, il calendario mi ricorderà di andare a correre, chiedendomi poi se l’ho fatto o se intendo rimandare a un altro giorno. Utilizzando tecniche di machine learning, l’applicazione dovrebbe poi col tempo imparare dalle mie abitudini e fissare la corsa nel momento della settimana in cui sono più disponibile (o disposto) a realizzare il mio obiettivo (non ho ancora sperimentato a sufficienza l’algoritmo per testimoniare se funzioni bene o meno…).

Per tracciare l’andamento dell’attività fisica e i progressi nel tempo, esistono poi numerose applicazioni per smartphone adatte allo scopo: la più celebre è sicuramente Runtastic, che permette di registrare un allenamento tracciando (tramite il localizzatore GPS del telefono) il percorso, la velocità, le variazioni di altitudine. Ci sono poi molte altre app dedicate al fitness, ciascuna con le sue peculiarità, come Fit di Google (che si focalizza sul tracciamento nel tempo dell’attività e del peso, per monitorare i progressi) e S Health di Samsung (che sfrutta i vari sensori presenti negli smartphone oltre al GPS, come l’accelerometro e il misuratore del battito cardiaco). Tutte queste applicazioni hanno in comune il fatto di tenere traccia di tutto quanto l’utente registra manualmente, senza la possibilità di rilevare automaticamente le attività svolte. Da questo punto la tecnologia è venuta incontro ai più pigri sviluppando dei dispositivi ulteriori (i cosiddetti “indossabili” o “wearable) capaci di rilevare in autonomia alcune attività fisiche.

L’activity tracker di cui vi parlo rientra proprio in questa categoria: si chiama Xiaomi MiBand, ha l’aspetto di un semplice braccialetto di gomma, ma è in realtà un accelerometro dotato di trasmettitore bluetooth low-energy, di vibrazione e di tre led luminosi (alcuni modelli sono dotati anche di misuratore del battito cardiaco, ma pare che non sia particolarmente preciso). Acquistandolo (si trova facilmente su Amazon per meno di 20 euro) e scaricando la relativa applicazione, si potrà quindi indossare un dispositivo che, senza il bisogno di alcun intervento da parte dell’utente, inizierà a registrare il numero di passi che facciamo durante la giornata e il numero di ore di riposo notturne (compresa una distinzione tra sonno leggero e sonno pesante, basata sui movimenti effettuati). La vibrazione si attiverà ogni volta che raggiungiamo il numero di passi giornalieri prefissato come obiettivo, e può essere configurata per attivarsi alla ricezione di una chiamata, mail o messaggio. E’ inoltre disponibile una funzione di sveglia che, fissata ad esempio alle 7:30 del mattino, si attiva mezz’ora prima (quindi alle 7:00) per iniziare a vibrare non appena entriamo in una fase di sonno leggero: in questo modo, si migliora la qualità del proprio sonno (non interrompendolo quando è più pesante), si recupera qualche minuto al mattino (sempre utile per i ritardatari) e si può impostare una sveglia che vibra senza suonare (evitando così di svegliare eventuali coinquilini). Che dire, con una tale quantità di funzioni a un costo così esiguo, da oggi i pigri non avranno più scuse: ed ora, corriamo tutti a rimetterci in forma per l’estate!

]]>
http://marco.fotino.it/2016/05/tecnologia-che-aiuta-a-rimettersi-in-forma/feed/ 0 391
Punto Zero http://marco.fotino.it/2016/01/punto-zero/ http://marco.fotino.it/2016/01/punto-zero/#respond Fri, 15 Jan 2016 14:30:44 +0000 http://marco.fotino.it/?p=376 website_2_0Per anni abbiamo sentito parlare del “Web 2.0”, di “Tecnologie 2.0” e simili, senza sapere mai davvero di cosa si stesse parlando. Non ci hanno nemmeno dato il tempo di comprendere bene cosa fosse “Duepuntozero” e cosa no, ed ecco che i media cominciano a utilizzare l’espressione “Web 3.0”. Ci siamo persi un passaggio? Siamo destinati a rimanere dei trogloditi informatici mentre un’orda di nativi digitali prende il possesso della nostra società? O siamo vittima di una (l’ennesima) supercazzola degli addetti al marketing? Per capirlo, proviamo innanzitutto a ricostruire l’origine e il significato dell’espressione “2.0”.

Innanzitutto, non si tratta di un numero solo ma due, separati da un punto che non rappresenta i decimali (in Italia si usa la virgola per questo scopo, mentre negli USA il separatore dei decimali è proprio il punto). Essa è, invece, una notazione convenzionale utilizzata nella distribuzione di prodotti informatici (software), che è nata molti anni fa per indicare univocamente l’evoluzione e la compatibilità delle diverse versioni dello stesso programma. In pratica, un programma informatico viene distribuito in una certa versione, indicata da almeno due (ma anche tre o quattro) numeri (ad esempio, il mio browser è attualmente Google Chrome, versione 47.0.2526.111).

versioningI primi due numeri sono i più importanti e si chiamano rispettivamente “major” e “minor”, gli altri due indicano generalmente cicli e fasi di produzione di quel programma, a seconda del metodo di sviluppo utilizzato (build, maintainance, revision, …). La convenzione prevede che quando si crea un nuovo software si parta dalla versione 0.1 e si proceda creando le versioni successive (0.2, 0.3, eccetera) finché il software non è pronto per la distribuzione ufficiale: quest’ultima dovrebbe sempre coincidere con la versione 1.0 (“uno punto zero”). Il ciclo di vita del programma, lungi dall’essere finito, prosegue poi con i rilasci successivi, che aggiungono funzionalità, correggono bug, sistemano problemi di sicurezza e si chiamano “versione 1.1”, “1.2”, “1.3”, e così via. A un certo punto, quando le modifiche trasformano il programma in qualcosa di significativamente diverso dal programma originale (interfaccia grafica innovativa, numero di funzioni considerevolmente aumentato, utilizzo di nuove tecnologie e formati) gli sviluppatori fanno il “salto” e distribuiscono la versione 2.0 (“due punto zero”).

Nel modo in cui lo utilizziamo, quindi, la locuzione “Due punto zero” significa “una evoluzione, in un campo specifico, abbastanza importante da far sì che quel campo non sia più lo stesso di prima”. L’espressione nacque intorno al 2004, quando Tim O’Reilly tenne una conferenza dal titolo “Il Web 2.0” per evidenziare che internet stava prendendo una piega diversa rispetto a quello che si era sviluppato negli anni Novanta, grazie all’introduzione di nuove tecnologie, nuovi strumenti e nuovi modi di usare la rete da parte degli utenti. Nonostante non esistesse (e non esista ancora) una definizione chiara di quali siano gli elementi che rendono il web “2.0”, i media ripresero estesamente la dicitura e ne assicurarono la diffusione e il successo, tanto che negli ultimi anni abbiamo assistito a un numero smisurato di campi in cui ogni novità veniva chiamata il 2.0 di quel campo: la politica 2.0, la scuola 2.0, i giornali 2.0, eccetera. Ciò che accomuna tutti questi campi (compreso il web) è il desiderio diffuso di una svolta innovativa, il bisogno di attrarre consensi o investimenti tramite tecniche di marketing e soprattutto la vaghezza nel descrivere cosa si intenda con “due punto zero”: solo così, infatti, si può evitare di entrare nei dettagli di ciò che si vuole migliorare (col rischio di escludere qualcosa che interessi ai nostri interlocutori), e si lascia aperta la possibilità di includere nella nuova versione tutto ciò che fa comodo (nel caso più estremo, nulla, se ad esempio si vuole vendere un prodotto già esistente come se fosse nuovo).

Negli ultimi tempi, poi, con l’uso dell’iperbole che tanto è caro al mondo della pubblicità, si sta iniziando a introdurre il concetto di Web (o altro) 3.0. Senza entrare nei dettagli di cosa ciò comporti (visto che non ho ancora chiaro cosa sia incluso e cosa no nel Web 2.0) mi limito a osservare che il messaggio che si vuole dare in questo caso è “le innovazioni già introdotte dal 2.0 e il termine stesso hanno stancato e iniziano a non vendere più, pertanto è pronta un’altra svolta che rivoluzionerà nuovamente il campo”. Gli americani, che sono notoriamente molto avanti rispetto a questi temi, parlano da anni della mania per “La Prossima Grande Invenzione” (in inglese “The Next Big Thing”). Sebbene condivida in pieno l’entusiasmo per l’innovazione e la tecnologia, personalmente preferisco dedicare le mie attenzioni allo stato dell’arte delle tecnologie che uso, sapendo bene che le grandi svolte non avvengono dall’oggi al domani ma si coltivano nel tempo e che le tecnologie che ci cambieranno la vita tra 10 anni sono già state inventate e hanno solo bisogno di perfezionamento, diffusione e investimenti (per raccogliere i quali l’espressione “Due Punto Zero” è, per fortuna, perfetta).

]]>
http://marco.fotino.it/2016/01/punto-zero/feed/ 0 376
Google Inbox: organizzare la propria vita tramite le email http://marco.fotino.it/2015/11/google-inbox-organizzare-vita-tramite-email/ http://marco.fotino.it/2015/11/google-inbox-organizzare-vita-tramite-email/#respond Fri, 06 Nov 2015 16:07:19 +0000 http://marco.fotino.it/?p=358 Logo Google InboxIl tempo è denaro, si sa… e se c’è una cosa che il denaro non può comprare, è proprio il tempo: ai ricchi così come ai poveri, ogni giorno vengono donate esattamente 24 ore. Se consideriamo, poi, che un terzo di questo tempo lo passiamo a dormire, si capisce subito come sia facile trovarsi spesso a corto di tempo per fare tutto ciò che vorremmo (o dovremmo), e facciamo spesso la fine del famoso Bianconiglio di Alice nel paese delle meraviglie, correndo disperati al grido di “E’ tardi! E’ tardi!”. C’è una soluzione? Escludendo ipotesi fantascientifiche (viaggi nel tempo) e una revisione al ribasso dei propri desideri (secondo la teoria della decrescita serena), una sola: l’organizzazione del proprio tempo.

Matrice Eisenhower

(clicca per ingrandire)

Esistono numerose teorie mirate a massimizzare l’utilizzo di una risorsa limitata come il tempo, nate per lo più in ambito lavorativo per scopi di project management ma facilmente adottabili alla vita di tutti i giorni. Un esempio è il “metodo Eisenhower”, o “matrice di Covey”, che consiste nel suddividere le cose da fare in quattro insiemi a seconda della loro urgenza (devo farlo?) e della loro importanza (mi serve farlo?), in modo da distinguere chiaramente cosa affrontare immediatamente, cosa programmare per il futuro, cosa delegare ad altri e infine cosa evitare di fare! Questo metodo è molto utile per chi tende ad accumulare sempre più impegni di quanti non possa realmente gestire.

Tecnica del PomodoroPer chi invece non riesce mai a portare a termine un compito a causa delle distrazioni (social network, sto parlando con voi…) può venire in aiuto la Tecnica del pomodoro (o “pomodoro technique”), dove per “pomodoro” si intende quel timer a forma di frutto o verdura che si trova in molte delle nostre cucine. La tecnica consiste nel suddividere le cose da fare in attività da portare a termine in 25 minuti, per poi prendersi 5 minuti di riposo prima di passare alla prossima attività. Ogni quattro “pomodori” completati, bisogna concedersi una pausa più lunga (20/30 minuti). I vantaggi sono diversi: innanzitutto si impara a gestire il proprio tempo in maniera regolare, alternando correttamente il lavoro privo di distrazioni e lo svago, e inoltre ci si abitua a suddividere i compiti complessi in attività più semplici da portare a termine (secondo il principio del divide et impera).

Come avete visto, ogni metodo di ottimizzazione del tempo si avvale di appositi strumenti (il timer per la tecnica del pomodoro, un grafico per il metodo Eisenhower). Tra gli strumenti che ci aiutano a gestire il tempo ci sono poi le liste di cose da fare (ToDo list), le agende, i calendari, i post-it, e così via. Uno strumento a cui non penseremmo immediatamente, invece, è la posta elettronica: eppure, oramai, gran parte delle cose che dobbiamo fare passa da lì (appuntamenti, riunioni, viaggi). La cosa non è passata inosservata agli ingegneri di Google, che dopo aver rivoluzionato il concetto di email con GMail (messaggi raggruppati in conversazioni, posta nel cloud, archiviare le mail anzichè eliminarle) hanno introdotto una seconda rivoluzione con Google Inbox, che si propone di trasformare la casella di posta elettronica in un vero e proprio assistente personale.

Per farlo, Inbox prova innanzitutto a classificare le mail al loro arrivo, distinguendole in cartelle predefinite (Viaggi, per tutte le prenotazioni di treni, voli, hotel, ecc.; Acquisti, per l’e-commerce, Finanza, per fatture, bollette, estratti conto, ecc., Social, per le notifiche dai social network, ed altro ancora). Come vedete, si tratta per lo più di mail automatiche (non scritte appositamente, ma generate su schemi predefiniti) e quindi facili da classificare (perchè hanno sempre la stessa forma, cambiano solo i dati specifici). Inbox cerca anche di “capire” il contenuto delle singole mail e di agire di conseguenza: ad esempio, se mi arriva la conferma di prenotazione di un albergo a Roma dal 3 al 5 giugno, nel mio calendario verrà creato l’evento del mio soggiorno in quell’albergo per quelle date. Ma l’evoluzione più grande sta nella gestione delle singole email all’arrivo: per ciascuna conversazione, infatti, Inbox propone tre azioni all’utente (oltre alle classiche “Rispondi” e “Inoltra”):

  • Segna come importante: per evidenziare che quella mail contiene una cosa da fare nell’immediato o al più presto possibile (rispondere, pagare una bolletta in scadenza, confermare una prenotazione, scrivere un documento);
  • Posticipa: per dire a Inbox di nascondere momentaneamente quella mail (la cui azione richiesta non può essere completata adesso) e di riproporla al momento opportuno (più tardi, quando sarò a casa o in ufficio, il giorno prima di un viaggio, mezz’ora prima di una riunione, e così via);
  • Segna come completato: per indicare che tutte le azioni legate a quel messaggio sono state effettuate e quindi può essere archiviato.

In questo modo, aprendo la casella di posta elettronica, ci imbatteremo in tutte quelle cose che dobbiamo fare adesso, senza la distrazione di cose che non possiamo ancora fare o sono già state fatte. L’obiettivo di chi usa la mail come gestore del tempo è lo “zero inbox”, ovvero la casella vuota perchè tutto ciò che c’era da fare è stato fatto. A questo punto, non resta che godersi un momento di pausa, svago, relax e meritato riposo.. oppure, se proprio non si riesce a stare con le mani in mano, andare a sbirciare se tra le mail posticipate ci sia qualcosa che si può già fare!

]]>
http://marco.fotino.it/2015/11/google-inbox-organizzare-vita-tramite-email/feed/ 0 358
M.C. Escher, l’inventore del selfie http://marco.fotino.it/2015/04/escher-inventore-selfie/ http://marco.fotino.it/2015/04/escher-inventore-selfie/#respond Fri, 10 Apr 2015 11:30:47 +0000 http://marco.fotino.it/?p=329 Hand-with-Reflecting-Sphere-1935Guardate l’immagine qui accanto, e ditemi se la prima parola che vi viene in mente non è “selfie”. La differenza con quelli che fate quotidianamente con i vostri smartphone è che questa è stata realizzata a mano, utilizzando una sfera riflettente, nel 1935. L’autore, Maurits Cornelis Escher (si pronuncia “èscer”, so che ve lo stavate chiedendo), ha utilizzato questo espediente per ritrarre su una superficie a due dimensioni uno spazio tridimensionale: ma non gli bastava, come succedeva dall’invenzione della prospettiva in poi, rappresentare la profondità su un piano, lui voleva andare oltre e mostrare, oltre a quello che aveva davanti agli occhi, anche ciò che si trovava dietro di sè (compreso se stesso). La riflessione deformante della sfera diventa quindi un espediente per includere nel soggetto dell’opera tutto l’ambiente circostante: le quattro pareti, il soffito, il pavimento e tutto ciò che si trova nella stanza. Un po’ come si fa nella realtà virtuale (quella di Google Street View o delle foto a 360°, o Photosphere), ma senza l’aiuto della tecnologia.

In questi giorni, e fino al 19 luglio 2015, potete vedere le opere di Escher a Bologna, nelle sale di palazzo Albergati in via Saragozza, dove è stata allestita la mostra che ha già riscosso un grande successo a Reggio Emilia e a Roma negli scorsi mesi. All’artista olandese è dedicato un intero museo all’Aia, e gran parte della sua produzione è consultabile online sul sito della fondazione a lui intitolata. Il successo di Escher, che nacque nel 1898 a Leeuwarden (la stessa città di nascita di Mata Hari), è praticamente unanime tra i matematici e gli amanti della grafica e delle illusioni ottiche, visto che le sue opere rappresentano una vera e propria enciclopedia di teorie matematiche, fisiche, ottiche portate agli estremi dell’irreale e del subconscio, capaci di farci dubitare di ciò che vediamo e di farci vedere ciò che non esiste.

Escher-Drawing-Hands-1948Sfogliando tra la sua vastissima opera, ci si imbatte in strisce di Moebius (anelli in cui la superficie interna ed esterna coincidono), riempimenti (o “piastrellature“) di superfici infinite con figure complementari o di superfici finite con figure che si riducono all’infinito (come i frattali), trasformazioni di forme e disegni senza soluzione di continuità (le “metamorfosi“), scale infinitecostruzioni impossibili e illusioni ottiche in cui l’alto si confonde con il basso, il vuoto con il pieno e il davanti con il dietro.

pentedattilo-escherUn’ultima particolarità di questo artista era il suo amore per l’Italia: nello spirito dei “Grand tour”, Escher si spinse fino al profondo sud dell’Italia tra il 1922 e il 1935 (per poi lasciare il Paese, anche a causa del clima dittatoriale che si stava instaurando in quegli anni). Di questi viaggi rimangono alcune meravigliose stampe, che ritraggono i paesaggi unici e sorprendenti che lo colpivano: San Gimignano, Scanno, Castrovalva, Tropea, Atrani, Monreale, Roma. Ma uno dei paesi che lo colpì maggiormente fu Pentedattilo, proprio sulla punta meridionale della Calabria. Questo paese prende il nome dalla singolare forma della montagna accanto alla quale sorge, che presenta cinque sottili spuntoni che sembrano formare le dita di una mano (penta daktylos, infatti, significa “cinque dita” in greco). Gravemente danneggiato dal terremoto del 1783, il paese di Pentedattilo si spopolò gradualmente fino a diventare, già all’inizio dell’Ottocento, un vero e proprio “paese fantasma”, il che contribuiva a fornirgli quel fascino misterioso che ha colpito anche Escher.

]]>
http://marco.fotino.it/2015/04/escher-inventore-selfie/feed/ 0 329
SMAU: piccolo dizionario del futuro tecnologico http://marco.fotino.it/2014/11/smau-futuro-tecnologico/ http://marco.fotino.it/2014/11/smau-futuro-tecnologico/#respond Fri, 14 Nov 2014 14:10:43 +0000 http://marco.fotino.it/?p=310 smau_1Anche quest’anno sono stato allo SMAU di Milano, la più importante fiera italiana sull’ICT (Information and Communication Technology), che si tiene ogni anno alla fine di ottobre. Nato nel 1964 come Salone delle Macchine e Attrezzature per Ufficio, questo evento permette alle imprese, agli enti pubblici e agli addetti ai lavori di conoscere lo stato dell’arte delle tecnologie presenti sul mercato, le loro applicazioni e le opportunità per il loro sviluppo. Con grande orgoglio personale, ogni anno vi trovo rappresentata molta Calabria, specialmente da giovani della mia età che presentano idee imprenditoriali innovative e originali, a dimostrazione che in un territorio senza un tessuto imprenditoriale robusto né abbondanza di risorse e infrastrutture, l’informatica e la creatività possono rappresentare l’accoppiata vincente per rilanciare l’economia. Non a caso, da quest’anno, tra le tappe dello SMAU Roadshow (che porta l’evento anche in varie città italiane) c’è anche Lamezia Terme.

Andando in giro per i due piani di padiglioni espositivi della FieraMilanoCity, si possono incontrare le principali aziende internazionali che presentano i propri prodotti e servizi, le piccole startup che cercano di farsi spazio nel mercato sfruttando idee, agilità e competenze alla ricerca dello sponsor giusto, enti pubblici che illustrano le proprie esperienze innovative e gli strumenti messi a disposizione per favorirne la nascita, innovatori che mostrano strumenti apparentemente fantascientifici (ma che un domani potrebbero essere nelle case di tutti). Descritto così sembra un covo per nerd, lo so. Anche la parola “nerd”, a dirla tutta, la usano solo loro. Ma la diffusione capillare di queste tecnologie, sopratutto negli ultimi anni (grazie agli smartphone e alle reti mobili), impedisce ormai a chiunque di ignorarle, anche ai più accesi sostenitori del “si stava meglio senza tutti questi aggeggi” (e che magari lo scrivono su Facebook col proprio iPhone).

Per fare un po’ d’ordine nel mare magnum di quello che ho visto quest’anno, ho deciso di pubblicare un piccolo dizionario che illustri i concetti principali di questo mondo, rigorosamente in ordine alfabetico, a beneficio anche di quelli che sentono o leggono questi termini e si trovano costretti a sfoggiare l’espressione di circostanza per fingere di aver compreso tutto. Magari, da domani, potrete smascherare qualcuno che ne sa quanto voi e usa quei termini a mo’ di “supercazzola“!

app: abbreviazione di “applicazione”, è un programma che si installa sul vostro smartphone/tablet; a differenza di un sito web, una app tende a fare meno cose (ha meno funzioni, quindi è facile da utilizzare), a memorizzare i dati dell’utente (evitando così di chiedere username e password a ogni accesso) e a utilizzare meno la rete (i dati scaricati durante l’utilizzo sono ridotti all’osso e il programma è visibilmente più “veloce”); sempre a differenza dei siti web, una app deve essere  sviluppata più volte, una per ogni sistema di destinazione (iOS, per i dispositivi Apple, WindowsPhone, per i Nokia, e Android, per quasi tutti gli altri produttori).

beacon: è un oggettino che, grazie al bluetooth, riesce a far orientare gli smartphone anche all’interno degli edifici (ottenendo una precisione maggiore al GPS laddove i satelliti sono molto meno efficaci); posizionandoli nelle stanza di un museo, ad esempio, si permette a una app di sapere in che stanza ci troviamo (e mostrarci quindi solo le opere che abbiamo di fronte), oppure permettono di usare il navigatore per trovare un particolare negozio all’interno di un grande centro commerciale.

big data: moli enormi di dati che vengono generati dalla nostra attività in rete (post sui social network, navigazione in rete, acquisti online), anche involontariamente (probabilmente in questo momento il vostro telefonino sta registrando la vostra posizione geografica, l’orientamento nello spazio e i movimenti e rotazioni effettuati, per metterli a disposizione delle app che avete installato); l’analisi e l’incrocio di tutti questi dati con particolari tecniche permette di estrapolare comportamenti, abitudini, gusti, preferenze e persino a predire le azioni future degli utenti (tutte informazioni che fanno gola a chi si occupa di marketing).

cloud computing: il vostro telefonino è molto potente (sicuramente ha un processore migliore della navicella che nel 1969 portò l’uomo sulla luna), ma non potrebbe fare tutto quello che fa se non si connettesse in rete con un numero inimmaginabile di server sparsi per il mondo; questi server permettono a tutti quelli collegati di disporre di una quantità di risorse (memoria, capacità di calcolo, dati) enorme, flessibile (poichè condivisa da tanti, una stessa risorsa può essere utilizzata da diversi utenti in momenti diversi) e trasparente (nel senso che l’utente non ha bisogno di sapere dove si trovino realmente le risorse che usa, nè come funzionino – purchè funzionino -, proprio come se fossero avvolte da una nuvola – il cloud, appunto).

domotica: con l’Internet delle Cose (o IoT, vedere voce apposita) potremo interagire con ogni oggetto della nostra casa anche a distanza (non solo con un telecomando, ma anche con lo smartphone): potremo, quindi, chiudere le finestre con una app, programmare il termostato con il computer o addirittura accendere i riscaldamenti già un’ora prima di arrivare a casa, per trovarla già calda d’inverno limitando al massimo i consumi.

e-commerce: il commercio elettronico è ormai una realtà diffusa, che permette ai venditori di ampliare il proprio mercato con costi contenuti e ai compratori di ampliare la propria scelta e la possibilità di trovare il prezzo migliore di ogni prodotto; i limiti dovuti alle difficoltà nel trasporto della merce e alla sicurezza dei pagamenti elettronici diminuiscono di giorno in giorno, e la vendita online si affianca ormai naturalmente a quella in negozio: ci si trova spesso a cercare un prodotto online per andare a comprarlo in negozio, così come succede di andare a valutare un prodotto dal vivo in negozio per poi acquistarlo online al miglior prezzo. (BONUS: sull’argomento sono anche stato intervistato da Aruba a margine di una loro presentazione)

fatturazione elettronica: ecco un esempio di come la Pubblica Amministrazione possa aprire nuovi mercati e favorire l’innovazione nel settore privato: l’introduzione dell’obbligo di fatturazione elettronica (dall’anno prossimo), già annunciato da diversi anni (io stesso me ne occupavo come progettista software già nel 2007), ha portato molte aziende a creare soluzioni in merito, che spesso includono anche programmi di gestione dei flussi documentali e conservazione digitale sostitutiva di documenti; oltre all’ovvio vantaggio per i produttori di questi programmi, molte imprese si troveranno a fare questo investimento per ricevere pagamenti da un ente pubblico e ad avere, di conseguenza i vantaggi di una gestione informatica e organizzata dei documenti aziendali.

IoT (Internet of Things): l’automazione degli oggetti presenti nelle nostre case non serve solo a inviare loro comandi via internet; dotandoli dei sensori giusti e collegandoli alla rete, gli oggetti possono inviare dei dati (che si aggiungeranno ai big data, vedere voce) e interagire direttamente coi proprietari: il frigo potrebbe avvisarci sui prodotti in scadenza o mancanti quando siamo al supermercato, le piante potrebbero comunicarci con un SMS la necessità di essere annaffiate e la caldaia potrebbe chiamare direttamente il tecnico in caso di guasto, descrivendogli la situazione meglio di come sapremmo fare noi.

mobile (leggasi “mobàil”): la diffusione degli smartphone (ormai superiore a quella dei computer) e le loro caratteristiche (non solo calcolatori potenti, ma anche portatili e dotati di un numero sempre maggiore di sensori) ne fanno senza dubbio l’ambito più fertile per lo sviluppo di applicazioni (vedere la voce app); per questo oggi non c’è produttore o utente che non sia interessato alla versione mobile del proprio business: la crescita esponenziale di questo mercato in questi anni ne fa un vero e proprio eldorado per gli sviluppatori (richiestissimi pur in questo momento congiunturalmente pessimo dal punto di vista economico).

NFC (Near Field Communication): si tratta della comunicazione di prossimità, probabilmente già attivabile sul vostro smartphone, che fa sì che la connessione si attivi solo quando trasmettitore e ricevitore si trovano a pochi millimetri di distanza; è così, ad esempio, che funzionano i lettori di tessere per accedere alla metropolitana di Milano (che sono degli RFID, vedere voce), ed è su questa tecnologia che si stanno sviluppando i nuovi metodi di pagamento elettronico (con cui, alla cassa, anziché strisciare o inserire il bancomat, appoggerete il telefonino e digiterete sullo schermo il vostro PIN).

realtà virtuale (VR, Virtual Reality): si tratta di un ambito molto avveniristico (ancora da fantascienza, nell’immaginario collettivo) ma per il quale si è probabilmente prossimi a un punto di svolta: i dispositivi che permettono di immergerci in una realtà digitale, che fino a poco tempo fa costavano decine di migliaia di euro, sono ormai disponibili al costo di uno smartphone (di fascia alta, però!); anzi, se avete già un buon telefono e la passione per il fai da te, potreste avere un paio di occhiali per la realtà virtuale a meno di 20 euro, seguendo le indicazioni del progetto Google Cardboard! Le applicazioni vanno dalle visite turistiche virtuali alla presentazione di progetti architettonici (non tutti sanno che la app del catalogo IKEA è già in realtà virtuale).

RFID (Radio Frequency IDentification): è una tecnologia che, accoppiata agli NFC (vedere voce) permette di interagire con gli oggetti semplicemente applicandovi un adesivo; questo adesivo, che non ha bisogno di alimentazione elettrica, permette a un dispositivo NFC di “riconoscere” l’oggetto che ha davanti e agire di conseguenza. E’ così che potremo usare il telefonino come registratore di cassa (applicando l’RFID ai prodotti), o avviare il navigatore appena saliamo in macchina (applicando l’RFID al portacellulare), o aprire la porta di casa senza chiavi (applicando l’RFID alla maniglia).

startup: ultima in ordine alfabetico ma non certo per importanza, la startup è da qualche anno la protagonista assoluta dello SMAU; questa forma di impresa, in cui giovani creativi di talento e con delle idee valide vengono aiutati (con finanziamenti ma anche con aiuti pratici su tutti gli aspetti dell’imprenditoria) a creare la propria azienda è probabilmente il regalo più grande che il mercato dell’innovazione possa fare all’economia italiana. Attenzione però, a non cadere nell’inganno di credere che startup sia sinonimo di successo: sebbene l’entusiasmo e le idee degli startupper possano dare una marcia in più alla loro attività, non sempre riescono a decollare nel mercato una volta finito il cosiddetto periodo di incubazione. Se però si guarda oltre all’aspetto puramente economico e si valuta il risultato formativo e di sistema di questi incubatori, si vede subito qual è il vantaggio: le grandi aziende hanno accesso a nuove idee e a nuove risorse umane da formare, mentre i ragazzi hanno un’opportunità reale di sviluppare le proprie idee e mettere a frutto le proprie conoscenze e passioni. Alla fine, comunque vada, scopriranno che l’idea è sì il punto di partenza indispensabile per mettersi in gioco, ma da lì fino al successo manca ancora il 99% dell’opera.

]]>
http://marco.fotino.it/2014/11/smau-futuro-tecnologico/feed/ 0 310
Il Codice Da Vinci, quello vero, in 3D http://marco.fotino.it/2014/10/codice-da-vinci-3d/ http://marco.fotino.it/2014/10/codice-da-vinci-3d/#respond Thu, 16 Oct 2014 16:00:37 +0000 http://marco.fotino.it/?p=232 Leonardo Da VinciQuesto non è un post letterario o cinematografico: nonostante il titolo sembri richiamare il grande successo letterario di Dan Brown (o la successiva trasposizione cinematografica di Ron Howard), l’argomento di oggi è il vero codice di Leonardo Da Vinci, il cosiddetto “Codice Atlantico”, che si trova più vicino di quanto molti di voi pensino (anzi, scommetto che ci siete passati diverse volte a pochi metri senza saperlo). Lo spunto mi è venuto dalla visita di una bellissima mostra, intitolata “Il mondo di Leonardo”, in piazza della Scala a Milano. La mostra (visitabile fino al 31 ottobre 2014) fa parte di una delle tante esibizioni portate in giro per il mondo per far conoscere il più grande genio italiano di tutti i tempi, e utilizza diverse tecniche interattive (modelli in scala, ricostruzioni in 3D, presentazioni, filmati) per illustrare gli oggetti disegnati da Leonardo durante la sua vita (dalle macchine volanti agli strumenti musicali, dalle opere di ingegneria civile alle macchine da guerra). Così, di fronte agli occhi del visitatore, si materializza un mondo fatto di animali meccanici, ponti mobili, clavicembali portatili, gru, pompe idrauliche, bombarde, sommergibili, eliche volanti, paracadute, e tanto altro ancora.

AtlanteMa che cos’è, e soprattutto dov’è, questo Codice Atlantico? E’ uno dei manoscritti scientifici (“codici”) lasciati da Leonardo: circa 4mila fogli in cui annotava tutte le sue idee (studi geometrici, anatomici e artistici, invenzioni, macchine, modelli…) sotto forma di disegni dettagliatissimi e di testo scritto al contrario (da destra verso sinistra, in modo da poter essere letto con uno specchio). Circa un quarto, 1.119 per la precisione, di questi fogli è raccolto nel Codice Atlantico, così chiamato per le grandi dimensioni delle sue pagine (64,5 x 43,5 cm, all’incirca come odierni fogli A2), che ricordano quelle degli atlanti. Atlante, inteso come raccolta di mappe cartografiche, è una delle tante parole che derivano dal mito greco di Atlante, un gigante che venne condannato da Zeus a sorreggere il mondo sulle sue spalle: per questo un volume che contiene le mappe del mondo è chiamato atlante, la vertebra che sostiene il cranio si chiama atlante, l’oceano che si trova oltre le colonne d’Ercole (dove un antico greco si sarebbe aspettato di imbattersi nel gigante) è detto oceano atlantico, l’isola leggendaria che doveva trovarsi in quell’oceano veniva chiamata Atlantide, la catena montuosa dell’Africa le cui cime sembrano toccare il cielo è denominata Atlante. L’elenco potrebbe continuare, ma sto divagando…

Torniamo a Leonardo: per vedere tutte le sue opere bisognerebbe girare il mondo intero, visto che si spostò moltissimo tra le corti italiane ed europee del Rinascimento (visse a Firenze, Milano, Roma, Venezia e anche alla corte di Isabella d’Este a Mantova). Il Codice Atlantico, ad esempio, si trova a due passi dal Duomo di Milano, nella Biblioteca Ambrosiana, che ne ha anche messo una buona parte consultabile online. Attualmente, alcuni fogli del codice sono esposti anche nella sacrestia del Bramante di Santa Maria delle Grazie (sempre in centro a Milano), dove si può visitare, inoltre, una delle opere più celebri di Leonardo: l’affresco dell’Ultima Cena. La particolarità di quest’opera, oltre alla splendida composizione di una delle scene più intense e drammatiche dei Vangeli, è che fu dipinta con una tecnica completamente innovativa, che permetteva una resa molto brillante dei colori ma che mostrò sin da subito un problema: l’umidità faceva scomparire l’affresco con una velocità impressionante. Nei secoli, innumerevoli tentativi di restauro hanno cercato di salvaguardare il capolavoro, spesso ridipingendone intere parti, e l’ultimo (durato oltre 20 anni) ha cercato di cancellare tutte le aggiunte per restituire al cenacolo il suo aspetto originario.

]]>
http://marco.fotino.it/2014/10/codice-da-vinci-3d/feed/ 0 232
L’adozione dell’IPv6 e il “riscaldamento globale” di Internet http://marco.fotino.it/2014/09/adozione-ipv6-riscaldamento-globale-di-internet/ http://marco.fotino.it/2014/09/adozione-ipv6-riscaldamento-globale-di-internet/#respond Tue, 30 Sep 2014 12:30:12 +0000 http://marco.fotino.it/?p=292 World_IPv6_launch_badge_512Qualche giorno fa ho avuto il piacere di assistere a un interessante seminario dell’ing. Giuseppe Rossi (docente di reti telematiche presso l’Università di Pavia) dal titolo “Evoluzione della rete Internet: da ARPANET ai nuovi standard di comunicazione”. In particolare, pur partendo dalla storia di Internet e dalla sua evoluzione nei decenni, l’argomento principale del seminario riguardava il (lento) passaggio dalla versione 4 alla versione 6 dell’Internet Protocol (IP), che costituisce il fondamento di tutte le reti informatiche così come le conosciamo oggi. Lo so che si tratta di un tema molto tecnico e specifico, ma se vi è mai capitato di imbattervi in un titolo di giornale del tipo “Gli scienziati lanciano l’allarme: gli indirizzi stanno per finire, Internet vicina al collasso” questa è l’occasione giusta per sapere come stanno veramente le cose. Un bonus per gli ambientalisti (so che mi leggete, dopo il mio post sui “Limiti dello sviluppo”): troverete un numero inquietante di analogie tra questa vicenda e la reazione dell’umanità al problema del riscaldamento globale.

Iniziamo dal principio: il fatto che il vostro PC (o Mac, o smartphone, o tablet, o altro) riesca a comunicare è il frutto di anni e anni di ricerca, sviluppata a partire dagli anni ’60 negli ambienti accademici e militari statunitensi. Per far sì che macchine (anche di tipo, marca e modello diversi) potessero interagire era necessario definire un linguaggio comune (un “protocollo”, per l’appunto), e una parte fondamentale di questo linguaggio doveva riguardare l’indirizzamento: per “parlare” con un computer deve innanzitutto essere possibile identificarlo con certezza e poterlo trovare in una rete potenzialmente illimitata. Non si tratta di un problema banale, se pensate che, ad esempio, le Poste Irlandesi applicano ancora regole del tipo “se esistono più omonimi in una città, la lettera va a quello residente da più tempo”. I tecnici risolsero il problema inventando il cosiddetto “indirizzo IP“: una cosa del tipo “71.128.0.225”, di cui avete di certo sentito parlare (“è inutile che ti nascondi dietro un nickname, so il tuo IP”, “la polizia è risalita ai malviventi tramite il loro IP”, eccetera…).

Al momento della sua definizione (la versione 4 dello standard, il cosiddetto IPv4 – in uso ancora oggi – fu pubblicata nel 1981) il numero di indirizzi disponibili, oltre 4 miliardi, era ritenuto più che sufficiente alle esigenze di una rete mondiale di calcolatori (solo qualche anno prima Ken Olsen affermava: “Per quale motivo una persona dovrebbe tenersi un computer in casa?”). Con l’invenzione del World Wide Web e l’esplosione di Internet degli anni ’90, però, lo scenario cambiò improvvisamente: la domanda crescente di indirizzi (causata dall’aumento della popolazione che accede alla rete e al moltiplicarsi dei dispositivi dotati di connessione) rischiava di portare molto presto alla saturazione degli indirizzi IP disponibili. A un certo punto, sempre più vicino, non sarebbe stato più possibile connettere nuovi utenti a Internet! I tecnici corsero immediatamente al riparo, e in pochi anni riprogettarono il protocollo alla base di Internet: a dicembre 1998 venne pubblicata la definizione dell’IPv6. Se vi state chiedendo che fine abbia fatto la versione 5, sappiate che IPv5 era il nome che si era dato ad alcuni tentativi precedenti di evoluzione dell’IPv4: per evitare confusione, i ricercatori decisero quindi di saltare questa numerazione.

Oltre a risolvere ampiamente il problema dell’indirizzamento (sono disponibili circa 3,4×10^38 indirizzi, un numero impronunciabile scritto come 34 seguìto da 37 zeri, 340.000.000.000.000.000.000.000.000.000.000.000.000) IPv6 prevede già tutti i meccanismi per una transizione indolore dal vecchio al nuovo sistema (permettendo la coesistenza dei due protocolli fino alla dismissione del vecchio). Ma allora, dopo 16 anni dall’invenzione della soluzione, perché stiamo ancora qui a parlarne? Perché il vostro computer (o smartphone, o tablet) va ancora in Internet con un indirizzo IPv4? E sopratutto, cosa c’entra questo con il riscaldamento globale? A questo punto, avete in mano tutti gli elementi della similitudine: la crescita continua genera scarsità di risorse, fino a mettere in discussione l’esistenza stessa di un ecosistema; la comunità scientifica solleva il problema e lavora alla soluzione; infine, una volta che la soluzione c’è, i tempi per la sua adozione si dilatano all’infinito, perché magari si preferiscono soluzioni temporanee ma più familiari, perché l’adozione della soluzione non è sfruttabile dal punto di vista commerciale, perché “abbiamo sempre fatto così”, perché “lo farò quando lo faranno gli altri”, e così via… Quante volte avete sentito queste frasi? Quante volte siete stati voi stessi a pronunciarle? Perché aspettiamo sempre di essere sull’orlo del baratro prima di spostare il piede sul freno? A questo, la comunità scientifica non ha ancora dato risposta.

]]>
http://marco.fotino.it/2014/09/adozione-ipv6-riscaldamento-globale-di-internet/feed/ 0 292
Plutone è un pianeta? Sì, ma solo in Illinois http://marco.fotino.it/2014/01/plutone-e-un-pianeta-si-ma-solo-in-illinois/ http://marco.fotino.it/2014/01/plutone-e-un-pianeta-si-ma-solo-in-illinois/#comments Wed, 22 Jan 2014 20:17:03 +0000 http://marco.fotino.it/?p=205 plutoneQuesto post nasce da una domanda apparentemente semplice, posta da un amico, una di quelle domande a cui si potrebbe tranquillamente rispondere con un sì o un no, ma che, se si ha la pazienza di approfondire un po’, nasconde una storia curiosa e sorprendente. E ha una morale, questo post, che vi rivelo subito per non tenervi sulle spine: nella vita, non date mai nulla per scontato. Nulla. Mai. Nemmeno ciò che credete di sapere da sempre.

Iniziamo dal principio (ma non certo da vicino): il pianeta Plutone. Tutti quelli della mia generazione, di fronte alla domanda che dà il titolo a questo post, rispondono tranquillamente “sì”, senza batter ciglio. Beh, certo, non tutti: in realtà la stragrande maggioranza risponderebbe “Ehhh???”, ma, tra tutti quelli che rispondono con cognizione di causa, la risposta prevalente sarà sicuramente quella affermativa. Perchè ce l’hanno insegnato a scuola, perchè lo diceva SuperQuark (mica Voyager…), perchè era scritto sull’enciclopedia (quella cartacea, che riempiva un intero scaffale della libreria di casa).

Bene, per tutti noi c’è una notizia sconvolgente, anche se non recentissima: il 24 agosto 2006, infatti, al termine di una lunga e tormentata votazione, l’Unione Astronomica Internazionale ha declassato Plutone da “pianeta” a “pianeta nano”. I motivi per farlo c’erano, ed erano tutti validi: Plutone è molto più piccolo degli altri pianeti (Eris, un altro pianeta nano scoperto nel 2005, è persino più grande), e pur ruotando intorno al Sole lo fa con un’orbita molto diversa da quella degli altri pianeti (una parte della quale lo porta addirittura più vicino al Sole di Nettuno).

Fin qui termina la spiegazione per i curiosi “livello base”, mentre per i curiosi di “livello avanzato” scatta subito un’ulteriore, legittima, domanda: ma allora come c’è finito, Plutone, in mezzo ai pianeti del sistema solare? Una spiegazione c’è, naturalmente, e non è affatto banale: Plutone fu scoperto nel 1930, infatti, a seguito di osservazioni basate sull’ipotesi che oltre Nettuno dovevano esserci altri pianeti. Lo studio della sua orbita, infatti, mostrava delle irregolarità (perturbazioni) che potevano essere spiegate con la presenza di un altro corpo celeste che esercitasse un’attrazione gravitazionale. D’altra parte, Nettuno stesso era stato scoperto proprio così nel 1846: si osservavano le anomalie nelle orbite dei pianeti conosciuti, si facevano dei calcoli e si puntava il telescopio verso il punto in cui doveva trovarsi qualcosa che spiegasse quelle anomalie. Anche con Plutone andò allo stesso modo: si puntarono i telescopi e apparve lui, all’incirca dove ci si aspettava di trovarlo. Il primo a vederlo fu Clyde W. Tombaugh, un astronomo statunitense dell’Illinois (ricordatevi questo particolare, ci tornerà utile tra poco).

Il problema è che, dopo l’entusiasmo iniziale, le osservazioni seguenti non diedero i risultati sperati: Plutone era troppo piccolo per spiegare le perturbazioni, e così ci si lanciò alla ricerca di un altro pianeta, il cosiddetto Planet X (X come mistero, ma anche come dieci in numerazione romana). Con una trovata così brillante e tanti scienziati al lavoro, chi avrebbe avuto il coraggio di fare marcia indietro?

Solo molti anni dopo, nel 1989, si scoprì la verità: la sonda Voyager 2, passando da quelle parti (si fa per dire), inviò dati molto dettagliati sulla massa di Nettuno che, semplicemente, rivelavano che la sua orbita è normale così com’è, senza bisogno di alcun pianeta esterno. In pratica, Plutone è diventato un pianeta solo perchè si trovava lì dove tutti stavano guardando, alla ricerca di qualcos’altro (seguendo calcoli sbagliati). La versione cosmica dell’“uomo giusto, al posto giusto, al momento giusto”, insomma.

Pensate che la storia finisca qui? Vi sbagliate. Perchè dove la scienza e la matematica non arrivano, ci pensa l’uomo con la sua creatività a scrivere l’epilogo a sorpresa. Ricordate? Tutto sembrerebbe concludersi con la decisione del 2006: Plutone è “solo” un pianeta nano, non c’è niente da aggiungere. Nel 2009, invece, il Congresso dell’Illinois (lo Stato che aveva dato i natali allo scopritore di Plutone) sancisce per legge che “per Plutone sia ristabilito lo status di pianeta completo” e indica il 13 marzo come giorno della commemorazione della sua scoperta. Quindi, in conclusione, non solo Plutone è un pianeta (ma solo quando passa sopra i cieli dell’Illinois), ma è anche l’unico pianeta che festeggia il compleanno!

BONUS: Pluto, il cane di Topolino, prende il nome proprio dal pianeta Plutone. Infatti fu introdotto come personaggio proprio nel 1930, poco dopo la diffusione della notizia della scoperta.

]]>
http://marco.fotino.it/2014/01/plutone-e-un-pianeta-si-ma-solo-in-illinois/feed/ 2 205
Natale 2013: ultima chiamata? http://marco.fotino.it/2013/12/natale-2013-ultima-chiamata/ http://marco.fotino.it/2013/12/natale-2013-ultima-chiamata/#comments Sun, 22 Dec 2013 10:00:59 +0000 http://marco.fotino.it/?p=189 Limiti dello sviluppo scenario 1Anche quest’anno è finalmente giunto il Natale: tempo di bilanci, propositi, previsioni, ma soprattutto di consumismo spinto (anche in tempi di crisi come quelli che stiamo vivendo). Ed è proprio per questo che ho deciso di condividere con voi una storia emblematica per tanti aspetti: le intuizioni di un intellettuale (italiano) che avviano il lavoro di un gruppo internazionale di ricercatori lungimiranti, la cecità della politica e il cinismo dell’industria che riescono a cancellare agli occhi del mondo una scomoda verità, l’indifferenza della gente che rifiuta di credere che di fronte a certi eventi il cambiamento delle proprie abitudini non è più una scelta ma un obbligo. Sembra la trama di una spy story, e invece è la cronaca di quanto si è consumato sotto i nostri occhi negli ultimi decenni, raccontata egregiamente in un documentario che ho visto recentemente, dal titolo “Ultima chiamata: le ragioni non dette della crisi globale”.

Si tratta di un documentario italiano (il regista è Enrico Cerasuolo, tra i consulenti scientifici c’è Luca Mercalli, il metereologo di Che tempo che fa) sul libro “I limiti dello sviluppo” (pubblicato nel 1972), sulle origini di quello studio che cambiò per sempre la visione dello sviluppo dell’umanità e sulle reazioni che negli anni si opposero alla diffusione delle sue conclusioni (che contrastavano decisamente con le consuetudini più radicate in politica e in economia). I massicci tentativi di boicottaggio riuscirono talmente bene che ancora oggi, quarant’anni dopo, nonostante gli ormai innegabili cambiamenti climatici e la crisi globale in atto, siamo ancora qui a chiederci se ciò sia sufficiente a imporci il cambiamento radicale che potrebbe salvare il mondo…

Tutto inizia alla fine degli anni Sessanta, quando un umanista italiano, Aurelio Peccei, ha un’intuizione: l’umanità sembra ormai aver raggiunto un tale grado di civiltà e progresso tecnologico da rendere inefficienti le organizzazioni politiche attuali (gli Stati nazionali) ad affrontare i problemi in atto. Quando i fenomeni sono globali, le soluzioni locali non possono che essere inefficaci. Sulla scia di questa intuizione, Peccei fonda un gruppo di intellettuali (il “Club di Roma”) e promuove diverse conferenze internazionali per discuterne. Le tesi di Peccei vengono accolte con una certa freddezza dai politici, ma fanno scattare una scintilla nella mente di Jay Forrester, professore al MIT e fondatore della dinamica dei sistemi complessi (una disciplina che studia le interazioni tra sistemi apparentemente diversi ma interdipendenti). L’intuizione di Peccei si fonde alla teoria di Forrester, che crea un modello matematico per rappresentare il sistema globale delle risorse e il consumo delle attività produttive umane e mette insieme un gruppo di giovani ricercatori per studiare questo modello. I risultati di questi studi furono pubblicati nel 1972 nel libro “I limiti dello sviluppo”: già durante la prima presentazione dei risultati gli autori (Dennis e Donella Meadows – marito e moglie – e Jorgen Randers) apparivano coscienti del fatto che le loro conclusioni sovvertivano la concezione attuale (radicata fin dalla Rivoluzione Industriale) di “sviluppo economico”. Ma il messaggio lanciato, lungi dall’essere catastrofista, era invece decisamente ottimista: poichè ci siamo resi conto con largo anticipo dei limiti dell’ambiente in cui viviamo, potremo da subito adattare le nostre abitudini affinché non superino mai quel limite! L’accoglienza del mondo politico, accademico ed economico, invece, fu diametralmente opposta: dal momento che i risultati esposti ne “I limiti dello sviluppo” smentivano clamorosamente le tendenze che andavano per la maggiore, l’unico modo per mantenere lo statu quo era smentire quei risultati. Il documentario, a questo punto, racconta degli innumerevoli tentativi di sminuire o di tacciare come allarmismo ingiustificato il lavoro dei ricercatori, che dopo diversi tentativi di spiegare il significato del libro in giro per il mondo, sembrano quasi arrendersi di fronte all’indifferenza (quella sì, globale): Randers si ritirerà per vivere in solitudine a contatto con la natura, mentre Donella Meadows andrà a fondare una piccola comunità eco-sostenibile nel Vermont (dove morirà nel 2001).

Il messaggio de “I limiti dello sviluppo” rimane però attualissimo (gli effetti ormai evidenti del riscaldamento globale e alcuni aspetti della crisi mondiale tuttora in corso lo dimostrano), e oggi più che mai dobbiamo renderci tutti conto che ci avviciniamo a grandi passi verso il punto di non ritorno: l’educazione dei più giovani e la diffusione di pratiche sostenibili tra la popolazione, la scelta di amministratori pubblici capaci di salvaguardare il futuro delle proprie comunità e di governanti capaci di collaborare tra loro per la salvezza del pianeta, il successo economico delle industrie che producono senza devastare l’ambiente non sono più scelte auspicabili, ma sono diventate ormai l’unica strada percorribile verso il futuro dell’umanità. Vi lascio a queste conclusioni non per rovinarvi il Natale, ma per ricordarvi un principio che dovrebbe essere il più natalizio di tutti: di fronte a un problema, non serve a niente lamentarsi, cercare capri espiatori, delegare, procrastinare, ma solo rimboccarsi le maniche e chiedersi “Cosa posso fare per migliorare le cose?”.

Vi auguro buone Feste, e di trovare tutti la vostra risposta.

]]>
http://marco.fotino.it/2013/12/natale-2013-ultima-chiamata/feed/ 1 189