Tag: backup

Prima di tutto i semi!

E’ bello avere un porto sicuro, no? Una specie di backup del mondo qualunque cosa dovesse succedere. Ti da un po’ di certezza, la tranquillità di poter fare qualunque (beh… quasi) cazzata, tanto un modo per “ripristinare (si, si, sempre “almeno in parte”) lo status ante c’è sempre.

E proprio perché ci da questa sorta di libertà nello sbagliare che abbiamo ibernato il giardino dell’eden. Lo Svalbard Global Seed Vault è appunto questa copia che ci siamo fatti del patrimonio botanico attuale. Tutto.

svalbardseed1.png

In una remota isola, in un remoto arcipelago, a 1200 km dal polo nord, sotto terra, dietro porte di acciaio spesse decine di cm, sotto diversi metri di terra e permafrost, 120 metri dentro una montagna di roccia arenaria abbiamo fatto il caveau della nostra natura. Nel caso dovessimo ripartire da capo…

Praticamente enormi stanze piene di semi congelati a -20/-30 gradi di (quasi) tutto quello che conosciamo. Fino a 4.500.000 semi complessivamente, mentre “si pensa” (chi?!) che sulla Terra ci aggiriamo attorno ai 1.500.000 tipi differenti di semi di raccolti alimentari.

svalbardseed.png

Il tutto iniziò nel 1984 quando il Nordic Gene Bank si fece il suo backup delle sementi delle piante nordiche. Poi dal 2008 il Nordic Genetic Resource Center ha preso in mano la faccenda. Sotto l’egida del Nordic Council of Minister ed in accordo con il Global Crop Diversity Trust (nomi complessi, e non vi dico le sigle, che servono a giustificare poltrone e carta) il progetto è cresciuto fino ad oggi.

La mission è tutt’ora “completo affidamento fiduciario della maggior parte delle 21 colture più importanti della Terra con le loro varianti”. E poi, proprio come un caveau, ogni nazione ci può depositare un po le sementi che gli pare… che restano di sua proprietà. Cioè, stiamo dicendo che qualcosa che non rientra fra le 21 colture essenziali un domani potrebbe essere proprietaria di questa o quella nazione?! Mi sto sbagliando… spero.

WU

PS. Ed ora la parte triste: nel 2015 è arrivata la prima richiesta di prelievo. Aleppo, Siria. E facciamo i sofisticati fra profughi ed accordi.

E’ comunque del 2014 il versamento più recente: 20mila varietà di semi provenienti da Giappone, Brasile, Perù, Messico e Stati Uniti.

PPSS.
E come si legge dal sito della nordgen (ad oggi):

  • Seed samples [851 596]
  • Taxon names [11 708]
  • Species [5 253]
  • Genus [968]
  • Country of origin [233]
  • Continent of origin [8]
  • Depositor institutes [69]
  • Depositor and genus [2 258]
  • Depositor, date and crop [5 048]
  • Seed deposit events [176]

Decrepit digital data

Pare non essere un problema di tecnologie, ma di copyright. Imparo dal internet-daddy Vinton Cerf dell’incombente digital Dark Age (notizia non particolarmente nuova, qui in un articolo di Febbraio). Le prossime generazioni potrebbero non poter usare i dati digitali di oggi: “even if we accumulate vast archives of digital content, we may not actually know what it is“.
Un po come è stato per noi se pensiamo a tutti i secoli che ci sono voluti per recuperare le informazioni dei testi più degradati del passato che non sono mai stati trascritti per i posteri.
In breve Cerf (per chi non lo sapesse co-autore del protocollo TCP/IP e pioniere di ARPANET, mica uno qualunque…) sostiene che vanno cambiate le regole per preservare copie di quanto oggi circola in rete. Non è questione di backup (non si sta parlando di fare due copie del testo della Divina Commedia), ma di scansionare e preservare l’informazione, ed i programmi e sistemi necessari per leggerla, per i posteri. Banalmente, quanti di voi riescono ancora a leggere un “dischetto”? A breve un cd, ed in futuro un mp3?
I grandi attori del settore ed i grandi esperimenti scientifici si sono messi in proprio, ma a livello globale manca un approccio armonico (un archivio di codici sorgente, programmi, compilatori, etc.).
Ma a questo punto mi chiedo: per tramandare l’informazione attuale, crescente di giorno in giorno, quanta informazione in più dobbiamo immagazzinare? O è forse da preferirsi la strada di una traduzione “simultanea” del dato in formati leggibili dalle più aggiornate tecnologie, lasciando il vecchi dato perire con la relativa tecnologia? E poi abbiamo un qualche filtro sulla validità dell’informazione (ma questa è un’altra storia)?
Cerf suggerisce di identificare una qualche autorità che abbia accesso a programmi, codici sorgente e codici operativi (e l’hardware!) per preservarne copie, ma mi chiedo ancora: voi, proprietari di tale software/hardware dareste il consenso? E poi che potere avrebbe in mano questa autorità (e.g. quello di far perire per sempre formati “non interessanti”)?
Certo si tratta di rinunciare ad un po di libertà per tramandare questo presente, ne valesse la pena…

WU

PS. Ma forse non è il problema principale, tanto un pezzetto di informazione per quanto degradato, in qualche forma, sopravviverà sempre ed è molto spesso più che sufficiente: “Henry Kissinger once told me he was very concerned about the Internet’s impact on people’s ability to absorb information in a concentrated way, because we’ve become accustomed to looking up something, getting a snippet and being satisfied with that—as opposed to reading through and considering a weighty tome that goes into great depth.” L’alter ego digitale della preoccupazione circa l’invenzione della scrittura per la memoria.
In-formato Internet (title for another post!)