Lettura artificiale

Siamo nell’era in cui la locuzione “intelligenza artificiale” sembra riassumere il futuro. In realtà è una cosa solo parzialmente nuova (e non solo per B-movies catastrofici) che come tutto sta velocemente progredendo. Parliamo di algoritmi che imparano da se stessi. Che “studiano” quello che gli diamo da studiare e raggiungono (affinando una serie di parametri su un codice scritto, finora, da mano umana) una livello di “conoscenza” nella loro mansione da far impallidire i Leonardo-Da-Vinci-che-non-ci-sono-più.

Una volta che il giochino funziona lo si mette alla prova negli ambiti più disparati. Lungi da me una lezione sul machine learning e sui campi di applicazione, mi ha incuriosito questo “esperimento“.

Sono stati fatti leggere ad una intelligenza artificiale (paziente, che non fa i capricci, ma che non ne trae neanche piacere) 3.5 milioni di libri (!). Tutti questi testi e tutte queste informazioni sono state fatte processare all’intelligenza con uno scopo ben preciso: scoprire se c’è una differenza tra i tipi di parole usati per descrivere uomini e donne. Avrei da ridire sullo scopo “riduttivo” dopo tutte le info (parliamo di qualcosa come più di 11.000.000.000 di parole…) che l’intelligenza ha evidentemente acquisito.

Il risultato che definirei inatteso, grottesco, un luogo comune, e-c’era-bisogno-di-un-computer, frutto non solo dei nostri tempi, un retaggio dei nostri tempi è più o meno che le parole usate per le donne si riferiscono molto più alla loro apparenza rispetto alle parole usate per descrivere gli uomini.

UominiDonne_aggettivi.png

Abbiamo dato valenza statistica ad un sentimento (maschilista!) abbastanza diffuso. Abbiamo “confermato” una sorta di pregiudizi di genere anche nel linguaggio letterario. Devo però dire che la cosa mi puzza un po’ di “bias di conferma”; in fondo descrivere una donna anche per il suo aspetto estetico non vuol dire per forza sessismo… Ma la statistica questo aspetto non lo coglie (e non deve!). Gli algoritmi sono un insieme di istruzioni fisse che identificano, in questo caso, aggettivi maschili o femminili; se la fonte utilizza questi termini in maniera corretta o distorta l’algoritmo non lo coglie; i sistemi di intelligenza artificiale di adattano alle info date loro in pasto, non vanno oltre.

Ad oggi l’algoritmo (i ricercatori sono al lavoro per un upgrade) non distingue di certo i vari generi letterari, gli autori e le loro inclinazioni personali ed artistiche, non tiene conto del periodo storico in cui è stato scritto il libro ed in generale non contestualizza nulla dei milioni di libri che “legge”.

Per ottenere analisi più raffinate (come quelle che necessarie quando si chiede ad una macchina di entrare “nelle faccende umane”) bisogna sviluppare algoritmi più raffinati in grado di interpretare o ignorare il contesto delle parole ed allora si che si potrà avere conferma dei nostri stereotipi di genere e pregiudizi… che sono pronto a scommettere emergeranno.

WU

PS. Non so se in odore di ignobel.

Annunci

Ecco a voi… i Raggi N

René Blondlot era un professore all’Università di Nancy (oltre che membro di una serie di Academie, tipo l’Académie des Sciences). Era il 1903 quando a suo nome uscì su una rinomata rivista scientifica un articolo in cui illustrava la sua ultima scoperta. Un nuovo tipo di radiazioni, i raggi N.

Blondlot.png

Parliamo di un periodo, l’inizio dello scorso secolo, in cui la radioattività la faceva da padrona: i raggi X erano stati scoperti meno di un decennio prima ed evidenza di radiazioni alfa, beta, gamma saltavano fuori da ogni dove. Si viveva, quindi, in un periodo in cui il nervo su nuovi possibili tipi di radiazioni era più che scoperto.

Blondlot, studiando i raggi X (più precisamente utilizzando la macchina di Röntgen al fine di scoprirne il funzionamento) notò delle anomalie luminose, per lui spiegabili solo attribuendole ad un nuovo tipo di radiazioni, i Raggi N (molto più potenti dei Raggi X!). In men che non si dica, l’osservazione divenne scoperta, la scoperta articolo e l’articolo pubblicazione.

Blondlot, di certo non l’ultimo pellegrino in tema di radiazioni, perfezionò i sistemi per rilevare ed addirittura produrre i “suoi” Raggi N. Eliminò accuratamente possibili fonti di interazioni e disturbi esterni per essere sicuro di vedere solo i raggi cercati. Blondlot scoprì che i Raggi N sono emessi da metalli riscaldati e da parecchie fonti naturali, fra cui il nostro sole.

I Raggi N potevano attraversare spesse lastre di metallo e corpi in generale opachi alla luce visibile (che a sua volta pareva interagire con i Raggi N). Acqua e cristalli di salgemma, al contrario, li assorbivano.

A partire dalle pubblicazioni e dagli esperimenti di Blondlot, la scoperta (ed il giusto entusiasmo per essa) di diffuse velocemente a tutto il mondo scientifico fino a raggiungere Charpentier, fisico-medico anch’esso di rinomata credibilità, che scoprì l’emissione di Raggi N anche da parte di nervi e muscoli, umani. Ah, l’emissione permaneva anche post-mortem. La scoperta poteva dunque essere usata per scopi medico-legali e diagnostici.

Perché fermarsi: i Raggi N potevano essere immagazzinati. Ed in maniera piuttosto semplice, bastava un semplice mattone avvolto in un foglio di carta nera ed esposto al sole. I Raggi N emessi dal sole, riemessi da mattone rimaneva intrappolati dalla superficie nera della carta.

Nel 1905 arrivò quel guastafeste di Robert W. Wood, professore di fisica alla John Hopkins University. Indovinate cosa voleva fare il signor Wood? Beh, riprodurre gli esperimenti di Blondlot & Co. Indovinate l’esito? Non ci riuscì. Consolato, si fa per dire, dall’insuccesso dei suoi colleghi d’oltreoceano, decise quindi di recarsi a Nancy per vedere i laboratori che avevano dato la luce ai Raggi N… ed imparare qualcosa (si, nella Academia vera, non ci si approccia con scetticismo/arroganza ma con Umiltà).

Blondlot ripropose al collega l’esperimento originario in cui Wood, tuttavia, non notò alcuna variazione di luminosità (le famose anomalie luminose) che avevano fatto gridare Blondlot alla scoperta. La campagna sperimentale proseguì; Blondlot intendeva misurare e far vedere al collega la deviazione subita da un fascio di Raggi N incidenti su un prisma di alluminio. L’apparato sperimentale prevedeva un prisma di alluminio (ovviamente), un sistema di focalizzazione ed uno schermo fluorescente che fungeva da rivelatore dei raggi N (quelli deflessi). Il team di Blondlot voleva dimostrare quattro differenti posizioni nella deflessione, ovvero quattro differenti lunghezze d’onda dei Raggi N. Anche in questo caso, tuttavia, Wood, non notò i risultati che Blondlot ed il suo team volevano fargli vedere.

A questo punto Wood chiese semplicemente di ripetere l’esperimento. Non visto rimosse il prisma di alluminio dall’apparato sperimentale. Inutile dire che i suoi colleghi non fecero altro che notare le stesse cose e confermare i risultati del precedente esperimento.

Wood lasciò Nancy.

Rientrato in patria pubblicò un resoconto circa ciò che aveva visto durante il suo soggiorno a Nancy, e soprattutto ciò che NON aveva visto. I Raggi N, sostenne, esistevano solo nella mente dei suoi scopritori i quali, certamente in buona fede, si erano fatti forse trascinare troppo dall’entusiasmo del periodo per le emissioni radioattive fino a voler vedere ad occhio nudo tenui (se esistenti) variazioni di luminosità che avevano evidentemente una natura assolutamente casuale. Si erano autoconviti di una grande scoperta in preda all’entusiasmo ed avevano voluto vedere (e trasmesso!) una ripetibilità delle osservazioni che non aveva attecchito in una mente “esterna”.

I sostenitori dei Raggi N, anche dopo lo smacco, giocarono le loro ultime carte. Per osservarli serviva parecchia sensibilità (tipica, sostennero, soprattutto delle razze latine). E questo è evidentemente indice che il castello era crollato.

Blondlot rifiutò di sottoporsi ad un esperimento pubblico e decisivo per provare l’esistenza o meno dei Raggi N (ulteriore indicatore che qualcosa che anche a lui non tornasse… ma evidentemente preferiva non subire “pubblica gogna”). Blondlot morì nella sua Nancy nel 1930.

Non è una storia di frodi o menzogne, è una storia di forti convinzioni che portano a distorcere le evidenze del metodo scientifico. Non erano gli anni in cui con scoperte del genere di odorava un business milionario; oggi si. All’autoconvinzione tende ad aggiungersi la truffa (io dell’E-Cat, pro cause, non ho mai parlato).

WU

PS. Ah, Raggi N, da Nancy, ovviamente.

Impostori intellettuali – l’affare Sokal

David Sokal è un professore di fisica presso la New York University. Sconosciuto ai più (compreso il sottoscritto) se non fosse per la sua beffa che nel 1996 ha iniziato (e sono certo non abbiamo finito!) ad accendere i riflettori sui meccanismi di selezione degli articoli scientifici/culturali. Qualche passo avanti è stato fatto, certo, ma come ormai saprete, la peer-review non è, IMHO, la soluzione, ma solo un male (lo stesso male: la mancanza di oggettività) edulcorato.

Ad ogni modo, 1996, Sokal pubblica un notevole articolo: Transgressing the Boundaries: Towards a Trasformative Hermeneutics of Quantum Gravity.

Eh?! Letteralmente qualcosa tipo: Violare le frontiere: verso una ermeneutica trasformativa della gravità quantistica.

TransgressingBoundaries.png

Già il titolo non si capisce o non vuol dire nulla (ma suona bene! E vedremo fra poco che questo è un must!); l’articolo, poi, non era altro che un collage di frase senza senso. Si sosteneva una fanta-tesi secondo cui la gravità quantistica non fosse altro che un costrutto, tutto umano, sociale e linguistico.

Effettivamente più che una beffa potrebbe essere descritto come un esperimento sociale, in cui l’autore vuole dimostrare (e ci riesce egregiamente) che il meccanismo di selezione dei contenuti scientifici e divulgativi non è sano. In particolare si basa, secondo l’autore, sul fatto che le frasi (ripeto, appiccicate l’un l’altra senza senso) suonino bene e, soprattutto, che fossero in qualche modo in accordo con i presupposti ideologici dei redattori/curatori della rivista specifica.

Here my aim is to carry these deep analyses one step further, by taking account of recent developments in quantum gravity: the emerging branch of physics in which Heisenberg’s quantum mechanics and Einstein’s general relativity are at once synthesized and superseded. In quantum gravity, as we shall see, the space-time manifold ceases to exist as an objective physical reality; geometry becomes relational and contextual; and the foundational conceptual categories of prior science — among them, existence itself — become problematized and relativized. This conceptual revolution, I will argue, has profound implications for the content of a future postmodern and liberatory science

Questo secondo punto fu declinato da Sokal inserendo il termine femminista (tema caro alla rivista su cui l’articolo fu pubblicato, “Social Text”) ben 35 volte all’interno dell’articolo… che non dimentichiamoci parlava di gravità quantistica! La cosa fu fatta con locuzioni (tipo “algebra femminista”… qualunque cosa significhi) o mediante similitudini (“proprio come le femministe liberali…”).

Sokal descrisse l’articolo (ed anche questa sembrerebbe un pezzo dell’articolo stesso…) come “un pastiche di ideologie di sinistra, riferimenti ossequiosi, citazioni grandiose e prive di senso, strutturato attorno alle più sciocche frasi di accademici postmodernisti che avevo potuto trovare riguardo alla fisica e alla matematica“.

Quello che ci (mi) rimane è che l’attendibilità delle riviste scientifiche o di settore è comunque molto bassa (e di certo un articolo che “suona bene” e compiace l’editore ha molte chances di essere pubblicato…), tanta tristezza per l’egregia riuscita dell’esperimento, ma principalmente il fatto di aver capito da dove il Conte Mascetti ha tirato fuori l’idea della sua Supercazzola.

WU

Lo sbiadimento periferico

Continuando con la serie illusioni ottiche (vulg. giochi per flipparsi la mente mentre si cerca di non pensare o si è coscienti che si dovrebbe pensare ad altro).

La nostra mente, e tutte le “periferiche” ad essa connesse funziona in un modo geniale e sopraffino e spesso e volentieri facciamo fatica noi stessi ad accorgercene.

Se fissiamo una scena, ad esempio, la mente è in grado di concentrarsi su ogni minimo dettaglio con dei micro movimenti dell’occhio che, fra una battuta di ciglia e l’altra, ci consentono di percepire l’ambiente circostante in ogni dettaglio. Ma la mente va oltre: i dettagli immutabili vengono “scannerizzati” sono una (o poche) volte. La mente non si concentra più di tanto sulle cose statiche preferendo focalizzare la propria attenzione sulla realtà in movimento.

Benissimo. Cosa succede se forziamo la mente a concentrarsi su una scena assolutamente statica? Beh… proviamo. L’immagine sotto è esattamente questa scena fissa, statica e (diciamoci la verità) neanche troppo entusiasmante.

TroxlerImg
Forzare ma mente significa, nel caso particolare, costringersi a guardare il puntino nero nel centro evitando di sbattere le palpebre. Nel giro di qualche secondo (beh, forse qualche decina si secondi) l’immagine inizierà a dissolversi e le tenui sfumature lasceranno posto ad un bel riquadro, uniformemente ed insipidamente… grigio. Provare per credere.

Era il 1804 quando Ignaz Paul Vital Troxler, medico e filoso svizzero (l’epoca in cui la commistione delle mansioni scientifiche ed umanistiche era un altro modo per aprire la propria mente), fece notare (peripheral fading) che fissare qualcosa con scarsa attenzione ed intensamente porta a far sparire, dalla nostra mente, l’immagine di ciò che stiamo guardando. Il cervello gestendo migliaia di stimoli contemporaneamente tende infatti a scartare immagini statiche ed insignificanti. Finché anche guardandole non le vediamo più.

I nostri sensi, più in generale, si abituano a sensazioni persistenti nel tempo (da cui: l’omo è quella bestia che si abitua, no?!); non ci accorgiamo del peso dei nostri vestiti, degli occhiali che abbiamo in volto oppure del profumo che ci siamo messi la mattina. Ci abituiamo, ed i sensi prima di noi. Il cervello risparmia risorse sorvolando sulle cose meno interessanti e concentrandosi sugli stimoli più salienti.

Non preoccupiamoci, è difficile che ci metteremo mai, nella vita reale, a fissare una immagine tenua e sfocata con sguardo perso e fisso. I micromovimenti dell’occhio ed il trambusto della quotidianità almeno in questo ci aiutano. Un buon modo, tuttavia, per sondare meccanismi di noi stessi a cui siamo inconsciamente abituati dalla nascita.

WU

PS. Funziona (stranamente) anche con me. Se avete qualche “problema” cambiare angolazione o la luminosità dello schermo dovrebbe risolvere…

Gli specchi della luna

Questo per chiudere il mio personalissimo ed inutilissimo ciclo (oltre che distribuito qui e li e fuori da “ricordi mainstream”) di tributo in questo ultimo periodo dedicato al mezzo secolo dell’esplorazione lunare.

Siamo stati sulla luna (per chi ci crede, ovvio), e la nostra presenza sia volutamente che inconsciamente non è certo passata inosservata. Accanto all’impronta di Neil Armstrong (o meglio a circa a cento miglia, per la precisione) si trova un altro oggetto che testimonia lo sbarco dell’uomo sulla luna. Una delle prime cose che abbiamo deciso di depositare, infatti, è un sistema molto interessante (ed in uso ancora oggi!). Sostanzialmente siamo stati fin lassù (anche) per rispondere accuratamente alla domanda: quanto è distante la luna, oggi e domani?

Beh, per avere questa informazione con le missioni Apollo (11, 14 e 15, per la precisione) abbiamo lasciato sulla superficie lunare una serie (beh… tre, per la precisione uno per ogni missione) di specchi riflettori che costituiscono il cuore del Lunar Laser Ranging.

Ringed by footprints, sitting in the moondust, lies a 2-foot wide panel studded with 100 mirrors pointing at Earth: the “lunar laser ranging retroreflector array.” Apollo 11 astronauts Buzz Aldrin and Neil Armstrong put it there on July 21, 1969, about an hour before the end of their final moonwalk. Thirty-five years later, it’s the only Apollo science experiment still running.

LunarLaserRanging.png

Il concetto dell’esperimento è abbastanza semplice: una volta che abbiamo una serie di riflettori sulla luna è sufficiente inviare dalla Terra una serie di impulsi laser che vengono riflessi dagli specchi ritornando alla sorgente; calcolando il tempo di andata e ritorno del segnale è possibile ottenere con ottima precisione la posizione del nostro satellite.

Here’s how it works: A laser pulse shoots out of a telescope on Earth, crosses the Earth-moon divide, and hits the array. Because the mirrors are “corner-cube reflectors,” they send the pulse straight back where it came from. “It’s like hitting a ball into the corner of a squash court,” explains Alley. Back on Earth, telescopes intercept the returning pulse–“usually just a single photon,” he marvels.

L’esperimento è ancora in funzione dagli anni delle missioni Apollo. E ci ha consentito una serie di scoperte/conferme non da poco: sappiamo che la luna è a 385.000,6 km da noi, sappiamo che questa si allontana dalla Terra a circa 3,8 centimetri l’anno, sappiamo che il nostro satellite ha un nucleo fluido, sappiamo calcolare con estrema precisione il ciclo lunare e tutte le sue eclissi (passate, presenti e future), la costante di gravitazione universale di Newton è cambiata di meno di una parte su un miliardo da quando abbiamo iniziato l’esperimento e chicche del genere.

L’esperimento è stato “esteso” già negli anni ottanta con un paio di pannelli riflettenti russi ed oggi pensiamo sia pronto per il passo successivo. Il Next Generation Lunar Retroreflectors (NGLR) prevede di installare sulla superficie lunare ulteriori tre pannelli (con le prossime missioni Artemis) che dovrebbero essere fino a 100 volte più accurati e sensibili di quelli già presenti. I nuovi pannelli amplierebbero il reticolo di punti che “contattiamo” sulla superficie della luna garantendo così misurazioni più estese e precise.

WU

Silbervogel

Uccello d’argento, che potrebbe benissimo essere il nome di un Cavaliere dello Zodiaco, invece si tratta di un progetto bellico tedesco decisamente avveniristico per la sua epoca (e sotto molti tratti ancora oggi…).

Un così detto “bombardiere antipodale” che aveva come suo tratto distintivo quello di combinare l’utilizzo di un motore a razzo e di una forma portante (stile aereo); praticamente lo stesso connubio che è alla base degli svariati progetti degli “spazioplani”, da quelli più storici (X-20, Space Shuttle) a quelli più avveniristici (qui la lista sarebbe lunga…).

L’uccello d’argento era una specie di mega-proiettile di circa 10 tonnellate, 30 metri e 15 metri di larghezza alare. Era progettato per “rimbalzare sull’atmosfera” e grazie a questo principio raggiungere enormi distanze. Veniva lanciato lungo una slitta di 3 km sui quali un carrello (spinto da 12 razzi stile V2) lo accelerava fino a 1900 km/h, velocità sufficiente a generare portanza nelle sue ali e quindi decollare. Praticamente un decollo assistito che però lo sollevava dall’onere di portarsi dietro il propellente ed i booster per accelerare (come faceva, invece, lo Shuttle).

Dopo il lancio e l’ascesa in atmosfera, Silbervogel raggiungeva (beh, avrebbe dovuto raggiungere) una quota di circa 145 km grazie all’utilizzo del proprio motore che lo avrebbe spinto fino ad oltre 22000 km/h. Una volta raggiunta questa quota, il velivolo sarebbe naturalmente rientrato fino a scendere sino alla stratosfera, circa 40 km di quota, ove la maggiore densità dell’aria avrebbe generato una portanza sulla pancia piatta dell’ “aereo” tale da avergli fatto riprendere quota e quindi ripetere il processo.

Il velivolo poteva volare (secondo i calcoli) fra i 19000 ed i 24000 km; poteva attraversare l’oceano atlantico equipaggiato di una bella bomba e poteva, una volta sganciata, “rimbalzare” fino ad atterrare in un “porto sicuro” (la faccio più semplice: lanciato dalla Germania, l’uccellaccio volava fino agli Stati Uniti ben equipaggiato della sua atomica – che comunque i tedeschi non avevano -, rilasciava il suo prezioso carico su una città a sua scelta, e se ne “rimbalzava” fino al Giappone dove avrebbe potuto atterrare).

Il progetto non lasciò mai la galleria del vento (praticamente un prototipino davanti un ventilatore) e fu chiuso a causa dei suoi costi (cosa effettivamente non comune nella dotazione finanziaria degli anni delle guerre mondiali). Da un certo punto di vista fu un bene (oltre, evidentemente, che per il fatto che non abbiamo sganciato bombe nucleari sugli Stati Uniti), dato che (in base alle analisi svolte nel dopoguerra) le temperature raggiunte per via dell’attrito dall’aereo erano state abbondantemente sottostimato e l’aereo si sarebbe sciolto per i materiali di cui era fatto (non a caso lo Space Shuttle fu poi dotato di degli scudi termici…).

I suoi inventori (Sänger e Bredt) passarono da un governo all’altro dopo la fine della guerra, dovettero subire le classiche iniziative della guerra fredda (rapimento?), ma alla fine il Silbervogel non vide mai la luce. Il suo lascito confluì nel progetto (americano, questa volta) del X-20 Dyna-Soar in cui la Boing voleva fare sostanzialmente una copia dell’uccello di argento. Anche in questo caso il progetto non vide mai la luce (660 milioni spesi fra il 1957 ed il 1963), ma molte delle tecniche e tecnologie sviluppate confluirono nella progettazione dello Shuttle.

Oggi l’Europa sta provando a fare qualcosa di vagamente simile con XIV e con lo Space Rider; gli scopi sono assolutamente non bellici (anche se l’utilizzo duale della tecnologia aiuta, diciamo così, il reperimento di fondi): dall’idea di andare a bombardare qualcuno siamo passati all’idea di avere uno “spazioplano” (che richiede, evidentemente, uno spazioporto) per portare turisti (ben paganti) nello spazio. Le basi della “new space economy” (qualunque cosa sia) partono da lontano, lontanissimo… quelle tecniche, sia chiaro.

WU

La tomba, che cede, nell’atollo esplosivo

Lo avrete di certo sentito: facevamo (beh, uso il noi solo per via della percentuale di DNa che condivido con chi lo ha effettivamente fatto) test nucleari nel pacifico quando pensavano a come mettere la parola fine alla WWII e come impostare quella che sarebbe poi stata la guerra fredda fra Russia e USA. Come ogni buon test nucleare che si rispetti, anche le bombe, bombette, detonazioni e giochini vari fra il 1946 ed il 1958 hanno lasciato dietro di loro un bel po’ di scorie nucleari.

Un bel po’ è un eufemismo: stiamo parlando di 85.000 metri cubi di scorie che hanno, ancora oggi, una specie di “potere distruttivo equivalente” a 1,6 bombe di Hiroshima, al giorno, tutti i giorni, per dodici anni. Amen.

Beh, l’idea geniale che è venuta agli Ammericani, nel 1979, fu quella di sfruttare il cratere lasciato da una di queste esplosioni per depositare un po’ tutte le scorie che avevano lasciato in giro. Il cratere si trovava nelle Isole Marshall, nel pacifico. Più precisamente nell’atollo di Enewetak dove ora sorge una vera e propria tomba. Ah, qui viveva qualche centinaia di persone all’epoca dei test che venne semplicemente “deportata” sun un qualche altro disabitato isolotto, ma non possiamo certo fermare il progresso, no?

Un sarcofago che racchiude tutte queste ceneri (che non sono affatto spente) del delirio nucleare dell’epoca costruito da 358 pannelli spessi 45 centimetri di cemento che avrebbero dovuto nascondere il ricordo di quegli esperimenti per i secoli a venire.

La natura ha fatto il suo facendo crescere una folta vegetazione tutto attorno alla tomba, quasi a nasconderla anche al ricordo (anche se gli abitanti dell’atollo sanno di convivere con una polveriera), ma anche il tempo ha dato il suo apporto…

I pannelli stanno infatti cedendo.

TheDome.png

Già da una prima ispezione nel 2013 si erano notati segni di deterioramento nella copertura della tomba; cedimenti poi recentemente confermati dal segretario generale delle Nazioni Unite (quindi, almeno in teoria, uno che dovrebbe sapere come stanno effettivamente le cose… e tipicamente sono peggio di come ce le propinano).

Ma questo è in fondo solo la punta dell’iceberg, dato che la cupola della struttura “protegge” solo una percentuale irrisoria delle scorie che permeano comunque attraverso il cratere. Il fondo della tomba è infatti un cratere nucleare ed è instabile e permeabile. Non è un caso ce le e palme da cocco che crescono sull’isola già presentano tracce di Cesio-137, un isotopo radioattivo.

Evidentemente costa troppo sigillare per bene le scorie. I test avevano dato il loro contributo alla scienza, bisognava investire nel prossimo passo; chi avrebbe pagato per gli “errori”? Beh, come la storia spesso ci insegna, nessuno.

Io, che non vivo nell’isola, percepisco quest’ufo nascosto fra la vegetazione ed a rischio crollo come il (uno dei?) anello di collegamento fra l’epoca nucleare e l’epoca della sensibilizzazione al cambiamento climatico; ora ci stiamo accorgendo che è tardi, non credo si possa sempre tornare indietro. Il cedimento della struttura (oltre a confermare il nostro vero interesse nei confronti di Madre Natura) mi suona anche come simbolo delle crepe nella nostra cieca fiducia nei confronti del progresso tecnologico.

WU

PS. Per “sdrammatizzare” ci metterei questa canzone qua.

Pigeon Ranking

… esisteva il PageRank di Google, perché fermarci? Per di più quando la cosa parte da uno scherzo (ebbene si, un pesce d’Aprile…), si trova sotto i nostri occhi tutti i giorni e motiva un bel team di ricerca che fa le cose che gli piacciono e viene anche pagato per farlo?

“When a search query is submitted to Google, it is routed to a data coop where monitors flash result pages at blazing speeds,” the copy said. “When a relevant result is observed by one of the pigeons in the cluster, it strikes a rubber-coated steel bar with its beak, which assigns the page a PigeonRank value of one. For each peck, the PigeonRank increases. Those pages receiving the most pecks, are returned at the top of the user’s results page with the other results displayed in pecking order.”

Correva il primo Aprile 2002 quando Google in una comunicazione “ufficiale” rivelò l’algoritmo alla base del proprio, super-segreto, da tanti emulato, sistema di indicizzazione delle pagine web. Il PageRank non era frutto, si disse, di Intelligenza Artificiale, bensì di Intelligenza Animale (il fatto che l’acronimo sarebbe lo stesso nei due casi quasi mi fa rabbrividire…). In particolare il sistema di ranking era affidato all’innata capacità di identificare la differenza di immagini e nel riconoscere pagine con contenuti più informativi del… piccione domestico. Le pagine con il maggior numero di beccate erano quelle che finivano ai primi posti nei criteri di ricerca, semplice no!?

Ovviamente (ovviamente) la cosa era un pesce d’Aprile ben architettato, ma anche quando si seppe la verità la cosa non morì li. Esperimenti sulle capacità di identificare e distinguere immagini da parte dei piccioni risalgono ai primi del novecento e, già all’epoca i risultati non erano affatto malvagi…

Partendo dallo scherzo per quasi un decennio un team di ricerca ha veramente provato a studiare più in dettaglio le capacità di condizionamento del Columba livia. Le abilità cognitive e visive dei piccioni sono state testate presso l’Università della California Davis nel campo della medicina diagnostica.

Quattro esemplari, in particolare, sono stati addestrati a distinguere fra le immagini di tumori al seno quelle benigne da quelle di tumori maligni. I piccioni dovevano beccare due pulsanti di differente colore in base al tipo di tumore. La ricompensa, nel caso di identificazione corretta, era ovviamente un po’ di cibo.

PigeonRank.png

Beh, già nel giro di un paio di settimane i piccioni categorizzavano correttamente l85-90% delle immagini. E c’è anche di più: sottoposti al test con un differente set di immagini tumorali (non legati al seno) gli uccelli si sono dimostrati in grado di generalizzare quanto appreso arrivando a catalogare correttamente circa 80% dei tumori.

[…] The birds proved to have a remarkable ability to distinguish benign from malignant human breast histopathology after training with differential food reinforcement; even more importantly, the pigeons were able to generalize what they had learned when confronted with novel image sets. The birds’ histological accuracy, like that of humans, was modestly affected by the presence or absence of color as well as by degrees of image compression, but these impacts could be ameliorated with further training. Turning to radiology, the birds proved to be similarly capable of detecting cancer-relevant microcalcifications on mammogram images […]

Si è quindi passati a studiare “l’effetto gruppo”, ovvero capire se ad un maggior numero di beccate di un dato bottone corrispondesse effettivamente una maggiore affidabilità nella catalogazione. La risposta è stata ancora una volta affermativa: la “saggezza dello stormo” nella catalogazione era mediamente superiore a quella dei singoli pennuti arrivando a sfiorare il 93% di accuratezza.

Se non altro è stata la conferma che la regola della “saggezza delle folle” applica benissimo anche agli stormi: ovvero quando una massa di individui (o piccioni) inesperti è capace di fornire comunque una risposta adeguata a un problema (ah, e questa teoria è effettivamente una delle componenti alla base dell’intelligenza artificiale del PageRank di Google che tende a dare più importanza alle pagine “linkate” da più fonti esterne…).

WU

PS. Google Pigeon è un’altra cosa ancora (vera)…

Due mesi allettati e retribuiti

Sono certo che per molti sarebbe il lavoro dei sogni. Ed in parte la dicitura è decisamente calzante… nel senso che essere pagati per stare due mesi a letto qualche pisolino lo si potrà pur schiacciare, no!?

La NASA ed il DLR (agenzia spaziale tedesca) stanno collaborando ad un esperimento che ha come scopo quello di capire cosa succede quando il nostro corpo è esposto a prolungata assenza di gravità ed immobilismo. Praticamente come ci dovremmo equipaggiare per i prossimi (?) voli verso Marte ed oltre…

Lo studio “long-term bed-rest study” cerca 24 candidati per … stare a letto due mesi. Letteralmente. Mai scendere da un lettino progettato ad hoc sul quale i volontari dovranno… vivere: mangiare, vestirsi, allenarsi, lavarsi, etc. sempre stando stesi su un lettino singolo.

Inoltre, per facilitare l’afflusso di sangue al cervello i lettini non sono perfettamente orizzontali, ma con la testa leggermente inclinata verso il basso (scomodissimo!) per facilitare l’afflusso di sangue al cervello.

BedExperiment.png

I volontari saranno inoltre divisi in due gruppi: il primo “fermo” ed il secondo collocato in una speciale centrifuga (la Short-Arm Human Centrifuge -forse la parte più innovativa dell’esperimento-) che ruoterà per simulare una gravità artificiale che dovrebbe aiutare a far scorrere il sangue per tutto il corpo.

Età richiesta fra i 24 ed i 55 anni, inizio previsto per il “riposo” Dicembre 2019 a Colonia (DLR Institute of Aerospace Medicine) e lingua tedesca obbligatoria. Ah, la retribuzione è di 19.000$!

In realtà un esperimento del genere è stato già fatto nel 2017 (… oltre tutti i test “ridotti” condotti dagli astronauti sulla ISS) solamente dalla NASA (11 volontari sdraiati per 60 giorni) e pare che l’esito sia stato che è molto più facile del previsto per il corpo adattarsi a questo prolungato immobilismo di quanto possiamo aspettarci.

Chissà se la cosa varrà anche quando saremo richiusi in pochi metri quadrati a milioni di chilometri dalla terra con fuori solo il vuoto cosmico. Rimango dell’idea che le implicazioni psicologiche su questo genere di studi sia fondamentale (come d’altra parte lo è, IMHO, per “guarire” o “ammalarsi” a terra, in condizioni normali) e queste simulazioni colgono solo parzialmente i processi mente-corpo che determinano il successo o meno dell’esperimento (e della nostra capacità di colonizzare lo spazio, ma questo va da se, è un problema di la da venire…).

WU

La violazione del Cp

Cp sta per Carica e Parità, e questa è la parte facile (omettendo, ovviamente la spiegazione di queste due simmetrie, della terza e delle loro combinazioni…). E’ una simmetria delle particelle presente nel modello standard. Con ordine, onde evitare di confondere ulteriormente le idee…

Correva l’anno 1932 quando ci si accorse sperimentalmente di qualcosa che già anni prima era stata definita a livello teorico: esiste l’antimateria. Praticamente il mondo come lo conosciamo p fatto di materia ordinaria, ma esiste un equivalente di questa materia “al contrario”: gli anti-elettroni hanno carica positiva, anti-protoni con carica -1 e tutto un universo di particelle opposte a quelle che conosciamo e tocchiamo tutti i giorni.

Pian piano siamo stati capaci di creare ed isolare particelle di antimateria e scoprire che qualora malauguratamente (…stile Dan Brown) particelle ed antiparticelle dovessero entrare in contatto il risultato sarebbe una grande casino. Le particelle si annichiliscono, si fondono, sprigionando tutta la loro energia sotto forma di radiazione elettromagnetica (con emissione anche di molte altre particelle esotiche…).

Ma.

Ma, se le cose stessero esattamente così noi non esisteremmo. All’origine dei tempi, con il Big Bang vi deve essere stata una uguale produzione di materia ed antimateria e se tutto il modello fosse così esattamente simmetrico tutta la materia ordinaria avrebbe incontrato anti-materia sprigionando solo tanta tanta tanta energia, ma non consentendo lo sviluppo di nessuna forma di vita. Praticamente saremmo energia pura e non materia (o anti-materia).

Ed invece siamo qui. E siamo fatti di materia, non di anti-particelle. Deve esserci quindi un meccanismo per cui la materia ha vinto sull’antimateria. Deve esservi, quindi, qualche asimmetria nel modello standard che preveda che se due particelle appartenenti a due materie diverse entrano in contatto, in qualche caso, qualcosa deve pur sopravvivere…

Proprio in questi giorni i fisici del LHCB al Cern sono riusciti a vedere (udite udite) una leggera, timida asimmetria tra i decadimenti di particelle charm di tipo up e quelli delle rispettive antiparticelle. Senza entrare nel dettaglio (meglio stare zito…), si tratta di particelle che contengono quark c, con carica elettrica +2/3 di quella dell’elettrone… o dell’anti-elettrone.

LHCP.png

Insomma le particelle in questione decadendo non sono esattamente uguali, non sono simmetriche rispetto alla Carica ed alla Parità. E’ una prima prova sperimentale della simmetria Cp.

Il fenomeno era stato già previsto in teoria negli anni ’60, ma mai osservato nella realtà. Avere una violazione della simmetria Cp nel mondo dei Quark è una conferma che noi esistiamo (qui si aprono anche scenari fanta-filosofici), una conferma del modello standard ed un invito a continuare a capirci qualcosa di più. Abbiamo solo sollevato un po’ il telo che copre tutte le simmetrie del mondo subatomico dato che il valore misurato della violazione di Cp è estremamente piccolo (… so che lo stiamo cercando, ma un double-check sull’accuratezza del setup di test magari lo farei…) e non è sufficiente a spiegare l’asimmetria materia-antimateria con la quale ci misuriamo quotidianamente.

WU