L’aereo letale del medico sognatore

E’ uno di quei giudizi tipicamente difficili da dare e quando vengono appioppati mi lasciano sempre la sensazione che siano frutto di una qualche posizione dello scrivente, ma il Christmas Bullet è probabilmente il peggior aereo mai realizzato (anche se, come ci è ben noto, al peggio non c’è mai fine…).

Era il 1918 quando William W. Christmas diede alla luce il suo “Bullet”. Prima di addentrarci un po’ di più sull’architettura dell’aereo facciamo un piccolo excursus sul suo inventore. Innanzitutto va detto che William era un… medico e non aveva alcuna competenza ne diretta ne indiretta nella progettazione di aeroplani. Era evidentemente un personaggio abbastanza visionario e carismatico da inseguire e realizzare (beh, diciamo almeno in parte) il suo sogno e già questo fa, IMHO, di lui una persona degna di nota.

William iniziò a dedicarsi alla progettazione di aeroplani agli inizi del 1900 e dichiarò di averne progettati già due modelli prima del bullet. Entrambi pare andarono persi in un qualche incidente (non meglio definito… inquietante) e di entrambi non vi sono tracce scritte o testimonianze storiche a parte le dichiarazioni del loro inventore.

Nonostante questa aurea (come dire… “di non completa affidabilità del soggetto”), William riuscì a convincere i fratelli McCorey a finanziarlo e la compagnia Continental Aircraft Company a supportare il suo progetto del Bullet (il capo ingegnere della compagnia, Vincent Brunelli -nome che tradisce inquietanti origini italiane- aiutò Christmas nel suo progetto limitandosi, però, al disegno della fusoliera).

ChristmasBuller.png

Il Christmas Bullet era un monoposto completamente in legno, sia nella struttura che nel rivestimento (in un’epoca in cui i rivestimenti erano in tela) per “migliorare le prestazioni aerodinamiche”… tesi ovviamente mai dimostrata dal dottore e mai confermata a posteriori…

Il monoposto montava un motore Liberty L-6 (sei cilindri) che il dottore aveva ricevuto in prestito dalla US Army per… eseguire test a terra…

Il palmare del peggior aereo mai costruito, tuttavia, spetta al Bullet sostanzialmente per la completa assenza di cavi e tiranti che rinforzassero le due ali (la controventatura delle ali, in gergo). Le due ali erano praticamente attaccate solo alla base alla fusoliera (in alto, pergiunta). La caratteristica non era un “errore progettuale” ma una vera e propria “scelta tecnica” del medico che voleva che le ali del Bullet potessero flettersi in volo… proprio come quelle degli uccelli… (le ali di spostavano verso l’alto di circa mezzo metro durante il volo !).

Oltre il discutibile progetto, il Bullet fu anche costruito dalla Continental con materiali di risulta che erano oggettivamente inadatti a sopportare le sollecitazioni durante il volo. Il Bullet vide la luce in due esemplari.

Il primo volò fra il dicembre 1918 ed il gennaio 1919, le ali si staccarono dalla fusoliera ed il pilota collaudatore morì nello schianto (… sotto gli occhi della madre invitata al volo inaugurale… se proprio vogliamo essere macabri e precisi). Il secondo prototipo volò nel maggio 1919 ed anche in questo caso, immancabili, le ali si distaccarono dalla fusoliera causando ancora una volta la distruzione dell’aereo e la morte del pilota (ah, dovette anche cambiare motore quando la US Army si accorse dell’utilizzo improprio del Liberty L-6 ed ebbe notizia che il motore era andato distrutto…).

Il progetto venne quindi, finalmente, abbandonato. Ma la cosa non scalfì più di tanto la “visionarità” (e l’ego) di Christmas. Millantò una serie di richieste ed ordini del Bullet e di brevetti (che non possedeva) nella speranza di trovare altri finanziatori. Pare arrivò ad affermare di esser stato chiamato per ricostruire la decimata flotta tedesca… Christmas continuò nei suoi personalissimi progetti di aeromobili fino alla fine dei suoi anni, ma nessuna altro suo aereo vide mai la luce.

Insomma, aereo e morti a parte (ah, beh…) un millantatore professionista (certamente più che ingegnere professionista) mosso da un suo sogno: costruire aerei. Sogno che purtroppo non fu, credo, curato e seguito nel modo giusto saltando a piè pari tutta la arte noiosa e stancante della coronazione del sogno: duro lavoro e solide basi tecniche… prima di venderlo il sogno, rigorosamente.

WU

Si bemolle, la nota dell’universo

La nota più profonda mai registrata nell’Universo: Si bemolle, costante. Le sirene che la emettono sono … semplicemente dei buchi neri.

Prendiamo ad esempio quello che si trova all’interno della costellazione del Perseo, 250.000.000 di anni luce da noi. La sirena è stata guardata per un po’ da Chandra (telescopio a raggi X della NASA) che si è accorto di una specie di “increspatura” nella nube di gas che circonda il buco.

A tali increspature è associata una vibrazione acustica che ha percorso tutti gli anni luce per arrivare fino alle nostre “orecchie”. Il SI è già di per se una nota bassa, bemolle è mezzo tono ancora più bassa: inascoltabile. 57 ottave più bassa di un tipico DO (un pianoforte ne contiene a mala pena 7…). Praticamente la nota più bassa mai “ascoltata” ed almeno un milione di miliardi di volte più bassa di quello che le nostre orecchie possano ascoltare.

Il profondissimo si bemolle è il vagito che ascoltiamo del gas fagocitato (in un prodigioso ammasso di luce e calore) dal buco nero. E quello di Perseo non l’unico… anzi, un po’ tutti quelli attivi che si fanno ascoltare emettono tale nota.

A parte l’aspetto musicale, queste onde sonore sono un valido strumento a capire l’evoluzione delle grandi strutture del cosmo. Perché, ci chiediamo da anni, c’è così tanto gas caldo nelle galassie e così poco gas freddo?

I gas caldi, che si mischiano con i raggi X, dovrebbero piuttosto raffreddarsi considerando l’energia dispersa dai raggi X. I gas più densi, inoltre, sono quelli più vicini ai nuclei galattici (tipicamente buchi neri) e sono anche dove l’emissione di raggi X è maggiore; ci si aspetterebbe quindi che tali gas si raffreddino più velocemente. Se così fosse il raffreddamento causerebbe anche un calo della pressione in tali gas facendoli sprofondare verso i buchi neri ed accelerando la formazione stellare.

Tutto questo non accade, o almeno non al rateo che vorremmo. Vi è scarsa evidenza di questo raffreddamento dei gas e quindi di formazione stellare in base a questo modello. Nessun modello teorico sviluppato è stato finora pienamente soddisfacente ne supportato da osservazioni (ottiche o audio, è il caso di dire), a meno di non considerare anche la nota dell’universo.

Per capire come un si bemolle possa aiutarci torniamo un attimo a Perseo. Chandra ci ha fatto “vedere” sue super-bolle al centro della costellazione che si estendono dal centro del buco nero verso la periferia della galassia. In tali cavità sembra vi sia qualcosa che in qualche modo “respinge” il gas della galassia rendendole quindi “vuote”.

Vi sono quindi dei flussi “antri intrusione” che contrastano la voglia del buco nero di fagocitare qualunque cosa. Per generare tali cavità serve evidentemente una grande quantità di energia che potrebbe… essere trasportata da un si bemolle. Le onde acustiche potrebbero effettivamente essere le artefici di queste cavità dissipando nei gas galattici energia che li manterrebbe caldi prevenendo un flusso di raffreddamento durante il loro destino verso il buco nero.

Ma se fosse veramente così significherebbe che la nota delle onde acustiche sarebbe costante per tutta l’estensione delle cavità, qualcosa come 2.5 miliardi di anni! Le onde acustiche, propagandosi dal buco nero verso l’esterno, potrebbero essere (la parla fine non è ancora stata messa) alla base del meccanismo che limita la formazione stellare e l’accrescimento sfrenato di materia da parte dei buchi neri in un modello “a gas freddo”.

Perseo è semplicemente la costellazione più brillante osservata da CHANDRA, ma guardando meglio anche in altre galassie alla ricerca di gas caldi, la conformazione “a due cavità” sembra ripetersi ed anche l’ascolto del Si bemolle, profondo e costante, si ripete.

Quando si dice “ascoltare l’universo”.

WU

PS. Curioso e sommario come si conviene.

Il pesto dell’orto di Nemo

Ariel, la sirenetta, era molto brava a fare il pesto. E va bene, non credo la storia inizi proprio così, ma chissà, se questa sperimentazione dovesse effettivamente continuare, un domani potremmo effettivamente leggere ai nostri nipoti una Sirenetta 2.0… (e magari immaginarci una agricoltura completamente subacquea…).

L’idea alla base dell'”Orto di Nemo” è quella di andare a realizzare un sistema di agricoltura alternativo, magari per quelle (tante) zone in cui le condizioni economiche o ambientali rendono difficile coltivare la qualunque. Il pensiero “trasversale” del progetto è quella di abbandonare la coltura “a livello del suolo” per spostarsi… più in fondo.

Praticamente le piante, per ora piante verdi e piante aromatiche, vendono “insacchettate” in delle biosfere di metraclitato (avete presente delle mongolfiere?) e dolcemente adagiate sui fondali marini. Attorno ai dieci metri di profondità, in questo caso a largo delle coste di Savona, vi è un panorama da città sottomarina, composto da serre subacquee.

OrtoDiNemo.png

All’interno di ciascuno di questi palloni di un paio di metri vi sono poco meno di un centinaio di piantine che “respirano” grazie all’aria intrappolata nella biosfera che, più leggera dell’acqua, agisce da cuscinetto spingendo l’acqua sul fondo della sfera. Un’idea del genere, deve (per forza!) dimostrare di essere autosostenibile e green; infatti le sfere si alimentano con energie rinnovabili (sole -poco- e moto ondoso -tanto-) e sfruttano la stessa acqua marina, che distilla dalle pareti, per l’irrigazione (ah, l’acqua è dolce! infatti il poco sole è sufficiente a far evaporare l’acqua dal fondo della sfera lasciando residui di sale, questa si condensa poi sulle pareti e gocciola sulle piantine, facile no?!).

La stessa preparazione di queste sfere è tutt’altro che banale: basta riempire un pallone con un po’ di terra e tanti semi per avere… una specie di voliera subacquea. La terra infatti contiene parecchie larve e microorganismi che in una cultura idroponica (ed isolata) come quella delle sfere non consente lo sviluppo delle piantine. Si utilizza infatti un substrato inerte, che non è terra, arricchito con nutrienti e sali minerali (che di “naturale” parrebbe non avere nulla…).

Le piante crescono in un ecosistema abissalmente (è il caso di dirlo) diverso da quello terrestre, in termini di luce, pressione ed umidità. Tale ambiente ha ovviamente un effetto sulla crescita delle piante sotto molteplici aspetti: fisiologico, chimico e morfologico.

Il risultato, almeno nel caso del basilico, è ottimo! Risulta infatti essere più ricco di sostanze antiossidanti e di pigmenti fotosintetici (conseguenza abbastanza ovvia dato che deve cercare di catturare quel poco di luce che riceve),ed è anche più ricco di metileugenolo. Che è? Beh, l’aroma caratteristico del basilico genovese.

In breve, il pesto marino parrebbe essere molto migliore di quello terreste. Non sono esattamente uno che va a caccia di esperienze gourmet, ma questo credo valga la pena assaggiarlo. Trovo l’idea una sorta di intestazione fra ricerca, suggestione, futurismo, alimentazione, sostenibilità, genetica e pazzia. Non male.

WU

La morte ci preoccupa, si ma il giusto

Tutti dobbiamo morire (ora non mi metto a divagare sull’universo Marvel ok?), e lo sappiamo. Nonostante questo non ci svegliamo ogni mattina con l’angoscia di questo pensiero… o almeno non in tutte le fasi della nostra vita, o almeno non tutti i giorni. Diciamo che se fossi la morte mi lamenterei di non avere la giusta considerazione nonostante il mio ruolo di primaria importanza.

Quella che è fin qui una costatazione è effettivamente stato oggetto di una ricerca. Un meccanismo primordiale di protezione, che evidentemente ci evitata di entrare in una spirale depressiva auto-distruttiva, dal primo giorno che veniamo alla luce è la strategia naturale per metterci in salvo (cosa che alla natura importa limitatamente) e continuare la specie (forse più negli intenti di Madre Natura).

Per dirla in due parole (inesatta, ma di effetto): il nostro cervello non accetta meccanicamente che la morte sia inevitabilmente collegata alla nostra esistenza. Praticamente di “mentiamo” a riguardo.

Quando entriamo in contatto con informazioni riguardanti la morte, il nostro cervello le etichetta in qualche modo come poco affidabili, o meglio affidabili ma riferite a terzi più che a noi stessi. Praticamente associamo la morte come inevitabile per gli altri, mentre noi ci proteggiamo dai pensieri negativi che ne deriverebbero prestando limitata attenzione alle informazioni reperite a riguardo.

Avi Goldstein ed i suoi colleghi, si sono addirittura inventati un esperimento per cercare di dimostrare su basi scientifiche questo meccanismo. Ad una serie di soggetti sono stati fatti vedere dei video contenenti volti diversi. Fra questi volti che apparivano in maniera ciclica (prevedibile) sullo schermo c’era anche quello del soggetto stesso. Associate ad ogni volto vi erano una serie di parole, la metà delle volte collegate alla morte (sepoltura, funerale, morte, etc.).

L’attività del cervello dei soggetti era ovviamente monitorata dai ricercatori per capire come questo rispondeva quando l’immagine del volto che seguiva contrastava con ciò che il cervello prevedeva. Il risultato è stato che quando il volto del soggetto stesso appariva in concomitanza ad una parola collegata alla morte, il cervello “disattivava” il sistema di predizione. Praticamente si rifiutava di collegare l’immagine stessa del soggetto alla morte; non venivano dunque più registrati segnali di sorpresa da parte del cervello. “Non possiamo negare razionalmente che moriremo, ma pensiamo a questa cosa più come a qualcosa che accade ad altre persone”.

Il meccanismo è fondamentalmente semplice ed anche il suo sviluppo evolutivo è abbastanza intuibile. Senza voler scendere in temi scottanti, mi limito a pensare che tale meccanismo deve fallire, interrompersi, quando versiamo in condizioni in cui o non è più possibile vedere applicata a noi stessi l’ineluttabilità della nostra fine oppure tale prospettiva futura appare addirittura come un sollievo.

WU

PS. Beh, per il periodo Halloween mi sembra perfetto.

L’ingegnere, la sonda e la vita

Questa è una storia che sento ciclicamente da anni, o forse decenni. Non so, onestamente, bene da che parte schierarmi, ma sono convinto che se invece di titoli sensazionalistici e notizie parziali si specificasse che potremmo al più parlare di qualche invisibile microbo marziano e non di forme intelligenti (e mimetiche) la cosa farebbe molto meno clamore.

Per passi.

Siamo stati (beh, sonde e rover, chiaramente) su Marte forse più volte di quante non siamo stati nella fossa delle Marianne (non ne sono certissimo, mi è venuta di getto) ed è chiaro che in passato ha ospitato acqua liquida. E’ chiaro che contiene ghiaccio qua e la. Ed è chiaro che dal suo suolo viene rilasciato metano.

Il metano è uno di quegli indicatori della vita. Una forma biologica vivente (magari microbica) metabolizzando rilascia metano. Non è chiaro (o quanto meno sufficientemente confermato) nessun processo geologico che rilasci metano.

Nonostante questo, nessuno “di rilievo” (ovvero che non sia un cazzaro o un complottista conclamato) ha mai confermato o si è sbilanciato a sostenere seriamente l’esistenza della vita su Marte.

Gilbert Levin fa eccezione. Gilbert è uno ingegnere (di professione) che ha collaborato a diversi degli esperimenti che furono messi a bordo delle Viking (sonde degli anni settanta progettate, lanciate ed operate per le prime esplorazioni del pianeta rosso). Levin sostanzia, tecnicamente, il suo asserto.

Le Viking ospitavano a bordo un Molecular Analysis Experiment che serviva per rilevare il rilascio di anidride carbonica “marcata” da un processo biologico. Tutti i microorganismi terrestri che metabolizzano sostanze organiche, liberano anidride carbonica; almeno qui sulla terra. L’esperimento consisteva sostanzialmente nel prendere un campione di terreno (marziano, ovviamente), spruzzarlo con acqua e nutrienti radioattivi. Se fossero stati presenti dei microorganismi questi avrebbero rilasciato anidride carbonica radioattiva che sarebbe quindi stata rilevata dal Molecular Analysis Experiment.

L’esperimento non rilevò nessuna molecola. Ma continuava a misurare emissioni di metano; rimaste sostanzialmente inspiegabili nonostante diverse proposte.

Levin ha una sua spiegazione. Non si sono trovate tracce di composti organici perché il sistema di rilevazione di allora non era così evoluto, almeno non abbastanza per trovare le flebili tracce di microorganismi marziani. Ragionevole e probabile, quanto meno. Ed aggiunge anche lo stesso esperimento, con lo stesso analizzatore, fu provato a terra (e mi chiedo, ma solo dopo la prova su Marte?) ed anche in questo caso l’anidride prodotta dai microbi terresti (che beh, direi siamo certi esserci…) non fu rilevata.

Levin è un tecnico, non uno scienziato. Per questo, dice (e qui onestamente ci vedo un po’ di vittimismo e mania di protagonismo), le sue tesi non sono considerate abbastanza seriamente. Ma c’è anche da dire che nonostante tutte le volte che siamo andati su Marte negli ultimi quaranta anni, dai tempi delle Viking, non è mai stato più mandato uno strumento che rilevasse traccie di anidride carbonica.

Le cose, in teoria, dovrebbero chiarirsi, con il lancio, previsto il prossimo anno del rover Rosalind Franklin dell’agenzia spaziale europea. Chissà perchè mi aspetto sia l’inizio di una nuova fanta-storia-extraterrestre.

WU

Lettura artificiale

Siamo nell’era in cui la locuzione “intelligenza artificiale” sembra riassumere il futuro. In realtà è una cosa solo parzialmente nuova (e non solo per B-movies catastrofici) che come tutto sta velocemente progredendo. Parliamo di algoritmi che imparano da se stessi. Che “studiano” quello che gli diamo da studiare e raggiungono (affinando una serie di parametri su un codice scritto, finora, da mano umana) una livello di “conoscenza” nella loro mansione da far impallidire i Leonardo-Da-Vinci-che-non-ci-sono-più.

Una volta che il giochino funziona lo si mette alla prova negli ambiti più disparati. Lungi da me una lezione sul machine learning e sui campi di applicazione, mi ha incuriosito questo “esperimento“.

Sono stati fatti leggere ad una intelligenza artificiale (paziente, che non fa i capricci, ma che non ne trae neanche piacere) 3.5 milioni di libri (!). Tutti questi testi e tutte queste informazioni sono state fatte processare all’intelligenza con uno scopo ben preciso: scoprire se c’è una differenza tra i tipi di parole usati per descrivere uomini e donne. Avrei da ridire sullo scopo “riduttivo” dopo tutte le info (parliamo di qualcosa come più di 11.000.000.000 di parole…) che l’intelligenza ha evidentemente acquisito.

Il risultato che definirei inatteso, grottesco, un luogo comune, e-c’era-bisogno-di-un-computer, frutto non solo dei nostri tempi, un retaggio dei nostri tempi è più o meno che le parole usate per le donne si riferiscono molto più alla loro apparenza rispetto alle parole usate per descrivere gli uomini.

UominiDonne_aggettivi.png

Abbiamo dato valenza statistica ad un sentimento (maschilista!) abbastanza diffuso. Abbiamo “confermato” una sorta di pregiudizi di genere anche nel linguaggio letterario. Devo però dire che la cosa mi puzza un po’ di “bias di conferma”; in fondo descrivere una donna anche per il suo aspetto estetico non vuol dire per forza sessismo… Ma la statistica questo aspetto non lo coglie (e non deve!). Gli algoritmi sono un insieme di istruzioni fisse che identificano, in questo caso, aggettivi maschili o femminili; se la fonte utilizza questi termini in maniera corretta o distorta l’algoritmo non lo coglie; i sistemi di intelligenza artificiale di adattano alle info date loro in pasto, non vanno oltre.

Ad oggi l’algoritmo (i ricercatori sono al lavoro per un upgrade) non distingue di certo i vari generi letterari, gli autori e le loro inclinazioni personali ed artistiche, non tiene conto del periodo storico in cui è stato scritto il libro ed in generale non contestualizza nulla dei milioni di libri che “legge”.

Per ottenere analisi più raffinate (come quelle che necessarie quando si chiede ad una macchina di entrare “nelle faccende umane”) bisogna sviluppare algoritmi più raffinati in grado di interpretare o ignorare il contesto delle parole ed allora si che si potrà avere conferma dei nostri stereotipi di genere e pregiudizi… che sono pronto a scommettere emergeranno.

WU

PS. Non so se in odore di ignobel.

Ecco a voi… i Raggi N

René Blondlot era un professore all’Università di Nancy (oltre che membro di una serie di Academie, tipo l’Académie des Sciences). Era il 1903 quando a suo nome uscì su una rinomata rivista scientifica un articolo in cui illustrava la sua ultima scoperta. Un nuovo tipo di radiazioni, i raggi N.

Blondlot.png

Parliamo di un periodo, l’inizio dello scorso secolo, in cui la radioattività la faceva da padrona: i raggi X erano stati scoperti meno di un decennio prima ed evidenza di radiazioni alfa, beta, gamma saltavano fuori da ogni dove. Si viveva, quindi, in un periodo in cui il nervo su nuovi possibili tipi di radiazioni era più che scoperto.

Blondlot, studiando i raggi X (più precisamente utilizzando la macchina di Röntgen al fine di scoprirne il funzionamento) notò delle anomalie luminose, per lui spiegabili solo attribuendole ad un nuovo tipo di radiazioni, i Raggi N (molto più potenti dei Raggi X!). In men che non si dica, l’osservazione divenne scoperta, la scoperta articolo e l’articolo pubblicazione.

Blondlot, di certo non l’ultimo pellegrino in tema di radiazioni, perfezionò i sistemi per rilevare ed addirittura produrre i “suoi” Raggi N. Eliminò accuratamente possibili fonti di interazioni e disturbi esterni per essere sicuro di vedere solo i raggi cercati. Blondlot scoprì che i Raggi N sono emessi da metalli riscaldati e da parecchie fonti naturali, fra cui il nostro sole.

I Raggi N potevano attraversare spesse lastre di metallo e corpi in generale opachi alla luce visibile (che a sua volta pareva interagire con i Raggi N). Acqua e cristalli di salgemma, al contrario, li assorbivano.

A partire dalle pubblicazioni e dagli esperimenti di Blondlot, la scoperta (ed il giusto entusiasmo per essa) di diffuse velocemente a tutto il mondo scientifico fino a raggiungere Charpentier, fisico-medico anch’esso di rinomata credibilità, che scoprì l’emissione di Raggi N anche da parte di nervi e muscoli, umani. Ah, l’emissione permaneva anche post-mortem. La scoperta poteva dunque essere usata per scopi medico-legali e diagnostici.

Perché fermarsi: i Raggi N potevano essere immagazzinati. Ed in maniera piuttosto semplice, bastava un semplice mattone avvolto in un foglio di carta nera ed esposto al sole. I Raggi N emessi dal sole, riemessi da mattone rimaneva intrappolati dalla superficie nera della carta.

Nel 1905 arrivò quel guastafeste di Robert W. Wood, professore di fisica alla John Hopkins University. Indovinate cosa voleva fare il signor Wood? Beh, riprodurre gli esperimenti di Blondlot & Co. Indovinate l’esito? Non ci riuscì. Consolato, si fa per dire, dall’insuccesso dei suoi colleghi d’oltreoceano, decise quindi di recarsi a Nancy per vedere i laboratori che avevano dato la luce ai Raggi N… ed imparare qualcosa (si, nella Academia vera, non ci si approccia con scetticismo/arroganza ma con Umiltà).

Blondlot ripropose al collega l’esperimento originario in cui Wood, tuttavia, non notò alcuna variazione di luminosità (le famose anomalie luminose) che avevano fatto gridare Blondlot alla scoperta. La campagna sperimentale proseguì; Blondlot intendeva misurare e far vedere al collega la deviazione subita da un fascio di Raggi N incidenti su un prisma di alluminio. L’apparato sperimentale prevedeva un prisma di alluminio (ovviamente), un sistema di focalizzazione ed uno schermo fluorescente che fungeva da rivelatore dei raggi N (quelli deflessi). Il team di Blondlot voleva dimostrare quattro differenti posizioni nella deflessione, ovvero quattro differenti lunghezze d’onda dei Raggi N. Anche in questo caso, tuttavia, Wood, non notò i risultati che Blondlot ed il suo team volevano fargli vedere.

A questo punto Wood chiese semplicemente di ripetere l’esperimento. Non visto rimosse il prisma di alluminio dall’apparato sperimentale. Inutile dire che i suoi colleghi non fecero altro che notare le stesse cose e confermare i risultati del precedente esperimento.

Wood lasciò Nancy.

Rientrato in patria pubblicò un resoconto circa ciò che aveva visto durante il suo soggiorno a Nancy, e soprattutto ciò che NON aveva visto. I Raggi N, sostenne, esistevano solo nella mente dei suoi scopritori i quali, certamente in buona fede, si erano fatti forse trascinare troppo dall’entusiasmo del periodo per le emissioni radioattive fino a voler vedere ad occhio nudo tenui (se esistenti) variazioni di luminosità che avevano evidentemente una natura assolutamente casuale. Si erano autoconviti di una grande scoperta in preda all’entusiasmo ed avevano voluto vedere (e trasmesso!) una ripetibilità delle osservazioni che non aveva attecchito in una mente “esterna”.

I sostenitori dei Raggi N, anche dopo lo smacco, giocarono le loro ultime carte. Per osservarli serviva parecchia sensibilità (tipica, sostennero, soprattutto delle razze latine). E questo è evidentemente indice che il castello era crollato.

Blondlot rifiutò di sottoporsi ad un esperimento pubblico e decisivo per provare l’esistenza o meno dei Raggi N (ulteriore indicatore che qualcosa che anche a lui non tornasse… ma evidentemente preferiva non subire “pubblica gogna”). Blondlot morì nella sua Nancy nel 1930.

Non è una storia di frodi o menzogne, è una storia di forti convinzioni che portano a distorcere le evidenze del metodo scientifico. Non erano gli anni in cui con scoperte del genere di odorava un business milionario; oggi si. All’autoconvinzione tende ad aggiungersi la truffa (io dell’E-Cat, pro cause, non ho mai parlato).

WU

PS. Ah, Raggi N, da Nancy, ovviamente.

Impostori intellettuali – l’affare Sokal

David Sokal è un professore di fisica presso la New York University. Sconosciuto ai più (compreso il sottoscritto) se non fosse per la sua beffa che nel 1996 ha iniziato (e sono certo non abbiamo finito!) ad accendere i riflettori sui meccanismi di selezione degli articoli scientifici/culturali. Qualche passo avanti è stato fatto, certo, ma come ormai saprete, la peer-review non è, IMHO, la soluzione, ma solo un male (lo stesso male: la mancanza di oggettività) edulcorato.

Ad ogni modo, 1996, Sokal pubblica un notevole articolo: Transgressing the Boundaries: Towards a Trasformative Hermeneutics of Quantum Gravity.

Eh?! Letteralmente qualcosa tipo: Violare le frontiere: verso una ermeneutica trasformativa della gravità quantistica.

TransgressingBoundaries.png

Già il titolo non si capisce o non vuol dire nulla (ma suona bene! E vedremo fra poco che questo è un must!); l’articolo, poi, non era altro che un collage di frase senza senso. Si sosteneva una fanta-tesi secondo cui la gravità quantistica non fosse altro che un costrutto, tutto umano, sociale e linguistico.

Effettivamente più che una beffa potrebbe essere descritto come un esperimento sociale, in cui l’autore vuole dimostrare (e ci riesce egregiamente) che il meccanismo di selezione dei contenuti scientifici e divulgativi non è sano. In particolare si basa, secondo l’autore, sul fatto che le frasi (ripeto, appiccicate l’un l’altra senza senso) suonino bene e, soprattutto, che fossero in qualche modo in accordo con i presupposti ideologici dei redattori/curatori della rivista specifica.

Here my aim is to carry these deep analyses one step further, by taking account of recent developments in quantum gravity: the emerging branch of physics in which Heisenberg’s quantum mechanics and Einstein’s general relativity are at once synthesized and superseded. In quantum gravity, as we shall see, the space-time manifold ceases to exist as an objective physical reality; geometry becomes relational and contextual; and the foundational conceptual categories of prior science — among them, existence itself — become problematized and relativized. This conceptual revolution, I will argue, has profound implications for the content of a future postmodern and liberatory science

Questo secondo punto fu declinato da Sokal inserendo il termine femminista (tema caro alla rivista su cui l’articolo fu pubblicato, “Social Text”) ben 35 volte all’interno dell’articolo… che non dimentichiamoci parlava di gravità quantistica! La cosa fu fatta con locuzioni (tipo “algebra femminista”… qualunque cosa significhi) o mediante similitudini (“proprio come le femministe liberali…”).

Sokal descrisse l’articolo (ed anche questa sembrerebbe un pezzo dell’articolo stesso…) come “un pastiche di ideologie di sinistra, riferimenti ossequiosi, citazioni grandiose e prive di senso, strutturato attorno alle più sciocche frasi di accademici postmodernisti che avevo potuto trovare riguardo alla fisica e alla matematica“.

Quello che ci (mi) rimane è che l’attendibilità delle riviste scientifiche o di settore è comunque molto bassa (e di certo un articolo che “suona bene” e compiace l’editore ha molte chances di essere pubblicato…), tanta tristezza per l’egregia riuscita dell’esperimento, ma principalmente il fatto di aver capito da dove il Conte Mascetti ha tirato fuori l’idea della sua Supercazzola.

WU

Lo sbiadimento periferico

Continuando con la serie illusioni ottiche (vulg. giochi per flipparsi la mente mentre si cerca di non pensare o si è coscienti che si dovrebbe pensare ad altro).

La nostra mente, e tutte le “periferiche” ad essa connesse funziona in un modo geniale e sopraffino e spesso e volentieri facciamo fatica noi stessi ad accorgercene.

Se fissiamo una scena, ad esempio, la mente è in grado di concentrarsi su ogni minimo dettaglio con dei micro movimenti dell’occhio che, fra una battuta di ciglia e l’altra, ci consentono di percepire l’ambiente circostante in ogni dettaglio. Ma la mente va oltre: i dettagli immutabili vengono “scannerizzati” sono una (o poche) volte. La mente non si concentra più di tanto sulle cose statiche preferendo focalizzare la propria attenzione sulla realtà in movimento.

Benissimo. Cosa succede se forziamo la mente a concentrarsi su una scena assolutamente statica? Beh… proviamo. L’immagine sotto è esattamente questa scena fissa, statica e (diciamoci la verità) neanche troppo entusiasmante.

TroxlerImg
Forzare ma mente significa, nel caso particolare, costringersi a guardare il puntino nero nel centro evitando di sbattere le palpebre. Nel giro di qualche secondo (beh, forse qualche decina si secondi) l’immagine inizierà a dissolversi e le tenui sfumature lasceranno posto ad un bel riquadro, uniformemente ed insipidamente… grigio. Provare per credere.

Era il 1804 quando Ignaz Paul Vital Troxler, medico e filoso svizzero (l’epoca in cui la commistione delle mansioni scientifiche ed umanistiche era un altro modo per aprire la propria mente), fece notare (peripheral fading) che fissare qualcosa con scarsa attenzione ed intensamente porta a far sparire, dalla nostra mente, l’immagine di ciò che stiamo guardando. Il cervello gestendo migliaia di stimoli contemporaneamente tende infatti a scartare immagini statiche ed insignificanti. Finché anche guardandole non le vediamo più.

I nostri sensi, più in generale, si abituano a sensazioni persistenti nel tempo (da cui: l’omo è quella bestia che si abitua, no?!); non ci accorgiamo del peso dei nostri vestiti, degli occhiali che abbiamo in volto oppure del profumo che ci siamo messi la mattina. Ci abituiamo, ed i sensi prima di noi. Il cervello risparmia risorse sorvolando sulle cose meno interessanti e concentrandosi sugli stimoli più salienti.

Non preoccupiamoci, è difficile che ci metteremo mai, nella vita reale, a fissare una immagine tenua e sfocata con sguardo perso e fisso. I micromovimenti dell’occhio ed il trambusto della quotidianità almeno in questo ci aiutano. Un buon modo, tuttavia, per sondare meccanismi di noi stessi a cui siamo inconsciamente abituati dalla nascita.

WU

PS. Funziona (stranamente) anche con me. Se avete qualche “problema” cambiare angolazione o la luminosità dello schermo dovrebbe risolvere…

Gli specchi della luna

Questo per chiudere il mio personalissimo ed inutilissimo ciclo (oltre che distribuito qui e li e fuori da “ricordi mainstream”) di tributo in questo ultimo periodo dedicato al mezzo secolo dell’esplorazione lunare.

Siamo stati sulla luna (per chi ci crede, ovvio), e la nostra presenza sia volutamente che inconsciamente non è certo passata inosservata. Accanto all’impronta di Neil Armstrong (o meglio a circa a cento miglia, per la precisione) si trova un altro oggetto che testimonia lo sbarco dell’uomo sulla luna. Una delle prime cose che abbiamo deciso di depositare, infatti, è un sistema molto interessante (ed in uso ancora oggi!). Sostanzialmente siamo stati fin lassù (anche) per rispondere accuratamente alla domanda: quanto è distante la luna, oggi e domani?

Beh, per avere questa informazione con le missioni Apollo (11, 14 e 15, per la precisione) abbiamo lasciato sulla superficie lunare una serie (beh… tre, per la precisione uno per ogni missione) di specchi riflettori che costituiscono il cuore del Lunar Laser Ranging.

Ringed by footprints, sitting in the moondust, lies a 2-foot wide panel studded with 100 mirrors pointing at Earth: the “lunar laser ranging retroreflector array.” Apollo 11 astronauts Buzz Aldrin and Neil Armstrong put it there on July 21, 1969, about an hour before the end of their final moonwalk. Thirty-five years later, it’s the only Apollo science experiment still running.

LunarLaserRanging.png

Il concetto dell’esperimento è abbastanza semplice: una volta che abbiamo una serie di riflettori sulla luna è sufficiente inviare dalla Terra una serie di impulsi laser che vengono riflessi dagli specchi ritornando alla sorgente; calcolando il tempo di andata e ritorno del segnale è possibile ottenere con ottima precisione la posizione del nostro satellite.

Here’s how it works: A laser pulse shoots out of a telescope on Earth, crosses the Earth-moon divide, and hits the array. Because the mirrors are “corner-cube reflectors,” they send the pulse straight back where it came from. “It’s like hitting a ball into the corner of a squash court,” explains Alley. Back on Earth, telescopes intercept the returning pulse–“usually just a single photon,” he marvels.

L’esperimento è ancora in funzione dagli anni delle missioni Apollo. E ci ha consentito una serie di scoperte/conferme non da poco: sappiamo che la luna è a 385.000,6 km da noi, sappiamo che questa si allontana dalla Terra a circa 3,8 centimetri l’anno, sappiamo che il nostro satellite ha un nucleo fluido, sappiamo calcolare con estrema precisione il ciclo lunare e tutte le sue eclissi (passate, presenti e future), la costante di gravitazione universale di Newton è cambiata di meno di una parte su un miliardo da quando abbiamo iniziato l’esperimento e chicche del genere.

L’esperimento è stato “esteso” già negli anni ottanta con un paio di pannelli riflettenti russi ed oggi pensiamo sia pronto per il passo successivo. Il Next Generation Lunar Retroreflectors (NGLR) prevede di installare sulla superficie lunare ulteriori tre pannelli (con le prossime missioni Artemis) che dovrebbero essere fino a 100 volte più accurati e sensibili di quelli già presenti. I nuovi pannelli amplierebbero il reticolo di punti che “contattiamo” sulla superficie della luna garantendo così misurazioni più estese e precise.

WU