Ecco a voi… i Raggi N

René Blondlot era un professore all’Università di Nancy (oltre che membro di una serie di Academie, tipo l’Académie des Sciences). Era il 1903 quando a suo nome uscì su una rinomata rivista scientifica un articolo in cui illustrava la sua ultima scoperta. Un nuovo tipo di radiazioni, i raggi N.

Blondlot.png

Parliamo di un periodo, l’inizio dello scorso secolo, in cui la radioattività la faceva da padrona: i raggi X erano stati scoperti meno di un decennio prima ed evidenza di radiazioni alfa, beta, gamma saltavano fuori da ogni dove. Si viveva, quindi, in un periodo in cui il nervo su nuovi possibili tipi di radiazioni era più che scoperto.

Blondlot, studiando i raggi X (più precisamente utilizzando la macchina di Röntgen al fine di scoprirne il funzionamento) notò delle anomalie luminose, per lui spiegabili solo attribuendole ad un nuovo tipo di radiazioni, i Raggi N (molto più potenti dei Raggi X!). In men che non si dica, l’osservazione divenne scoperta, la scoperta articolo e l’articolo pubblicazione.

Blondlot, di certo non l’ultimo pellegrino in tema di radiazioni, perfezionò i sistemi per rilevare ed addirittura produrre i “suoi” Raggi N. Eliminò accuratamente possibili fonti di interazioni e disturbi esterni per essere sicuro di vedere solo i raggi cercati. Blondlot scoprì che i Raggi N sono emessi da metalli riscaldati e da parecchie fonti naturali, fra cui il nostro sole.

I Raggi N potevano attraversare spesse lastre di metallo e corpi in generale opachi alla luce visibile (che a sua volta pareva interagire con i Raggi N). Acqua e cristalli di salgemma, al contrario, li assorbivano.

A partire dalle pubblicazioni e dagli esperimenti di Blondlot, la scoperta (ed il giusto entusiasmo per essa) di diffuse velocemente a tutto il mondo scientifico fino a raggiungere Charpentier, fisico-medico anch’esso di rinomata credibilità, che scoprì l’emissione di Raggi N anche da parte di nervi e muscoli, umani. Ah, l’emissione permaneva anche post-mortem. La scoperta poteva dunque essere usata per scopi medico-legali e diagnostici.

Perché fermarsi: i Raggi N potevano essere immagazzinati. Ed in maniera piuttosto semplice, bastava un semplice mattone avvolto in un foglio di carta nera ed esposto al sole. I Raggi N emessi dal sole, riemessi da mattone rimaneva intrappolati dalla superficie nera della carta.

Nel 1905 arrivò quel guastafeste di Robert W. Wood, professore di fisica alla John Hopkins University. Indovinate cosa voleva fare il signor Wood? Beh, riprodurre gli esperimenti di Blondlot & Co. Indovinate l’esito? Non ci riuscì. Consolato, si fa per dire, dall’insuccesso dei suoi colleghi d’oltreoceano, decise quindi di recarsi a Nancy per vedere i laboratori che avevano dato la luce ai Raggi N… ed imparare qualcosa (si, nella Academia vera, non ci si approccia con scetticismo/arroganza ma con Umiltà).

Blondlot ripropose al collega l’esperimento originario in cui Wood, tuttavia, non notò alcuna variazione di luminosità (le famose anomalie luminose) che avevano fatto gridare Blondlot alla scoperta. La campagna sperimentale proseguì; Blondlot intendeva misurare e far vedere al collega la deviazione subita da un fascio di Raggi N incidenti su un prisma di alluminio. L’apparato sperimentale prevedeva un prisma di alluminio (ovviamente), un sistema di focalizzazione ed uno schermo fluorescente che fungeva da rivelatore dei raggi N (quelli deflessi). Il team di Blondlot voleva dimostrare quattro differenti posizioni nella deflessione, ovvero quattro differenti lunghezze d’onda dei Raggi N. Anche in questo caso, tuttavia, Wood, non notò i risultati che Blondlot ed il suo team volevano fargli vedere.

A questo punto Wood chiese semplicemente di ripetere l’esperimento. Non visto rimosse il prisma di alluminio dall’apparato sperimentale. Inutile dire che i suoi colleghi non fecero altro che notare le stesse cose e confermare i risultati del precedente esperimento.

Wood lasciò Nancy.

Rientrato in patria pubblicò un resoconto circa ciò che aveva visto durante il suo soggiorno a Nancy, e soprattutto ciò che NON aveva visto. I Raggi N, sostenne, esistevano solo nella mente dei suoi scopritori i quali, certamente in buona fede, si erano fatti forse trascinare troppo dall’entusiasmo del periodo per le emissioni radioattive fino a voler vedere ad occhio nudo tenui (se esistenti) variazioni di luminosità che avevano evidentemente una natura assolutamente casuale. Si erano autoconviti di una grande scoperta in preda all’entusiasmo ed avevano voluto vedere (e trasmesso!) una ripetibilità delle osservazioni che non aveva attecchito in una mente “esterna”.

I sostenitori dei Raggi N, anche dopo lo smacco, giocarono le loro ultime carte. Per osservarli serviva parecchia sensibilità (tipica, sostennero, soprattutto delle razze latine). E questo è evidentemente indice che il castello era crollato.

Blondlot rifiutò di sottoporsi ad un esperimento pubblico e decisivo per provare l’esistenza o meno dei Raggi N (ulteriore indicatore che qualcosa che anche a lui non tornasse… ma evidentemente preferiva non subire “pubblica gogna”). Blondlot morì nella sua Nancy nel 1930.

Non è una storia di frodi o menzogne, è una storia di forti convinzioni che portano a distorcere le evidenze del metodo scientifico. Non erano gli anni in cui con scoperte del genere di odorava un business milionario; oggi si. All’autoconvinzione tende ad aggiungersi la truffa (io dell’E-Cat, pro cause, non ho mai parlato).

WU

PS. Ah, Raggi N, da Nancy, ovviamente.

Annunci

Impostori intellettuali – l’affare Sokal

David Sokal è un professore di fisica presso la New York University. Sconosciuto ai più (compreso il sottoscritto) se non fosse per la sua beffa che nel 1996 ha iniziato (e sono certo non abbiamo finito!) ad accendere i riflettori sui meccanismi di selezione degli articoli scientifici/culturali. Qualche passo avanti è stato fatto, certo, ma come ormai saprete, la peer-review non è, IMHO, la soluzione, ma solo un male (lo stesso male: la mancanza di oggettività) edulcorato.

Ad ogni modo, 1996, Sokal pubblica un notevole articolo: Transgressing the Boundaries: Towards a Trasformative Hermeneutics of Quantum Gravity.

Eh?! Letteralmente qualcosa tipo: Violare le frontiere: verso una ermeneutica trasformativa della gravità quantistica.

TransgressingBoundaries.png

Già il titolo non si capisce o non vuol dire nulla (ma suona bene! E vedremo fra poco che questo è un must!); l’articolo, poi, non era altro che un collage di frase senza senso. Si sosteneva una fanta-tesi secondo cui la gravità quantistica non fosse altro che un costrutto, tutto umano, sociale e linguistico.

Effettivamente più che una beffa potrebbe essere descritto come un esperimento sociale, in cui l’autore vuole dimostrare (e ci riesce egregiamente) che il meccanismo di selezione dei contenuti scientifici e divulgativi non è sano. In particolare si basa, secondo l’autore, sul fatto che le frasi (ripeto, appiccicate l’un l’altra senza senso) suonino bene e, soprattutto, che fossero in qualche modo in accordo con i presupposti ideologici dei redattori/curatori della rivista specifica.

Here my aim is to carry these deep analyses one step further, by taking account of recent developments in quantum gravity: the emerging branch of physics in which Heisenberg’s quantum mechanics and Einstein’s general relativity are at once synthesized and superseded. In quantum gravity, as we shall see, the space-time manifold ceases to exist as an objective physical reality; geometry becomes relational and contextual; and the foundational conceptual categories of prior science — among them, existence itself — become problematized and relativized. This conceptual revolution, I will argue, has profound implications for the content of a future postmodern and liberatory science

Questo secondo punto fu declinato da Sokal inserendo il termine femminista (tema caro alla rivista su cui l’articolo fu pubblicato, “Social Text”) ben 35 volte all’interno dell’articolo… che non dimentichiamoci parlava di gravità quantistica! La cosa fu fatta con locuzioni (tipo “algebra femminista”… qualunque cosa significhi) o mediante similitudini (“proprio come le femministe liberali…”).

Sokal descrisse l’articolo (ed anche questa sembrerebbe un pezzo dell’articolo stesso…) come “un pastiche di ideologie di sinistra, riferimenti ossequiosi, citazioni grandiose e prive di senso, strutturato attorno alle più sciocche frasi di accademici postmodernisti che avevo potuto trovare riguardo alla fisica e alla matematica“.

Quello che ci (mi) rimane è che l’attendibilità delle riviste scientifiche o di settore è comunque molto bassa (e di certo un articolo che “suona bene” e compiace l’editore ha molte chances di essere pubblicato…), tanta tristezza per l’egregia riuscita dell’esperimento, ma principalmente il fatto di aver capito da dove il Conte Mascetti ha tirato fuori l’idea della sua Supercazzola.

WU

Il destino dei disattenti

… è la disoccupazione.

Per quel che mi concerne queste sono semplicemente cazzate. E quasi mi vergogno a dargli ulteriore rilevanza parlandone (anche se passa sotto il cappello di “ricerca” con tanto di fondi, ne sono certo, e pubblicazioni associate…). Oltre al fatto che mi pare anche una conseguenza abbastanza banale che in qualche modo potevamo anche immaginarci.

In this large population-based sample of kindergarten children, behavioral ratings at 5-6 years were associated with employment earnings 3 decades later, independent of a person’s IQ and family background. Inattention and aggression-opposition were associated with lower annual employment earnings, and prosociality with higher earnings but only among male participants; inattention was the only behavioral predictor of income among girls. Early monitoring and support for children demonstrating high inattention and for boys exhibiting high aggression-opposition and low prosocial behaviors could have long-term advantages for those individuals and society.

I bambini di meno di sei anni hanno già il loro destino segnato. Se a quella età sono disattenti ed irrequieti hanno un’alta probabilità di restare disoccupati e fancazzisti, se invece sono attenti, socialmente integrati (praticamente bimbi da manuale) allora per loro la strada è tutta in discesa.

Ora, a parte le correlazioni, che tanto si potranno sempre trovare, fra il comportamento di un bimbo in età prescolare ed il suo destino da adulto, vi pare una cosa sensata ignorare tutto quello che sarà poi l’effettiva crescita del “giovane adulto” dai sei ai trentacinque anni?

Bimbi “pro-sociali”, interessati agli altri, integrati nel contesto in cui vivono, proattivi nelle attività, etc etc, hanno più probabilità di avere uno sfolgorante futuro, fare carriera e guadagnare tanti bei soldoni. Per tutti gli altri è meglio saltare dalla rupe.

La ricerca di per se vuole mettere in correlazione l’approccio comportamentale dei bimbi a livello scolastico/sociale/didattico con i possibili risvolti, positivi o negativi, nella vita professionale che poi avranno da adulti. Lo studio ha analizzato 2850 bambini che hanno frequentato l’asilo a partire dal 1985 e li ha “seguiti” fino al 2015… anno in cui avrebbero dovuto ormai essere nel pieno delle loro occupazioni lavorative. Il legame che la ricerca ha (voluto) evidenziare è quello fra la disattenzione nell’età dell’infanzia con esiti lavorativi avversi a lungo termine. Boh… per me poteva anche correlare il colore dei capelli con le inclinazioni sessuali, sarebbe stato altrettanto valido…

Mi rendo conto di stare un po’ estremizzando una analisi statistica che può anche avere un fondamento, ma la cosa su cui vorrei portare l’attenzione è che è (anche e soprattutto) come il bimbo cresce a determinare il suo futuro. Le inclinazioni personali, che di certo dominano fino a sei anni, contribuiscono si ad un futuro sfavillante o meno, ma non direi che la strada è segnata. Ne in un verso, ne nell’altro.

L’unica cosa che apprezzo di tale “ricerca” è che non si è tirato in ballo il quoziente intellettivo dei giovani virgulti, lasciando il destino della disoccupazione solo al non aver condiviso la merenda con il compagno di banco 🙂 .

WU

Anomalia metallica lunare

Una astronave aliena sepolta sul nato nascosto della luna. Un enorme giacimento di adamantio celato da secoli di polveri. Un indizio della civiltà che ci sta osservando come fossimo pesci rossi in un acquario. O quello che vi viene in mente… in fondo una delle più belle ed intriganti ripercussioni dell’esplorazione spaziale è proprio quella di alimentare la fantasia. Che poi sia poco (o nulla) attinente con la realtà poco importa, basta che non diventa pseudo-scienza o alimenti qualche bufala on line… d’altra parte la fantascienza è sempre esistita, no?

Tornando a noi, la notizia di questi giorni è che è stato rilevato da ben due missioni Nasa in orbita attorno alla Luna una strana massa. Li, sul nato nascosto del nostro satellite c’è un immenso cratere, ad occhio simile a tanti altri, ma che “visto bene” (in realtà osservato diversamente) cela uno strano segreto.

Il Bacino Polo Sud-Aitken è un enorme cratere da impatto del diametro di circa 2.500 chilometri che copre circa un quarto della superficie lunare. Li, sia le due sonde Grail (Gravity Recovery and Interior Laboratory) che la sonda Lro (Lunar Reconnaissance Orbiter), hanno misurato (quella che tecnicamente si chiama anomalia gravitazionale, tipo questa…) qualcosa di decisamente anomalo. Le informazioni ricavate hanno infatti indicato che il bacino ha una densità nettamente superiore alla media della superficie lunare non giustificabile anche assumendo che in quel punto la superficie sia ricca di materiali ferrosi.

MoonMetallicBulge.png

Si è dunque, forzosamente, dovuti giungere alla conclusione che una grande (qui l’articolo Deep Structure of the Lunar South Pole-Aitken Basin), grandissima, enorme massa metallica si estende per circa 300 chilometri sotto la superficie di quel cratere. Se la volessimo paragonare a qualcosa stiamo parlando di una massa che è cinque volte più grande ella Big Island delle Hawaii (ovvero circa cinque volte più grande del piemonte…).

Fantascienza a parte potrebbe trattarsi di un oceano di magma solidificato, verosimilmente ricco di ossidi di titanio; oppure proprio del nucleo dell’asteroide impattato che è ancora incorporato nel mantello della luna. Secondo alcune simulazioni, infatti, se il nucleo della Luna non è abbastanza fuso, la massa di ferro-nichel di un asteroide caduto addirittura 4 miliardi di anni fa può rimanere sospesa fino ai giorni nostri nel mantello superiore (tra crosta e nucleo) invece che piombare diretta versa il nucleo del satellite.

Il mistero permane, ma i dati che stiamo acquisendo aumentano (e non mi aspetto che ci saranno buone sorprese per i complottisti/ufologi). Il rover Yutu2 della missione cinese Chang’e 4, infatti, sta attualmente attraversando il cratere, raccogliendo dati mirati per trarre una conclusione definitiva sull’anomalia.

Credere è bello, scoprire, almeno in teoria, di più.

WU

Il vagito dei grandi terremoti

Non significa esattamente prevedere i terremoti, ma avere una specie di indizio sull’entità degli stessi nei primissimi momenti è comunque un passo avanti… poi, considerando che è a costo quasi zero tanto meglio, no?

Quando comincia la rottura di una faglia quelli che sono detti “i grandi terremoti”, da magnitudo da 7 in su, hanno una specie di suono distintivo. E la cosa ancora più affascinante è che tracce di questa nascita sono “facilmente” (ora che lo abbiamo scoperto, ovviamente) desumibili dai dati del Gps. In particolare da quei dati che misurano il movimento del terreno a soli 10-15 secondi dall’inizio del fenomeno.

La ricerca, portata avanti dall’università’ dell’Oregon (dove sono ben allertati su un grande terremoto distruttivo…), analizza oltre 3000 terremoti accaduti a partire dai primi anni Novanta in Cina e negli Stati Uniti ed identifica una accelerazione nello spostamento del terreno entro i primi secondi di 12 grandi terremoti avvenuti tra il 2003 e il 2016. In pratica, se l’accelerazione del terreno, che manifesta precocemente le proprietà meccaniche del sisma, assume certe frequenze caratteristiche (rilevabili, appunto, dal segnale Gps), vi sono ottime probabilità che il terremoto sia particolarmente distruttivo.

We show through analysis of a database of source time functions and near-source displacement records that, after an initiation phase, ruptures of M7 to M9 earthquakes organize into a slip pulse, the kinematic properties of which scale with magnitude. Hence, early in the rupture process—after about 10 s—large and very large earthquakes can be distinguished.

I risultati della ricerca indicano che nei primi secondi dell’evento vi sono differenze identificabili nella frequenza delle oscillazioni delle onde sismiche, il che permette di fare una previsione su come evolverà l’evento. Lo scopo è, ovviamente, quello di migliorare l’accuratezza dei sistemi di allerta precoce (…tutti in attesa del temutissimo “Big One”…), anche se non vi sono applicazioni immediate della tecnologia a sistemi di allerta dato che da informazioni rilevabili solo ad evento già iniziato, ma la scoperta fornisce comunque una risposta fondamentale circa la differenza nell’origine di terremoti piccoli e grandi. Non è nell’evoluzione del processo di rottura la differenza, ma i mega terremoti sono proprio radicalmente diversi, dalla nascita, rispetto a quelli più piccoli.

EarthquakesCharacterization.png

Anche in questo caso, il suono che accompagna la nascita di questi eventi racchiude più informazioni di quante finora ne cogliessimo. Basta restare in ascolto della natura per capire cosa ci accade attorno. Se solo ci fermassimo ad ascoltare…

WU

PS. Ovviamente un cauto ottimismo è d’obbligo:

The challenge is that we’ve found average patterns. Individual earthquakes have their own personality. There can be variability. A magnitude 9 can accelerate at different rates. We have to wait longer to be super sure about what we are seeing.

The First Machine-Generated Research Book

Ci immaginiamo (sostanzialmente perché ci piace farlo…) il mondo conquistato dalle macchine quando ci mettiamo a fare la guerra a cyborg stile Terminator oppure quando un super-codice alla Matrix ci ha ridotto allo stato vegetativo. Sarebbe anche simpaticamente distopico, ma sostanzialmente prima di arrivare ad essere schiavizzati dai computer e robot credo passerà tanta acqua sotto i ponti; anche che sia fluendo proprio in questo momento.

Non per questo non dobbiamo guardarci attorno ed osservare come oggi codici e macchine ci stanno colonizzando ; non tanto per averne paura (o fare qualche Kolossal…), quanto per capire dove ci siamo spinti e dove possiamo spingerci.

Sul fatto della mia posizione prevenuta nei confronti di pubblicazioni peer-reviewed non ne ho mai fatto mistero, sul fatto che oggi un algoritmo è in grado di pubblicare un libro, confesso, non avevo una posizione, ma tutto sommato inizio a pensare che sarebbe un sistema più obiettivo ed imparziale di tanti “luminari”.

Ad ogni modo, la realtà è che oggi (software alla conquista) si può acquistare, edito dalla Sringer (non esattamente la casa che cura le edizioni del giornaletto dell’oratorio) il primo libro generato da un algoritmo.

Lithium-Ion Batteries – A Machine-Generated Summary of Current Research: non esattamente il genere di libro che leggeremmo la sera a letto, ma sicuramente un ambito in cui la ricerca (ed immancabili pubblicazioni) abbondano. Perché non pensare ad un algoritmo che le selezioni, cataloghi e vi scriva su un libro in cui i capitoli (ovviamente di senso compiuto!) sono estratti degli articoli che sono propriamente citati e linkati?

Springer Nature published its first machine-generated book, compiled using an algorithm developed by researchers from Goethe University. This collaboration broke new ground with the first machine-generated book to be published by a scholarly publisher.

The book offers an overview of new research publications on lithium-ion batteries – a structured, automatically generated summary of a large number of current research articles. It gives researchers an overview of the latest research in this rapidly growing field, allowing them to manage the information efficiently.

Il LIBRO offre una panoramica delle ultime ricerche nel campo (si, in questo caso parliamo di batterie agli ioni di litio, ma cosa ci limita?) ed è rivolto ad una platea che vuole avere un sistema efficiente e completo per capire cosa si sta facendo. Pochi fronzoli, referenze e molta sostanza… perfetto per un algoritmo-editore (… e mi immagino anche economicamente vantaggioso per la casa editrice stessa…).

Non è un manuale, ne una raccolta di articoli, non è un mattone tecnico o una descrizione antologica delle batteria agli ioni di lito, ma si tratta di una pubblicazione a tutti gli effetti esattamente come quelle che abbondano con editor, guest editor, lead editor, bla bla bla… Dalla intro del libro:

Advances in technology around Natural Language Processing and Machine Learning have brought us to the point of being able to publish automatically generated meaningful research text.

We have seen the rise of automated text generation in popular fiction (with quite diverse and fascinating results), automated journalism such as in sports, stock market reports or auto-produced weather forecast (data-to-text), automated medical reviews and not to forget the remarkable progress in dialog systems (chat bots, smart speakers).

As far as it concerns scholarly publishing, many attempts in this area up to now have had a negative perception, and the outcome has fallen short of expectations. Often such texts have been however quite successful in demonstrating flaws in the scientific reviewing processes, clearly serving as an important corrective.

L’algoritmo è il risultato di una stretta collaborazione fra editori scientifici linguisti ed informatici, e già questo potrebbe essere un successo. Ma vedere cosa siamo oggi in grado di fare con un buon software (oltre, ovviamente, a farci accapponare la pelle) non può che aprirci gli occhi su quanto imparziali siamo noi in tante, troppe mansioni.

“While research articles and books written by researchers and authors will continue to play a crucial role in scientific publishing, we foresee many different content types in academic publishing in the future: from yet entirely human-created content creation to a variety of blended man-machine text generation to entirely machine-generated text. This prototype is a first important milestone we reached, and it will hopefully also initiate a public debate on the opportunities, implications, challenges and potential risks of machine-generated content in scholarly publishing.”

WU

PS. Qui il pdf (per vostra goduria). Leggendone pezzi a caso mi pare anche scritto meglio di tanti articoli che mi passano davanti gli occhi…

Pigeon Ranking

… esisteva il PageRank di Google, perché fermarci? Per di più quando la cosa parte da uno scherzo (ebbene si, un pesce d’Aprile…), si trova sotto i nostri occhi tutti i giorni e motiva un bel team di ricerca che fa le cose che gli piacciono e viene anche pagato per farlo?

“When a search query is submitted to Google, it is routed to a data coop where monitors flash result pages at blazing speeds,” the copy said. “When a relevant result is observed by one of the pigeons in the cluster, it strikes a rubber-coated steel bar with its beak, which assigns the page a PigeonRank value of one. For each peck, the PigeonRank increases. Those pages receiving the most pecks, are returned at the top of the user’s results page with the other results displayed in pecking order.”

Correva il primo Aprile 2002 quando Google in una comunicazione “ufficiale” rivelò l’algoritmo alla base del proprio, super-segreto, da tanti emulato, sistema di indicizzazione delle pagine web. Il PageRank non era frutto, si disse, di Intelligenza Artificiale, bensì di Intelligenza Animale (il fatto che l’acronimo sarebbe lo stesso nei due casi quasi mi fa rabbrividire…). In particolare il sistema di ranking era affidato all’innata capacità di identificare la differenza di immagini e nel riconoscere pagine con contenuti più informativi del… piccione domestico. Le pagine con il maggior numero di beccate erano quelle che finivano ai primi posti nei criteri di ricerca, semplice no!?

Ovviamente (ovviamente) la cosa era un pesce d’Aprile ben architettato, ma anche quando si seppe la verità la cosa non morì li. Esperimenti sulle capacità di identificare e distinguere immagini da parte dei piccioni risalgono ai primi del novecento e, già all’epoca i risultati non erano affatto malvagi…

Partendo dallo scherzo per quasi un decennio un team di ricerca ha veramente provato a studiare più in dettaglio le capacità di condizionamento del Columba livia. Le abilità cognitive e visive dei piccioni sono state testate presso l’Università della California Davis nel campo della medicina diagnostica.

Quattro esemplari, in particolare, sono stati addestrati a distinguere fra le immagini di tumori al seno quelle benigne da quelle di tumori maligni. I piccioni dovevano beccare due pulsanti di differente colore in base al tipo di tumore. La ricompensa, nel caso di identificazione corretta, era ovviamente un po’ di cibo.

PigeonRank.png

Beh, già nel giro di un paio di settimane i piccioni categorizzavano correttamente l85-90% delle immagini. E c’è anche di più: sottoposti al test con un differente set di immagini tumorali (non legati al seno) gli uccelli si sono dimostrati in grado di generalizzare quanto appreso arrivando a catalogare correttamente circa 80% dei tumori.

[…] The birds proved to have a remarkable ability to distinguish benign from malignant human breast histopathology after training with differential food reinforcement; even more importantly, the pigeons were able to generalize what they had learned when confronted with novel image sets. The birds’ histological accuracy, like that of humans, was modestly affected by the presence or absence of color as well as by degrees of image compression, but these impacts could be ameliorated with further training. Turning to radiology, the birds proved to be similarly capable of detecting cancer-relevant microcalcifications on mammogram images […]

Si è quindi passati a studiare “l’effetto gruppo”, ovvero capire se ad un maggior numero di beccate di un dato bottone corrispondesse effettivamente una maggiore affidabilità nella catalogazione. La risposta è stata ancora una volta affermativa: la “saggezza dello stormo” nella catalogazione era mediamente superiore a quella dei singoli pennuti arrivando a sfiorare il 93% di accuratezza.

Se non altro è stata la conferma che la regola della “saggezza delle folle” applica benissimo anche agli stormi: ovvero quando una massa di individui (o piccioni) inesperti è capace di fornire comunque una risposta adeguata a un problema (ah, e questa teoria è effettivamente una delle componenti alla base dell’intelligenza artificiale del PageRank di Google che tende a dare più importanza alle pagine “linkate” da più fonti esterne…).

WU

PS. Google Pigeon è un’altra cosa ancora (vera)…

Qbit, Tempo e tante Chiacchiere

Tanto l’avrete letto anche voi; ieri era su quasi tutti i quotidiani: gli scienziati hanno invertito la direzione del tempo.

Team russo, computer quantistico, esperimento fatto a livello microscopico, stato artificiale creato in maniera da evolvere in direzione opposta alle leggi della termodinamica sono forse alcune delle parole che i più arditi si sono spinti a leggere.

In breve, la direzione del tempo è data dal SECONDO principio della termodinamica che dice che l’entropia (il caos, in parole volgari) di un sistema tende ad aumentare. Una tazzina che cade si rompe, i suoi cocci sono meno ordinati della tazzina intera, se ci fanno vedere il disastro filmato in reverse mode ce ne accorgiamo subito. Questa è roba da libri di scuola (… che forse se si inspirassero al “flusso canalizzatore” avrebbero più copie vendute…).

Quando però entriamo nel mondo della meccanica quantistica le cose non sono così ovvie. Entra in gioco la probabilità ed il fatto che la tazzina si ricomponga e risalga nelle nostre mani non è teoricamente impossibile, ma solo altamente improbabile. A livello microscopico, invece, è possibile che la freccia del tempo sia reversibile e che proceda sia in un senso e in quello contrario.

Questa possibilità era stata già teorizzata nei primi anni novanta da Ilya Prigogine, (poi premio Nobel per la chimica nel 1977 proprio per le sue teorie sulla termodinamica applicata a sistemi complessi), e si pensava possibile solo a livello microscopico (…la polemica la faccio dopo, ma già questo quanto -è proprio il caso di dirlo- di informazione non mi pare sia stato detto negli articoli sensazionalistici circa l’esperimento).

L’esperimento in oggetto ha utilizzato un computer quantistico per analizzare la posizione di un elettrone. Prima l’elettrone è stato fatto passare da una fase in cui era precisamente (beh, più o meno a causa del principio di indeterminazione) localizzato ad una in cui il sistema era nettamente più caotico ed il nostro elettrone non era più facilmente individuabile. In un secondo tempo, grazie a un algoritmo (che è il vero cuore dell’esperimento), è stato compiuto il percorso inverso: l’elettrone dal sistema caotica è tornato a essere localizzato. Come se avessimo rivisto la nostra tazzina ricomporsi e “gridato” all’inversione del tempo.

E’ tutto bellissimo e certamente un esperimento degno di nota. La cosa che mi lascia però molta tristezza è che se non si fossero usati titoli sensazionalistici circa l’inversione delle freccia del tempo nessuno avrebbe neanche aperto una pagina circa l’esperimento in questione. Ovvero, anche nel campo della ricerca scientifica (che un tempo era quel settore in cui i risultati andavano comunicati nella maniera più chiara, nitida, breve, anche brutale se volete possibile) si è iniziato ad usare una sorta di sistema “click biting” per farsi pubblicità.

Se grazie a questa “pubblicità” ci siamo convinti che possiamo viaggiare nel tempo, i “divulgatori” hanno fatto il loro lavoro, ma la verità è che il tempo continua ad evolvere come lo abbiamo sempre conosciuto e solo l’elettrone (con tutti i se ed i ma del caso… i qubit tornavano al loro stato iniziale nel 85% dei casi quando erano due e nel 50% quando erano tre… ma questo è un dettaglio da trafiletto, no?!) è “tornato indietro”. Detto così sono certo non avrebbe avuto tutto il clamore che gli è stato riservato un po’ ovunque.

Sarà stata anche una grande pubblicità, ma IMHO il valore scientifico dell’esperimento è stato un po’ offuscato da tutto questo sensazionalismo (… che spero non abbia anche ingenerato errate percezioni da chi legge solo titoli o le prime righe di articoli semi-seri).

WU

Mola Tecta: grosso grosso, elusivo elusivo

Mi affascina pensare che ancora al giorno d’oggi, in cui crediamo che la razza umana abbia conquistato il globo, si possano continuare a scoprire nuove specie animali. E non sto parlando del mico-ragnetto rinchiuso nella torre più alta del castello più scuro circondato da un fossato di lava, ma di un bestio (per giunta vertebrato…) da migliaia di chili che ha verosimilmente nuotato sotto i nostri piedi e le nostre navi più e più volte.

La Mola Tecta è un parente prossimo del comune pesce luna (dallo stranamente simpatico nome scientifico di mola mola…) che però misura fino a tre metri di lunghezza per più di due tonnellate di peso. Il che lo rende il più grande pesce osseo del pianeta (beh, non è che ci eravamo persi un dettaglio…). Si è nascosto per quasi tre secoli “confondendosi” (neanche lo facesse di proposito) fra i suoi parenti più prossimi… l’ultima volta che si classificò un nuovo pesce luna avvenne ben 125 anni fa.

Il Mola Tecta, proprio come il pesce luna, ha una forma vagamente ovoidale schiacciata sui lati con una bocca allungata in cui i denti sono fusi in un’unica specie di becco (praticamente un “disco nuotante”).

MolaTecta.png

Non è ben chiaro quale sia il suo habitat: sappiamo che vive (e pesca) in acque profonde, ma fin’ora è stato ritrovato un po’ in tutto il globo. Predilige le acque fredda (a differenza del mola mola) e si dovrebbe nutrire di organismi gelatinosi (tipo le meduse).

Il pesciolone è di indubbie dimensioni ed il fatto che sia rimasto celato alle nostre catalogazioni lo avvolge di un’aurea di mistero. Poi ci aggiungiamo che lo abbiamo rinvenuto anche dove non avremmo mai pensato e che poco sappiamo delle sue abitudini ed il risultato è che torniamo a dirci che vi sono ancora molti misteri sotto i nostri piedi e dovremmo forse essere un po’ più umili quando disponiamo delle sorti di questo pianeta.

WU

PS @22.03.19: neanche a farlo apposta pare che il pesciolone abbia nuovamente facco capolino sulle spiagge australiane lasciando, ancora una volta, con gli occhi sgranati coloro che lo hanno rinvenuto. Che i recenti e stranamente frequenti “spiaggiamenti” del mola mola di questi tempi siano veramente indice di qualche cambiamento (climatico anche nelle acque profonde?)?

Farout

C’è la pantera rosa ed il pianeta rosa 🙂

… ma sono anche certo vi siano pianeti di un’infinità di altri colori e non per questo fanno notizia. Il fatto che Farout sia rosa è comunque un di più, quasi un vezzo, rispetto ad altre due sue fondamentali caratteristiche: non lo conoscevamo fino a poco tempo fa, ma orbita assieme a noi e tutti gli altri pianeti del nostro sistema solare attorno al nostro Sole; ed è lento, estremamente lento.

Farout, nome in codice 2018 VG18, si trova a quasi 18 miliardi di km dal Sole. Una distanza decisamente ragguardevole, tanto per darvi un’idea è 120 volte più distante dal sole della nostra Terra e Plutone (pianeta, oggi pianeta nano, per lungo tempo considerato l’ultimo abitante del nostro sistema solare si trova a “sole” 40 volte la distanza Terra-Sole ed Eris, il pianeta nano che deteneva il precedente record di distanza dal Sole si trova a 96 volte Terra-Sole… Questo rende Farout (almeno fino a prova contraria) l’oggetto più distante mai osservato del nostro sistema solare.

Nenche a dirlo, la sua scoperta è frutto di una sorta di serendipity quando i telescopi scandagliavano gli angoli più remoti del cielo alla ricerca dell’ormai famigerato pianeta nove. Del pianeta oggetto della ricerca nessuna traccia, ancora, ma sulle lenti del telescopio giapponese Subaru si è materializzato un puntino luminoso… e rosa (beh, non è proprio così, ma romanziamo un po’ la scoperta…).

Il diametro di Farout è approssimativamente 500 km (circa un settimo della nostra luna, per darvi un’idea), la sua enorme distanza dal sole lo rende così lento che impiega circa 1000 anni a compiere un’intera rivoluzione ed è… rosa. Appunto. Il colorino rosa è abbastanza tipico di mondi freddi, scuri e ghiacciati, ma non sappiamo ancora molto sulla motivazione di tale colore. E’ molto probabilmente causato dall’effetto dei raggi cosmici sul metano ghiacciato, che abbonda sulla superficie di questi mondi

Farout.png

2015 TG387 and 2012 VP113 never get close enough to the Solar System’s giant planets, like Neptune and Jupiter, to have significant gravitational interactions with them. This means that these extremely distant objects can be probes of what is happening in the Solar System’s outer reaches. The team doesn’t know 2018 VG18’s orbit very well yet, so they have not been able to determine if it shows signs of being shaped by Planet X.

… che vuol dire, più o meno, che Farout NON è il pianeta nove (Planet X), ma la sola idea che questo oggetto possa esistere ci sta portando ad esplorare angoli remoti del nostro sistema solare che non avevamo mai osservato e le scoperte, Farout in primis, vengon da se.

WU

PS. Farout in inglese significa qualcosa tipo “molto lontano”, ma anche “non convenzionale”. Trovo il nome decisamente calzante dato l’oggetto.

PPSS. E’ lo stesso gruppo di ricerca che aveva, sempre cercando tracce del pianeta nove anche identificato il Goblin …