La costante che cambiava

Ci sono costanti che stanno ferme ed altre “costanti” che abbiamo bisogno di definire tali per tenere in piedi la nostra migliore modellazione dell’universo che ci circonda, ma che di star ferme non ne vogliono proprio sapere. Il che, a complicare le cose, non vuol dire però che siano quantità variabili.

La costante di Hubble è quel numero che ci dice a che velocità l’universo si sta espandendo, la distanza fra le galassie e non ultimo proprio l’età del cosmo. La costante di Hubble è quel valore che lega lo spostamento verso il rosso (redshift) della luce delle galassie e la loro distanza: maggiore la distanza di una data galassia, maggiore il suo spostamento verso il rosso.

In soldoni la costante di Hubble di da una relazione lineare fra velocità e distanza delle galassie (fra l’altro confermando il principio cosmologico che l’universo sia isotropo ed omogeneo su larga scala). Storicamente è stata la scoperta che ha spazzato via, in un sol colpo, tutti i modelli statici di universo (come erroneamente previsto da Einstein) e fatto strada ai modelli dinamici, incluso quello del Big Bang oggi largamente accettato.

La costante di Hubble è si costante nello spazio (ovunque guardiamo nell’universo), ma non nel tempo! Il che spiegherebbe anche perché tale “costante” presenta valori diversi se la si misura con strumenti diversi. Nel cosmo, infatti, il dove è molto parente del quando e puntando strumenti su oggetti molto lontani vuol dire guardare tanto indietro nel tempo…

Secondo le ultime osservazioni/studi/analisi oggi il valore della costante di Hubble è 76,8 chilometri al secondo per megaparsec ((km/s)/Mpc). Puntando ad oggetti diversi, più lontani nello spazio e nel tempo, il valore rilevato era invece 71,9 (km/s)/Mpc ed ancora, il valore della costante calcolato partendo dalla radiazione cosmica di fondo (ancora più indietro nel tempo) era di 67,4 (km/s)/Mpc.

La variazione del valore della costante è da attribuirsi alla forza di gravità che tenderebbe a far rallentare l’espansione dell’universo e la “misteriosa” energia oscura (che è alla base della costante cosmologiche gioia-e-dolore di Einstein) che invece tende a farla aumentare.

Possiamo fare anche un passetto ulteriore. Se la costante di Hubble mi dice in qualche modo la velocità alla quale si sta espandendo l’universo, la distanza di Hubble può essere definita come la distanza massima alla quale posso guardare considerando la velocità di espansione (e sempre assumendo costante la velocità della luce). Tale distanza è la distanza massima dall’osservatore oltre la quale leggi fisiche, spazio e tempo perdono significato. Guardare oltre non significa più nulla (e non è oggi tecnicamente possibile).

La distanza di Hubble “stimata” e “costante” è di 16.000.000.000 di anni luce.

WU

PS. Quando diciamo che l’età dell’universo è 13.82 miliardi di anni (solo?) assumiamo il valore della costante determinato dalla missione WMAP (71,0±2,5 (km/s)/Mpc).

42

(-80538738812075974)^3 + (80435758145817515)^3 +(12602123297335631)^3 = 42

Per risolvere questa equazione ci sono voluti circa 65 anni.

Ok, ok, diciamo le cose come stanno.

Quali sono i tre numeri interi (quindi non decimali, quindi senza le virgole) che elevati al cubo e sommati fra loro danno come risultato un numero preciso? Ovvero, matematicamente quali sono x, y e z tali che

x^3 + y^3 + z^3 = k

con K un numero noto?

Quella sopra è una particolare forma dell’equazione diofantea. Nel caso x^n + y^n = z^n (n è un parametro) sappiamo (il che vuol dire abbiamo dimostrato matematicamente e non trovato solamente soluzioni numeriche) che ha infinite soluzioni per n=2 mentre non ne ha nessuna per n>2. Nella sua versione esponenziale x^a – y^b = 1, in cui le variabili sono agli esponenti, sappiamo che esiste un’unica soluzione per x=b=3 e y=a=2 (mi affascina sempre vedere che in fondo le soluzioni “misurabili” per queste equazioni vedano tutti numeri piccoli, semplici, quotidiani, come attori…).

Ad ogni modo, tornando a noi, la domanda di cui sopra può sembrare banale (e quindi fa incaponire ancora di più appassionati, esperti e professionisti) ed in effetti per alcuni valori di k lo è.

La “sfida” fu posta in tale forma nel 1954 e furono trovate “velocemente” (diciamo nel giro di una trentina di anni) le risposte per tutti i valori di k fra 0 e 100 con due notevoli eccezioni: 33 e 42.

Per la soluzione dell’equazione per questi due valori (ma che avranno poi di così strano?) abbiamo dovuto aspettare il 2019. Ad inizio anno il 33 è capitolato ed a settembre dello stesso anno è stata la volta del 42.

Il metodo utilizzato per la soluzione è più che altro numerico (… diciamo pure che il “vero problema” è che equazioni in questa forma sono difficilmente invertibili ed è facile incappare in soluzioni decimali…): si butta l’equazione in pasto ad un super-mega-computer e gli si fanno provare tutte le combinazioni possibili (beh… più o meno) fino ad avere come risultato… 42.

Il computer utilizzato per risolvere l’equazione ha sfruttato il calcolo parallelo avvalendosi dei processori di un equivalente di 500.000 pc domestici (una sorta di pc-globale direi…) e dopo qualche milioncino di ore di lavoro… ecco la risposta. Ed è stata anche una botta di fortuna! In fondo il risultato è arrivato in “breve tempo”; il programma avrebbe potuto girare per centinaia di anni…

Ah, e non è tutto. Ci siamo limitati per ora a completare le soluzioni fino a k=100. Considerando k che va da 100 a 1000, mancano ancora molte soluzioni: 114, 165, 390, 579, 627, 633, 732, 906, 921 e 975

La sfida è ancora aperta (calcolatrice alla mano vi posso assicurare che per quanto semplice sia la domanda è sostanzialmente impossibile rispondere…)

WU

PS. Ovviamente come non pensare immediatamente (ed anche prima) a questo:

Ci aveva sicuramente preso!

PPSS. Nella smorfia, per la cronaca (non so perché mi sia venuta in mente questa domanda non appena ho letto la notizia e non sono certo solito consultare la smorfia…), il 42 è il numero del caffè. Pensateci, domattina.

Salary Theorem by Dilbert

“Dimostrare”, mediante quella che arbitrariamente definisco matematica-sociale, qualcosa che già tutti sappiamo da un intrinseca soddisfazione… almeno per un ingegnere (magari anche qualche sfumatura un po’ nerd). Poi, farlo anche in maniera ironica e corroborato dal solito faccione di Dilbert completa l’opera.

Oggi sono incappato nel teorema di Dilbert circa i salari. Sappiamo tutti che le retribuzioni medie dei “business man” o dei markettari sono più alte (e non a buon diritto) di quelle di un ingegnere, un tecnico o uno scienziato.

Beh, grazie al succitato teorema la cosa è oggi dimostrabile! I due postulati sono (anche questi ben noti a tutti) che la conoscenza è potere ed il tempo sono soldi.

Dato che la potenza (si, si gioca un po’ sul doppio senso potere-potenza, ma volete impuntarvi su questo?) è lavoro diviso tempo (come ogni buon ingegnere sa, non sono certo circa i C-level qualcosa…), sostituendo potenza con conoscenza e tempo con soldi si ottiene velocemente che maggiore è la tua conoscenza e minora è la tua prospettiva economica!

DilbertSalaryTheorem.png

Non è una frase fatta, sono le equazioni che lo dicono! Si, ok, ci stiamo ridendo un po’ su, ma la consueta prassi secondo cui i lavori tecnici non sono opportunamente incentivati, anche (ma, purtroppo, non solo) da un punto di vista economico è troppo diffusa. Ingiustamente, IMHO. Hanno voglia i Commerciali a vendere un prodotto che non c’è. Per un po’ funziona anche, con opportuna bravura anche per un bel po’, con degno supporto governativo/politico anche per tanto, ma sono sempre del parere che i nodi vengono al pettine.

Saper fare qualcosa vale tanto quanto saper coordinare chi la fa o saper vendere quello che si fa.

WU

PS. Mi tona in mente la frase di un mio professore che diceva sempre “chi sa fa, chi non sa insegna”. Professore, ripeto.

Il Quadrato Diabolico

Panmagico
Ultramagico
Diabolico
Pandiagonale

… più che altro mi sono soffermato sul perché diabolico e non divino…

Stiamo parlando di una sorta di “matematica ricreativa” (potrei sproloquiare a iosa su quest’accoppiata ma ve lo risparmio). Giochiamo a mettere una serie di numeri in una matrice.

E già qui qualcuno potrebbe pensare al Sudoku, altri allo psichiatra. Ad ogni modo esistono molti quadrati magici in cui la somma dei numeri che disponiamo sulle righe è uguale alla somma delle colonne o delle diagonali (e varianti sul tema ve ne sono in quantità).

Matematicamente si definisce Quadrato Magico uno schema numerico in forma di matrice NxN, in cui la somma dei numeri su ciascuna riga, colonna ed ogni diagonale dà sempre lo stesso valore. Si dimostra (ve lo risparmio anche se è abbastanza intuitivo) che non esiste un quadrato magico di ordine 2, che ne esiste uno solo di ordine 3 (che può ovviamente essere riflesso e ruotato) mentre ne esistono molteplici (tantissimi) degli ordini successivi.

Tuttavia, a Nasik, in India, è stato scoperto un quadrato magico 4×4 che è qualcosa di più… è diabolico (ma perché?!). Ovvero in questo quadrato non solo tutte le righe e le colonne sommate danno lo stesso numero, ma a che le diagonali e le diagonali ridotte, i quadrati minori, i quattro angoli, i quattro numeri nel centro, i due numeri centrali della prima e dell’ultima riga, i due numeri centrali della prima ed ultima colonna e via dicendo.

In breve, vi sono 86 modi diversi per ottenere lo stesso numero: 34!

MagicSquare.png

WU
PS. Il più piccolo dei quadrati magici è quello di ordine 3×3, detto anche Quadrato Magico di Saturno. La costante è 15! (E’ ovviamente quello a destra nell’immagine sopra)

PPSS. Poi, passando dalla “matematica ricreativa” a matematica leggermente più seria, vi sono teoremi ed algoritmi per costruire quadrati magici quasi di orni ordine, con relative generalizzazioni (quadrato bi-magico, quadrato magico di primi, etc.).

Blue Monday

E’ inequivocabilmente una cazzata.

Oggi è il giorno più triste dell’anno (e già il fatto che io ne parli per tempo da una misura della stupidità della cosa)… ma non secondo il mio umore, bensì in base ad una sofisticatissima, accuratissima a fumosissima formula matematica.

Benissimo!

Allora, dati i dediti di ciascuno (parametro facilmente generalizzabile, no?), i giorni che separano dal Natale (… fondamentale per me che sono induista 😀 ), il salario mensile (sempre troppo basso per definizione), il meteo (di una regione a caso da scegliere in base alle correnti dell’est), la scarsa motivazione (che oggi secondo una congiunzione astrale che dura da millenni raggiunge il suo apice) e la consapevolezza che bisogna rimboccarsi le maniche, otteniamo che il terzo lunedì di Gennaio è il giorno più triste di tutto l’anno.

Per l’equazione (che mi vedo bene dal riportare) basta chiedere a Google (ed evito anche ogni link), ma a parte la difficile quantificazione di uno qualunque dei parametri soggettivi sopra, non riuscirei neanche ad identificare unità di misura quanto meno comparabile per le grandezze in oggetto!

Razionalizziamo che abbiamo speso troppi soldi (…) durante le feste ormai alle spalle, che ci aspetta un anno lungo e faticoso, che non prevediamo ponti e ferie a breve, che non è periodo di viaggi (attenzione…) e quindi ci facciamo opprimere dalla tristezza. Detto così ha quasi più senso di una qualunque equazione matematica.

L’origine “dell’equazione” e da essa tra tradizione anti-scientifica che ne deriva, è di uno psicologo inglese (nome volutamente omissis), data 2005, è stato divulgato e se ne è fatta assumere la paternità, a suo tempo, dietro compenso ed è, sostanzialmente, una grandissima trovata pubblicitaria (ed il mio parlarne contribuisce a tutta l’operazione)… o una grandissima cazzata.

Che tristezza (parola quanto mail calzante).

WU

PS. E come non citare, almeno, l’alter ego della data odierna? Il Mr Hide del Blue Monday è il giorno più felice dell’anno: data prevista (dalla solita mitica equazione) fra il 21 ed il 24 Giugno… il solo saperlo mi ha già fatto passare un po’ di tristezza.

Divagazioni quantistiche

La seguente idea caratterizza l’indipendenza relativa di oggetti molto lontani nello spazio (A e B): un’influenza esterna su A non ha un’influenza diretta su B; ciò è noto come il Principio di Azione Locale, che è usato regolarmente solo nella teoria di campo. Se questo assioma venisse ad essere completamente abolito, l’idea dell’esistenza di sistemi quasi-chiusi, e perciò la postulazione delle leggi che possono essere verificate empiricamente nel senso accettato, diverrebbe impossibile.
[A. Einstein, Quanten-Mechanik und Wirklichkeit, 1948]

E’ un modo alquanto complesso di dire che se picchiano il tuo vicino tu non ti fai male.

E’ una della basi di tutta la fisica classica, anche se viola leggermente il nostro concetto di empatia (e forse ci farebbe bene che lo violasse ulteriormente). Ma ad ogni modo, rimanendo in ambito fisico, è la prima cosa che la meccanica quantistica infrange (possiamo metterci a parlare del teorema di Bell).

La complicata dicitura (che è solo l’inizio) di entanglement quantistici non asserisce altro che lo stato quantico di un sistema può essere descritto solamente come sovrapposizione di più sistemi. Ovvero: la misura di una variabile determina, istantaneamente il valore anche per altri stati. E questo è un casino (si, proprio il gioco a dadi a cui si riferiva Einstein e la base del paradosso di EPR).

In due parole, se il mondo quantistico fosse macroscopico, il passaggio di informazioni non richiederebbe iterazioni spazio temporali fra due entità, ma assisteremmo ad un intreccio (entanglment) di connessione causa-effetto istantanee e non causali. A volte penso di vivere in questo tipo di realtà.

WU

Casimir attraction

Prendiamo due piastre belle, lisce, parallele, non magnetizzate, senza alcun campo elettrico, estremamente vicine fra loro ed in vuoto. Secondo voi che succede?

Io avrei detto: assolutamente nulla.
Io avrei sbagliato, tanto per cambiare.

In realtà se le due piastre sono sufficientemente vicine (dell’ordine di pochi micron) si assiste al famoso effetto Casimir. Eh?! Semplicissimo: si attraggono!

Praticamente esiste una forza attrattiva che si genera fra due corpi estesi in vuoto ad opera dell’energia del vuoto (di questa delirio un’altra volta). In pratica (parolone) ciò che succede è che le particelle virtuali (che per loro natura mi viene da dire non potrebbero avere effetti reali) con una lunghezza d’onda che sia un sottomultiplo della distanza fra le due piastre sono le uniche che possono sopravvivere. Queste particelle, essendo meno di tutte quelle teoricamente generabili nel vuoto, provocano una spinta sulle piastre minore di quella che possono generare le loro virtuali equivalenti al di fuori dell’intercapedine fra le piastre. Quindi… il vuoto spinge le due piastre ad avvicinarsi!

effettoCasimr.png

Il trucco è nel concetto di vuoto, che per la fisica classica è semplicemente dove non c’è nulla, mentre per la meccanica quantistica, per il principio di indeterminazione, non si può garantire la totale assenza di ogni particella e/o campi. Il vuoto diventa quindi una regione a zero energia con fluttuazioni quantiche generate dalla creazione e distruzione di particelle virtuali con vita breve ma finita.

Tale forza può addirittura essere misurata (ovviamente parliamo di valori infinitesimali, così, ad esempio, circa 1e-17 gr per due piastre di 1 cm poste a 1 mm di distanza) anche se la loro verifica sperimentale non è stata affatto semplice. Ovviamente l’effetto è stato prima teorizzato (non indovinerete mai il cognome del suo formulatore…), nel 1948, e poi, negli anni 2000 (beh, 50 anni per avere una verifica sperimentale di un’idea devono essere una quelle cose che appagano la vita dell’ideatore…), verificato con gli occhi.

Rimane una delle pochissime prove macroscopiche della meccanica quantistica che, nonostante il suo essere profondamente controintuitiva, continua a governare il modo di comportarsi della materia nel infinitamente piccolo. Ed io continuo a fantasticare.

WU

PS. Ovviamente partendo dalla verifica sperimentale di un tale effetto le divagazioni ad utilizzi macroscopici (magari con scenari di generazione di energia/spinta pulita e dal nulla) pullulano allontanandosi, molto spesso, da qualunque base teorica.

Scala di Kardašëv

Avete presente la super arma di starwarsiana memoria che prende l’energia dal nucleo di un pianeta per distruggere altra robaccia? Oppure il supercattivissimo padrone di Silver Sufer che non vede l’ora di degustare qualche pianetino? E si potrebbe andare avanti con esempi, più o meno a caso, presi da libri e film fantascientifici inside.

Arriviamo, quindi, ad un’altra cosa che non sapevo. Le civiltà (si, è il caso di usare il plurale anche se oltre la nostra non ne consociamo nessuna si stima che nella sola Via Lattea ci sarebbero ben 4.590 civiltà in grado di comunicare con noi…) del cosmo possono essere anche classificate in base al livello di energia di cui dispongono.

L’astronomo russo N. Kardašëv nel 1964, molto probabilmente prima di vedere qualunque filmetto apocalittico, propose nel suo “Transmission of Information by Extraterrestrial Civilizations” una scala esponenziale di catalogazione del livello tecnologico delle civiltà basata sulla quantità di energia di cui queste possono disporre. L’astronomo desunse la sua scala, che in origine prevedeva “solo” tre classi, notando che il livello del consumo energetico sulla Terra seguiva da secoli un aumento costante.

  • Tipo I: civiltà in grado di utilizzare tutta l’energia disponibile sul suo pianeta d’origine (più o meno… 4e12 Watt)
  • Tipo II: civiltà in grado di raccogliere tutta l’energia della stella del proprio sistema solare (più o meno… 4e26 watt)
  • Tipo III: civiltà in grado di utilizzare tutta l’energia della propria galassia (più o meno… 4e37 watt)

KardasevScale.png

E già fin qui la strada è lunga (oppure è nuovamente fantascienza in base ai punti di vista). Ma si può andare anche oltre arrivando a (i passaggi intermedi sono già da poveri essere mezzo evoluti…):

  • Tipo IX: divinità estremamente superiore capace di creare oggetti non-cosmici che utilizza come fonte primaria di energia
  • Tipo X: esseri che hanno raggiunto una capacità tecnologica tale d’aver abbandonato il mondo cosmico come lo conosciamo per continuare a vivere ed evolversi in “universi” non-cosmici creati da loro stessi, al di fuori delle nostre leggi fisiche e quantistiche, ipoteticamente parlando questi esseri possono essere realmente considerati degli Dei nel senso stretto della parola

E l’umanità? Livello 0, neanche a dirlo. Siamo in grado di usare solo una porzione dell’energia del nostro pianeta e già facciamo danni. Meglio se stessimo fermi. Invece si stima che saremo (saranno) una civiltà di tipo I intorno al 2200. Intorno al 5200 raggiungeremo il tipo II e solo nel 7800 il tipo III. Per ora siamo, secondo il “criterio Sagan” 0.7.

WU

PS. E la scala è intrinsecamente legata alla teoria di L. White che si propone di spiegare la storia dell’uomo sulla base degli sviluppi tecnologici. In pratica la teoria propone che:

P = E x T

P sta per progresso, E per energia consumata e T un coefficiente determinato in base all’efficacia delle tecniche che utilizzano questa energia.

PPSS. Vi sarebbe poi il problema di come raccogliere tale energia… Voi come fareste, ad esempio, a raccogliete interamente l’energia di una stella? Semplice, con una sfera di Dyson… una specie di pokeball planetaria.

 

Maldoror’s Conjecture

Il fatto che vi fossero congetture su come scrivere (o non scrivere) su Wiki lo sospettavo, ma non lo sapevo per certo… ancora.

Allora ho scoperto qui (Wiki autoreferenziale in questo caso) che il buon Mr. Maldoror (ritirato contribuente del punto di riferimento del sapere digitale) ha formalizzato il tutto con la formula (semplice e quasi banale):

n>m

Ovvero, dati n modi di deturpare, vandalizzare, rovinare un articolo di Wiki ed m proibizioni, leggi, regole, avremo sempre una mente geniale che troverà un modo non vietato per diminuire il valore di una Wiki-voce.

La cosa simpatica è che si ammette umilmente che non vi è soluzione alcuna se non appellarsi al “buon senso comune” per preservare le voci dell’enciclopedia…

Altra cosa notevole (per me) è che il dettame è definito congettura, proprio come una congettura matematica che rappresenta una proposizione che si assume vera o falsa, ma che è molto difficilmente dimostrabile in maniera rigorosa partendo da delle ipotesi (sulle celebri congetture matematiche vi tedierò una prossima volta).

Beh, a questo punto dire che la cosa è banale sarebbe a sua volta banale (e dire che si applica benissimo alla vita fuori dal monitor lo sarebbe altrettanto). In ogni cosa la mente umana può arrivare ad eccellere, ma se messa davanti ad un divieto questo nostro talento naturale emerge prepotente. Dato un qualunque regolamento (… e non voglio dire che la cosa accade solo o più frequentemente in Italia…) è praticamente impossibile non inventare un modo di “circumnavigarlo” elegantemente.

“Fatta la legge, trovato l’inganno” si recita. E di per se potrei anche non essere contrario, ma quando andiamo a dribblare paletti messi per proteggerci (e l’uso di questo plurale che troppo spesso non è colto dalle nobili ed eccelse menti che vanno oltre il “buon senso comune”) allora mi pare che siamo così intelligenti da essere stupidi.

Difendiamoci da noi stessi (non solo, ovviamente, Wiki-parlando).

WU

New ideas immunity

You might have spotted in internet (actually on some social networks…) the image below (or the equivalent).

eq

Actually the idea is not new at all (The Attack of the Unexpected, by Magnus Lindkvistis THE reference book on the topic). Our resistance to change can be described as:

r = f(n^m)

In words this means that our resistance to new ideas (r) is a function (f) of the number of employees (n) and the number of management levels (m).

First and foremost: it is an exponential function of the management levels: i.e. it is far more critical for innovation having more managers than more employees… And, of course, in any form of career evolution we all tend to become some kind of “managers”.

Based on the feeling we, human being, have with respect to new opportunities and unexpected situations there are three classes:

  • change lovers (everything is worth of “let’s go!”)
  • change heaters (it doesn’t exist any new idea which is a good idea)
  • change reluctants (intriguing the new ideas, but… wait…)

The only way to bring changes is to rely on change lovers and make them leading and convincing the change reluctants.

Coming back to the equation: if we can not reduce the number of management levels, let’s try at least to have change lovers among them. Based on my (little) experience very few managers are evaluated with this criterion and the natural inclination is to became prudent and prudent with the “career progress”, i.e. change heaters: twist of Fate.

WU