Atmosfera in gabbia

Il super-cattivo di turno vuole escogitare un piano per distruggere il nostro pianeta, uccidendo tutte le forme di vita!
Vuole trovare un modo per disperdere l’atmosfera terrestre nello spazio, lasciando letteralmente “senza fiato” tutte le specie viventi sulla Terra.

Ma come può fare? L’atmosfera sembra ingabbiata dalla forza gravitazionale, che la
tiene ben incollata sulla superficie; bisogna trovare un modo per liberarla!

Esplosione del pianeta Namek (tratto da qui

Esplosione del pianeta Namek
(tratto da qui)

Un gas normalmente tende sempre ad espandersi occupando il massimo volume possibile, perché l’atmosfera non fugge via?

Per nostra fortuna raramente i super-cattivi conoscono bene la Fisica: andiamo
a scoprire come fa la Terra ad intrappolare l’atmosfera!

Immaginiamo di sezionare l’atmosfera in tanti gusci sferici, di spessore dr.
Su ciascuno di essi agisce la gravità del pianeta:

  \displaystyle  F = G \frac {M_t m_{ga}}{r^2}

Dove m_{ga} è la massa di gas atmosferico contenuto nel guscio sferico, M_t è la
massa della terra e r è la distanza del guscio dal centro del nostro pianeta.

La massa del guscio sferico è pari al numero di molecole contenute nel guscio,
ossia la differenza tra le molecole contenute in una sfera di raggio r + dr e
una di raggio r:

  \displaystyle  m_{ga} = m\left[N(r + dr) - N(r)\right] = m \frac{N(r + dr) - N(r)}{dr} \cdot dr

Dove m è la massa della singola molecola (supponiamo che il gas atmosferico sia fatto interamente di un tipo di molecola).

Dalla definizione di derivata si ottiene che:

  \displaystyle  m_{ga} = m \frac{dN}{dr} dr

Da cui la forza esercitata sul guscio sferico è pari a:

  \displaystyle  F = G \frac{m M}{r^2} \frac{dN}{dr} dr

Assumiamo di studiare un’atmosfera in equilibrio, la forza che agisce sul guscio
deve essere bilanciata dalla pressione esercitata dalle superfici esterne del
guscio:

  \displaystyle  F = -4\pi r^2 \left[P(r + dr) - P(r)\right] = -4\pi r^2 \frac{dP}{dr}dr

Dove 4\pi r^2 è la superficie del guscio, moltiplicata per la differenza di pressione tra superficie superiore e inferiore del guscio.

Sostituendo la forza ottenuta:

  \displaystyle  G \frac{mM}{r^2} \frac{dN}{dr} dr = - 4\pi r^2 \frac{dP}{dr}dr

Da cui otteniamo:

  \displaystyle  \frac{dP}{dr} = - \frac{GmM}{4\pi r^4} \frac{dN}{dr}

Questa relazione ci lega il numero di molecole con la pressione. Dobbiamo scrivere almeno un’altra relazione, come l’equazione di stato del gas perfetto:

  \displaystyle  PV = Nk_bT

Nel guscio sferico:

  \displaystyle  P(r) = \frac{N}{V} k_b T

Il volume è quello del guscio (V = 4\pi r^2 dr):

  \displaystyle  P(r) = \frac{dN}{4\pi r^2 dr} k_b T(r)

Adesso però abbiamo di mezzo anche la temperatura. Serve l’ultima relazione
che leghi pressione, temperatura e densità di particelle.

Supponiamo che la nostra atmosfera sia adiabatica, ovvero che ciascun guscio possa salire di quota o scendere di quota senza scambiare calore con l’esterno, mantenendo l’atmosfera in equilibrio.

In tal caso ciascun guscio deve anche rispettare la legge adiabatica:

  \displaystyle  P\left(\frac{V}{N}\right)^\gamma =\frac{1}{C}

Dove C è una generica costante.

  \displaystyle  C\cdot P(r) =\left(\frac{dN}{4\pi r^2 dr}\right)^\gamma

Ricaviamo \frac{dN}{dr} e sostituiamolo nella prima equazione:

  \displaystyle  \frac{dN}{dr} = 4\pi r^2 \left[C P(r)\right]^\frac 1 \gamma

  \displaystyle  \frac{dP}{dr} = - \frac{GmM}{4\pi r^4} \frac{dN}{dr} = - \frac{GmM}{4\pi r^4}\;4\pi r^2 \left[C P(r)\right]^\frac 1 \gamma

  \displaystyle  \frac{dP}{dr} = - \frac{G m M}{r^2}C^\frac 1 \gamma P^\frac 1 \gamma

Chiamiamo tutte le costanti \alpha per semplicità:

  \displaystyle  \alpha = G m M C^\frac 1 \gamma

E risolviamo l’equazione differenziale in P:

  \displaystyle  \frac{dP}{P^\frac 1 \gamma} = - \alpha \frac{dr}{r^2}

  \displaystyle  \int_{P_0}^{P(r)}\frac{dP}{P^\frac 1 \gamma} = - \alpha \int_R^r\frac{dr'}{{r'}^2}

L’integrale si estende a partire dal raggio terrestre (dove la pressione è quella sulla nostra terra pari a 1 atm),
fino alla quota r (distanza dal centro della terra, che si troverà a pressione P(r) \le P_0.

  \displaystyle  \left[\frac{P^{- \frac 1 \gamma + 1}}{ 1 - \frac 1 \gamma}\right]_{P_0}^{P(r)} = \frac{\alpha}{r} - \frac{\alpha}{R}

  \displaystyle  P(r) = \left[P_0^\frac{\gamma - 1}{\gamma} + \alpha\left(\frac{\gamma - 1}{\gamma}\right) \left(\frac 1 r - \frac 1 R\right)\right]^{\frac {\gamma}{\gamma - 1}}

Da cui abbiamo ricavato come varia la pressione atmosferica al variare dell’altitudine. L’atmosfera continua ad esistere solo fin quando l’argomento dentro la radice rimane positivo.

  \displaystyle  P_0^\frac{\gamma - 1}{\gamma} + \alpha \left(\frac{\gamma -1}{\gamma}\right) \left(\frac {1}{R_{max}} - \frac 1 R\right) = 0

  \displaystyle  \frac 1 R_{max} = \frac 1 R - \frac{\gamma P_0^\frac{\gamma - 1}{\gamma}}{\alpha(\gamma - 1)}

  \displaystyle  R_{max} = \frac{R \alpha (\gamma - 1)}{\alpha(\gamma - 1) - \gamma R P_0^\frac{\gamma - 1}{\gamma}}

Bisogna solo determinare la costante \alpha; ricordiamo come l’abbiamo definita:

  \displaystyle \alpha = Gm M C^\frac 1 \gamma

C può essere determinato unendo la legge dell’adiabatica con quella del gas perfetto:

  \displaystyle  C\cdot P(r) =\left(\frac{dN}{4\pi r^2 dr}\right)^\gamma \qquad P(r) = \frac{dN}{4\pi r^2 dr} k_b T(r)

  \displaystyle  C\cdot P(r) = \left[ \frac{P(r)}{k_b T(r)}\right]^\gamma

  \displaystyle   C = \frac{P(r)^{\gamma - 1}}{k_b^\gamma T(r)^\gamma}

Poiché questa relazione vale per qualunque valore di r sfruttiamola per r pari al raggio terrestre, dove la temperatura è quella dell’ambiente (circa 300 K che corrispondono a 27 gradi celsius).

  \displaystyle  C= \frac{P_0^{\gamma - 1}}{k_b^\gamma T_0^\gamma}

Dalla relazione precedente inoltre si può ricavare facilmente anche l’andamento in temperatura in funzione della distanza.

  \displaystyle k_b T(r) = \frac{1}{C^\frac 1\gamma} P(r)^\frac{\gamma - 1}{\gamma}

  \displaystyle   T(r) = \frac{G m M_t}{\alpha k_b} \left[ P_0^\frac {\gamma - 1}{\gamma} + \alpha\left(\frac{\gamma - 1}{\gamma}\right)\left(\frac 1 r - \frac 1 R\right)\right]

  \displaystyle  \alpha = \frac{G m M_t}{k_b T_0} P_0^\frac{\gamma - 1}{\gamma}

  \displaystyle T(r) = T_0 + \frac{G m M_t}{k_b}\left(\frac{\gamma - 1}{\gamma}\right)\left(\frac 1 r - \frac 1 R\right)

  \displaystyle   P(r) = P_0\left[1 + \frac{G m M_t}{k_bT_0}\left(\frac{\gamma - 1}{\gamma}\right)\left(\frac 1 r - \frac{1}{R}\right)\right]^{\frac{\gamma}{\gamma - 1}}

Da cui possiamo ricavare nuovamente la formula per R_{max} imponendo che l’atmosfera cessi di esistere a quando la temperatura diventa dello zero assoluto.

  \displaystyle  \frac{1}{R_{max}} = \frac 1 R - \frac{\gamma k_b T_0}{G m M_t(\gamma - 1)}

  \displaystyle  R_{max} = \frac{G m M_t R (\gamma - 1)}{G m M_t (\gamma - 1) - \gamma k_b T_0R}

  \displaystyle  R_{max} = R\left[\frac{G m M_t(\gamma - 1)}{G m M_t (\gamma - 1) - \gamma k_b T_0R}\right]

Vediamo che esiste una condizione per cui l’atmosfera non può più essere contenuta entro un raggio massimo, e quindi fugge via dal pianeta, lasciandolo
arido e deserto:

  \displaystyle  G m M_t(\gamma - 1) \ge \gamma k_b T_0 R

Se la disuguaglianza è soddisfatta l’atmosfera può esistere.
Cioè esiste un rapporto tra massa del pianeta e temperatura sulla sua superficie che è critico per la formazione di un atmosfera:

  \displaystyle  \frac{M_t}{T_0} \ge \frac{\gamma k_bR }{G m M_t(\gamma- 1)}

Sostituendo i dati della terra si può vedere facilmente che questo limite è rispettato abbondantemente!

  \displaystyle  M_t = 6\cdot 10^{24}\mbox{ Kg} \qquad k_b = 1.38\cdot 10^{-23}\,\frac{J}{K}\qquad G= 6.67\cdot 10^{-11}\;\frac{J m}{Kg^2}

  \displaystyle  R = 6.6\cdot 10^6\mbox{ m} \qquad m = 4.4 \cdot 10^{-26}\mbox{ Kg}\qquad \gamma = 1.4

Dove abbiamo considerato l’atmosfera interamente composta da molecole di azoto biatomiche (che compongono la maggioranza dell’atmosfera).

Insomma per far fuggire l’atmosfera terrestre un cattivo dovrebbe riscaldarla fino a temperature molto maggiori della temperatura del nucleo del sole! Be direi che se qualcuno riuscisse a fare una bomba così potente, la fuga dell’atmosfera sarebbe l’ultimo dei nostri problemi.

Questo modello è in realtà estremamente semplicistico per descrivere l’atmosfera terrestre per via dell’ipotesi di adiabaticità. La temperatura è descritta correttamente entro una distanza dalla superficie terrestre pari ai primi 15 chilometri di altezza, mentre la pressione è predetta correttamente anche per altezze superiori.

Oltre queste altezza diventano determinanti effetti di riscaldamento atmosferico per l’assorbimento delle radiazioni provenienti dal sole e dallo spazio, che non
abbiamo considerato.

Questo calcolo predice un’atmosfera alta 36 circa km per la terra, che è proprio l’altezza dell’ozono.

In seguito sono mostrati i dati sperimentali ottenuti con un pallone aereostatico per la temperatura, confrontati con le predizioni del modello:
Pressione

Andamento della temperatura predetto dal modello, confrontato con dei dati sperimentali ottenuti attraverso un pallone aereostatico: il National Weather Service Balloon Sounding from Riverton, Wyoming 12Z, 20 Agosto 2001.

Andamento della temperatura predetto dal modello, confrontato con dei dati sperimentali ottenuti attraverso un pallone aereostatico. I dati NON sono fittati, ma è riportata in rosso la previsione teorica esatta.

I dati originali sono disponibile sul sito web Exploring Earth.

Andamento di pressione, densità, temperatura e velocità del suono nell'atmosfera. Tratto da Wikipedia.

Andamento di pressione, densità, temperatura e velocità del suono nell’atmosfera.
Tratto da Wikipedia.
By CmgleeOwn work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=17311330

Come mostrato, anche un modellino semplice come questo è in grado di fare previsioni estremamente accurate riguardo all’atmosfera terrestre.

Appare un caldo torrido selvatico

Estate usa afa. È superefficacie. Uomo diventa pigro. L’uomo usa ventilatore.
K.O. in un attacco. Estate è esausto.

 

Non tutti possiamo richiamare un lapras per rinfrescarci

Non tutti possiamo richiamare un Lapras per rinfrescarci

Il ventilatore è uno dei più semplici oggetti che abbiamo per sconfiggere il caldo torrido di fine Luglio. Un’arma efficacie… con dei difetti.

Un pizzico di magia della fisica può aiutarci a capire i suoi limiti, a come sfruttarlo al meglio per evitare di soccombere al caldo nemico.

Descriviamo in che modo il ventilatore sposta l’aria.

Il ventilatore può essere schematizzato come una forza che agisce impulsivamente sulle molecole d’aria, imprimendole un impulso F_0 istantaneo.
L’energia potenziale associata alla spinta del ventilatore è:

  \displaystyle  V(x, t) = -xF_0\delta(t)

Infatti la forza che il ventilatore imprime sulle molecole è:

  \displaystyle  F(t) = -\frac{dV}{dx} = F_0\delta(t)

L’energia totale del gas diventa:

  \displaystyle  E = E_0 - x F_0 \delta(t)

Dove il termine E_0 è l’energia del sistema a riposo.
Possiamo trattare la forza impulsiva come una perturbazione rispetto all’energia totale a riposo del sistema, suddividendo la hamiltoniana in due termini:

  \displaystyle  H = H_0 - x F_0 \delta(t)

Siamo interessati a capire quale sarà la velocità della particella ad una certa distanza x dal ventilatore.
Vogliamo studiare come cambia la velocità media dell’aria in presenza della perturbazione.
Usiamo la teoria della risposta lineare.

  \displaystyle  \left< v(t)\right> = \int_{-\infty}^t \chi(t - t')\delta(t')dt'

La media termica della velocità in presenza della perturbazione è pari alla convoluzione della funzione \chi (detta funzione di risposta) e dell’andamento in tempo della perturbazione (la delta di Dirac). Possiamo riscrivere la relazione sfruttando le proprietà della delta di Dirac.

  \displaystyle  \left<v(t)\right> = \chi(t)

La formula di Kubo classica ci permette di calcolare la funzione di risposta.

  \displaystyle  \chi_{AB}(t) = \frac{1}{k_bT} \left< \frac{dA}{dt} B\right>_0

Dove A è la perturbazione (il ventilatore) e B è la grandezza che vogliamo studiare:

  \displaystyle  A = xF_0 \qquad B = v(t)

  \displaystyle  \frac{dA}{dt} = F_0 v

Sostituiamo questi risultati nella formula di Kubo.

  \displaystyle  \left<v(t)\right> = \frac{F_0}{k_b T} \left<v(t)v(0)\right>_0

La velocità media dell’aria dopo un tempo t è proporzionale alla funzione di autocorrelazione della velocità in assenza di perturbazione.

Dobbiamo calcolare la funzione di autocorrelazione della velocità. Il modello di Langevin per l’aria descrive correttamente il moto Browniano.
Ciascuna molecola di aria rispetta l’equazione di Langevin (il puntino indica la derivata temporale):

  \displaystyle  m\dot v = -m\xi v + R(t)

Questa equazione è la legge della dinamica di Newton: a sinistra c’è la massa per l’accelerazione (m\dot v), a destra le forze che agiscono sulle particelle; una forza di tipo viscoso (-m\xi v) e una forza browniana R(t), che descrive gli urti casuali con le altre molecole.
L’aria non è un gas denso, possiamo supporre il termine di viscosità \xi indipendente dal tempo (gli urti non sono correlati tra loro) e la R(t) delta correlata:

  \displaystyle  \left<R(t)x(t_1)\right> = \left<R(t)v(t_1)\right> = 0

  \displaystyle  \left<R(t_1)R(t_2)\right> = 2\pi R_0\delta(t_2 - t_1)

Risolviamo l’equazione di Langevin utilizzando il metodo della variazione delle costanti.
Scegliamo una soluzione del tipo:

  \displaystyle  v(t) = u(t) e^{-\Gamma t}

  \displaystyle  \dot v(t) = \dot u(t)e^{-\Gamma t} - \Gamma u(t)e^{-\Gamma t}

Sostituendo nell’equazione di Langevin otteniamo:

  \displaystyle  m \dot u(t) e^{-\Gamma t} - m\Gamma u(t) e^{-\Gamma t} = -m \xi u(t)e^{-\Gamma t} + R(t)

Da questa equazione riconosciamo che

  \displaystyle  \Gamma = \xi

  \displaystyle  \dot u(t) e^{-\xi t} = \frac{1}{m}R(t)

  \displaystyle  u(t) = u(0) + \frac{1}{m}\int_0^t R(t') e^{\xi t'}dt'

Da cui otteniamo la soluzione:

  \displaystyle  v(t) = u(0)e^{-\xi t} + \frac{1}{m}\int_0^t R(t')e^{-\xi(t - t')} \qquad v(0) = u(0)

Ora possiamo ricavare la funzione di autocorrelazione della velocità

  \displaystyle  \left<v(t)v(0)\right> = \left<v(0)v(0)\right>e^{-\xi t} + \frac{1}{m}\int_0^t\left<R(t') v(0)\right>e^{-\xi(t - t')}

Il secondo termine è nullo (le forze browniane non sono correlate alla velocità delle molecole).

  \displaystyle  \left<v(t)v(0)\right> = \left<v_x^2\right>e^{-\xi t}

Il valore atteso della velocità lungo la direzione in cui spara il condizionatore può essere calcolato con il teorema di equipartizione dell’energia:

  \displaystyle  \left<v_x^2\right> = \frac 1 3 \left<v^2\right> \qquad \frac 1 2 m \left<v^2\right> = \frac 1 2 k_b T

Da cui:

  \displaystyle  \left<v_x^2\right> = \frac{k_b T}{3 m}

  \displaystyle  \chi(t) = \left<v(t)v(0)\right> = \frac{k_b T}{3m} e^{-\xi t}

Ora conosciamo la funzione di risposta del sistema:

  \displaystyle  \left<\Delta v(t)\right> = \frac{F_0}{3m} e^{-\xi t}

Questa relazione ci dice la velocità media delle molecole al tempo t dopo aver colpito le pale del ventilatore.
In realtà siamo interessati a sapere la velocità dell’aria in funzione della distanza dal ventilatore.
Calcoliamo a che distanza arriva la molecola dopo un tempo t.

  \displaystyle  x(t) = x(0) + \int_0^t v(t')dt'

  \displaystyle  x(t) = x(0) + \int_0^t \frac{F_0}{3m} e^{-\xi t} = x(0) + \frac{F_0}{3m\xi} (1 - e^{-\xi t})

Mettiamoci nel sistema di riferimento x(0) = 0.

  \displaystyle  x(t) = \frac{F_0}{3m\xi} (1 - e^{-\xi t})

Questo ci dice che esiste una distanza massima raggiunta dall’aria messa in moto dalle pale:

  \displaystyle  \lim_{t\rightarrow\infty}x(t) = \frac{F_0}{3m\xi}

Eccolo qui il difetto! Esiste una distanza dal ventilatore per cui l’aria si ferma del tutto. Se ci troviamo più lontano (bastano in genere di pochi metri) diventa completamente inutile.

Se ci troviamo più vicino?

  \displaystyle  \frac{3m x}{F_0} = 1 - e^{-\xi t}

  \displaystyle  e^{-\xi t} = 1 - \frac{3mx}{F_0}

  \displaystyle  t = -\frac 1 \xi \ln\left(1 - \frac{3mx}{F_0}\right)

  \displaystyle  \left<\Delta v(x)\right> = \frac{F_0}{3m}\left(1 - \frac{3mx}{F_0}\right)

  \displaystyle  \left<\Delta v(x)\right> = \frac{F_0}{3m} - x\xi

Questa è la velocità dell’aria in funzione della distanza.
È zero per distanze maggiori di F_0/3m\xi, decresce linearmente per distanze minori.

Oltre quella distanza non ci raggiunge neanche il più flebile filo d’aria. Il raggio di azione di un ventilatore è molto limitato, inoltre la sua efficacia diminuisce bruscamente all’aumentare della distanza.

Se vogliamo usarlo in una stanza grande non abbiamo scampo:
Uomo usa ventilatore, ventilatore non ha effetto su afa, uomo è esausto.
Afa vince la battaglia.

Per ricevere un po' di arietta fresca dal ventilatore è necessario stargli più vicino del suo range massimo.

Per ricevere un po’ di arietta fresca dal ventilatore è necessario stargli più vicino del suo range massimo.

Il gioco del raddoppio

roulettegr

Chi non ha mai pensato di usare il “trucco” del raddoppio per guadagnare soldi giocando d’azzardo?
Un metodo apparentemente infallibile per avere la certezza di vincere soldi scommettendo sulla roulette, o sul lancio di una monetina.

La tecnica è molto semplice. Si parte scommettendo una cifra bassa, e se perdiamo raddoppiamo la scommessa, ripendendo la procedura fin quando non vinciamo. Vediamo un esempio pratico:

  • Scommettiamo 1 €, se perdiamo
  • Scommettiamo altri 2 €: Se vinciamo abbiamo guadagnato in tutto 1 € (2 € della scommessa meno 1 € che abbiamo perso alla mano precedente). Se perdiamo
  • Scommettiamo altri 4 €: Se vinciamo abbiamo vinto in tutto sempre 1 € (4 della scommessa, 2 persi alla scorsa mano e 1 perso nella prima mano). Se perdiamo si continua in questo modo (scommettendo 8 €).
  • Si continua a scommettere fin quando non si vince.

 

Siccome la probabilità di perdere più di 4 o 5 volte di fila diventa esponenzialmente piccola, con un budget non eccessivamente grande abbiamo pressoché la certezza di vincere la scommessa finale;

Armati di questa tecnica siete pronti a partire per Las Vegas a sbancare i più famosi casinò del mondo?

100 dollar bills growing in grass
Be calma… andiamoci piano, è vero che il gioco sembra funzionare, ma oggi vi dimostrerò che, in realtà, si tratta di una vera e propria fregatura.

La magagna si nasconde quando vogliamo provare a mettere in gioco cifre un po’ più grandi di un euro. Immaginiamo per esempio di avere 1024 € e volerli raddoppiare sfruttando questo giochino, scommettendo sul lancio di una monetina.

Se giocassimo tutti i mille euro in un unico colpo avremo una probabilità del 50 % di vincere. Cosa succede se mettiamo in pratica la strategia del raddoppio?
Possiamo pensare di suddividere i nostri 1024 \euro in tante piccole scommesse da 1 \euro.
Ciascuna scommessa ha una probabilità bassissima di essere persa, infatti prima di raggiungere il nostro budget dobbiamo raddoppiare ben 10 volte (2^{10} = 1024), e ciascun lancio ha probabilità \frac 1 2 di perdere, la probabilità di perdere la scommessa è quella di perdere 10 volte consecutive:

\displaystyle  p_{lose} = \left(\frac 1 2\right)^{10} = 9.765 \cdot 10^{-3}

Meno dello 0.2 %, decisamente piccola. Tuttavia se vogliamo vincere 1024 € dobbiamo ripetere la scommessa per 1024 volte. Il numero di volte medio in cui perderemo la scommessa è dato dal numero di volte che scommettiamo per la probabilità di perdere la singola scommessa:

\displaystyle  p_{lose}\cdot 1024 = 1
Guardate un po’, in media si perde 1 volta… ma perdere una volta basta per perdere tutti i nostri soldi!
Quante sono le probabilità che questo avvenga? Be è la certezza, meno la probabilità di vincere 1024 volte di fila!


\displaystyle  P_{lose} = 1 - (1 - p_{lose})^{1024} = 63.2 \%

Addirittura maggiore del 50%, insomma un disastro.

Messa così sembrerebbe che non solo il raddoppio non è vantaggioso, ma che è addirittura sconveniente in termini probabilistici. C’è però un rovescio della medaglia. Delle 1024 scommesse da fare, è improbabile che la sconfitta arrivi alla prima. Così, prima di perdere i 1024 €, risulta che ne abbiamo guadagnati alcuni dalle scommesse precedenti. Riassumendo: se scommettiamo direttamente i 1024 €, perdiamo col 50 % delle probabilità, e non rimaniamo con nulla in mano, se scommettiamo con il raddoppio, perdiamo col 63 % di probabilità, ma ci rimangono un po’ di soldi delle vincite precedenti.

Per calcolare con quanti soldi rimaniamo in mano mediamente basta trovare dopo quante scommesse si perde mediamente.

\displaystyle  p_{lose}\sum_{n=1}^{1024}n = p_{lose} \frac{1024\cdot 1025}{2} = 512.5
Quindi ci troviamo mediamente con 512 € in tasca.

Insomma stiamo gicando ad un gioco in cui se vinciamo raddoppiamo, se perdiamo dimezziamo i nostri soldi. Qual è la probabilità di sconfitta onesta per un gioco di questo tipo? Be in una vittoria vinciamo tanto quanto perdiamo in due sconfitte, quindi le probabilità devono rispecchiare questa situazione:
\displaystyle  p_{lose} = 2 p_{win} \qquad p_{lose} + p_{win} = 1
\displaystyle  p_{lose} = \frac 2 3 = 66.7 \%

Molto simile a quella ottenuta (non sono identiche perché il conto non è stato fatto rigorosamente, per avere due giochi equivalenti bisognerebbe calcolare questa p_{lose} per tutti i possibili valori del budget residuo, e poi mediarla pesandola sulle probabilità di ottenere quel determinato budget residuo, in questo caso abbiamo approssimato il valore medio come quello certo).

Per evitare il problema del budget residuo potremmo ridefinire il gioco in questo modo: ogni volta scommettiamo il budget totale per 2^{-10}, e il budget aumenta ogni volta che vinciamo una scommessa: così la prima volta scommettiamo 1 €, la seconda di (1 + 9.8\cdot 10^{-4}) €, la terza di (1 + 1.9\cdot 10^{-3}) €, e così via in modo da non avere un budget residuo quando perdiamo la scommessa (si lo so che non esistono i millessimi di euro in monete).

La probabilità di vittoria rimane esattamente quella precedente, ossia un misero 36.8 %, ma ora se perdiamo non abbiamo più nessun budget residuo.

Sembrerebbe una fregatura peggiore di prima, tuttavia in questo caso cambia l’ammontare della nostra vittoria totale, perché le nostre scommesse aumentano di valore ogni giocata.
Il nuovo budget totale, a fronte di una vincità si può calcolare essere di:

\displaystyle  B = 2782
Se vinciamo per 1024 volte di fila guadagnamo 1755 €, mentre se perdiamo la scommessa una sola volta abbiamo perso 1024 €(con un budget residuo di poco più di un euro).
Se andiamo a calcolare il guadagno stimato dal giocare a questo gioco otteniamo:
\displaystyle  B_{mean} = 1755 \cdot 0.368 - 1024\cdot 0.632 = -1.16
Che corrisponde proprio al contributo residuo medio che rimane dal gico.

Morale della favola, il raddoppio è una buona tecnica se vogliamo guadagnare pochi spicci, a fronte di budget disponibili molto elevati, ma perde completamente la sua efficacia quando proviamo a cumulare i guadagni di tante piccole vincite.
Può essere usato, ma con estrema moderazione, perché basta che la fortuna ci dice male una sola volta per perdere tutti i nostri risparmi.

La democrazia? Questione di matematica

Democrazia: La miglore forma di governo? Per rispondere a questa domanda non useremo la filosofia, la politica o la giurisprudenza, useremo l’unica disciplina che è “senza macula d’errore e certissima per se” (cit. Dante Alighieri): la matematica.

Supponiamo che l’elettorato sia composto da N individui che ragionano in modo del tutto indipendente. Devono scegliere un leader tra due possibilità.

Ciascuno di loro ha una probabilità di fare la scelta migliore (ammesso che esista) poco maggiore del 50 % (ad esempio il 50 + \varepsilon %). Qual è la probabilità che la maggioranza della popolazione scelga il miglior leader?

Se la vostra risposta intuitiva è stata 50 + \varepsilon % avete sbagliato di grosso. Infatti si può dimostrare con un facile calcolo combinatorio che la probabilità di avere esito positivo alle elezioni cresce vertiginosamente all’aumentare degli elettori.
Anche se la probabilità \varepsilon di riconoscere la scelta migliore da quella sbagliata per ciascun elettore fosse bassissima, ad esempio dello 0.05 %, il numero di elettori necessari ad avere più del 99.9 % di probabilità che l’esisto della votazione vada a buon fine è di 25 milioni.

  \displaystyle  2\varepsilon \sqrt N > 5\qquad \Longrightarrow \qquad N > \frac{6.25}{\varepsilon^2}

In Italia siamo circa 60 milioni, se tutti ragionassimo con la propria testa, avremmo la certezza assoluta di eleggere sempre il miglior leader possibile.

Se ammettiamo tuttavia che la classe dirigente italiana non è poi la migliore possibile ci deve essere un problema da qualche parte. Nel conto precedente abbiamo supposto che i voti degli elettori siano tutti indipendenti tra loro.
Nella realtà questo non è vero, il voto di ciascun individuo è fortemente influenzato dall’ambiente che lo circonda.

Un elettore circondato da persone della stessa idea politica è più probabile che l’abbracci dando il proprio voto dello stesso colore politico dei suoi amici o familiari, piuttosto che compiere la scelta in maniera indipendente.

Costruiamo una simulazione in cui ciascun individuo è connesso all’interno di una rete di comunicazione con gli altri. La rete usata si chiama scale-free, ed è una buona schematizzazione delle relazioni umane, dove un limitato numero di persone ha molte connessioni con altri individui (vip, personaggi noti, politici, …) mentre la maggioranza possiede un numero ristretto di legami.

Ridefiniamo la probabilità che un individuo faccia la scelta corretta in questo modo:

  \displaystyle  p = \frac{1}{2} + \varepsilon + \left(\frac{1}{2} - \varepsilon\right)\frac{n^+ - n^-}{N_{joints}}

Dove n^+ e n^- rappresentano rispettivamente il numero di connessioni di quell’individuo con persone che hanno già scelto chi votare, N_{joint} il numero totale di connessioni di quell’individuo.

Lo straordinario risultato che avevamo ottenuto nel caso di elettori indipendenti è dovuto principalmente al fatto che mediare la votazione su un numero molto alto di elettori abbatte le fluttuazioni statistiche, permettendo a quel \varepsilon sopra al 50 % di essere determinante sull’esito della votazione (anche quando questo è solo dello 0.05 %).

Se confrontiamo le fluttuazioni statistiche nel caso di elettori indipendenti a quello di elettori dipendenti otteniamo una brutta sorpresa.

Nel grafico seguente è riportata la fluttuazione statistica (deviazione standard) del voto in funzione del numero di elettori in entrambi i casi:

Deviazione standard

Dalla figura si evince bene come nel caso di elettori indipendenti la deviazione standard decresce (come 1 / \sqrt{N}) all’aumentare del numero di elettori, migliorando l’esito della votazione.

Il caso di elettori reali  il risultato è disastroso, la deviazione standard non mostra alcuna diminuzione all’aumentare di N. Questo vuol dire chè le fluttuazioni statistiche sono molto più importanti in questo caso, rendendo molto più probabile, anche per alti valori di N, che la maggioranza degli elettori faccia la scelta sbagliata.

A questo fatto matematico può essere data una spiegazione qualitativa semplice: il primo  che compie la scelta influenzerà di conseguenza tutti gli elettori a cui e connesso, una scelta sbagliata all’inizio si ripercuote molto facilmente su tutti gli elettori che lo circondano, rendendo il risultato finale delle elezioni molto più incerto.

Tuttavia, poiché si ha quell’ \varepsilon di probabilità in più che gli elettori all’inizio riconoscano correttamente il migliore candidato, la decisione positiva si propaga con maggior facilità rispetto a quella negativa. Possiamo aspettarci che la percentuale di elettori media che compie la scelta giusta sia maggiore rispetto al caso di elettori indipendenti, come è mostrato nella seguente figura dove sono stati graficati i risultati della simulazione:

media2

Le grandi oscillazioni che mostra la linea blu sono dovute dalle grandi fluttuazioni statistiche che la simulazione con elettori reali mostra rispetto alla riga verde (meno frastagliata).

Si nota chiaramente che la linea blu (elettori connessi) ha un valore medio ben sopra il 55 % (valore usato nella simulazione) che è invece il valore attorno a cui oscilla il campione indipendente.

Come si compensano questi due effetti?
Il grafico seguente mostra la probabilità che la maggioranza degli elettori scelga bene.

ProbabilitaFinale

L’esito della votazione è quasi indipendente dal numero di elettori nella simulazione che tiene conto delle interazioni, mentre cresce vertiginosamente nel caso di elettori indipendenti.

Come si vede tra i 10 e i 20 elettori vi è la transizione di quale metodo è il migliore.

Questi modelli possono essere applicati anche alla formazione di collegi giudicanti quali giurie, commissioni d’esame o gruppi di lavoro.

In altri termini se abbiamo una piccola commissione (composta da meno di 10 elementi) il fatto che possano confrontarsi favorisce l’esito della scelta migliore. Viceversa se la commissione è grande (circa 20 persone) è molto più conveniente far emettere a ciascuna persona un giudizio singolo, senza dare possibilità di confronto, ed infine unire tutti i risultati.

Tutta questa analisi è stata condotta con un valore di \varepsilon del 5 %. Se questo valore aumenta il numero N di persone a cui avviene il sorpasso del metodo indipendente è ancora più basso, come dimostra il grafico seguente, simulato con \varepsilon del 15 % (La probabilità che ciascun elettore facesse la migliore scelta è del 50 + 15 = 65 %)

ProbabilitaFinale2

Per gruppi piccoli, 3 o 4 persone, la collaborazione è costruttiva, ma appena il numero dei componenti aumenta la collaborazione diventa infruttuosa.

È matematicamente vero che “chi fa da se, fa per tre”.

(Per chi volesse approfondire i conti matematici una versione più dettagliata può essere scaricata da questo link: Versione Completa )

Lotta per la sopravvivenza

Il ciclo della vita.

La dinamica degli ecosistemi è uno degli argomenti più interessanti, in cui la fisica può essere applicata con successo per studiare l’evoluzione delle popolazioni di prede e predatori.

 

Supponiamo che nel nostro ecosistema ci siano solo due specie in lotta per la sopravvivenza: i pesci (le prede) e gli squali (i predatori).

I pesci hanno a disposizione risorse di cibo praticamente illimitate, se lasciate proliferare si moltiplicano molto rapidamente.

Viceversa gli scquali si cibano solo di pesci, la loro fonte di cibo è quindi molto più scarseggiante, e una sovrappopolazione di predatori causera la loro estinzione per mancanza di cibo. Con una simpatica simulazione è possibile visualizzare la dinamica.

In questa simulazione i quadratini verdi rappresentano i pesci, che si moltiplicano rapidamente, in rosso gli squali, se mangiano pesci si riproducono, altrimenti muoino. Ecco qui un video simpatico che mostra questo ecosistema in azione:

Come si può osservare in numero di pesci e squali aumenta e dinimuisce periodicamente. Se riportiamo su un grafico il numero di prede e quello di predatori notiamo molto bene questo comportamento:

 

Prede e predatori

Prede e predatori

La fisica può descrivere questo tipo di ecosistemi? Si!
Il numero di pesci all’interno del reticolo lo indichiamo con n, il numero di scquali con u.

Scriviamo un’equazione che descriva il comportamento medio di squali e pesci: la probabilità di un pesce di generare un figlio è costante (\alpha), mentre la probabilità che venga mangiata è proporzionale alla probabilità che nei paraggi ci sia uno squalo (\beta).

 
  \displaystyle  \dot n = n\left(\alpha - \beta u\right)
 
Allo stesso modo la probabilità di uno squalo di generare un figlio è tanto maggiore quanto più alta è la probabilità di incrociare un pesce (\gamma), ma hanno una probabilità costante di morire (\delta):

  \displaystyle  \dot u = u\left(\gamma n - \delta\right)
 
Queste equazioni (dette di Lotka-Volterra in onore dei due matematici che le formularono per primi) non hanno soluzione analitica, tuttavia con un cambio di variabili possiamo riscriverle in modo da poterne dare un’interpretazione fisica:
 
  \displaystyle p = \ln n \qquad q = \ln u

  \displaystyle \dot p = \frac{\dot n}{n} \qquad \dot q = \frac{\dot u}{u}
 

Con questa sostituzione il sistema di equazioni che descrive il comportamento medio dei nostri “pesciolini” è:
 
  \displaystyle \left\{\begin{array}{l}  \dot p = \alpha - \beta e^q \\  \dot q = \gamma e^p - \delta  \end{array}\right.
 

Queste due equazioni differenziali adesso descrivono un sistema hamiltoniano canonico:
 
  \displaystyle \left\{\begin{array}{l}  \displaystyle  \dot p = -\frac{\partial H}{\partial q}\\  \\  \displaystyle  \dot q = \frac{\partial H}{\partial p}  \end{array}\right.
 

Si può facilmente ricavare l’hamiltoniana di questo sistema:
 
  \displaystyle  H = -\alpha q -\delta p + \beta e^q + \gamma e^p
 

Quindi è possibile definire un “energia” dell’ecosistema, che è in media conservata (ricordiamoci che le equazioni che abbiamo scritto valgono in media, non tengono conto di piccole fluttuazioni locali della popolazione).
Risostituendo le variabili originali otteniamo che l’energia del sistema é:
 
  \displaystyle  H = \beta u + \gamma n - \alpha \ln u - \delta \ln n
 
Se il numero di pesci e squali è molto alto questo implica che la loro somma, pesata sui coefficienti \beta e \gamma si conserva.

\beta era la probabilità che, data un interazione tra preda e predatore, la preda muoia, mentre \gamma è la probabilità che, data un’interazione tra predatore abbia il sopravvento e quanto questa interazione sia favorevole alla sua procreazione.

Se dividiamo tutto per \beta otteniamo:
  \displaystyle  H' \approx u + \frac{\gamma}{\beta} n

Dove adesso \frac{\gamma}{\beta} è un coefficiente che tiene conto di quanto influenza il cibarsi dei predatori sulla loro crescita. La condizione \gamma = \beta vuol dire che ogni volta che un predatore acchiappa la preda, fa anche un figlio.

Questa condizione tuttavia è molto difficile da raggiungere in pratica, ecco la stima dei parametri per
una delle simulazioni effettuate:
 

  \displaystyle  \omega = \frac{\gamma}{\beta} \qquad \xi =  \frac{\alpha}{\beta} \qquad \zeta = \frac{\delta}{\beta}
 

I valori ottenuti numericamente dalla simulazione sono:
  \displaystyle  \omega \approx 0.29 \qquad \xi \approx 0.36 \qquad \zeta \approx 0.069

Come si può vedere il modello di Lotka-Volterra descrive molto bene l’andamento che è stato misurato.
Conservazione

Oscillatore superarmonico

DomandaCosa hanno in comune un bambino che gioca sull’altalena, una molecola di ossigeno e un matto che fa Bungee Jumping?

Tutti e tre oscillano. La capacità di un sistema fisico di oscillare è una caratteristica molto comune. Ciascuno dei tre esempi risente di forze molto diverse tra loro.
L’altalena del bambino si muove grazie alla forza peso e alla reazione vincolare della catena a cui è sospesa, la molecola di ossigeno vibra a causa del legame coovalente che unisce i due atomi, e il matto che si butta da un ponte con il suo elastico da Bungee Jumping oscilla sotto l’azione combinata della forza di gravità e l’elastico a cui è appeso.

Quando le oscillazioni sono abbastanza piccole, una sola legge fisica accomuna tutti questi moti così diversi tra loro: l’oscillatore armonico. Qualche scienziato afferma addirittura che tutta la fisica si possa ricondurre all’oscillatore armonico.

 

Ma è davvero così?

 

Esaminiamo una forza di richiamo super elastica, di tipo:
   \displaystyle F = -kx^3

Dalla seconda legge della dinamica possiamo ricavare un’equazione che descrive correttamente il moto di un punto materiale soggetto a questa forza:
   \displaystyle F = ma = -kx^3

   \displaystyle m\ddot x = -kx^3

Dove con \ddot x abbiamo indicato la derivata seconda della posizione fatta rispetto al tempo due volte.

Questa equazione differenziale non ammette soluzione analitica. Questa forza è conservativa, e l’energia potenziale è:
   \displaystyle V(x) = \frac{1}{4} k x^4

Il profilo è mostrato in questa figura:

PotenzialeSuperarmonico

 

Se proviamo ad approssimare questo profilo con un potenziale armonico otteniamo una spiacevole sorpresa. Infatti il potenziale superarmonico non è approssimabile con nessun polininomio apparte se stesso. Questo è un esempio di sistema fisico oscillante che non è riconducibile ad un oscillatore armonico!

Non solo non siamo in grado di risolvere l’equazione differenziale che lo definisce, ma per questo potenziale è impossibile tentare un qualsiasi approccio di tipo perturbativo, poiché il più piccolo termine perturbativo non nullo è l’intera forza.

Ci dobbiamo arrendere di fronte a tali difficoltà? Siccome siamo fisici e non matematici, possiamo sfruttare le proprietà fisiche di questo sistema per capirci qualcosa.

Sappiamo che la soluzione di questo potenziale sarà un oscillatore, e vogliamo chiederci quale sia il suo periodo. In generale questo sarà funzione degli unici parametri che compaiono nell’equazione differenziale, e delle condizioni inziali, che qui riassumiamo nella variabile x_0 che rappresenta l’ampiezza di oscillazione:
   \displaystyle T = f(m, k, x_0)

Questa funzione la possiamo spezzare in due parti, una che determinerà la dimensione fisica del periodo (i secondi) e una adimensionale che dipenderà dal dettaglio matematico della soluzione:
   \displaystyle T = m^\alpha k^\beta x_0^\gamma C(m, k, x_0)

Dall’equazione differenziale di partenza possiamo ottenere le dimensioni dei parametri:
   \displaystyle m = [Kg] \qquad k = [\frac{N}{m^3}] = [\frac{Kg}{m^2 s}] \qquad x_0 = [m]

Imponiamo che il periodo di oscillazione si misuri in secondi:

   \displaystyle [s] = [Kg]^\alpha [\frac{Kg}{m^2 s^2}]^\beta [m]^\gamma

Da cui otteniamo il sistema per i coefficienti:

   \displaystyle\left\{\begin{array}{l}   \alpha + \beta = 0 \\   -2\beta + \gamma = 0 \\   -2\beta = 1   \end{array}\right.

Che può essere risolto facilmente:

   \displaystyle \beta = -\frac{1}{2} \qquad \alpha = \frac{1}{2} \qquad \gamma = -1

Da cui abbiamo trovato la dipendenza dimensionale per il periodo:

   \displaystyle T = \frac{1}{x_0}\sqrt{\frac{m}{k}} C(m, k, x_0)

Perché il termine adimensionale sia realmente funzione di quei parametri occorre che ci sia un modo per combinarli in modo da ottenere un risultato adimensionale. Ripetiamo quindi questa prova:

   \displaystyle0 = [Kg]^\alpha [\frac{Kg}{m^2 s^2}]^\beta [m]^\gamma

Da cui otteniamo il sistema:

   \displaystyle\left\{\begin{array}{l}   \alpha + \beta = 0 \\   -2\beta + \gamma = 0 \\   -2\beta = 0   \end{array}\right.

Questo sistema ammette solo la soluzione:
   \displaystyle\alpha = 0 \qquad \beta = 0 \qquad \gamma = 0

Abbiamo dimostrato che il termine C non può dipendere da nessun parametro, è quindi una costante. Da sole considerazioni di tipo dimensionale abbiamo ricavato la formula del periodo dell’oscillatore superarmonico, senza sapere nulla sulla soluzione matematica!

   \displaystyle T = C\frac{1}{x_0}\sqrt{\frac{m}{k}}

Adesso il valore numerico di può essere valutato risolvendo numericamente l’equazione differenziale con qualunque set di parametri iniziale e valutando il periodo numericamente.

Riportiamo in figura la soluzione numerica:

IntegrazioneNumericaDa cui si ottiene una stima di C pari a:

   \displaystyle C \approx 7.42

Dalla figura dell’integrale numerico si vede che rispetto al moto armonico i potenziali superarmonici tendono ad avere una traiettoria più spigolosa, che assomiglia ad un segnale triangolare. Questo perché la potenza superarmonica tende ad appiattire il potenziale (n pari):
   \displaystyle V = \frac{1}{n}kx^{n}\qquad \stackrel{n \rightarrow \infty}{\longrightarrow}\qquad \left\{\begin{array}{lr} \infty & x < -x_0 \mbox{ o } x > x_0 \\ 0 & x \in [-x_0,x_0] \end{array}\right.

Il potenziale assomiglia sempre più ad una buca infinita per n che cresce. All’interno della buca l’oggetto non è più soggetto a forze e tenderà a muoversi di moto rettilineo uniforme, e rimbalzando sulle pareti.

Possiamo calcolare facilmente il periodo per n \rightarrow \infty. Calcoliamo la velocità a cui si muove dentro la buca:
   \displaystyle\frac{1}{2}mv^2 = \frac{1}{n}kx_0^{n}

   \displaystyle v = \sqrt{\frac{2k x_0^n}{n m}}   \qquad   T= \frac{4x_0}{v}

Calcoliamo il periodo usando la legge del moto rettilineo uniforme:

   \displaystyle   T \stackrel{n\rightarrow\infty}{\longrightarrow} 4 \sqrt{\frac{nm}{2k}} x_0^{1 - \frac{n}{2}}

Per il caso che abbiamo trattato (n=4) la costante C approssimata ha un valore di 5.66, neanche troppo distante dal valore reale pari a 7.4. Questo è uno sviluppo corretto per grandi valori di n.

Ad esempio per n = 50 il valore di C stimato da questa relazione è 20.0, quello reale è 20.5. Riportiamo in figura il risultato dell’integrazione per n = 50:

PotenzialeTriangolare

 

Esiste un altro modo interessante per ottenere un espressione analitica di C nel caso n = 4.
Sfruttiamo la conservazione dell’energia meccanica:

   \displaystyle\frac{1}{2}mv^2 + \frac{1}{4}kx^4 = E      \displaystyle v = \sqrt{\frac{2}{m}\left(E - \frac{1}{4}kx^4\right)}

Questa è un altra equazione differenziale. Se ricordiamo che mezzo periodo è il tempo che il nostro oscillatore impiega per spostarsi dalla posizione -x_0 alla posizione x_0 possiamo integrare tutto quanto e ottenere:

   \displaystyle\int_{x_0}^{-x_0} \frac{dx}{\sqrt{\frac{2}{m}\left(E - \frac{1}{4}kx^4\right)}} = \int_0^{\frac{T}{2}}dt      \displaystyle \frac{T}{2} = \sqrt{\frac{m}{2}}\int_{-x_0}^{x_0} \frac{dx}{\sqrt{E - \frac{1}{4}kx^4}}

Ora l’energia totale E del sistema è pari all’energia potenziale superarmonica che l’oscillatore ha nel punto di massima ampiezza:

   \displaystyle E = \frac{1}{4}kx_0^4

 

   \displaystyle T = 2\sqrt{\frac{m}{2}}\frac{2}{x_0^2\sqrt{k}}\int_{-x_0}^{x_0} \frac{dx}{\sqrt{1 - \left(\frac{x}{x_0}\right)^4}}

Per rendere adimensionale l’integrale e ricavare il parametro dobbiamo effettuare il seguente cambiamento di variabili per l’integrale

   \displaystyle \xi = \frac{x}{x_0} \qquad dx = x_0d\xi

 

   \displaystyle T = \frac{1}{x_0}\sqrt{\frac{m}{k}}\sqrt{8} \int_{-1}^1 \frac{d\xi}{\sqrt{1 - \xi^4}}

 

Abbiamo trovato un’espressione analitica per il termine C costante adimensionale nell’espressione del periodo:

   \displaystyle T = \frac{1}{x_0}\sqrt{\frac{m}{k}} C

Questo termine può essere integrato numericamente:

   \displaystyle C = \sqrt{8} \int_{-1}^1 \frac{d\xi}{\sqrt{1 - \xi^4}} \approx 7.42

In accordo con quanto ricavato risolvendo numericamente l’equazione differenziale.

 

 

 

Corsa sotto l’acquazzone

Quante volte ti è capitato di trovarti per strada senza ombrello mentre scoppia un acquazzone? Ti sei mai chiesto a che velocità conviene correre per bagnarsi il meno possibile?
Da un lato se cammini l’acqua ti colpisce solo in testa, per cui prendi meno goccie, se corri invece ti si bagna tutto il corpo, d’altra parte correre riduce il tempo in cui ti trovi sotto la pioggia…
Cosa conviene fare?
Con qualche semplice calcolo di fisica possiamo rispondere a questa domanda:

Volgiamo calcolare quanto si bagna un corpo che si muove con velocità v sotto la pioggia.
Chiamiamo \Phi il flusso di acqua che cade dal cielo, t il tempo che restiamo in balia della pioggia e \Sigma la superficie del nostro corpo esposta alle goccie d’acqua, il volume d’acqua che ci colpirà durante l’attraversata sarà:
 B = \Phi\Sigma t
Il tempo t che restiamo sotto la pioggia possiamo calcolarlo con la legge del moto rettilineo uniforme:
t = \frac d v
Dove d è la distanza che ci separa dalla meta. La superficie esposta del nostro corpo dipende dall’angolo con cui le goccie
cadono:
\Sigma = S_c\sin\theta + S_t\cos\theta
Come si vede dalla figura seguente:

Pioggia

Dove S_c è la superficie della parte frontale del nostro corpo, S_t è la superficie della testa, vista dall’alto,
approssimiamo S_c \gg S_t.

Anche il flusso d’acqua tuttavia ha una dipendenza dalla nostra velocità: infatti se immaginiamo di volare verso la pioggia in alto,  la quantità d’acqua che ci urterà a parità di tempo sarà maggiore rispetto ad un osservatore fermo. Quindi esplicitiamo meglio il flusso di pioggia in funzione della velocità delle goccioline:

\Phi = n \frac{4}{3}\pi r^3 v_p
Dove n è la densità delle goccie di pioggia per unità di volume, r è il raggio della goccia di pioggia e vp è la velocità di caduta delle goccioline, se volgiamo il nuovo flusso di pioggia quando corriamo sotto la pioggia, otteniamo:
\Phi' = \Phi \frac {v'}{v_p}
Dove v’ è la velocità della pioggia nel nostro sistema di riferimento. Siccome non siamo in uno space shuttle per trovare v’ bastano
le trasformazioni di Galileo:
v' = \sqrt{v^2 + v_p^2}
\Phi' = \Phi\sqrt{1 + \frac {v^2}{v_p^2}}

Unendo tutto otteniamo:
B = \Phi\sqrt {1 + \frac{v^2}{v_p^2}}\frac d v \left(S_c\sin\theta + S_t\cos\theta\right)
Esplicitiamo la dipendenza di \theta dalla velocità v della persona:
\sin\theta = \frac{v}{\sqrt{v^2 + v_p^2}} \qquad \cos\theta = \frac{v_p}{\sqrt{v^2 + v_p^2}}

B = \Phi\sqrt{1 + \frac{v^2}{v_p^2}}\frac d v \frac{S_cv + S_t v_p}{\sqrt{v^2 + v_p^2}}

L’unico termine incognito è la velocità della goccia di pioggia. Questa in caduta libera nell’aria sarà soggetta a tre forze principali,
la forza peso che la spinge verso il basso, la forza di attrito viscoso che la rallenta e la forza di archimede. Il rapporto d’intensità
tra forza peso e forza di archimede è pari al rapporto tra densità dell’acqua e densità dell’aria, che per temperature tra zero e venti gradi
(temperature tipiche degli strati più bassi dell’atmosfera durante un acquazzone) è circa 1 su 1000, possiamo quindi tranquillamente ignorare
il contributo apportato dalla forza di archimende.

La velocità di regime si ottiene quindi uguagliando forza di attrito viscoso con la forza peso, supponendo laminare il moto delle goccie di pioggia nell’aria:
6\pi\eta r v_p = mg = \frac 4 3 \pi r^3 \rho_{H_2O}g
Da cui otteniamo:
v_p = \frac 2 9 \frac {\rho r^2 g}{\eta}
Il raggio di una goccia di pioggia dipende dal tipo di temporale, è varia in tra 0.1 mm (pioggerella lieve) e i 2 mm (Acquazzone pesante).

Tornando all’espressione per B (volume d’acqua che ci colpisce durante la nostra “passeggiata”), è conveniente esprimere tutto con il rapporto tra v e vp:
B = \Phi d \frac {v_p}{vv_p}\left(S_c\frac {v}{v_p} + S_t\right)
Definendo la variabile x
x = \frac {v}{v_p}

Si ottiene:
B = \frac{\Phi d}{v_p}\;\frac{S_c x + S_t}{x}
B = \frac{9\Phi d\eta}{2\rho_{H_2O} r^2 g}\;\frac{S_c x + S_t}{x}
Per x>0 questa è una curva sempre positiva, monotona decrescente, non presenta minimi, come si può facilmente verificare facendone la derivata:
\frac{\partial B}{\partial t} = -\frac{9\Phi d\eta}{2\rho_{H_2O}r^2 g}\;\frac{S_t}{x^2}
Che non si annulla per nessun valore di x.

 

Mannaggia, non esiste una velocità alla quale conviene correre per bagnarsi il meno possibile,
tuttavia poiché la curva è monotona decrescente, più si aumenta la velocità, meno ci si bagna. Esiste però un valore asintotico, quindi
un valore minimo di acqua, che anche correndo alla velocità della luce, ci prendiamo ugualmente:
\lim_{x\rightarrow \infty}B(x) = \frac{9\Phi d \eta}{2\rho_{H_2O}r^2g}S_c = B_{min}
Definendo il fattore di inzuppamento di un temporale come la quantità I = B/d, possiamo classificare i temporali in base a quanti
litri d’acqua ci colpiscono come minimo per ogni metro che percorriamo!
I = \frac{B_{min}}{d}= \frac{9\Phi \eta}{2\rho_{H_2O}r^2g}S_c
Considerando una persona di statura media (alto 1.8 metri) e in sovrappeso (largo 0.5 metri), otteniamo un ordine di grandezza ragionevole
per S_c:
S_c \approx 0.9 m^2
Ricordiamo inoltre che il flusso di pioggia \Phi dipende dalle dimensioni delle goccie e dalla loro rapidità:
\Phi = n\frac{4}{3}\pi r^3 v_p
Esplicitando anche la dipendenza di vp dal raggio vediamo che \Phi ed r non sono grandezze indipendenti:
\Phi = n\frac{8 \pi\rho g r^5}{27\eta}

Non sappiamo dire se n ed r siano grandezze indipendenti, probabilmente non lo sono, tuttavia per fare un ragionamento per ordini di grandezze supponiamo che n (numero delle goccie di pioggia per unità di volume) sia costante per i vari acquazzoni:
\Phi \propto r^5

Per fare un ragionamento usando gli ordini di grandezza supponiamo che tutto l’aumento di \Phi sia dovuto ad aumento di r, da questo
possiamo, fissati \Phi ed r per la pioggerellina lieve, ricavare tutti i valori di $r$ per gli altri tipi di pioggia noto \Phi.
In seguito è riportata una tabella con i valori del fattore d’inzuppamento per le varie tipologie di pioggia:

tabella

Vediamo come varia il fattore di inzuppamento se consideriamo invece velocità umane, per questo viene riportato un grafico del
fattore di inzuppamento al variare della nostra velocità, usando i dati relativi alle diverse tipologie di temporale.

DifferentiPioggie

Esiste tuttavia come si vede una velocità a cui conviene correre indipendentemente dal tipo di nubifragio, infatti come mostrato nei grafici rinormalizzati, hanno tutti la stessa forma funzionale, e differiscono praticamente solo per costanti moltiplicative.

Rinormalizzato

Insomma, conviene sempre correre alla velocità di 4-5 metri al secondo (intorno ai 20 km/h), per ridurre l’inzuppata!

La matematica dei panini al prosciutto

La matematica dei panini al prosciutto

Tutti sono abituati a pensare alla matematica con teoremi dalle formule incomprensibili e nomi impronunciabili, pure astrazioni accademiche che c’entrano poco con la vita quotidiana . Ma non è proprio cosi. Infatti spesso l’istruzione scolastica tralascia alcuni degli aspetti più simpatici e concreti della matematica, teoremi pensati per risolvere problemi quotidiani con un pizzico della perversione tipica dei matematici. Quanti di voi hanno sentito parlare del teorema dei Carabinieri, di quello della palla pelosa, o il teorema dei matrimoni o quello del panino al prosciutto?

No, non è una presa in giro, esistono tutti veramente e riguardano, più o meno, la vita quotidiana.

Alcuni di questi sono semplicemente nomi scherzosi di problemi strettamente matematici, come il teorema dei carabinieri che riguarda le successioni numeriche: Se una successione (il ladro) si trova tra due successioni (i carabinieri) che convergono ad un unico punto, allora non c’è scampo, anche il ladro convergerà in quel punto e sarà catturato.

Se avete intensione di sposarvi un giorno, fareste bene a conoscere il teorema di Hall, detto anche teorema dei matrimoni.

È un risultato che riguarda gli insiemi e il calcolo combinatorio, ma può facilmente essere espresso così: prendiamo due insiemi, le donne che vivono in Italia e tutti gli uomini che piacciono alle donne italiane.

Riusciranno tutte a sposare l’uomo dei propri sogni se, e solo se il numero di questi uomini è maggiore o uguale del numero delle donne.

E la conseguenza è intuitiva. Più preferenze ha una donna, maggiori sono le possibilità che sposi un uomo che le piace, per cui ragazze, ampliate la vostra lista dei desideri se non volete restare senza marito!

Se mai aveste bisogno di pettinare una palla pelosa dovete sapere che c’è un teorema che dimostra l’impossibilità di pettinarla con regolarità. Per cui se vi capita di avere indomabili vertigini dei capelli, sappiate che la responsabilità è tutta di questo teorema. Applicato al moto dei venti il teorema della palla pelosa afferma che c’è sempre almeno un ciclone sulla Terra. In fondo uragani e vertigini dei capelli hanno molto in comune!

Ora immaginate di fare un bel pic-nic su un prato, siete in due, però avete un solo panino col prosciutto. Con un pizzico di perversione potreste chiedervi se è possibile tagliare il panino esattamente a metà: Il teorema del panino al prosciutto ci dice che è possibile.

Certo, il suo enunciato matematico è piuttosto astruso (Dati n volumi allineati, è sempre possibile costruire un iper-piano che bisezioni tutti gli n volumi), ma questo serve per poter estendere il concetto in spazi a qualunque dimensione.

Se mai vi venisse in mente di farvi un picnic in uno spazio a 5 o 6 dimensioni ora sapete come dividere il cibo con i vostri amici.

Nel caso delle due dimensioni questo teorema cambia nome e diventa il teorema delle frittelle. È sempre possibile costruire una retta che tagli in due parti con pari superficie due forme bidimensionali, in parole povere esiste sempre il modo di dividere due frittelle a metà con un solo taglio dritto.

Mi raccomando, la prossima volta che studiate matematica, panini e frittelle nel piatto e …

buon appetito.

La guerra dei Desktop

La guerra dei Desktop

In questi ultimi anni c’è stata grande attenzione all’interfaccia grafica del computer, effetti grafici trascendenti, trasparenze e chi più ne a più ne metta.

Il primo sistema a rendersi conto di questo è stato il Mac, che con i suoi effetti piacevoli, si è conquistato la nomea di computer moderno sopra tutti gli altri. Windows con vista voleva rincorrere il concorrente, integrando i widget (oggetti come orologi, note, che si comportano come icone sulla scrivania). Ma il sistema operativo che al momento vanta la maggior modernità nel campo desktop è Linux.

Già negli anni scorsi aveva rappresentato con Compiz, un programma che interviene sul comportamento del desktop integrando animazioni per la chiusura o lo spostamento delle finestre, un modello da imitare. L’uscita negli ultimi anni di KDE 4 e GNOME 3 (Le due maggiori interfacce Desktop su Linux) ha sconvolto il concetto di interfaccia utente, apportando innovazioni incredibili ma non sempre apprezzate.

KDE 4.7.3

Kde sfrutta il successo dell’interfaccia Microsoft presentandosi organizzata in maniera simile: una barra di controllo sotto la finestra con il pulsante start con cui navigare tra le applicazioni. L’integrazione perfetta con Compiz, la possibilità di modificare l’interfaccia fino all’osso e la grande varietà di temi con cui si presenta, lo rendono nettamente più piacevole da usare dell’equivalente sotto Windows.

Con i Widget del “plasma desktop” è possibile leggere le notizie di Facebook, Twitter, del nostro quotidiano preferito direttamente dal desktop senza aprire neanche il browser. Possiamo visualizzare in maniera ordinata direttamente dal desktop il contenuto di più cartelle, visualizzare lo spazio sul disco, lo stato della ram e della cpu, il framerate, i dispositivi connessi.

Amarok, il gestore musicale, non fa sentire l’assenza di iTunes. Si integra perfettamente gestendo in maniera corretta i supporti multimediali tra cui lettori mp3, iPod, e smartphone.

Passiamo ora agli svantaggi: Rispetto alla serie 3.* è diventato molto pesante, difficile da far girare velocemente sui computer più vecchiotti. Per funzionare al meglio richiede che l’utente ci dedichi del tempo sulla configurazione, permettendo però al sistema di “plasmarsi” alle esigenze del singolo utente.

GNOME 3.2.1

Gnome 3 è uscito da poco, è ha già suscitato le critiche di molti utenti. In realtà questo sistema si presenta con il più innovativo modo di pensare il Desktop. Tutto è nel menù Attività. Passandoci sopra il mouse, le finestre che abbiamo aperto si raccolgono vicine permettendoci di scegliere quella da visualizzare in promo piano, sul lato sinistro dello schermo appare la dock bar, su quello sinistro i desktop multipli, con i quali accedere a nuove aree di lavoro pulite. Inoltre in alto a destra è presente una casella di ricerca per trovare con rapidità le applicazioni non presenti nella dock bar (che, al contrario del Mac, è formata solo dallo stretto necessario, per consentire all’utente di raggiungere l’obbiettivo con la maggior velocità e eleganza possibile).

Inoltre sono disponibili attraverso i siti Gnome Art e altri numerosissimi temi per icone, finestre, bordi, pulsanti che lo rendono configurabile quasi quanto il rivale KDE.

Svantaggi: I grandi cambiamenti e l’innovazione di Gnome 3 rispetto al predecessore Gnome 2.* hanno portato molti utenti a preferire il vecchio sistema, dall’uso più tradizionale.

Istallando gnome da zero occorre passare un po di tempo per uniformare la grafica e piegare il sistema alle proprie esigenze.

LXDE e XFCE

Ecco gli altri Titani che, pur non godendo della fame di GNOME e KDE, offrono valide soluzioni alternative.

Entrambi hanno il punto di forza nel tallone di Achille di GNOME e KDE, la leggerezza. I due sistemi possono essere eseguiti senza problemi sui computer più vecchiotti. In questa caratteristica il giovane LXDE non ha rivali. È il Destkop manager più leggero in assoluto, grafica semplice, senza fronzoli, imita quella di KDE 3 (pannello in basso con pulsante start). È ottimo se tutto quello che l’utente chiede dal computer sia di lavorare velocemente senza essere distratto da orpelli grafici. Il consumo di CPU di base di LXDE è minimo. Se dovete lavorare con programmi di grafica o multimediali, o emulatori, che consumano molta CPU, LXDE è la soluzione perfetta. XFCE è leggermente più pesante del rivale, ma sfodera a suo vantaggio una maggiore maturità. La stabilità è la parola chiave. Se poi proprio non potete fare a meno degli effetti grafici, con Compiz, Xfce non ha da nulla invidiare ne a KDE ne a GNOME, rimanendo più snello e funzionale.

ENLIGHTENMENT

Enlightenment, o e17, è un desktop manager in via di sviluppo (ormai da 10 anni) che vuole essere una valida alternativa a Compiz. Lo scopo primario è quello di portare i più moderni effetti grafici anche su macchine più vecchiotte. Infatti e17, pur mancando di stabilità e offrendo un supporto minore degli altri desktop, vanta effetti grafici meravigliosi.

È stato il primo a introdurre i desktop animati, che rimangono ancora oggi una sua esclusiva. La dock bar Engage, fatta su stretta somiglianza di quella del mac, è stata perfezionata e migliorata a tal punto da essere persino più bella della rivale, offrendo effetti aggiuntivi durante l’apertura delle applicazioni. Enlightenment è facilmente estensibile grazie alla presenza di moduli aggiuntivi che integrano nuove funzionalità, anche se il suo sviluppo sembra avere fasi di inattività. La scelta migliore per chi ha un computer vecchio e vuole dei begli effetti grafici, o per che vuole un desktop estensibile e riprogrammabile.

ROX, SUGAR e altri

Gli altri due, molto meno diffusi Desktop manager che vediamo in circolazione sono Rox e Sugar. Il primo nasce per garantire all’utente il contatto diretto con i filesistem, cosa che viene sempre più negata dai moderni DE (Desktop manager). L’interfaccia grafica è scarna, può apparire un po’ datato ad un occhiata superficiale, ma la sua leggerezza è un arma potente. Se la batte alla pari con LXDE, tanto che i creatori di Puppy Linux (una versione di Linux fatta per girare su computer con appena 32 Mb di ram) hanno optato per questo desktop.

SUGAR è un DE pensato essenzialmente per l’educazione.

In alternativa esistono i Window Manager, che possono da soli o combinati con parti di altri DE, costituire la vostra interfaccia grafica. Questa soluzione è la migliore in fatto di qualità e configurabilità, ma estremamente difficile da attuare per gli utenti meno familiari con queste cose.

EXPLORER

L’interfaccia grafica di Windows era innovativa forse quindici anni fa, poiché da Windows 95 ad oggi le rivoluzioni sono state ben poche. Tuttavia, essendo Windows il più diffuso sistema operativo nel Desktop, costituisce uno standard de facto che è stato ripreso da molte soluzioni Open source, come KDE, LXDE e ROX. L’ultimo livello evolutivo di Explorer è stato raggiunto con Windows 7, dove sono entrate in gioco l’anteprima delle finestre, le trasparenze e la comoda suddivisione dell’area di lavoro. Ma sono moltissime le cose che mancano a questo sistema: in primis la scarsa configurabilità. L’assenza dei desktop multipli, presente ormai da anni in tutte le soluzioni analizzate fino ad ora, pesa nella sua usabilità, e la sua pesantezza (richiede sistemi hardware molto recenti per essere utilizzato) non dipende da particolari effetti grafici, che si limitano a qualche trasparenza.

AQUA (Mac Os X)

L’interfaccia del Mac è quasi leggendaria. La Apple è stata la prima a integrare un interfaccia grafica utente all’interno dei propri terminali. Lo sviluppo ha seguito azzeccate line di design che integrano bene i componenti hardware (dal quale mac non può separarsi) al software. Sebbene qualche anno fa il Mac, con la sua leggendaria dock bar rimaneva l’interfaccia grafica più accattivante, le ultime evoluzioni nel mondo Open source non hanno avuto paura a lasciarla alle spalle. Gli spettacolari effetti che una volta erano sua esclusiva adesso risultano addirittura pallidi se paragonati a quelli di KDE o GNOME.

Anche la fantastica Dock bar è rimasta indietro rispetto a Engage e l’interfaccia soffre la mancanza di desktop multipli (attivabili comunque con software di terze parti).

Detto questo ha l’incredibile merito di restare molto leggera, senza pesare sulle performance del computer quanto KDE o EXPLORER e vantando maggiore usabilità di ENLIGHTENMENT.

Il mondo dei Desktop sta vivendo una crisi profonda. La produzione di computer sempre più potenti stimola le menti creative a pensare a mezzi sempre più efficaci per sfruttare queste prestazioni rimanendo leggeri su computer più vecchi. In questo periodo di crisi spiccano con sempre più insistenza le soluzioni Open source, che vantano maggior configurabilità e flessibilità, adattandosi più rapidamente al nuovo hardware disponibile e offrendo soluzioni sempre migliori e nuove agli utenti. Inoltre queste soluzioni non sono mai imposte, ma consentono anche al più conservatori di ripiegare su sistemi più standard e classici come XFCE e LXDE. È la libertà di scelta che rende Linux vincente: ogni Desktop è il migliore in qualcosa, poiché su Linux puoi scegliere, avrai sempre la migliore scelta per le tue esigenze.

P.S.

L’autore dell’articolo possiede due computer, un Mac, e un portatile in dual boot Windows 7 e Arch Linux.

All’avvio di Arch linux non c’è nessun Desktop Environment, solo il terminale. L’autore ha comunque istallato e può avviare manualmente Gnome 3.2.1, Kde 4.7.3, Xfce 4.8, Lxde 0.5.5, e-17-svn. Si scusa per come ha liquidato velocemente alcuni Desktop Manager, come Sugar, e gli altri, i quali meriterebbero un articolo a parte.

Opok 0.4

È arrivata finalmente, dopo un anno di attese, la nuova versione di opok, la 0.4.
Opok è un ambizioso progetto sviluppato interamente da Lorenzo Monacelli di portare su computer un tipo di videogame che fatica ancora a sbarcare. I giochi dei pokemon della nintendo hanno scritto la storia del gaming, e ancora nessuna ditta ha pubblicato un gioco che assomigli in quanto a stile e a gameplay. L’intento e’ quello di creare un clone del gioco pokemon svincolato, sulla falsa riga di Super Tux, Super Tux Kart, Open Arena…
E così, da diversi anni, è iniziato il progetto. Lungi da essere completo, questa nuova versione introduce nuovi elementi importanti che rendono l’esperienza di gioco più interessante, ecco un elenco di alcune modifiche:

1) Aggiunta di una storia breve, Un rivale, una palestra da sfidare, due città e due percorsi in mezzo.
2) I pokemon possono imparare nuove mosse ed evolversi
3) È possibile catturare i pokemon
4) È possibile usare i box
5) Aggiunta degli strumenti (Pozioni e Pokeball)
6) Inserite Animazioni del personaggio, allenatori, erba alta e case
7) Migliorata la grafica della mappa in generale
8) Riscrittura del file della lotta, ora le mosse avvengono a turni, possibilità di cambiare pokemon durante la lotta, usare gli strumenti.
9) Miglioramenti grafici nella lotta
10) Possibilità di salvataggio migliorata
11) Aggiunta di un menu statistiche e un menu zaino
12) La vita dei pokemon e l’esperienza cambiano in maniera soft
13) Miglioramento nelle musiche
14) Possibilità di parlare con gli allenatori sconfitti e con i personaggi
15) Molti bugfix e altri piccole migliorerie….

Non mi resta che augurarvi buon divertimento!

Scarica da qui: https://sourceforge.net/projects/opok/files/Opok-0.4rc1.tar.bz2/download

La release pubblicata è in stato di rc, questo vuol dire che la versione è finita, ma mancano ancora piccoli ritocchi e sono presenti alcuni bug, se trovate qualcosa che non va scrivetelo sul forum o sulla pagina di facebook!