analistica/lectures/sections/modulo-2-3.md

15 KiB

Distribuzioni di probabilità

Distribuzione binomiale

Distribuzione binomiale: p = 0.3, n = 10,
N = 1000.

Si considerino N tentativi di un esperimento che può avere come esiti soltanto successo o fallimento e che la probabilità di ogni successo sia p. Definiamo n il numero dei successi. Dunque la probabilità di ottenere $n$ successi su N tentativi totali è data da:


  P(N, n, p) = \binom{N}{n} p^n (1 - p)^{N -n}

perché:

  • la probabilità che un successo si verifichi è p;

  • la probabilità che k successi si verifichino è data dal prodotto di tutte le probabilità: p^n;

  • lo stesso discorso vale per gli insuccessi: ognuno ha probabilità (1_p) e se ne verificano N -n;

  • il termine binomiale rappresenta tutte le possibili permutazioni: il concetto è semplice se si immagina di posizionare successi e fallimenti all'interno di una griglia con N possibili posizioni: un successo è un pallino bianco e un fallimento è un pallino nero. In quanti posti posso mettere il primo successo? N. E il secondo? N -1. E il terzo? E così via, finché ho messo tutti i successi, che occupano n posizioni, l'ultima delle quali è stata scelta tra N - (n -1) posizioni, per cui:

    
      N \cdot (N -1) \dots (N -n + 1) =
      \frac{N \cdot (N -1) \dots (N -n + 1) \cdot 2 \cdot 1}
      {(N -n) \cdot (N - n -1) \dots 2 \cdot 1} = \frac{N!}{(N -n)!}
    

    ma non bisogna considerare che poi tutte le posizioni delle palline nere sono uguali, quindi va ulteriormente diviso per n! per le stesse ragioni. Da cui:

    
    \binom{N}{n} = \frac{N!}{n! (N -n)!}
    

Per la normalizzazione, vale che:


  \sum_{n = 0}^N P(N, n, p) = 1

Possiamo definire un valore di aspettazione e una varianza:

\begin{align*} &E[n] = \sum_{n = 0}^N n P(N, n, p) = Np \ &V[n] = E[n^2] - E[n]^2 = Np(1 -p) \end{align*}

Distribuzione multinomiale

È la generalizzazione della pdf precedente nel caso in cui ci siano $m$ possibili risultati, ciascuno con una probabilità P_m di verificarsi. Per esempio, è il caso di un istogramma riguardo al quale ci si domanda quale sia la probabilità di trovarlo esattamente con quelle specifiche entrate.
La probabilità è conseguentemente data da:


  P(N, \vec{n}, \vec{p}) = \frac{N!}{n_1! n_2! \dots n_m!}
  p_1^{n_1} p_2^{n_2} \dots p_m^{n_m}

E come valore di aspettazione e deviazione standard si ottiene che:

\begin{align*} &E[n_i] = Np_i \ &V[n_i] = Np_i (1 -p_i) \end{align*}

Legge dei grandi numeri

La legge dei grandi numeri afferma che la media sperimentale di una variabile x, per un numero di tentativi N che tende all'infinito, si avvicina molto alla media vera. Questa legge può essere utilizzata per stimare le probabilità P_i di una distribuzione muiltinomiale tramite le frequenze con cui i diversi eventi si verificano.
Si consideri la frequenza f_j con cui l'evento j-esimo si verifica, dato un set di N tentativi:


  f_j = \frac{1}{N} \sum_{i = 1}^N x_i = \frac{x_j}{N}

dove x_i è una variabile che vale 1 se l'evento j-esimo si è verificato e vale 0 quando se ne è verificato un altro e x_j è quindi il numero di volte che l'evento j-esimo si è verificato.
A differenza di P_j, f_j è una variabile casuale perché dipende da $x_j$ che è la somma di variabili casuali. Definiamo valore medio:


  E(f_j) = \frac{E(x_j)}{N} = P_j

e calcoliamo la varianza:


  V \left[ f_j \right] = V \left[ \frac{x_j}{N} \right] =
  E \left[ \frac{x_j^2}{N^2} \right] - \left( E \left[ \frac{x_j}{N}
  \right] \right)^2 = \frac{1}{N^2} V \left[ x_j \right]

ora, x_j è esattamente n_j della multinomiale, perciò:


  V[x_j] = NP_j (1 - P_j)
  \hspace{30pt} \Longrightarrow \hspace{30pt}
  V[f_j] = \frac{1}{N} P_j (1 - P_j) \leqslant \frac{1}{N}

Distribuzione di Poisson

Distribuzione Poissoniana: \nu = 1,
N = 1000.

Se si considera la distribuzione binomiale e ci si pone nel limite in cui il numero di tentativi ripetuti tenda all'infinito e che la probabilità di successo tenda a zero (con il vincolo che N \cdot p = cost = \nu), si ottiene la distribuzione di Poisson:


  P(N, n, \nu) = \frac{\nu^n}{n!} e^{-\nu}

con:

\begin{align*} &E[n] = \nu \ &V[n] = \nu \end{align*}

dove \nu = NP = \frac{}{} numero medio di successi.
Quando N è talmente grande da non essere definito (come nel caso in cui si osservino i decadimenti di un atomo e dunque i tentativi sono le osservazioni, che sono dunque continue), non è più possibile definire una probabilità di successo per ogni evento (perché sarebbe nulla, da cui il motivo per cui la Poissoniana è definita con questi due limiti), e quindi \nu va definita in un altro modo. Infatti la distribuzione di Poisson, trattandosi di un limite in N e p, non dipende più esplicitamente da queste due grandezze.
Nel caso in cui si osservi il decadimento di un atomo, si è soliti procedere in questo modo: si suddivide il tempo di osservazione in intervalli (il che significa aver suddiviso gli infiniti tentativi in sottoinsiemi di infiniti tentativi) e si misura quante volte in ognuno di questi intervalli si verifica un successo. L'esperimento è ora praticamente suddiviso in più esperimenti minori da cui è possibile dedurre un numero medio frequentistico di successi. Per esempio:


successi 0 1 2 3 4 5 6 7


intervalli 1042 860 307 78 15 3 0 0

Poisson 1064 823 318 82 16 2 0.3 0.3

Table: Decadimento di un atomo. Il tempo di osservazione è stato suddiviso in intervalli e per ogni intervallo è stato contato il numero di successi osservati.

\newpage

Il numero medio di eventi è:


  \frac{1042 \cdot 0 + 860 \cdot 1 + 307 \cdot 2 + 78 \cdot 3 + 15 \cdot 4
        + 3 \cdot 5 + 0 \cdot 6 + 0 \cdot 7}{1064 + 860 + 307 + 78 + 15 + 3
        + 0 + 0} = 0.77

Da cui è possibile calcolare i valori sempre riportati nella tabella precedente.

Distribuzione uniforme

Distribuzione uniforme: a = 0, b = 100.

Una pdf di numeri che hanno tutti uguale probabilità di verificarsi è detta uniforme:


  P (n, a, b) = \begin{cases}
  \frac{1}{b - a} \hspace{30pt} a \leqslant x \leqslant b \\
  0 \hspace{42pt} \text{altrove}
  \end{cases}

con:

\begin{align*} E[n] = \frac{1}{2} (a + b) \ V[n] = \frac{1}{12} (a + b)^2 \end{align*}

Se una variabile è distribuita secondo una pdf f(x), la sua cumulante è uniformemente distribuita. Intuitivamente è semplice perché basta vederla in questo modo: si immagini il grafico della pdf; ogni volta che si estrae un numero, questo cadrà in un punto casuale nell'area al di sotto della pdf, lasciando uno spazio casuale alla sua sinistra (che è il valore della cumulante)

Distribuzione Gaussiana e CLT

Distribuzione Gaussiana: \mu = 30,
\sigma = 5.

La distribuzione Gaussiana (o normale) è definita come:


  P (x, \mu, \sigma) = \frac{1}{\sqrt{2 \pi} \sigma}
  e^{\frac{(x - \mu)^2}{2 \sigma^2}}

con:

\begin{align*} E[x] = \mu \ V[x] = \sigma^2 \end{align*}

La error function, che è la cumulativa di questa pdf, è molto utile in laboratorio e i suoi valori sono tabulati.
Il teorema centrale del limite afferma che date n variabili casuali indipendenti distribuite con una pdf comune e varianze \sigma_i^2, nel limite in qui n \rightarrow + \infty, la somma di queste variabili segue un andamento gaussiano con valore medio la somma dei valori medi e varianza la somma delle varianze.
Ciò può essere sfruttato per generare numeri casuali distribuiti secondo una distribuzione normale.

Per grandi valori di \mu (vale a dire qualche unità), la distribuzione di Poisson tende a quella Gaussiana con \mu = \nu e \sigma = \sqrt{\nu}. Analogamente per N \rightarrow + \infty la binomiale tende alla Gaussiana con \mu = Np e \sigma = \sqrt{Np (1 - p)}.

Distribuzione Gaussiana multivariata

Nel caso multidimensionale, la pdf per il vettore \vec{x} = {x_1 ... n_n} è data da:


  f(\vec{x}, \vec{\mu}, V) = \frac{1}{(2 \pi)^{N/2} \mid V \mid^{1/2}}
  \exp \left[ - \frac{1}{2} (\vec{x} - \vec{\mu})^t V^{-1} (\vec{x}
  - \vec{\mu}) \right]

con E[x_i] = \mu_i e \text{cov}[x_i, x_j] = V_{ij}

Media pesata

Quando si hanno misure con diversi errori, vanno combinate attraverso il concetto di media pesata:


  E[x] = \frac{\sum_{i = 1}^N \frac{x_i}{\sigma_i^2}}{\sum_{i = 1}^N
  \frac{1}{\sigma_i^2}}

  V[x] = \frac{1}{\sum_{i = 1}^N \frac{1}{\sigma_i^2}}

Ma non ha senso mediare valori che non sono compatibili!

Distribuzione di Breit-Wigner

Distribuzione di Breit-Wigner: x_0 = 20,
\Gamma = 10.

Esistono alcune distribuzioni che hanno momenti non ben definiti e che per questo si dicono "patologiche". Un esempio è la distribuzione di Breit-Wigner:


  f (x, \Gamma, x_o) = \frac{1}{\pi} \cdot
  \frac{\Gamma/2}{\Gamma^2/4 + (x - x_0)^2}

Un caso particolare è quello in cui x_0 = 0 e \Gamma = 2, caso in cui è detta distribuzione di Cauchy:


  f(x, 2, 0) = f(x) = \frac{1}{\pi} \cdot \frac{1}{1 + x^2}

Il valore medio e la varianza non sono definiti perché l'integrale è divergente. Conviene usare la moda e l'ampiezza a mezza altezza, che sono rispettivamente x_0 e \Gamma.
Nella libreria GSL, la pdf è scritta in questo modo:


  p(x) = \frac{1}{a \pi (1 + (x/a))^2}
  \hspace{50pt} \Longrightarrow \hspace{50pt}
  a = \Gamma/2

Distribuzione di Landau

Per una particella carica con \beta = v/c che attraversa un materiale sottile di spessore d, la perdita di energia \Delta segue la distribuzione di Landau:

Distribuzione di Landau.

Ha una forma complicatissima che racchiude integrali, logaritmi... Anche in questo caso non si possono definire i momenti algebrici perché l'integrale diverge.

Distribuzione del chi-quadro

Distribuzione del \chi^2: n = 5.

Date N grandezze distribuite ciascuna con una propria distribuzione Gaussiana, la somma dei loro quadrati segue la distribuzione \chi^2. Formalmente è definita così:


  f(z, n) \frac{1}{2^{n/2} \Gamma (n/2)} z^{n/2 - 1}e^{-z/2}

\begin{align*} &E[z] = n \ &V[z] = 2n \end{align*}

dove z è la variabile e n è il numero di fradi di libertà.
Quando si fa un esperimento e si campiona y(x) e poi si fittano i dati trovati con una funzione teorica f(x), ciascun valore y(x) si assume distribuito come una gaussiana attorno al suo valore vero, che assumiamo essere f(x): dunque i residui, che sono la differenza R(x)= y(x) - f(x), sono ancora una gaussiana, ma centrata in zero. Il chi quadro è definito come:


  \sum_i \frac{[y(x_i) - f(x_i)]^2}{f(x_i)}
  \hspace{50pt} \text{oppure} \hspace{50pt}
  \sum_i \frac{[y(x_i) - f(x_i)]^2}{\sigma_i^2}

Ne consegue che il chi quadro segua appunto la distribuzione del chi quadro.

Nella libreria GSL la distribuzione \chi^2 corrisponde alla distribuzione gamma con a = n/2 e b = 2.

Distribuzione esponenziale

Distribuzione del esponenziale: \lambda = 3.


  f(x, \lambda) = \lambda e^{-\lambda x}

\begin{align*} &E[z] = \frac{1}{\lambda} \ &V[z] = \frac{1}{\lambda^2} \end{align*}

Distribuzione t di Student

Distribuzione t di Student: \nu = 3.

È la distribuzione seguita dalla media di una popolazione gaussiana quando la si stima con un piccolo campione e senza conoscere la deviazione standard. Se y_1 è distribuita come una Gaussiana e y_2 come un \chi^2, se $\nu$ sono i gradi di libertà, allora x segue la t di Student:


  x = \frac{y_1}{\sqrt{\frac{y_2}{\nu}}}

che è così definita:


  f(x, \nu) = \frac{\Gamma \left( \frac{\nu + 1}{2} \right)}{\sqrt{\nu \pi}
  \Gamma \left( \frac{\nu}{2} \right)} \left( 1 + \frac{x^2}{\nu}
  \right)^{- \frac{\nu + 1}{2}}

\begin{align*} &E[z] = 0 \ &V[z] = \begin{cases} \frac{\nu}{\nu - 2} \hspace{15pt} \nu \greater 2 \ \infty \hspace{30pt} \nu \leqslant 2 \end{cases} \end{align*}

Distribuzione di Fischer-Snedecor

Distribuzione di Fischer: n = 3, m = 4.

Se si hanno due campioni \vec{x} e \vec{y} di variabili che seguono le rispettive Gaussiane, si può usare la distribuzione di Fisher-Snedecor per comparare le due varianze. Se nel primo caso le variabili sono n e nel secondo sono m, allora la distribuzione di Fisher con gradi di libertà n-1 e m-1 dà la distribuzione del rapporto:


  \frac{S^2_x / S^2_y}{\sigma^2_x / \sigma^2_y} =
  \frac{S^2_x / \sigma^2_x}{S^2_y / \sigma^2_y}

con:


  S^2_x = \frac{1}{n -1} \sum_{i = 1}^n (x_i - \mu_i)^2
  \hspace{50pt} \text{,} \hspace{50pt}
  S^2_y = \frac{1}{m -1} \sum_{i = 1}^m (y_i - \mu_i)^2

che quindi è il rapporto di due grandezze distribuite secondo il chi^2.
La definizione della pdf è complicata...

Funzione caratteristica

Si definisce funzione caratteristica di una variabile x distribuita secondo una f(x), la trasformata di Fourier di quest'ultima:


  \hat{f}(k) = E[e^{ikx}] = \int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx}

come per ogni trasformata, tutte le informazioni contenute nella funzione originaria sono contenute anche nella funzione caratteristica, perché per tornare alla prima è sufficiente calcolare la trasformata inversa:


  f(x) = \frac{1}{2 \pi} \int\limits_{-\infty}^{+\infty} dx \hat{f}(k) e^{-ikx}

la funzione caratteristica è utile per semplificare alcuni conti. Se x_1 \dots x_N sono variabili casuali indipendenti:

\begin{align*} z = \sum_{i = 1}^N x_i \hspace{20pt} \Longrightarrow \hspace{20pt} \hat{f}z(k) &= \int dx_1 \dots dx_N f_1(x_1) \dots f_N(x_N) e^{ik \sum{i=1}^N x_i} = \ &= \int dx_1 f_1(x_1) e^{ikx_1} \dots \int dx_N f_N(x_N) e^{ikx_N} = \ &= \hat{f}_1(k) \dots \hat{f}_N(k) \end{align*}

Inoltre vale anche che:


  \frac{d^m}{dk^m} \hat{f}(k) \big|_{k = 0} =
  \frac{d^m}{dk^m}
  \int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx} \big|_{k = 0} =
  i^m \int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx} x^m \big|_{k = 0} =
  i^m \mu_m = i^m E[x^m]

che è il momento algebrico di ordine m.
Per esempio, nel caso di due variabili indipendenti x e y gaussiane, si può notare subito che la loro somma è una gaussiana con \mu = \mu_x + \mu_y e \sigma^2 = \sigma_x^2 + \sigma_y^2. Analogamente per la Poissoniana.
Inoltre è facile osservare quale sia il comportamento delle pdf nei vari limiti che abbiamo visto in precedenza: se si manda N \rightarrow \infty mantenendo il valore medio costante nella funzione caratteristica di una binomiale, si ottiene la funzione caratteristica di una Poissoniana. Anche il teorema centrale del limite si può dimostrare in questo modo.