467 lines
15 KiB
Markdown
467 lines
15 KiB
Markdown
|
Distribuzioni di probabilità
|
||
|
|
||
|
## Distribuzione binomiale
|
||
|
|
||
|
![Distribuzione binomiale: p = 0.3, n = 10,
|
||
|
N = 1000.](images/binomiale.png)
|
||
|
|
||
|
Si considerino $N$ tentativi di un esperimento che può avere come esiti
|
||
|
soltanto successo o fallimento e che la probabilità di ogni successo sia $p$.
|
||
|
Definiamo $n$ il numero dei successi. Dunque la probabilità di ottenere $n$
|
||
|
successi su $N$ tentativi totali è data da:
|
||
|
|
||
|
$$
|
||
|
P(N, n, p) = \binom{N}{n} p^n (1 - p)^{N -n}
|
||
|
$$
|
||
|
|
||
|
perché:
|
||
|
|
||
|
- la probabilità che un successo si verifichi è $p$;
|
||
|
- la probabilità che $k$ successi si verifichino è data dal prodotto di tutte
|
||
|
le probabilità: $p^n$;
|
||
|
- lo stesso discorso vale per gli insuccessi: ognuno ha probabilità $(1_p)$ e
|
||
|
se ne verificano $N -n$;
|
||
|
- il termine binomiale rappresenta tutte le possibili permutazioni: il
|
||
|
concetto è semplice se si immagina di posizionare successi e fallimenti
|
||
|
all'interno di una griglia con $N$ possibili posizioni: un successo è un
|
||
|
pallino bianco e un fallimento è un pallino nero. In quanti posti posso
|
||
|
mettere il primo successo? $N$. E il secondo? $N -1$. E il terzo? E così
|
||
|
via, finché ho messo tutti i successi, che occupano $n$ posizioni, l'ultima
|
||
|
delle quali è stata scelta tra $N - (n -1)$ posizioni, per cui:
|
||
|
|
||
|
$$
|
||
|
N \cdot (N -1) \dots (N -n + 1) =
|
||
|
\frac{N \cdot (N -1) \dots (N -n + 1) \cdot 2 \cdot 1}
|
||
|
{(N -n) \cdot (N - n -1) \dots 2 \cdot 1} = \frac{N!}{(N -n)!}
|
||
|
$$
|
||
|
|
||
|
ma non bisogna considerare che poi tutte le posizioni delle palline nere
|
||
|
sono uguali, quindi va ulteriormente diviso per $n!$ per le stesse ragioni.
|
||
|
Da cui:
|
||
|
|
||
|
$$
|
||
|
\binom{N}{n} = \frac{N!}{n! (N -n)!}
|
||
|
$$
|
||
|
|
||
|
Per la normalizzazione, vale che:
|
||
|
|
||
|
$$
|
||
|
\sum_{n = 0}^N P(N, n, p) = 1
|
||
|
$$
|
||
|
|
||
|
Possiamo definire un valore di aspettazione e una varianza:
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[n] = \sum_{n = 0}^N n P(N, n, p) = Np \\
|
||
|
&V[n] = E[n^2] - E[n]^2 = Np(1 -p)
|
||
|
\end{align*}
|
||
|
|
||
|
## Distribuzione multinomiale
|
||
|
|
||
|
È la generalizzazione della pdf precedente nel caso in cui ci siano $m$
|
||
|
possibili risultati, ciascuno con una probabilità $P_m$ di verificarsi. Per
|
||
|
esempio, è il caso di un istogramma riguardo al quale ci si domanda quale sia la
|
||
|
probabilità di trovarlo esattamente con quelle specifiche entrate.
|
||
|
La probabilità è conseguentemente data da:
|
||
|
|
||
|
$$
|
||
|
P(N, \vec{n}, \vec{p}) = \frac{N!}{n_1! n_2! \dots n_m!}
|
||
|
p_1^{n_1} p_2^{n_2} \dots p_m^{n_m}
|
||
|
$$
|
||
|
|
||
|
E come valore di aspettazione e deviazione standard si ottiene che:
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[n_i] = Np_i \\
|
||
|
&V[n_i] = Np_i (1 -p_i)
|
||
|
\end{align*}
|
||
|
|
||
|
### Legge dei grandi numeri
|
||
|
|
||
|
La legge dei grandi numeri afferma che la media sperimentale di una variabile
|
||
|
$x$, per un numero di tentativi $N$ che tende all'infinito, si avvicina molto
|
||
|
alla media vera. Questa legge può essere utilizzata per stimare le probabilità
|
||
|
$P_i$ di una distribuzione muiltinomiale tramite le frequenze con cui i diversi
|
||
|
eventi si verificano.
|
||
|
Si consideri la frequenza $f_j$ con cui l'evento j-esimo si verifica, dato un
|
||
|
set di $N$ tentativi:
|
||
|
|
||
|
$$
|
||
|
f_j = \frac{1}{N} \sum_{i = 1}^N x_i = \frac{x_j}{N}
|
||
|
$$
|
||
|
|
||
|
dove $x_i$ è una variabile che vale 1 se l'evento j-esimo si è verificato e
|
||
|
vale 0 quando se ne è verificato un altro e $x_j$ è quindi il numero di volte
|
||
|
che l'evento j-esimo si è verificato.
|
||
|
A differenza di $P_j$, $f_j$ è una variabile casuale perché dipende da $x_j$
|
||
|
che è la somma di variabili casuali. Definiamo valore medio:
|
||
|
|
||
|
$$
|
||
|
E(f_j) = \frac{E(x_j)}{N} = P_j
|
||
|
$$
|
||
|
|
||
|
e calcoliamo la varianza:
|
||
|
|
||
|
$$
|
||
|
V \left[ f_j \right] = V \left[ \frac{x_j}{N} \right] =
|
||
|
E \left[ \frac{x_j^2}{N^2} \right] - \left( E \left[ \frac{x_j}{N}
|
||
|
\right] \right)^2 = \frac{1}{N^2} V \left[ x_j \right]
|
||
|
$$
|
||
|
|
||
|
ora, $x_j$ è esattamente $n_j$ della multinomiale, perciò:
|
||
|
|
||
|
$$
|
||
|
V[x_j] = NP_j (1 - P_j)
|
||
|
\hspace{30pt} \Longrightarrow \hspace{30pt}
|
||
|
V[f_j] = \frac{1}{N} P_j (1 - P_j) \leqslant \frac{1}{N}
|
||
|
$$
|
||
|
|
||
|
## Distribuzione di Poisson
|
||
|
|
||
|
![Distribuzione Poissoniana: $\nu$ = 1,
|
||
|
N = 1000.](images/poisson.png)
|
||
|
|
||
|
Se si considera la distribuzione binomiale e ci si pone nel limite in cui il
|
||
|
numero di tentativi ripetuti tenda all'infinito e che la probabilità di
|
||
|
successo tenda a zero (con il vincolo che $N \cdot p = cost = \nu$), si ottiene
|
||
|
la distribuzione di Poisson:
|
||
|
|
||
|
$$
|
||
|
P(N, n, \nu) = \frac{\nu^n}{n!} e^{-\nu}
|
||
|
$$
|
||
|
|
||
|
con:
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[n] = \nu \\
|
||
|
&V[n] = \nu
|
||
|
\end{align*}
|
||
|
|
||
|
dove $\nu = NP = \frac{}{}$ numero medio di successi.
|
||
|
Quando $N$ è talmente grande da non essere definito (come nel caso in cui si
|
||
|
osservino i decadimenti di un atomo e dunque i tentativi sono le osservazioni,
|
||
|
che sono dunque continue), non è più possibile definire una probabilità di
|
||
|
successo per ogni evento (perché sarebbe nulla, da cui il motivo per cui
|
||
|
la Poissoniana è definita con questi due limiti), e quindi $\nu$ va definita in
|
||
|
un altro modo. Infatti la distribuzione di Poisson, trattandosi di un limite in
|
||
|
$N$ e $p$, non dipende più esplicitamente da queste due grandezze.
|
||
|
Nel caso in cui si osservi il decadimento di un atomo, si è soliti procedere in
|
||
|
questo modo: si suddivide il tempo di osservazione in intervalli (il che
|
||
|
significa aver suddiviso gli infiniti tentativi in sottoinsiemi di infiniti
|
||
|
tentativi) e si misura quante volte in ognuno di questi intervalli si verifica
|
||
|
un successo. L'esperimento è ora praticamente suddiviso in più esperimenti
|
||
|
minori da cui è possibile dedurre un numero medio frequentistico di successi.
|
||
|
Per esempio:
|
||
|
|
||
|
----------------------------------------------------------
|
||
|
# successi 0 1 2 3 4 5 6 7
|
||
|
------------- ------ ----- ----- ---- ---- --- ----- -----
|
||
|
# intervalli 1042 860 307 78 15 3 0 0
|
||
|
|
||
|
Poisson 1064 823 318 82 16 2 0.3 0.3
|
||
|
----------------------------------------------------------
|
||
|
|
||
|
Table: Decadimento di un atomo. Il tempo di osservazione è stato suddiviso in
|
||
|
intervalli e per ogni intervallo è stato contato il numero di successi
|
||
|
osservati.
|
||
|
|
||
|
\newpage
|
||
|
|
||
|
Il numero medio di eventi è:
|
||
|
|
||
|
$$
|
||
|
\frac{1042 \cdot 0 + 860 \cdot 1 + 307 \cdot 2 + 78 \cdot 3 + 15 \cdot 4
|
||
|
+ 3 \cdot 5 + 0 \cdot 6 + 0 \cdot 7}{1064 + 860 + 307 + 78 + 15 + 3
|
||
|
+ 0 + 0} = 0.77
|
||
|
$$
|
||
|
|
||
|
Da cui è possibile calcolare i valori sempre riportati nella tabella precedente.
|
||
|
|
||
|
## Distribuzione uniforme
|
||
|
|
||
|
![Distribuzione uniforme: $a = 0$, $b = 100$.](images/uniform.png)
|
||
|
|
||
|
Una pdf di numeri che hanno tutti uguale probabilità di verificarsi è detta
|
||
|
uniforme:
|
||
|
|
||
|
$$
|
||
|
P (n, a, b) = \begin{cases}
|
||
|
\frac{1}{b - a} \hspace{30pt} a \leqslant x \leqslant b \\
|
||
|
0 \hspace{42pt} \text{altrove}
|
||
|
\end{cases}
|
||
|
$$
|
||
|
|
||
|
con:
|
||
|
|
||
|
\begin{align*}
|
||
|
E[n] = \frac{1}{2} (a + b) \\
|
||
|
V[n] = \frac{1}{12} (a + b)^2
|
||
|
\end{align*}
|
||
|
|
||
|
Se una variabile è distribuita secondo una pdf $f(x)$, la sua cumulante è
|
||
|
uniformemente distribuita. Intuitivamente è semplice perché basta vederla in
|
||
|
questo modo: si immagini il grafico della pdf; ogni volta che si estrae un
|
||
|
numero, questo cadrà in un punto casuale nell'area al di sotto della pdf,
|
||
|
lasciando uno spazio casuale alla sua sinistra (che è il valore della
|
||
|
cumulante)
|
||
|
|
||
|
## Distribuzione Gaussiana e CLT
|
||
|
|
||
|
![Distribuzione Gaussiana: $\mu = 30$,
|
||
|
$\sigma = 5$.](images/gaussian.png)
|
||
|
|
||
|
La distribuzione Gaussiana (o normale) è definita come:
|
||
|
|
||
|
$$
|
||
|
P (x, \mu, \sigma) = \frac{1}{\sqrt{2 \pi} \sigma}
|
||
|
e^{\frac{(x - \mu)^2}{2 \sigma^2}}
|
||
|
$$
|
||
|
|
||
|
con:
|
||
|
|
||
|
\begin{align*}
|
||
|
E[x] = \mu \\
|
||
|
V[x] = \sigma^2
|
||
|
\end{align*}
|
||
|
|
||
|
La error function, che è la cumulativa di questa pdf, è molto utile in
|
||
|
laboratorio e i suoi valori sono tabulati.
|
||
|
Il teorema centrale del limite afferma che date $n$ variabili casuali
|
||
|
indipendenti distribuite con una pdf comune e varianze $\sigma_i^2$, nel
|
||
|
limite in qui $n \rightarrow + \infty$, la somma di queste variabili segue un
|
||
|
andamento gaussiano con valore medio la somma dei valori medi e varianza la
|
||
|
somma delle varianze.
|
||
|
Ciò può essere sfruttato per generare numeri casuali distribuiti secondo una
|
||
|
distribuzione normale.
|
||
|
|
||
|
|
||
|
Per grandi valori di $\mu$ (vale a dire qualche unità), la distribuzione di
|
||
|
Poisson tende a quella Gaussiana con $\mu = \nu$ e $\sigma = \sqrt{\nu}$.
|
||
|
Analogamente per $N \rightarrow + \infty$ la binomiale tende alla Gaussiana
|
||
|
con $\mu = Np$ e $\sigma = \sqrt{Np (1 - p)}$.
|
||
|
|
||
|
## Distribuzione Gaussiana multivariata
|
||
|
|
||
|
Nel caso multidimensionale, la pdf per il vettore $\vec{x} = {x_1 ... n_n}$ è
|
||
|
data da:
|
||
|
|
||
|
$$
|
||
|
f(\vec{x}, \vec{\mu}, V) = \frac{1}{(2 \pi)^{N/2} \mid V \mid^{1/2}}
|
||
|
\exp \left[ - \frac{1}{2} (\vec{x} - \vec{\mu})^t V^{-1} (\vec{x}
|
||
|
- \vec{\mu}) \right]
|
||
|
$$
|
||
|
|
||
|
con $E[x_i] = \mu_i$ e $\text{cov}[x_i, x_j] = V_{ij}$
|
||
|
|
||
|
## Media pesata
|
||
|
|
||
|
Quando si hanno misure con diversi errori, vanno combinate attraverso il
|
||
|
concetto di media pesata:
|
||
|
|
||
|
$$
|
||
|
E[x] = \frac{\sum_{i = 1}^N \frac{x_i}{\sigma_i^2}}{\sum_{i = 1}^N
|
||
|
\frac{1}{\sigma_i^2}}
|
||
|
$$
|
||
|
$$
|
||
|
V[x] = \frac{1}{\sum_{i = 1}^N \frac{1}{\sigma_i^2}}
|
||
|
$$
|
||
|
|
||
|
Ma non ha senso mediare valori che non sono compatibili!
|
||
|
|
||
|
## Distribuzione di Breit-Wigner
|
||
|
|
||
|
![Distribuzione di Breit-Wigner: $x_0 = 20$,
|
||
|
$\Gamma = 10$.](images/wigner.png)
|
||
|
|
||
|
Esistono alcune distribuzioni che hanno momenti non ben definiti e che per
|
||
|
questo si dicono "patologiche". Un esempio è la distribuzione di Breit-Wigner:
|
||
|
|
||
|
$$
|
||
|
f (x, \Gamma, x_o) = \frac{1}{\pi} \cdot
|
||
|
\frac{\Gamma/2}{\Gamma^2/4 + (x - x_0)^2}
|
||
|
$$
|
||
|
|
||
|
Un caso particolare è quello in cui $x_0 = 0$ e $\Gamma = 2$, caso in cui è
|
||
|
detta distribuzione di Cauchy:
|
||
|
|
||
|
$$
|
||
|
f(x, 2, 0) = f(x) = \frac{1}{\pi} \cdot \frac{1}{1 + x^2}
|
||
|
$$
|
||
|
|
||
|
Il valore medio e la varianza non sono definiti perché l'integrale è
|
||
|
divergente. Conviene usare la moda e l'ampiezza a mezza altezza, che sono
|
||
|
rispettivamente $x_0$ e $\Gamma$.
|
||
|
Nella libreria *GSL*, la pdf è scritta in questo modo:
|
||
|
|
||
|
$$
|
||
|
p(x) = \frac{1}{a \pi (1 + (x/a))^2}
|
||
|
\hspace{50pt} \Longrightarrow \hspace{50pt}
|
||
|
a = \Gamma/2
|
||
|
$$
|
||
|
|
||
|
## Distribuzione di Landau
|
||
|
|
||
|
Per una particella carica con $\beta = v/c$ che attraversa un materiale sottile
|
||
|
di spessore $d$, la perdita di energia $\Delta$ segue la distribuzione di
|
||
|
Landau:
|
||
|
|
||
|
![Distribuzione di Landau.](images/landau.png)
|
||
|
|
||
|
Ha una forma complicatissima che racchiude integrali, logaritmi... Anche in
|
||
|
questo caso non si possono definire i momenti algebrici perché l'integrale
|
||
|
diverge.
|
||
|
|
||
|
## Distribuzione del chi-quadro
|
||
|
|
||
|
![Distribuzione del $\chi^2$: $n = 5$.](images/chi2.png)
|
||
|
|
||
|
Date $N$ grandezze distribuite ciascuna con una propria distribuzione
|
||
|
Gaussiana, la somma dei loro quadrati segue la distribuzione $\chi^2$.
|
||
|
Formalmente è definita così:
|
||
|
|
||
|
$$
|
||
|
f(z, n) \frac{1}{2^{n/2} \Gamma (n/2)} z^{n/2 - 1}e^{-z/2}
|
||
|
$$
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[z] = n \\
|
||
|
&V[z] = 2n
|
||
|
\end{align*}
|
||
|
|
||
|
dove $z$ è la variabile e $n$ è il numero di fradi di libertà.
|
||
|
Quando si fa un esperimento e si campiona $y(x)$ e poi si fittano i dati
|
||
|
trovati con una funzione teorica $f(x)$, ciascun valore $y(x)$ si assume
|
||
|
distribuito come una gaussiana attorno al suo valore vero, che assumiamo
|
||
|
essere $f(x)$: dunque i residui, che sono la differenza $R(x)= y(x) - f(x)$,
|
||
|
sono ancora una gaussiana, ma centrata in zero. Il chi quadro è definito come:
|
||
|
|
||
|
$$
|
||
|
\sum_i \frac{[y(x_i) - f(x_i)]^2}{f(x_i)}
|
||
|
\hspace{50pt} \text{oppure} \hspace{50pt}
|
||
|
\sum_i \frac{[y(x_i) - f(x_i)]^2}{\sigma_i^2}
|
||
|
$$
|
||
|
|
||
|
Ne consegue che il chi quadro segua appunto la distribuzione del chi quadro.
|
||
|
|
||
|
Nella libreria *GSL* la distribuzione $\chi^2$ corrisponde alla distribuzione
|
||
|
gamma con $a = n/2$ e $b = 2$.
|
||
|
|
||
|
## Distribuzione esponenziale
|
||
|
|
||
|
![Distribuzione del esponenziale: $\lambda = 3$.](images/exponential.png)
|
||
|
|
||
|
$$
|
||
|
f(x, \lambda) = \lambda e^{-\lambda x}
|
||
|
$$
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[z] = \frac{1}{\lambda} \\
|
||
|
&V[z] = \frac{1}{\lambda^2}
|
||
|
\end{align*}
|
||
|
|
||
|
## Distribuzione t di Student
|
||
|
|
||
|
![Distribuzione t di Student: $\nu = 3$.](images/student.png)
|
||
|
|
||
|
È la distribuzione seguita dalla media di una popolazione gaussiana quando
|
||
|
la si stima con un piccolo campione e senza conoscere la deviazione standard.
|
||
|
Se $y_1$ è distribuita come una Gaussiana e $y_2$ come un $\chi^2$, se $\nu$
|
||
|
sono i gradi di libertà, allora $x$ segue la t di Student:
|
||
|
|
||
|
$$
|
||
|
x = \frac{y_1}{\sqrt{\frac{y_2}{\nu}}}
|
||
|
$$
|
||
|
|
||
|
che è così definita:
|
||
|
|
||
|
$$
|
||
|
f(x, \nu) = \frac{\Gamma \left( \frac{\nu + 1}{2} \right)}{\sqrt{\nu \pi}
|
||
|
\Gamma \left( \frac{\nu}{2} \right)} \left( 1 + \frac{x^2}{\nu}
|
||
|
\right)^{- \frac{\nu + 1}{2}}
|
||
|
$$
|
||
|
|
||
|
\begin{align*}
|
||
|
&E[z] = 0 \\
|
||
|
&V[z] =
|
||
|
\begin{cases}
|
||
|
\frac{\nu}{\nu - 2} \hspace{15pt} \nu \greater 2 \\
|
||
|
\infty \hspace{30pt} \nu \leqslant 2
|
||
|
\end{cases}
|
||
|
\end{align*}
|
||
|
|
||
|
|
||
|
## Distribuzione di Fischer-Snedecor
|
||
|
|
||
|
![Distribuzione di Fischer: $n = 3$, $m = 4$.](images/fischer.png)
|
||
|
|
||
|
Se si hanno due campioni $\vec{x}$ e $\vec{y}$ di variabili che seguono le
|
||
|
rispettive Gaussiane, si può usare la distribuzione di Fisher-Snedecor per
|
||
|
comparare le due varianze. Se nel primo caso le variabili sono $n$ e nel
|
||
|
secondo sono $m$, allora la distribuzione di Fisher con gradi di libertà
|
||
|
$n-1$ e $m-1$ dà la distribuzione del rapporto:
|
||
|
|
||
|
$$
|
||
|
\frac{S^2_x / S^2_y}{\sigma^2_x / \sigma^2_y} =
|
||
|
\frac{S^2_x / \sigma^2_x}{S^2_y / \sigma^2_y}
|
||
|
$$
|
||
|
|
||
|
con:
|
||
|
|
||
|
$$
|
||
|
S^2_x = \frac{1}{n -1} \sum_{i = 1}^n (x_i - \mu_i)^2
|
||
|
\hspace{50pt} \text{,} \hspace{50pt}
|
||
|
S^2_y = \frac{1}{m -1} \sum_{i = 1}^m (y_i - \mu_i)^2
|
||
|
$$
|
||
|
|
||
|
che quindi è il rapporto di due grandezze distribuite secondo il $chi^2$.
|
||
|
La definizione della pdf è complicata...
|
||
|
|
||
|
## Funzione caratteristica
|
||
|
|
||
|
Si definisce funzione caratteristica di una variabile $x$ distribuita secondo
|
||
|
una $f(x)$, la trasformata di Fourier di quest'ultima:
|
||
|
|
||
|
$$
|
||
|
\hat{f}(k) = E[e^{ikx}] = \int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx}
|
||
|
$$
|
||
|
|
||
|
come per ogni trasformata, tutte le informazioni contenute nella funzione
|
||
|
originaria sono contenute anche nella funzione caratteristica, perché per
|
||
|
tornare alla prima è sufficiente calcolare la trasformata inversa:
|
||
|
|
||
|
$$
|
||
|
f(x) = \frac{1}{2 \pi} \int\limits_{-\infty}^{+\infty} dx \hat{f}(k) e^{-ikx}
|
||
|
$$
|
||
|
|
||
|
la funzione caratteristica è utile per semplificare alcuni conti. Se
|
||
|
$x_1 \dots x_N$ sono variabili casuali indipendenti:
|
||
|
|
||
|
\begin{align*}
|
||
|
z = \sum_{i = 1}^N x_i
|
||
|
\hspace{20pt} \Longrightarrow \hspace{20pt}
|
||
|
\hat{f}_z(k) &= \int dx_1 \dots dx_N f_1(x_1)
|
||
|
\dots f_N(x_N) e^{ik \sum_{i=1}^N x_i} = \\
|
||
|
&= \int dx_1 f_1(x_1) e^{ikx_1} \dots \int dx_N f_N(x_N) e^{ikx_N} = \\
|
||
|
&= \hat{f}_1(k) \dots \hat{f}_N(k)
|
||
|
\end{align*}
|
||
|
|
||
|
Inoltre vale anche che:
|
||
|
|
||
|
$$
|
||
|
\frac{d^m}{dk^m} \hat{f}(k) \big|_{k = 0} =
|
||
|
\frac{d^m}{dk^m}
|
||
|
\int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx} \big|_{k = 0} =
|
||
|
i^m \int\limits_{-\infty}^{+\infty} dx f(x) e^{ikx} x^m \big|_{k = 0} =
|
||
|
i^m \mu_m = i^m E[x^m]
|
||
|
$$
|
||
|
|
||
|
che è il momento algebrico di ordine $m$.
|
||
|
Per esempio, nel caso di due variabili indipendenti $x$ e $y$ gaussiane, si
|
||
|
può notare subito che la loro somma è una gaussiana con $\mu = \mu_x + \mu_y$ e
|
||
|
$\sigma^2 = \sigma_x^2 + \sigma_y^2$. Analogamente per la Poissoniana.
|
||
|
Inoltre è facile osservare quale sia il comportamento delle pdf nei vari limiti
|
||
|
che abbiamo visto in precedenza: se si manda $N \rightarrow \infty$ mantenendo
|
||
|
il valore medio costante nella funzione caratteristica di una binomiale, si
|
||
|
ottiene la funzione caratteristica di una Poissoniana. Anche il teorema
|
||
|
centrale del limite si può dimostrare in questo modo.
|