analistica/lectures/sections/modulo-2-1.md

258 lines
7.6 KiB
Markdown

# Probabilità
## Concetto di probabilità
Consideriamo un insieme S di eventi detto "spazio campionario" e due eventi
casuali A e B. Essi sono soggetti agli assiomi di Kolmogorov:
$\forall A \subseteq S, 0 \leqslant P(A) \leqslant 1$
$P(S) = 1$
$A \cap B = \varnothing \Longrightarrow P(A \cup B) = P(A) + P(B)$
Si definisce probabilità condizionata di A dato B:
$$
P(A|B) = \frac{P(A \cap B)}{P(B)}
$$
Se due eventi sono indipendenti, allora vale che:
$$
P(A \cap B) = P(A) \cdot P(B) \Longrightarrow
P(A|B) = \frac{P(A) \cdot P(B)}{P(B)} = P(A)
$$
Esistono diversi approcci per definire la probabilità:
- approccio frequentista:
$$
P(A) = \lim_{n \rightarrow +\infty} \frac{\#A}{n}
$$
ma c'è il problema che è impossibile fare un numero infinito di tentativi.
- approccio bayesiano:
utilizzare il teorema di Bayes, per esempio:
$$
P(\text{teoria|dati}) \propto P(\text{dati|teoria}) \cdot P(\text{teoria})
$$
si tratta quindi di un approccio "soggettivo", almeno per l'ultimo termine
dell'equazione qua sopra, perché la probabilità della validità della teoria
può essere data sulla base di ragionamenti e osservazioni riguardanti il
fenomeno di cui si sta parlando.
\begin{tikzpicture}
\draw [thick, pink] (0,0) -- (1,0);
\draw [red] (1.5,0) circle [radius=0.1];
\draw [thick, pink] (2,0) -- (3,0);
\draw [red] (3.5,0) circle [radius=0.1];
\draw [thick, pink] (4,0) -- (5,0);
\draw [red] (5.5,0) circle [radius=0.1];
\draw [thick, pink] (6,0) -- (7,0);
\draw [red] (7.5,0) circle [radius=0.1];
\draw [thick, pink] (8,0) -- (9,0);
\draw [red] (9.5,0) circle [radius=0.1];
\draw [thick, pink] (10,0) -- (11,0);
\draw [red] (11.5,0) circle [radius=0.1];
\draw [thick, pink] (12,0) -- (13,0);
\draw [red] (13.5,0) circle [radius=0.1];
\draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}
### Esempio di probabilità condizionata
Si osservano dei decadimenti e se ne misurano indipendentemente $N_a$ e $N_b$;
in comune ne sono stati misurati $N_{ab}$. Possiamo stimare il numero totale
di eventi $N$ e l'efficienza totale $\epsilon$.
$$
P(a) = \frac{N_a}{N} \hspace{100pt} P(b) = \frac{N_b}{N}
$$
$$
P(ab) = \frac{N_{ab}}{N} = P(a) \cdot P(b) = \frac{N_a \cdot N_b}{N^2}
\Longrightarrow N = \frac{N_a \cdot N_b}{N_{ab}}
$$
$$
\epsilon = P(a \cup b) = P(a) + P(b) -P(a \cap b) =
\frac{N_a + N_b - N_{ab}}{N}
$$
\begin{tikzpicture}
\draw [thick, pink] (0,0) -- (1,0);
\draw [red] (1.5,0) circle [radius=0.1];
\draw [thick, pink] (2,0) -- (3,0);
\draw [red] (3.5,0) circle [radius=0.1];
\draw [thick, pink] (4,0) -- (5,0);
\draw [red] (5.5,0) circle [radius=0.1];
\draw [thick, pink] (6,0) -- (7,0);
\draw [red] (7.5,0) circle [radius=0.1];
\draw [thick, pink] (8,0) -- (9,0);
\draw [red] (9.5,0) circle [radius=0.1];
\draw [thick, pink] (10,0) -- (11,0);
\draw [red] (11.5,0) circle [radius=0.1];
\draw [thick, pink] (12,0) -- (13,0);
\draw [red] (13.5,0) circle [radius=0.1];
\draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}
## Teorema di Bayes
$$
P(A|B) = \frac{P(A \cap B)}{P(B)}
\hspace{100pt}
P(B|A) = \frac{P(B \cap A)}{P(A)}
$$
$$
P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}
$$
Dal teorema di Bayes è possibile dedurre il teorema della probabilità totale:
consideriamo un insieme $S$ diviso in sottoinsiemi disgiunti $A_i$ la cui
unione dà l'insieme di partenza:
$$
\cup_i A_i = S
$$
e consideriamo un insieme $B$ anch'esso interno ad $S$:
$$
B = B \cap S = B \cap (\cup_i A_i) = \cup_i (B \cap A_i)
$$
$$
\Longrightarrow P(B) = \sum_i P(B \cap A_i)
$$
$$
\Longrightarrow P(B) = \sum_i P(B|A_i)P(A_i)
$$
da cui, per uno specifico insieme $A_j$, attraverso il teorema di Bayes:
$$
P(A_j|B) = \frac{P(B|A_j) \cdot P(A_j)}{\sum_i P(B|A_i)P(A_i)}
$$
\begin{tikzpicture}
\draw [thick, pink] (0,0) -- (1,0);
\draw [red] (1.5,0) circle [radius=0.1];
\draw [thick, pink] (2,0) -- (3,0);
\draw [red] (3.5,0) circle [radius=0.1];
\draw [thick, pink] (4,0) -- (5,0);
\draw [red] (5.5,0) circle [radius=0.1];
\draw [thick, pink] (6,0) -- (7,0);
\draw [red] (7.5,0) circle [radius=0.1];
\draw [thick, pink] (8,0) -- (9,0);
\draw [red] (9.5,0) circle [radius=0.1];
\draw [thick, pink] (10,0) -- (11,0);
\draw [red] (11.5,0) circle [radius=0.1];
\draw [thick, pink] (12,0) -- (13,0);
\draw [red] (13.5,0) circle [radius=0.1];
\draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}
### Esempio di probabilità totale: segnale e fondo
Un rilevatore misura segnale e fondo con relative efficienze $P(R|S)$ e
$P(R|F)$. Se sono note a priori la probabilità di segnale e di fondo
$P(S)$ e $P(F)$, allora si può risalire alla probabilità, data una
misurazione, di aver misurato il segnale:
$$
P(S|R) = \frac{P(R|S) \cdot P(S)}{P(R|S) \cdot P(S) + P(R|F) \cdot P(F)}
$$
\begin{tikzpicture}
\draw [thick, pink] (0,0) -- (1,0);
\draw [red] (1.5,0) circle [radius=0.1];
\draw [thick, pink] (2,0) -- (3,0);
\draw [red] (3.5,0) circle [radius=0.1];
\draw [thick, pink] (4,0) -- (5,0);
\draw [red] (5.5,0) circle [radius=0.1];
\draw [thick, pink] (6,0) -- (7,0);
\draw [red] (7.5,0) circle [radius=0.1];
\draw [thick, pink] (8,0) -- (9,0);
\draw [red] (9.5,0) circle [radius=0.1];
\draw [thick, pink] (10,0) -- (11,0);
\draw [red] (11.5,0) circle [radius=0.1];
\draw [thick, pink] (12,0) -- (13,0);
\draw [red] (13.5,0) circle [radius=0.1];
\draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}
### Esempio di probabilità totale: AIDS
$$
P(\text{AIDS}) = 0.001 \hspace{50pt} P(\text{no AIDS}) = 0.999
$$
$$
P(\text{+|AIDS}) = 0.98 \hspace{50pt} P(\text{-|AIDS}) = 0.02
$$
$$
P(\text{+|no AIDS}) = 0.03 \hspace{50pt} P(\text{-|no AIDS}) = 0.97
$$
Quindi se il test è positivo, la probabilità di avere davvero preso l'AIDS è:
$$
P(\text{AIDS|+}) = \frac{P(\text{+|AIDS}) \cdot P(\text{AIDS})}
{P(\text{+|AIDS}) \cdot P(\text{AIDS}) + P(\text{+|no AIDS}) \cdot
P(\text{no AIDS})} = 0.032
$$
\begin{tikzpicture}
\draw [thick, pink] (0,0) -- (1,0);
\draw [red] (1.5,0) circle [radius=0.1];
\draw [thick, pink] (2,0) -- (3,0);
\draw [red] (3.5,0) circle [radius=0.1];
\draw [thick, pink] (4,0) -- (5,0);
\draw [red] (5.5,0) circle [radius=0.1];
\draw [thick, pink] (6,0) -- (7,0);
\draw [red] (7.5,0) circle [radius=0.1];
\draw [thick, pink] (8,0) -- (9,0);
\draw [red] (9.5,0) circle [radius=0.1];
\draw [thick, pink] (10,0) -- (11,0);
\draw [red] (11.5,0) circle [radius=0.1];
\draw [thick, pink] (12,0) -- (13,0);
\draw [red] (13.5,0) circle [radius=0.1];
\draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}
### Approccio bayesiano con una teoria
Cominciamo com un esempio: con un esperimento è stata misurata la massa di
un elettrone e sono stati trovati i valori {$m_i$}, di cui il valore medio
è $m_e = \SI{520 \pm 10}{KeV}$. Si assume quindi che il valore vero sia
compreso tra \SI{510}{KeV} e \SI{530}{KeV} con una probabilità del 68% data
dal confidence level. Per cui, la probabilità che la massa vera sia proprio
\SI{520}{KeV} è data da:
$$
P(m_e|{m_i}) = \frac{}{}
$$
\textcolor{red}{**rivedere negli appunti questa formula**}
Quando si fa una misurazione, si misurano $N$ valori e si calcolano il valore
medio $\bar{x}$ e la deviazione standard $\sigma$ e si dice che il risultato è:
$$
\mu = \bar{x} \pm \frac{\sigma}{\sqrt{N}}
$$
e di solito lo si interpreta dicendo che:
$$
P \left( \bar{x} - \frac{\sigma}{\sqrt{N}} \leqslant \mu \leqslant
\bar{x} + \frac{\sigma}{\sqrt{N}} \right) = 68\%
$$
ma in realtà quello che sappiamo è solo che:
$$
P \left( \mu - \frac{\sigma_{true}}{\sqrt{N}} \leqslant \bar{x} \leqslant
\mu + \frac{\sigma_{true}}{\sqrt{N}} \right) = 68\%
$$
**\textcolor{red}{WHAT?!?}**