# Probabilità

## Concetto di probabilità

Consideriamo un insieme S di eventi detto "spazio campionario" e due eventi
casuali A e B. Essi sono soggetti agli assiomi di Kolmogorov:

$\forall A \subseteq S,  0 \leqslant P(A) \leqslant 1$  
$P(S) = 1$  
$A \cap B = \varnothing \Longrightarrow P(A \cup B) = P(A) + P(B)$

Si definisce probabilità condizionata di A dato B:

$$
  P(A|B) = \frac{P(A \cap B)}{P(B)}
$$

Se due eventi sono indipendenti, allora vale che:

$$
  P(A \cap B) = P(A) \cdot P(B) \Longrightarrow
  P(A|B) = \frac{P(A) \cdot P(B)}{P(B)} = P(A)
$$

Esistono diversi approcci per definire la probabilità:

- approccio frequentista:

  $$
    P(A) = \lim_{n \rightarrow +\infty} \frac{\#A}{n}
  $$

  ma c'è il problema che è impossibile fare un numero infinito di tentativi.
- approccio bayesiano:  
  utilizzare il teorema di Bayes, per esempio:

  $$
    P(\text{teoria|dati}) \propto P(\text{dati|teoria}) \cdot P(\text{teoria})
  $$
  si tratta quindi di un approccio "soggettivo", almeno per l'ultimo termine
  dell'equazione qua sopra, perché la probabilità della validità della teoria
  può essere data sulla base di ragionamenti e osservazioni riguardanti il
  fenomeno di cui si sta parlando.

\begin{tikzpicture}
  \draw [thick, pink] (0,0) -- (1,0);
  \draw [red] (1.5,0) circle [radius=0.1];
  \draw [thick, pink] (2,0) -- (3,0);
  \draw [red] (3.5,0) circle [radius=0.1];
  \draw [thick, pink] (4,0) -- (5,0);
  \draw [red] (5.5,0) circle [radius=0.1];
  \draw [thick, pink] (6,0) -- (7,0);
  \draw [red] (7.5,0) circle [radius=0.1];
  \draw [thick, pink] (8,0) -- (9,0);
  \draw [red] (9.5,0) circle [radius=0.1];
  \draw [thick, pink] (10,0) -- (11,0);
  \draw [red] (11.5,0) circle [radius=0.1];
  \draw [thick, pink] (12,0) -- (13,0);
  \draw [red] (13.5,0) circle [radius=0.1];
  \draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}

### Esempio di probabilità condizionata

Si osservano dei decadimenti e se ne misurano indipendentemente $N_a$ e $N_b$;
in comune ne sono stati misurati $N_{ab}$. Possiamo stimare il numero totale
di eventi $N$ e l'efficienza totale $\epsilon$.

$$
  P(a) = \frac{N_a}{N} \hspace{100pt} P(b) = \frac{N_b}{N}
$$
$$
  P(ab) = \frac{N_{ab}}{N} = P(a) \cdot P(b) = \frac{N_a \cdot N_b}{N^2}
  \Longrightarrow N = \frac{N_a \cdot N_b}{N_{ab}}
$$
$$
  \epsilon = P(a \cup b) = P(a) + P(b) -P(a \cap b) =
  \frac{N_a + N_b - N_{ab}}{N}
$$

\begin{tikzpicture}
  \draw [thick, pink] (0,0) -- (1,0);
  \draw [red] (1.5,0) circle [radius=0.1];
  \draw [thick, pink] (2,0) -- (3,0);
  \draw [red] (3.5,0) circle [radius=0.1];
  \draw [thick, pink] (4,0) -- (5,0);
  \draw [red] (5.5,0) circle [radius=0.1];
  \draw [thick, pink] (6,0) -- (7,0);
  \draw [red] (7.5,0) circle [radius=0.1];
  \draw [thick, pink] (8,0) -- (9,0);
  \draw [red] (9.5,0) circle [radius=0.1];
  \draw [thick, pink] (10,0) -- (11,0);
  \draw [red] (11.5,0) circle [radius=0.1];
  \draw [thick, pink] (12,0) -- (13,0);
  \draw [red] (13.5,0) circle [radius=0.1];
  \draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}

## Teorema di Bayes

$$
  P(A|B) = \frac{P(A \cap B)}{P(B)}
  \hspace{100pt}
  P(B|A) = \frac{P(B \cap A)}{P(A)}
$$
$$
  P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}
$$

Dal teorema di Bayes è possibile dedurre il teorema della probabilità totale:
consideriamo un insieme $S$ diviso in sottoinsiemi disgiunti $A_i$ la cui
unione dà l'insieme di partenza:

$$
  \cup_i A_i = S
$$

e consideriamo un insieme $B$ anch'esso interno ad $S$:

$$
  B = B \cap S = B \cap (\cup_i A_i) = \cup_i (B \cap A_i)
$$
$$
  \Longrightarrow P(B) = \sum_i P(B \cap A_i)
$$
$$
  \Longrightarrow P(B) = \sum_i P(B|A_i)P(A_i)
$$

da cui, per uno specifico insieme $A_j$, attraverso il teorema di Bayes:

$$
  P(A_j|B) = \frac{P(B|A_j) \cdot P(A_j)}{\sum_i P(B|A_i)P(A_i)}
$$

\begin{tikzpicture}
  \draw [thick, pink] (0,0) -- (1,0);
  \draw [red] (1.5,0) circle [radius=0.1];
  \draw [thick, pink] (2,0) -- (3,0);
  \draw [red] (3.5,0) circle [radius=0.1];
  \draw [thick, pink] (4,0) -- (5,0);
  \draw [red] (5.5,0) circle [radius=0.1];
  \draw [thick, pink] (6,0) -- (7,0);
  \draw [red] (7.5,0) circle [radius=0.1];
  \draw [thick, pink] (8,0) -- (9,0);
  \draw [red] (9.5,0) circle [radius=0.1];
  \draw [thick, pink] (10,0) -- (11,0);
  \draw [red] (11.5,0) circle [radius=0.1];
  \draw [thick, pink] (12,0) -- (13,0);
  \draw [red] (13.5,0) circle [radius=0.1];
  \draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}

### Esempio di probabilità totale: segnale e fondo

Un rilevatore misura segnale e fondo con relative efficienze $P(R|S)$ e
$P(R|F)$. Se sono note a priori la probabilità di segnale e di fondo
$P(S)$ e $P(F)$, allora si può risalire alla probabilità, data una
misurazione, di aver misurato il segnale:

$$
  P(S|R) = \frac{P(R|S) \cdot P(S)}{P(R|S) \cdot P(S) + P(R|F) \cdot P(F)}
$$

\begin{tikzpicture}
  \draw [thick, pink] (0,0) -- (1,0);
  \draw [red] (1.5,0) circle [radius=0.1];
  \draw [thick, pink] (2,0) -- (3,0);
  \draw [red] (3.5,0) circle [radius=0.1];
  \draw [thick, pink] (4,0) -- (5,0);
  \draw [red] (5.5,0) circle [radius=0.1];
  \draw [thick, pink] (6,0) -- (7,0);
  \draw [red] (7.5,0) circle [radius=0.1];
  \draw [thick, pink] (8,0) -- (9,0);
  \draw [red] (9.5,0) circle [radius=0.1];
  \draw [thick, pink] (10,0) -- (11,0);
  \draw [red] (11.5,0) circle [radius=0.1];
  \draw [thick, pink] (12,0) -- (13,0);
  \draw [red] (13.5,0) circle [radius=0.1];
  \draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}

### Esempio di probabilità totale: AIDS 

$$
  P(\text{AIDS}) = 0.001 \hspace{50pt} P(\text{no AIDS}) = 0.999
$$
$$
  P(\text{+|AIDS}) = 0.98 \hspace{50pt} P(\text{-|AIDS}) = 0.02
$$
$$
  P(\text{+|no AIDS}) = 0.03 \hspace{50pt} P(\text{-|no AIDS}) = 0.97
$$

Quindi se il test è positivo, la probabilità di avere davvero preso l'AIDS è:

$$
  P(\text{AIDS|+}) = \frac{P(\text{+|AIDS}) \cdot P(\text{AIDS})}
  {P(\text{+|AIDS}) \cdot P(\text{AIDS}) + P(\text{+|no AIDS}) \cdot
  P(\text{no AIDS})} = 0.032
$$

\begin{tikzpicture}
  \draw [thick, pink] (0,0) -- (1,0);
  \draw [red] (1.5,0) circle [radius=0.1];
  \draw [thick, pink] (2,0) -- (3,0);
  \draw [red] (3.5,0) circle [radius=0.1];
  \draw [thick, pink] (4,0) -- (5,0);
  \draw [red] (5.5,0) circle [radius=0.1];
  \draw [thick, pink] (6,0) -- (7,0);
  \draw [red] (7.5,0) circle [radius=0.1];
  \draw [thick, pink] (8,0) -- (9,0);
  \draw [red] (9.5,0) circle [radius=0.1];
  \draw [thick, pink] (10,0) -- (11,0);
  \draw [red] (11.5,0) circle [radius=0.1];
  \draw [thick, pink] (12,0) -- (13,0);
  \draw [red] (13.5,0) circle [radius=0.1];
  \draw [thick, pink] (14,0) -- (15,0);
\end{tikzpicture}

### Approccio bayesiano con una teoria

Cominciamo com un esempio: con un esperimento è stata misurata la massa di
un elettrone e sono stati trovati i valori {$m_i$}, di cui il valore medio
è $m_e = \SI{520 \pm 10}{KeV}$. Si assume quindi che il valore vero sia
compreso tra \SI{510}{KeV} e \SI{530}{KeV} con una probabilità del 68% data
dal confidence level. Per cui, la probabilità che la massa vera sia proprio
\SI{520}{KeV} è data da:

$$
  P(m_e|{m_i}) = \frac{}{}
$$

\textcolor{red}{**rivedere negli appunti questa formula**}

Quando si fa una misurazione, si misurano $N$ valori e si calcolano il valore
medio $\bar{x}$ e la deviazione standard $\sigma$ e si dice che il risultato è:

$$
  \mu = \bar{x} \pm \frac{\sigma}{\sqrt{N}}
$$

e di solito lo si interpreta dicendo che:

$$
  P \left( \bar{x} - \frac{\sigma}{\sqrt{N}} \leqslant \mu \leqslant
  \bar{x} + \frac{\sigma}{\sqrt{N}} \right) = 68\%
$$

ma in realtà quello che sappiamo è solo che:

$$
  P \left( \mu - \frac{\sigma_{true}}{\sqrt{N}} \leqslant \bar{x} \leqslant
  \mu + \frac{\sigma_{true}}{\sqrt{N}} \right) = 68\%
$$

**\textcolor{red}{WHAT?!?}**