7.6 KiB
Probabilità
Concetto di probabilità
Consideriamo un insieme S di eventi detto "spazio campionario" e due eventi casuali A e B. Essi sono soggetti agli assiomi di Kolmogorov:
\forall A \subseteq S, 0 \leqslant P(A) \leqslant 1
P(S) = 1
A \cap B = \varnothing \Longrightarrow P(A \cup B) = P(A) + P(B)
Si definisce probabilità condizionata di A dato B:
P(A|B) = \frac{P(A \cap B)}{P(B)}
Se due eventi sono indipendenti, allora vale che:
P(A \cap B) = P(A) \cdot P(B) \Longrightarrow
P(A|B) = \frac{P(A) \cdot P(B)}{P(B)} = P(A)
Esistono diversi approcci per definire la probabilità:
-
approccio frequentista:
P(A) = \lim_{n \rightarrow +\infty} \frac{\#A}{n}
ma c'è il problema che è impossibile fare un numero infinito di tentativi.
-
approccio bayesiano:
utilizzare il teorema di Bayes, per esempio:P(\text{teoria|dati}) \propto P(\text{dati|teoria}) \cdot P(\text{teoria})
si tratta quindi di un approccio "soggettivo", almeno per l'ultimo termine dell'equazione qua sopra, perché la probabilità della validità della teoria può essere data sulla base di ragionamenti e osservazioni riguardanti il fenomeno di cui si sta parlando.
\begin{tikzpicture} \draw [thick, pink] (0,0) -- (1,0); \draw [red] (1.5,0) circle [radius=0.1]; \draw [thick, pink] (2,0) -- (3,0); \draw [red] (3.5,0) circle [radius=0.1]; \draw [thick, pink] (4,0) -- (5,0); \draw [red] (5.5,0) circle [radius=0.1]; \draw [thick, pink] (6,0) -- (7,0); \draw [red] (7.5,0) circle [radius=0.1]; \draw [thick, pink] (8,0) -- (9,0); \draw [red] (9.5,0) circle [radius=0.1]; \draw [thick, pink] (10,0) -- (11,0); \draw [red] (11.5,0) circle [radius=0.1]; \draw [thick, pink] (12,0) -- (13,0); \draw [red] (13.5,0) circle [radius=0.1]; \draw [thick, pink] (14,0) -- (15,0); \end{tikzpicture}
Esempio di probabilità condizionata
Si osservano dei decadimenti e se ne misurano indipendentemente N_a
e N_b
;
in comune ne sono stati misurati N_{ab}
. Possiamo stimare il numero totale
di eventi N
e l'efficienza totale \epsilon
.
P(a) = \frac{N_a}{N} \hspace{100pt} P(b) = \frac{N_b}{N}
P(ab) = \frac{N_{ab}}{N} = P(a) \cdot P(b) = \frac{N_a \cdot N_b}{N^2}
\Longrightarrow N = \frac{N_a \cdot N_b}{N_{ab}}
\epsilon = P(a \cup b) = P(a) + P(b) -P(a \cap b) =
\frac{N_a + N_b - N_{ab}}{N}
\begin{tikzpicture} \draw [thick, pink] (0,0) -- (1,0); \draw [red] (1.5,0) circle [radius=0.1]; \draw [thick, pink] (2,0) -- (3,0); \draw [red] (3.5,0) circle [radius=0.1]; \draw [thick, pink] (4,0) -- (5,0); \draw [red] (5.5,0) circle [radius=0.1]; \draw [thick, pink] (6,0) -- (7,0); \draw [red] (7.5,0) circle [radius=0.1]; \draw [thick, pink] (8,0) -- (9,0); \draw [red] (9.5,0) circle [radius=0.1]; \draw [thick, pink] (10,0) -- (11,0); \draw [red] (11.5,0) circle [radius=0.1]; \draw [thick, pink] (12,0) -- (13,0); \draw [red] (13.5,0) circle [radius=0.1]; \draw [thick, pink] (14,0) -- (15,0); \end{tikzpicture}
Teorema di Bayes
P(A|B) = \frac{P(A \cap B)}{P(B)}
\hspace{100pt}
P(B|A) = \frac{P(B \cap A)}{P(A)}
P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}
Dal teorema di Bayes è possibile dedurre il teorema della probabilità totale:
consideriamo un insieme S
diviso in sottoinsiemi disgiunti A_i
la cui
unione dà l'insieme di partenza:
\cup_i A_i = S
e consideriamo un insieme B
anch'esso interno ad S
:
B = B \cap S = B \cap (\cup_i A_i) = \cup_i (B \cap A_i)
\Longrightarrow P(B) = \sum_i P(B \cap A_i)
\Longrightarrow P(B) = \sum_i P(B|A_i)P(A_i)
da cui, per uno specifico insieme A_j
, attraverso il teorema di Bayes:
P(A_j|B) = \frac{P(B|A_j) \cdot P(A_j)}{\sum_i P(B|A_i)P(A_i)}
\begin{tikzpicture} \draw [thick, pink] (0,0) -- (1,0); \draw [red] (1.5,0) circle [radius=0.1]; \draw [thick, pink] (2,0) -- (3,0); \draw [red] (3.5,0) circle [radius=0.1]; \draw [thick, pink] (4,0) -- (5,0); \draw [red] (5.5,0) circle [radius=0.1]; \draw [thick, pink] (6,0) -- (7,0); \draw [red] (7.5,0) circle [radius=0.1]; \draw [thick, pink] (8,0) -- (9,0); \draw [red] (9.5,0) circle [radius=0.1]; \draw [thick, pink] (10,0) -- (11,0); \draw [red] (11.5,0) circle [radius=0.1]; \draw [thick, pink] (12,0) -- (13,0); \draw [red] (13.5,0) circle [radius=0.1]; \draw [thick, pink] (14,0) -- (15,0); \end{tikzpicture}
Esempio di probabilità totale: segnale e fondo
Un rilevatore misura segnale e fondo con relative efficienze P(R|S)
e
P(R|F)
. Se sono note a priori la probabilità di segnale e di fondo
P(S)
e P(F)
, allora si può risalire alla probabilità, data una
misurazione, di aver misurato il segnale:
P(S|R) = \frac{P(R|S) \cdot P(S)}{P(R|S) \cdot P(S) + P(R|F) \cdot P(F)}
\begin{tikzpicture} \draw [thick, pink] (0,0) -- (1,0); \draw [red] (1.5,0) circle [radius=0.1]; \draw [thick, pink] (2,0) -- (3,0); \draw [red] (3.5,0) circle [radius=0.1]; \draw [thick, pink] (4,0) -- (5,0); \draw [red] (5.5,0) circle [radius=0.1]; \draw [thick, pink] (6,0) -- (7,0); \draw [red] (7.5,0) circle [radius=0.1]; \draw [thick, pink] (8,0) -- (9,0); \draw [red] (9.5,0) circle [radius=0.1]; \draw [thick, pink] (10,0) -- (11,0); \draw [red] (11.5,0) circle [radius=0.1]; \draw [thick, pink] (12,0) -- (13,0); \draw [red] (13.5,0) circle [radius=0.1]; \draw [thick, pink] (14,0) -- (15,0); \end{tikzpicture}
Esempio di probabilità totale: AIDS
P(\text{AIDS}) = 0.001 \hspace{50pt} P(\text{no AIDS}) = 0.999
P(\text{+|AIDS}) = 0.98 \hspace{50pt} P(\text{-|AIDS}) = 0.02
P(\text{+|no AIDS}) = 0.03 \hspace{50pt} P(\text{-|no AIDS}) = 0.97
Quindi se il test è positivo, la probabilità di avere davvero preso l'AIDS è:
P(\text{AIDS|+}) = \frac{P(\text{+|AIDS}) \cdot P(\text{AIDS})}
{P(\text{+|AIDS}) \cdot P(\text{AIDS}) + P(\text{+|no AIDS}) \cdot
P(\text{no AIDS})} = 0.032
\begin{tikzpicture} \draw [thick, pink] (0,0) -- (1,0); \draw [red] (1.5,0) circle [radius=0.1]; \draw [thick, pink] (2,0) -- (3,0); \draw [red] (3.5,0) circle [radius=0.1]; \draw [thick, pink] (4,0) -- (5,0); \draw [red] (5.5,0) circle [radius=0.1]; \draw [thick, pink] (6,0) -- (7,0); \draw [red] (7.5,0) circle [radius=0.1]; \draw [thick, pink] (8,0) -- (9,0); \draw [red] (9.5,0) circle [radius=0.1]; \draw [thick, pink] (10,0) -- (11,0); \draw [red] (11.5,0) circle [radius=0.1]; \draw [thick, pink] (12,0) -- (13,0); \draw [red] (13.5,0) circle [radius=0.1]; \draw [thick, pink] (14,0) -- (15,0); \end{tikzpicture}
Approccio bayesiano con una teoria
Cominciamo com un esempio: con un esperimento è stata misurata la massa di
un elettrone e sono stati trovati i valori {$m_i$}, di cui il valore medio
è m_e = \SI{520 \pm 10}{KeV}
. Si assume quindi che il valore vero sia
compreso tra \SI{510}{KeV} e \SI{530}{KeV} con una probabilità del 68% data
dal confidence level. Per cui, la probabilità che la massa vera sia proprio
\SI{520}{KeV} è data da:
P(m_e|{m_i}) = \frac{}{}
\textcolor{red}{rivedere negli appunti questa formula}
Quando si fa una misurazione, si misurano N
valori e si calcolano il valore
medio \bar{x}
e la deviazione standard \sigma
e si dice che il risultato è:
\mu = \bar{x} \pm \frac{\sigma}{\sqrt{N}}
e di solito lo si interpreta dicendo che:
P \left( \bar{x} - \frac{\sigma}{\sqrt{N}} \leqslant \mu \leqslant
\bar{x} + \frac{\sigma}{\sqrt{N}} \right) = 68\%
ma in realtà quello che sappiamo è solo che:
P \left( \mu - \frac{\sigma_{true}}{\sqrt{N}} \leqslant \bar{x} \leqslant
\mu + \frac{\sigma_{true}}{\sqrt{N}} \right) = 68\%
\textcolor{red}{WHAT?!?}