Legge delle alternative e teorema di Bayes

Legge delle alternative

$P(A)= \sum_{n=1}^K P(A|B_n)P(B_n)$

per due alternative

$P(A)=P(A|B)P(B)+P(A|\overline{B})P(\overline{B})$

Teorema di Bayes

$P(B_n|A)=\dfrac{P(B_n) P(A|B_n)}{\sum_{i = 1}^K P(B_i)P(A|B_i)}$

per due eventi

$P(B_1|A) = \dfrac{P(A|B_1)}{P(A|B_1)+P(A|B_2)}$

Variabili aleatorie discrete

Funzione di distribuzione

$F_X(x)= P(X \leq x)=P(\{ \omega \in \Omega: X(\omega) \leq x\})$ $x \in \R$

$F_X(x)= \sum_{n:x_n \leq x}p_n = P(X=x_1)+..+P(X=x_n)$

Valore medio

$E(X) = \sum_{x\in X} x P(X=x)$

Varianza

$Var(X) = E(X^2)-(E(X))^2$

Variabili aleatorie continue

Funzione di distribuzione $F_X(x)= \int_{-\infin}^x f_x(y)dy$

Valore medio $E(X)=\int_{-\infty}^{+\infty}x f_x(x)dx$

Varianza $Var(X) = ∫(x - E(X))^2 f(x) dx= E(x^2)-(E(x))^2$

Distribuzione uniforme

$f_X(x) =\begin{cases} \dfrac{1}{\beta - \alpha} \ \ \ \ \alpha < x < \beta \\ 0 \ \ \ \ \ \ \ \ \ \ \ \ \ \text{altrimenti} \end{cases}$

$F_X(x) =\begin{cases} 0 \ \ \ \ \ \ \ \ \ \ \ \ \ x<\alpha \\ \dfrac{x-\alpha}{\beta - \alpha} \ \ \ \ \alpha \leq x < \beta \\ 1 \ \ \ \ \ \ \ \ \ \ \ \ \ x \geq \beta \end{cases}$

Vettori aleatori

Funzione di distribuzione congiunta

$F_{X,Y}(x,y)=P(X\leq x, Y\leq y)=P(X\leq x \cap Y\leq y)$

Densità discreta congiunta $P_{X,Y}(x,y) = P(X = x, Y = y)$

Due variabili aleatorie $X$ e $Y$ sono indipendenti quando la loro funzione di distribuzione congiunta può essere espressa come il prodotto delle loro funzioni di distribuzione marginale

$P_{X,Y}(x,y) = P_X (x)P_Y (y)$ $\forall x,y$

Valore medio con due variabili $E(X, Y) = \sum_x \sum_y xy\cdot P_{X,Y}(x,y)$