Legge delle alternative e teorema di Bayes
Legge delle alternative
$P(A)= \sum_{n=1}^K P(A|B_n)P(B_n)$
per due alternative
$P(A)=P(A|B)P(B)+P(A|\overline{B})P(\overline{B})$
Teorema di Bayes
$P(B_n|A)=\dfrac{P(B_n) P(A|B_n)}{\sum_{i = 1}^K P(B_i)P(A|B_i)}$
per due eventi
$P(B_1|A) = \dfrac{P(A|B_1)}{P(A|B_1)+P(A|B_2)}$
Variabili aleatorie discrete
Funzione di distribuzione
$F_X(x)= P(X \leq x)=P(\{ \omega \in \Omega: X(\omega) \leq x\})$ $x \in \R$
$F_X(x)= \sum_{n:x_n \leq x}p_n = P(X=x_1)+..+P(X=x_n)$
Valore medio
$E(X) = \sum_{x\in X} x P(X=x)$
Varianza
$Var(X) = E(X^2)-(E(X))^2$
Variabili aleatorie continue
Funzione di distribuzione $F_X(x)= \int_{-\infin}^x f_x(y)dy$
Valore medio $E(X)=\int_{-\infty}^{+\infty}x f_x(x)dx$
Varianza $Var(X) = ∫(x - E(X))^2 f(x) dx= E(x^2)-(E(x))^2$
Distribuzione uniforme
$f_X(x) =\begin{cases} \dfrac{1}{\beta - \alpha} \ \ \ \ \alpha < x < \beta \\ 0 \ \ \ \ \ \ \ \ \ \ \ \ \ \text{altrimenti} \end{cases}$
$F_X(x) =\begin{cases} 0 \ \ \ \ \ \ \ \ \ \ \ \ \ x<\alpha \\ \dfrac{x-\alpha}{\beta - \alpha} \ \ \ \ \alpha \leq x < \beta \\ 1 \ \ \ \ \ \ \ \ \ \ \ \ \ x \geq \beta \end{cases}$
Vettori aleatori
Funzione di distribuzione congiunta
$F_{X,Y}(x,y)=P(X\leq x, Y\leq y)=P(X\leq x \cap Y\leq y)$
Densità discreta congiunta $P_{X,Y}(x,y) = P(X = x, Y = y)$
Due variabili aleatorie $X$ e $Y$ sono indipendenti quando la loro funzione di distribuzione congiunta può essere espressa come il prodotto delle loro funzioni di distribuzione marginale
$P_{X,Y}(x,y) = P_X (x)P_Y (y)$ $\forall x,y$
Valore medio con due variabili $E(X, Y) = \sum_x \sum_y xy\cdot P_{X,Y}(x,y)$