Wzorki

Rozkład normalny:

f(x)= \frac{1}{\sigma \sqrt{2\pi}} exp ( - \frac{\mu-x}{2\sigma^2})

KDE:

f(x)=\frac{1}{nh}\sum_{i=1}^n K(\frac{\mu-X_i}{h})

a kernel Gausowski:

K(u)=\frac{1}{\sqrt{2\pi}}exp(-u^2/2)

Rozkład normalny dwuwymiarowy:

Wektor średnich: m=(m_1,m_2)

Macierz kowariancji: \Sigma

f(x) = \frac{1}{2\pi\sqrt{|\Sigma|}}exp(-\frac{1}{2}(x-m)^T\Sigma^{-1}(x-m)

Transformacja liniowa wektora normalnego

Jeżeli X∼N(m,\Sigma) i Y=AX, to:

Y∼N(Am,A \Sigma A^T)

Wzorki ale bardziej macierzowe

(AB)^T = B^TA^2

jeśli macierze są odwracalna (kiedy wyznacznik \neq 0):

TO LEARN

na wykładzie 6 mieliśmy pochodne po macierzach, sprawdź o co biega z tym.

Likelihood vs probability1

Probability - prawdopodobieństwo - jeśli powiemy jakiejś osobie, aby przewidziała wyników 10 kolejnych rzutów monetą, to najczęściej zgadnie ona 5 z 10; czasem 0, czasem 10, i mamy prawdopodobieństwo zgadnięcie

Likelihood - wiarygodność - jaka jest szansa na to że to wydarzenie które już się wydarzyło, miało szansę na zaistnienie

Kolejna ciekawe spojrzenie na wiarygodność - rzucając raz kostką i dostaniemy 6kę, najbardziej wiarygodną opcją jest to że kostka na 100% daje 6, rzucając więcej razy, spadnie to do \frac{1}{6}.

Wartość p

definicje:

Hipoteza zerowa

Błędy X rodzaju:

1 rodzaju, czyli false positive := odrzucamy hipotezę zerową mimo tego, że jest prawdziwa

2 rodzaju, nie odrzucamy hipotezy zerowej mimo tego że jest fałszywa

xkcd meme about error types

Wartości własne wektora2

A_{\lambda} = A - \lambda I = \begin{bmatrix} 5 & 3 \\ -6 & -4 \end{bmatrix} - \lambda * \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}

potem liczymy z tego wyznacznik. Wartości własne to miejsca zerowe; np. dla \lambda^2-\lambda-2, mamy \lambda_{1}=-1, \lambda_{2}=2; <= to są wartości własne

Następnie, każde z miejsc zerowych podkładamy ma macierzy A_{\lambda} i mnożymy przez macierz \begin{bmatrix} x\\ y \end{bmatrix} <= to są wektory własne

przykład: A_{\lambda_{1}}=\begin{bmatrix} 5-\lambda & 3 \\ -6 && -4-\lambda \end{bmatrix} * \begin{bmatrix}x\\y\end{bmatrix}

Dziękuję eTrapez za przykładowe liczby i fajne wytłumaczenie <333


  1. https://ruccs.rutgers.edu/images/personal-charles-r-gallistel/publications/2015-APS-Bayes-for-Beginners-1-Probability-and-Likelihood---Association-for-Psychological-Science.pdf↩︎

  2. https://www.youtube.com/watch?v=R5ypagfCvbU↩︎