Archive: 2019

BFS

너비 우선 탐색 백준 알고리즘을 푸는 중에 BFS를 적용해야 하는 문제가 있어 BFS에 대한 간단한 설명과 queue를 이용한 BFS 알고리즘을 푸는 방법에 대해서 애기해보겠습니다. 제목에서 보는 바와 같이 탐색 알고리즘으로서 그래프상의 모든 노드를 탐색하는 알고리즘입니다. 간단히 그림을 통해서 queue와 함께 어떤식을로 탐색하는지 애기해보겠습니다.

Latent Dirichlet Allocation

Topic Modeling Generative Process $\theta_i \sim Dir(\alpha), i \in \{1, \ldots, M\}$ $\phi_k \sim Dir(\beta), k \in \{1, \ldots, K\}$ $z_{i,l} \sim Mult(\theta_i), i \in \{1, \ldots, M\}, l \in

Regularization and model selection

다음과 같은 hypothesis $h_\theta(x)=g(\theta_0 + \theta_1 x + \ldots + \theta_k x^k)$ 가 있을때 $k$를 몇으로 해야 할지 어떻게 정할수 있을까? 즉 몇차로 식을 만드는게 bias / variance trade off 에 있어서 가장 좋은 모델일까를 어떻게 알수 있을까?조금 구체적으로 이해 하기 위

Learning_Theory

Learning Theory Andrew ng lecture note 를 공부하며 정리한 자료입니다 1. Bias / Variance tradeoff 선형 회귀에서 데이터에 해당 하는 모델을 simple($y=\theta_0 + \theta_1 x$)하게 혹은 complex($y=\theta_0 + \theta_1 x + \cdots + \theta

SVM

Support Vector Machine Andrew ng lecture note 를 공부하며 정리한 자료입니다. SVM을 이해하기 위해서는 Margin(마진)과 데이터를 분리해주는 경계선과 데이터 사이의 거리 Gap이 커야 한다는 것에 초점을 맞춰야 한다. 1. Margin 여기에서는 ‘confidence’라는 개념이 등장한다. confidence는

EM Algorithm

latent variable 추론 clustering과 classification의 가장 큰 차이점은 숨어있는 변수가 있느냐 없느냐이다.clustering은 latent variable이 포함되어 있다classification은 observed variable로 분류 한다 $\{ X, Z\}$ : 모든 variable $X$ : 관측된(Observed

Recommend system

--> andrew ng lecture note recommend 를 공부하며 번역하여서 올립니다 각 영화에 대해서 평점이 5점까지 줄수 있다고 가정한다 Movie Alice(1) Bob(2) Carol(3) Dave(4) Love at star 5 5 0 0 Romance Forevere 5 ? ? 0 Cute love ? 4 0

MLE MAP

1. MLE(Maximum Liklihood Estimation) 최대가능도 Notation $D$ : Data (관측한(Observed) 데이터) $\theta$ : parameter (확률)</font> $H$ : 앞면이 나온 횟수 $T$ : 뒷면이 나온 횟수 Maximum Likelihood Estimation (MLE) of $