Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- 넘파이
- discrete choice model
- 옌센 부등식
- 통계
- 볼록 함수
- 티스토리챌린지
- 나비에 스토크스
- 윤리 및 안전
- Python
- 젠센 부등식
- convex
- lccm
- 닫힌 해
- latex#티스토리#tistory#대학원#논문#논문정리
- python#yaml#가상환경#파이썬
- Closed Form
- 카이스트
- jensen's inequality
- numpy
- journal club
- choice model
- 연구
- 논문 리뷰
- em알고리즘#expectation maximization#algorithm
- regret-minimization
- Expectation Maximization
- DCM
- EM 알고리즘
- 안전교육
- 대학원
Archives
- Today
- Total
목록Expectation Maximization (1)
대학원생 리암의 블로그

전 글에서 EM알고리즘을 예시를 통해 직관적으로 이해해보려고 시도했다. 이번에는 저번에 사용한 동일한 예제를 수식으로 보다 구체적으로 살펴보도록 하겠다. 직관적 이해에 관한 포스팅을 우선적으로 참조하면 좋을 것 같다. 수식으로 EM 알고리즘은 관찰되지 않은 변수 \( z_n \)의 존재하에 최대 우도 추정을 수행하는 데 사용되며 크게 두 가지 주요 단계로 나뉘게 된다: Expectation 단계 (E-step)와 Maximization 단계 (M-step)이다. \( q(z_n) \)은 \( z_n \)의 분포를 나타내고 현 예제에서는 베르누이 분포일 것이다.우선, EM 알고리즘에서 최적화하려는 로그 우도 함수는 아래와 같다: \[ \ell(\theta) = \sum_{n=1}^{N} \log p(y_n..
대학원
2024. 9. 3. 13:33