일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- pyspark오류
- 데이터 시각화
- sparkdf
- 빅쿼리
- SparkSQL
- 시각화
- spark explode
- tableau
- 도커오류
- ifkakao2020
- airflow
- 프로그래머스 파이썬
- Big Query
- PySpark
- 데이터엔지니어링
- 비주얼라이제이션
- 코테
- 로컬 pyspark
- DataFrame Spark
- 도커
- 도커exec
- spark df
- spark #스파크
- 빅쿼리 튜닝
- Docker error
- BigQuery
- 태블로
- dataframe
- explode
- docker
Archives
- Today
- Total
SOGM'S Data
MLE와 MAP 그리고 딥러닝과의 관계에 대해...[2] 본문
지난 포스팅에서 MLE와 딥러닝과의 관계를 말하면서
결국 우리가 자주 사용하는 CE 손실함수는 LIkelihood를 최소화하는 MLL에서의 파라미터를 찾는 것과 같다는 것을 알았다.
그렇다면 MAP(Maximum A Posterior Estimation)이란?
그전에 Base's rule을 보자
MAP는 이때 Posterior을 최대화 하는 θ를 찾는다.
MLE는 ikelihood인 P( Dㅣθ )만 고려 했다면
MAP는 P( Dㅣθ )* P(θ) 를 고려함으로서 파라미터 자체를 고정된 것이아닌 Radndom Variable이며 Priopr 분포를 따른다고 본다.
MAP는 우리가 아는 신경망의 가중치(w1, b1, .... , wn,bn) 들이 모두 정해진 것이 아닌 어떠한 분포를 가진 것으로 생각하는 것이다.
즉 파라미터의 Uncertainty를 고려하여, overfitting을 막을 수 있다.
하지만 이 사전확률 P(θ)는 아직 까지 딥러닝에서 적용되기엔 갈 길이 멀다고 한다.
현재 이러한 MAP 관점의 딥러닝 알고리즘고 모델의 논문들이 연구되고 있다.
더 자세하게 알고 싶다면 다음 블로그를 참조.
taeoh-kim.github.io/blog/bayesian1/
출처:
I. Goodfellow, Y. Bengio, A. Courville, “Deep Learning” (2015)
'About Data > Statistics' 카테고리의 다른 글
MLE와 MAP 그리고 딥러닝과의 관계에 대해...[1] (0) | 2020.12.08 |
---|
Comments