[수학] 두 확률(가우시안)간 거리
이 기사에서는 확률 분포 사이에서 일반적으로 사용되는 거리 측정을 간략하게 요약하고 싶습니다. 특히 확률분포가 가우시안일 때 공식을 정리하고자 합니다. 벤치마크는 Jensen-Shannon divergence, Hellinger입니다! 엔트로피 정보 이론에서 사용되는 엔트로피는 확률 분포가 갖는 불확실성을 나타냅니다. 엔트로피는 다음과 같이 정의됩니다. $$ H(X) = -\sum_x p(x)logp(x) = \mathbb{E}(-logp(X))$$ Jensen-Shannon 발산 JSD는 또한 두 확률 분포 사이의 유사성을 측정하기 위해 … Read more