Information Theory
Information Theory의 핵심은 Entropy 이다. ## Entropy Entropy는 불확실성을 측정하는 지표로 random variable에 대한 평균 정보량을 측정하는 것이다. $$ H(x) = - \Sigma_{x} p(x) \ln p(x) $$ 이를 자세히 설명하기 위한 예를 들어보겠다. ## Example Question ) x가 8개의 state가 존재하는데 이를 전송하기 위해 x는 몇개의 bit가 필요할까? 8개의 가능한 bit는 \( \{ a,b,c,d,e,f,g,h \} \) 라고 하자. 그리고 이에 대한 각각의 확률은 \( \{ \frac{1}{2}, \frac{1}{4},\frac{1}{8},\frac{1}{16},\frac{1}{64},\frac{1}{64},\frac..
2022. 8. 1.