Processing math: 100%

理解几个概念:

必看:交叉熵如何做损失函数?

  • 信息

  • 信息量

H(X)=logP(X)

Entropy(X)=in=1p(xi)logp(xi)

系统熵,就是一个概率系统信息量的期望,即所有可能发生的事件的信息量乘以事件发生的概率求和

  • 相对熵(KL散度)

两个概率系统

https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence

  • 交叉熵

http://www.jerrylsu.net/articles/2018/ml-Information-Theory.html

https://blog.csdn.net/tsyccnh/article/details/79163834

Share on: TwitterFacebookEmail

Comments


Related Posts


Published

Category

NLP

Tags

Contact