关于熵的一些概念及其计算最近在看 verl 的源码学习强化学习的相关实现,看到了一个计算熵的函数,感觉挺有意思:在人工智能深度学习领域,模型训练有很多数学的理论做支撑,但从数学公式转化为具体的代码实现,往往不能直接按原公式的计算逻辑编写代码进行计算,因为数学是比较理想的,而真正要把数据放到计算机中进行处理,则需要考虑很多问题,比如计算是否稳定、数值会不会溢出等等,因此通常需要对原公式做一些转换,熵的计算就是如此,当然还有很多其他的例子,比如 softmax 的计算等等。本文就借此机会聊聊与熵相关的一些内容。