compute_entropy函数

python 复制代码
def compute_entropy(prob_map):
    """
    """
    # 
    epsilon = 1e-8
    # 
    prob_map = F.softmax(prob_map, dim=1)  # 
    # -sum(p_k * log(p_k))
    entropy_map = -torch.sum(prob_map * torch.log(prob_map + epsilon), dim=1)  # 
    # 
    K = prob_map.shape[1]  # 
    max_entropy = torch.log(torch.tensor(K, dtype=torch.float32))  # 

    # 
    normalized_entropy_map = entropy_map / max_entropy  # 

    return 1.0 - normalized_entropy_map  # 

这段代码实现了计算概率图的信息熵并进行归一化处理的功能。让我逐行详细解释:

复制代码

python

复制代码
`def compute_entropy(prob_map):
    """
    """
    # 定义一个极小值,防止log(0)产生无穷大
    epsilon = 1e-8
    # 对概率图应用softmax函数,确保各类别概率和为1
    prob_map = F.softmax(prob_map, dim=1)
    # 计算信息熵:-sum(p_k * log(p_k))
    entropy_map = -torch.sum(prob_map * torch.log(prob_map + epsilon), dim=1)
    # 获取类别数量K
    K = prob_map.shape[1]
    # 计算最大可能的熵值:log(K)
    max_entropy = torch.log(torch.tensor(K, dtype=torch.float32))
    
    # 将熵值归一化到[0,1]区间
    normalized_entropy_map = entropy_map / max_entropy
    
    # 返回1-归一化熵值,这样高置信度对应高值
    return 1.0 - normalized_entropy_map`

让我用具体例子来说明:

假设我们有一个3类分割的概率图:

复制代码

python

复制代码
`# prob_map形状为[1, 3, 2, 2],即1个样本,3个类别,2x2图像
# 经过softmax后每个像素位置的概率分布如下:

位置(0,0): [0.2, 0.3, 0.5]  # 类别1概率0.2, 类别2概率0.3, 类别3概率0.5
位置(0,1): [0.8, 0.1, 0.1]  # 类别1概率0.8, 类别2概率0.1, 类别3概率0.1
位置(1,0): [0.33,0.33,0.34] # 类别1概率0.33,类别2概率0.33,类别3概率0.34
位置(1,1): [0.4, 0.4, 0.2]  # 类别1概率0.4, 类别2概率0.4, 类别3概率0.2`

计算每个位置的信息熵:

位置(0,0): 0.2, 0.3, 0.5

  • 熵 = -(0.2×log(0.2) + 0.3×log(0.3) + 0.5×log(0.5))
  • ≈ -(0.2×(-1.61) + 0.3×(-1.20) + 0.5×(-0.69))
  • ≈ -(−0.32 − 0.36 − 0.35) = 1.03

位置(0,1): 0.8, 0.1, 0.1

  • 熵 = -(0.8×log(0.8) + 0.1×log(0.1) + 0.1×log(0.1))
  • ≈ -(0.8×(-0.22) + 0.1×(-2.30) + 0.1×(-2.30))
  • ≈ -(−0.18 − 0.23 − 0.23) = 0.64

位置(1,0): 0.33, 0.33, 0.34

  • 熵 ≈ -(0.33×(-1.11) + 0.33×(-1.11) + 0.34×(-1.07))
  • ≈ 1.10

位置(1,1): 0.4, 0.4, 0.2

  • 熵 ≈ -(0.4×(-0.92) + 0.4×(-0.92) + 0.2×(-1.61))
  • ≈ 1.04

归一化处理:

  • 最大可能熵值 = log(3) ≈ 1.10

  • 归一化后:

    • 位置(0,0): 1.03/1.10 ≈ 0.94
    • 位置(0,1): 0.64/1.10 ≈ 0.58
    • 位置(1,0): 1.10/1.10 = 1.00
    • 位置(1,1): 1.04/1.10 ≈ 0.95

    最终结果(1-归一化熵):

  • 位置(0,0): 1.0 - 0.94 = 0.06

  • 位置(0,1): 1.0 - 0.58 = 0.42

  • 位置(1,0): 1.0 - 1.00 = 0.00

  • 位置(1,1): 1.0 - 0.95 = 0.05

可以看出,熵值越低(不确定性越小)的位置,最终结果越接近1,表示模型对该位置的预测越有信心。

相关推荐
心静财富之门14 分钟前
Flask 详细讲解 + 实战实例(零基础可学)
后端·python·flask
架构师老Y21 分钟前
003、Python Web框架深度对比:Django vs Flask vs FastAPI
前端·python·django
疯狂成瘾者1 小时前
语义分块提升RAG检索精度
python
小陈工3 小时前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
A__tao7 小时前
Elasticsearch Mapping 一键生成 Java 实体类(支持嵌套 + 自动过滤注释)
java·python·elasticsearch
研究点啥好呢7 小时前
Github热门项目推荐 | 创建你的像素风格!
c++·python·node.js·github·开源软件
迷藏4948 小时前
**发散创新:基于Rust实现的开源合规权限管理框架设计与实践**在现代软件架构中,**权限控制(RBAC)** 已成为保障
java·开发语言·python·rust·开源
明日清晨8 小时前
python扫码登录dy
开发语言·python
bazhange8 小时前
python如何像matlab一样使用向量化替代for循环
开发语言·python·matlab
jinanwuhuaguo8 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin