熵权法模型(评价类问题)

一. 概念

利用信息熵计算各个指标的权重,从而为多指标的评价类问题提供依据。

指标的变异程度越小,所反映的信息量也越少,所以其对应的权值也应该越低。

指标的变异程度(或称为变异性、波动性):描述了一个指标在不同观测值之间的差异程度或分散程度。简单来说,它反映了数据的分布宽度和离散情况。

也即如果一个指标的波动性越小,说明该指标对最终结果的影响理应越小,也即其对应权值更低。

信息熵公式:

  • :表示随机变量 的熵。熵衡量了随机变量的不确定性或信息量。熵越大,随机变量的不确定性越高。
  • :随机变量 的一种取值情况。
  • :随机变量 取值为 的概率。每个 都有一个与之对应的概率
  • 的二进制对数。对数的底数为 2,因此它表示的是以比特为单位的信息量。具体来说, 衡量了事件 发生时的信息量。

由于概率 总是介于 0 和 1 之间, 会是一个负数。负号保证了整个熵的值为正数。

这个公式通过对所有可能取值的信息量加权求和,衡量了随机变量 的不确定性。熵值越大,说明随机变量 的不确定性越高。

二. 特点

熵权法是一种客观的赋权方法,它可以靠数据本身得出权重,避免了主观因素的介入。

三. 实现步骤

1. 标准化

消除量纲的影响。将所有的指标转变为0到1之间的数。

相关推荐
IT成长日记1 小时前
【Hive入门】Hive概述:大数据时代的数据仓库桥梁
大数据·数据仓库·hive·sql优化·分布式计算
科技小E1 小时前
EasyRTC音视频实时通话嵌入式SDK,打造社交娱乐低延迟实时互动的新体验
大数据·网络
降世神童2 小时前
大数据系列 | 详解基于Zookeeper或ClickHouse Keeper的ClickHouse集群部署--完结
大数据·clickhouse·zookeeper
躺不平的理查德2 小时前
General Spark Operations(Spark 基础操作)
大数据·分布式·spark
talle20212 小时前
Zeppelin在spark环境导出dataframe
大数据·分布式·spark
大数据魔法师3 小时前
Hadoop生态圈框架部署 - Windows上部署Hadoop
大数据·hadoop·windows
渣渣盟3 小时前
大数据开发环境的安装,配置(Hadoop)
大数据·hadoop·分布式
Flink_China3 小时前
抖音集团电商流量实时数仓建设实践
大数据·flink
二爷记3 小时前
QXQ3真i9级CPU是捡漏还是踩坑!i9-12900 ES版CPU值得入手吗?
大数据·elasticsearch·搜索引擎·全文检索
qyresearch_4 小时前
全球碳化硅晶片市场深度解析:技术迭代、产业重构与未来赛道争夺战(2025-2031)
大数据·人工智能