熵值法的原理及实例讲解

更新时间:2024-06-07 05:33:01 阅读量: 综合文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

熵值法

1.算法简介

熵值法是一种客观赋权法,其根据各项指标观测值所提供的信息的大小来确定指标权重。设有m个待评方案,n项评价指标,形成原始指标数据矩阵X?(xij)m?n,对于某项指标xj,指标值Xij的差距越大,则该指标在综合评价中所起的作用越大;如果某项指标的指标值全部相等,则该指标在综合评价中不起作用。

在信息论中,熵是对不确定性的一种度量。信息量越大,不确定性就越小,熵也就越小;信息量越小,不确定性就越大,熵也越大.根据熵的特性,我们可以通过计算熵值来判断一个方案的随机性及无序程度,也可以用熵值来判断某个指标的离散程度,指标的离散程度越大,该指标对综合评价的影响越大!因此,可根据各项指标的变异程度,利用信息熵这个工具,计算出各个指标的权重,为多指标综合评价提供依据!

2.算法实现过程

2.1 数据矩阵

?X11?X1m??????其中Xij为第i个方案第j个指标的数值 A????X??n1?Xnm?n?m2.2 数据的非负数化处理

由于熵值法计算采用的是各个方案某一指标占同一指标值总和的比值,因此不存在量纲的影响,不需要进行标准化处理,若数据中有负数,就需要对数据进行非负化处理!此外,为了避免求熵值时对数的无意义,需要进行数据平移: 对于越大越好的指标:

'Xij?Xij?min(X1j,X2j,?,Xnj)max(X1j,X2j,?,Xnj)?min(X1j,X2j,?,Xnj)?1,i?1,2,?,n;j?1,2,?,m对于越小越好的指标:

'Xij?max(X1j,X2j,?,Xnj)?Xijmax(X1j,X2j,?,Xnj)?min(X1j,X2j,?,Xnj)?1,i?1,2,?,n;j?1,2,?,m为了方便起见,仍记非负化处理后的数据为Xij

2.3 计算第j项指标下第i个方案占该指标的比重

Pij?Xij?Xi?1n(j?1,2,?m)

ij2.4 计算第j项指标的熵值

ej??k*?Pijlog(Pij),其中k?0,ln为自然对数,ej?0。式中常数k与样本数m有关,i?1n一般令k?1lnm,则0?e?12.5 计算第j项指标的差异系数。

对于第j项指标,指标值Xij的差异越大,对方案评价的作用越大,熵值就越小

gj?1?ej , 则:gj越大指标越重要

2.6 求权数

Wj?gj?gj?1m,j?1,2?m

j2.7计算各方案的综合得分

Si??Wj?1mj*Pij(i?1,2,?n)

3.熵值法的优缺点

熵值法是根据各项指标指标值的变异程度来确定指标权数的,这是一种客观赋权法,避免了人为因素带来的偏差,但由于忽略了指标本身重要程度,有时确定的指标权数会与预期的结果相差甚远,同时熵值法不能减少评价指标的维数!

熵值法实例讲解.xlsx

本文来源:https://www.bwwdw.com/article/2226.html

Top