管理决策效用递减规律,本文主要内容关键词为:效用论文,规律论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
管理者为达到一定目标而制定决策,其作用是驱动相关的决策主体选择有利于达到管理者目标的行动。本文运用风险决策、概率论及随机过程的数学分析方法,阐明了决策的效用随时间递减并最终达到稳态的客观规律。管理决策效用递减规律提供给管理者的启示是:在某项决策的实施过程中要不断检验被驱动的决策主体所面临的环境变化及决策效用变化情况,并及时采用新的决策进行修正,以利于达到管理者的目标。
一、决策目标的达到过程
在人类各个领域的管理活动中,决策是管理的核心内容,是管理的具体表现,它贯穿于管理的各项职能活动和过程之中。美国卡内基—梅隆大学的西蒙教授认为,管理就是决策,决策就是管理。而任何决策都是在一定的环境条件下某个决策主体为达到一定的目标而制定的。个人、企业、党团、国家、某一社会阶层、市场等等都可以视为决策主体。在整个社会中,各个决策主体之间的决策相互影响、相互制约、相互驱动。某一个决策主体(在下面的论述中称为源决策主体)为了达到自身的某个目标,在某一环境条件下作出一定的决策,而对相关的主体(我们称为被驱动主体)产生驱动,使其决策行为发生变化,以利于达到源决策主体的目标。
例如,某企业作为一个决策主体,针对市场的反应,可以作出产品降价的决策,企业的目的是要增加销量、市场占有率而最终增加利润。而付出的代价是单位产品利润降低。市场是如何作为一个决策主体进行反应的呢?市场的反应实际上是每一个消费者因产品降价而作出相应的是否购买该产品的集体表现,显然市场在客观上形成了相应的决策反应,表现出了一个决策主体的特征。这个例子可以深入分析如下:
假定企业单位产品成本为C,市场需求价格弹性为E[,dp], 产品售价为P,产品销量为Q,则总利润TP=(P-C)×Q,
两边求微分:dTP=Qd(P-C)+(P-C)dQ
由于C是常数,则dTP=QdP+(P-C)dQ (1)
dQ/Q
由于需求价格弹性E[,dp]=────
dP/P
QdP
则dQ=───·E[,dp] (2)
P
QdP
将(2)代入(1)得:dTP=QdP+(P-C)·───·E[,dp]
P
企业决策的目标是使利润增加,则要求dTP>0,即QdP+(P-C )
QdP
·───·E[,dp]>0,降价时,dP<0,QdP<0,两边同除以QdP,得:
P
P-C
1+───·E[,dp]<0
P
P-C
────·E[,dp]<-1
P-C
由于价格下降一般会使销量增加,需求价格弹性E[,dp]<0,则──
P
1
>-───,即:
E[,dp]
P-C1
────>─────
P │E[,dp]│
P-C
因此,我们得出结论:当产品的利润率(───)大于市场的需求
P
价格弹性(E[,dp])绝对值的倒数时,降价决策可增加企业利润。
因此,决策驱动的过程可以用图1表示, 源决策主体为某目标制定决策,对被驱动主体的决策产生影响,使其决策行为变化而达到或有利于达到自己的目标。
图1
当然,也可能源决策主体的决策要通过一系列的驱动传递才能达到目标,如图2所示。
图2
例如,国家为达到促进科技进步的目的,对高新技术产品实行相应的减免税政策,其驱动传递过程可能是:减免税使高新技术产品开发成本降低、风险减少、利润增加→驱动开发者积极开发、投资者积极投资→更多的高新技术产品问世并被社会利用→社会科技进步。
当然,源决策主体制定的决策可以像图3 那样并行地驱动多个决策主体,通过多条并行路径,最后达到多样化的目标,再汇集成一个综合目标。
图3
本文在下面的论述中要揭示的规律是:某项决策对一个主体的驱动作用随时间推移会发生递减,并且最后达到一个稳定状态。
二、决策主体的风险决策方法
在实际的社会活动中,在进行一项决策时,决策者对所面临的环境状态不是完全确切可知的,因而决策后产生的效果是不完全确定的,鉴于此,可以假定决策主体采用下面描述的风险决策方法。
由于要在某项决策实施后才会得知反应结果,而该结果是由决策主体面临的状态和所选行动共同决定的。因此,决策前不知道环境的确切状态,但知道状态空间的概率分布。
假定决策主体面临的环境状态空间Ω={θ[,1],θ[,2],…,θ[,m]},即有m种状态,而状态θ[,i]的出现概率为
p(θ[,i])=p[,im],∑p[,i]=1
,则Ω空间的概率分布为{p[,1],p[,2],…,p[,m]} i=1,决策主体可选择的行动集合为{a[,1],a[,2],…,a[,n]}。 其收益函数为Q=Q(θ,a),假定在i状态下选择行动a[,i]的收益为Q[,ij],则其收益矩阵如图4所示。
图4
若决策主体根据最大期望收益原则选择某一行动a[,j], 则其期望
m收益E[Q(θ,a[,j])]=∑ Q[,ij]p[,i],应满足E[Q(θ,a[,j]
i=1)]≥E[Q(θ,a[,k])](当k≠j时)。
若决策主体根据最大期望效用原则选择某一行动a[,j], 设其效用函数为U(Q),则其期望效用:
m
E[U(Q(θ,a[,j]))]=∑ U(Q[,ij])×p[,i]
i=1
应满足:E[U(Q(θ,a[,j]))]≥E[U(Q(θ,a[,k]))](当k≠j时)。
从上面的分析看出,源决策主体要使被驱动主体改变其行动选择,实质上是通过改变被驱动主体的状态空间Ω之概率分布来影响其决策(行动)改变,从而达到自己的目标。一般情况下,对被驱动主体的行动空间、收益函数和效用函数是不能改变的。
三、决策效用递减规律
源决策主体为达到某种目的,制定某种决策改变了被驱动主体的状态空间的概率分布,使被驱动主体的行动选择(决策)有利于达到自己的目标。假定状态空间的概率分布被改变为{p[,1],p[,2],…,p[,m]},状态空间Ω={θ[,1],θ[,2],…,θ[,m]}, 行动空间为{a[,1],a[,2],…,a[,n]}。在此情况下, 被驱动主体根据相应决策标准选择了符合源决策主体目标的行动a[,j], 那么为了使效用不发生变化,源决策主体希望被驱动主体一直继续选择行动a[,j]。
但实际情况是,状态空间的概率分布并非不发生变化。我们可以假定被驱动主体所面临的状态是随时间变化的一个马尔柯夫随机过程,当被驱动主体某时刻实际上处于θ[,i]状态(被驱动主体并不知道,只知道概率分布)时,下一个状态可能转移到θ[,j] 的概率设为p[,ij] ,我们将:
┌p[,11] p[,12] … p[,1m]┐
│p[,21] p[,22] … p[,2m]│
P=│………………… │
└p[,m1] p[,m2] … p[,mm]┘
称为被驱动主体面临的状态转移矩阵。
其中P[,ij]≥0(i,j=1,2,…,m)
∑ p[,ij]=1(i=1,2,…,m)
用p[,i](n)表示在第n个时期过程被驱动主体处于第i个状态的概率,则向量p(n)=[p[,1](n),p[,2](n),…,p[,n](n)]表示了第n个时期被驱动主体面临的状态空间概率分布,由全概率公式:
m
p[,i](n)=∑ p[,k](n-1)p[,ki]
k=1
即:p(n)=p(n-1)P
p(n)=p(0)P[n]
其中,p(0)为决策后的初始状态空间概率分布。
当P确定,n→∞时,每个p[,i](n)都趋于一个极限lim p[,i] (n→∞n)=π[,i](i=1,2,…,m), 即状态空间的概率分布会达到一个稳定的分布p(n)=(π[,1],π[,2],…,π[,m])。
状态空间概率分布的趋稳特征会导致一项新决策随时间变化效用递减,使被驱动者选择的行动逐渐偏离最初选择的有利于达到源决策主体目标的行动。在经历较长时间后达到稳态,使决策效用也达到一个稳态。
因此,当某项决策实施到一定时间后,应该不断检验被驱动主体的行动选择与目标发生了多大偏离,以便用新的决策来驱动其修正行动,以利于达到源决策主体的目标。