确定顾客满意度重要影响因素的方法,本文主要内容关键词为:因素论文,顾客满意度论文,方法论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。
中图分类号:F406.3文献标志码:A文章编号:1008-4339(2004)03-0254-05
随着买方市场的形成以及对质量管理的研究的深入发展,国内外日益关注对顾客满意度的研究和实践[1]。由于顾客满意度对大多数企业未来的收入有直接影响,几年前还不多见的顾客满意部门目前在公司里已经悄然出现,这些部门的目标是跟踪顾客满意情况并协调企业的所有活动以保持或提高顾客满意水平,忠诚的顾客已被看作是企业的资产[2]。
作为企业,通过对本行业、本企业的顾客满意度进行调研和评价,确定影响顾客满意度的重要因素十分重要,这样企业才能采取相应的措施提高顾客满意度,从而提高企业盈利能力。现在一般采取的是用直接标度法进行评价各项因素的重要程度,即为应答者在一标尺范围内对某一产品或服务属性的重要性做出评定,例如从“不重要”到“十分重要”。这种方法简单明了,但存在的问题是顾客经常会认为每个指标都是重要的,造成指标重要程度比较集中,无法准确地找到对顾客最重要的影响因素,从而无法达到资源合理配置的效果。这是在顾客满意度研究中需要重点解决的问题[3]。
最近,多元回归技术被应用于顾客满意度的研究,以各指标为自变量,顾客总体满意度为因变量,可以测量出各指标的重要性。通常我们在进行顾客满意度测量时假定各项指标对顾客满意度的影响均是线性的,这样就可以应用回归分析方法得到各指标对于总体顾客满意度的相对重要性[4]。
一、方法研究综述与比较分析
1.多元线性回归
多元线性回归是运用普通最小二乘法对原始数据直接进行参数估计,根据参数估计值的大小来确定各个指标对于顾客满意度的影响程度,从而找出影响顾客满意度的重要因素,这时要求数据必须满足四个古典基本假定,但是在实际生活中,数据并不全都满足这些条件,如果继续使用普通最小二乘方法,很可能得到与实际意义不符合的参数估计值。
因此,多元线性回归适用于变量较少、数据满足四个古典基本假定的情况,这时计算简单方便,很容易准确地确定顾客满意度的重要影响因素。但是现实中的数据往往存在着多重共线性或其他问题,这就需要我们对数据进行改进或者采用特殊的方法进行参数估计[4,5]。
2.逐步回归
逐步回归分析方法的形成思想是:考虑全部变量方差贡献值的大小,按照其重要性逐步选入回归方程。结果是把显著的自变量包含在模型中,不显著的变量剔除在模型之外。根据进入变量的参数估计值的大小确定顾客满意度的重要影响因素[6]。
逐步回归适用于变量较多、样本容量较大、变量间不存在多重共线性的情况,这样可以迅速剔除那些对总体顾客满意度不重要的影响因素,保留下来重要的指标。因为在自变量高度共线的情况下,利用逐步回归法,往往会将一些对总体顾客满意度具有高度解释性的变量筛除,将本应保留的系统信息舍弃,从而导致分析模型的解释误差,大大影响回归模型的可靠性[7]。
3.主成分回归
前两种方法都不能很好地处理数据存在多重共线性问题,而主成分回归是将主成分分析与多元回归结合起来的一种分析方法,利用主成分分析可以克服在多元回归中出现的多重共线性问题。主成分分析可以把相关性较强的自变量综合在同一主成分中,各主成分彼此独立,使相关自变量变为相互无关主成分,尽可能取小残差绝对值和大累计方差百分比,充分利用原有的信息,然后把主成分回归方程转换为线性回归方程,可以得到因变量与原始自变量的标准回归系数,这样就克服了数据多重共线性的干扰,尽量不改变对因变量的解释程度,解决了多重共线性问题[8]。
根据因变量与原始自变量的标准回归系数的大小可以找出影响顾客满意度的重要因素,它适用于指标之间高度相关、数据之间存在多重共线性的情况。
通过降维的处理,我们提取的主成分把自变量的信息分成几个大类,某一大类由一个主成分来表现,这样就消除了产生多重共线性问题的根源——信息的重叠。但是它也存在着一些不足之处,因为有时候它的主成分的实际意义很难解释,并且在提取主成分时没有考虑到主成分与因变量的关系,导致主成分与因变量之间的关系不很直接,估计出来的参数是有偏的[8]。
4.偏最小二乘回归
偏最小二乘回归是一种新兴的多元统计数据分析方法,它于1983年由伍德(S.Wold)和阿巴诺(C.Albano)等人首次提出。密歇根大学的佛耐尔(Fornell)教授称偏最小二乘回归是第二代回归分析方法,并将其用于美国国家顾客满意度指数测量和研究。
偏最小二乘之所以被称为第二代回归方法,还由于它可以实现多种数据分析方法的综合应用。偏最小二乘回归方法是将多元线性回归分析、变量的主成分分析和变量间的典型相关分析有机地结合起来,在一个算法下,同时实现了回归建模、数据结构简化和两组变量间的相关分析,给多元数据分析带来了极大的方便,它克服了多元回归和主成分回归的缺点。通过偏最小二乘回归最终得到的标准回归系数可以找出影响顾客满意度的重要因素,这种方法比较稳健可靠。
偏最小二乘回归方法具有以下特点。
(1)可以实现多因变量对多自变量的回归建模。当各变量集合内部存在较大程度的相关性时,偏最小二乘回归方法可以充分反映模型的整体性,比逐个因变量的回归模型更有效。
(2)能够在自变量存在严重多重共线性的条件下进行回归建模。偏最小二乘回归通过对数据信息分解和筛选的方式,提取对因变量解释性最强的综合变量,辨识系统中的信息和噪声,从而有效地克服变量的多重共线性。
(3)可以比最小二乘回归更简捷地进行自变量的筛选。偏最小二乘回归方法丰富的辅助技术可以在建模的同时实现对自变量的筛选。
(4)通过主成分分析和综合变量的提取,允许在样本个数少于自变量个数的条件下进行回归建模,这是普通多元回归无法解决的问题。
(5)允许在最终模型中包含原有全部自变量,最大限度地利用数据信息,使得偏最小二乘回归模型在相同的数据信息情况下比普通多元回归模型具有更高的有效性[9,10]。
但是由于目前一些软件还没有实现这项功能,有些软件必须通过自行编程实现此功能,所以偏最小二乘回归的应用还不是很广泛。
5.Kruskal’s相对重要性方法
上述几种方法都能确定顾客满意度的重要影响因素,但是不能确定自变量与自变量之间的相对重要性,为了解决这个问题,Kruskal在1987年追求一种能确定自变量之间相对重要性的方法,这就是Kruskal’s相对重要性方法,利用它可以确定各个指标之间的相对重要性。这种方法计算复杂一些,它需要计算出自变量所有组合的偏相关系数,对于自变量较多时,计算比较复杂,幸运的是现在可以用计算机进行操作。
对于每一个自变量,相对于因变量来说,所有组合的偏相关系数的平方被平均,这种平均的偏相关系数的平方方法是可以克服数据问题(如多重共线性问题)的稳健性方法。相关系数的平方可以反映两个变量共同解释方差的百分比,即是说每个自变量的平均偏相关系数的平方可以在相对意义上进行比较,比如,我们可以说自变量x[,2]的重要性是x[,1]的2倍。根据平均偏相关系数的平方的大小可以比较各个指标的相对重要性。
Kruskal’s相对重要性方法有两个显著优点:第一,由于包含了所有自变量的可能的组合的偏相关系数,所以它可以解决数据中可能出现的多重共线性问题;第二是它的比率特性,可以下结论说一个自变量的重要性是另一个自变量的2倍。但是这种方法没有截距这一项,不能提供预测方程,而且不能说明每个自变量解释因变量方差的百分比[11]。
二、实例分析
1.教学评价分析
我们以天津市某计算机培训机构最近培训的学生为调查对象,在培训结束时向学生发放问卷,进行不记名填写,然后收回。本次调查共发放89份问卷,回收85份,剔除其中未完整填写或存在逻辑矛盾的无效问卷后,剩余有效问卷80份。采用五梯级标准的李克特量表,由顾客直接打分。调查问卷见表1。
表1 顾客对教学满意度评价分析
┌────┬─────────────────────┬────────┐
│项目│评价内容 │ 等级 │
├────┼─────────────────────┼────────┤
│ Q[,1]│ 教师的教学方式易于学习和理解│ 1,2,3,4,5 │
│ Q[,2]│ 课堂活动、联系和举例增强了我对内容的理解│ 1,2,3,4,5 │
│ Q[,3]│ 教师能理解学员的需求并做出反应 │ 1,2,3,4,5 │
│ Q[,4]│ 教师能理论联系实际 │ 1,2,3,4,5 │
│ Q[,5]│ 教学设施满足学员要求│ 1,2,3,4,5 │
│ Q[,6]│ 教学时间安排合理│ 1,2,3,4,5 │
│ Q[,7]│ 我完成了培训的目标 │ 1,2,3,4,5 │
│ Q[,8]│ 运用所学知识,可以使我工作更出色│ 1,2,3,4,5 │
│ Q[,9]│ 总体来讲,我对课程培训感到满意 │ 1,2,3,4,5 │
└────┴─────────────────────┴────────┘
注:1—非常不满意;2—不满意;3—一般;4—满意;5—非常满意
2.巴利特(Bartlett)球体检验和KMO(kaiser Meyer Olkin)测量
首先进行巴利特(Bartlett)球体检验,如表2所示,其近似卡方值为300.46,显著水平达到0.000,且KMO测量值达到0.829,显示本次抽样效果较好,但也说明数据之间存在着多重共线性问题,不能简单使用多元线性回归和逐步回归,使用主成分回归和偏最小二乘回归效果会比较好。
表2 KMO测量与巴利特球体检验
┌──────────────┬──────┐
│统计量 │数值│
├──────────────┼──────┤
│KMO测量值
│0.829
│
│巴利特球体检验卡方估计值│300.46 │
│自由度 │28 │
│P值 │0.000
│
└──────────────┴──────┘
3.主成分回归分析处理
第一步:数据中心化、标准化。
第二步:运用SPSS软件包的因子分析中的主成分分析过程选取合适的成分个数,计算各主成分的特征根和累积贡献率,可以看出前4个主成分的累计贡献率已经达到83.870%,因此,初步考虑选取前4个主成分,见表3。
表3 主成分相关矩阵特征根及贡献率
┌────┬─────┬──────┬────────┐
│ 主成分│ 特征根 │贡献率/%
│ 累计贡献率/% │
├────┼─────┼──────┼────────┤
│Z[,1] │4.102 │51.280 │51.280 │
│Z[,2] │1.241 │15.516 │66.796 │
│Z[,3] │0.816 │10.205 │77.001 │
│Z[,4] │0.550 │6.869
│83.870 │
│Z[,5] │0.489 │6.107
│89.977 │
│Z[,6] │0.373 │4.666
│94.643 │
│Z[,7] │0.242 │3.028
│97.671 │
│Z[,8] │0.186 │2.329
│100.000 │
└────┴─────┴──────┴────────┘
第三步:以这4个主成分所对应的特征向量矩阵和各自变量标化的值,计算得到的主成分作为新的自变量对应变量做回归,得到回归方程(1),参数估计见表4。
表4 主成分回归参数估计
┌────┬────┬────┬─────┬────┬───┐
│ 变量 │ 自由度│参数估计│标准误差 │ T值
│ P值 │
├────┼────┼────┼─────┼────┼───┤
│ 截距 │1
│ 0.000 │ 0.051
│0.000
│1.000 │
│ Z[,1]│1
│ 0.782 │ 0.051
│12.664 │0.000 │
│ Z[,2]│1
│ 0.276 │ 0.051
│4.462
│0.000 │
│ Z[,3]│1
│ 0.009 │ 0.051
│0.146
│0.884 │
│ Z[,4]│1
│ 0.162 │ 0.051
│2.630
│0.010 │
└────┴────┴────┴─────┴────┴───┘
从表4中可以看出,第3个主成分对应的P值>0.05,说明差异无显著性,其他3个主成分对应的P值<0.05,这几个主成分是显著的,且与总体顾客满意度存在正向变化关系。
第四步:将回归方程中主成分还原为原始自变量,得到Q[,9]关于Q[,1],Q[,2],……,Q[,8]的标准回归系数,结果见表5[12]。
表5 主成分回归方程结果
┌───┬────────┬───┬────────┐
│项目 │ 标准偏回归系数│ 项目│ 标准偏回归系数│
├───┼────────┼───┼────────┤
│Q[,1]│0.1156445
│Q[,5]│0.0120118
│
│Q[,2]│0.0844556
│Q[,6]│0.0144823
│
│Q[,3]│0.0639293
│Q[,7]│0.3072406
│
│Q[,4]│0.1965184
│Q[,8]│0.3846232
│
└───┴────────┴───┴────────┘
从表5中的标准回归系数可以看出,Q[,8](运用所学知识,可以使我工作更出色)对总体顾客满意度的影响最大,此外,Q[,7](我完成了培训的目标)、Q[,4](教师能理论联系实际)和Q[,1](教师的教学方式易于学习和理解)对总体顾客满意度的影响也很大,而Q[,5](教学设施满足学员要求)和Q[,6](教学时间安排合理)对学员的总体满意度影响很小,经分析得到总体顾客满意度的重要影响因素,这样企业可以从这几个重要影响因素方面入手,针对重要影响因素中企业业绩较弱的地方,采取正确的行动和措施,提高企业的核心竞争力,从而增加企业利润。
4.偏最小二乘回归分析处理
偏最小二乘回归是一种合适的分析方法,近十几年来在理论、方法和应用方面都得到了迅速的发展。它利用对系统中的数据信息进行分解和筛选的方式,提取对因变量解释性最强的综合变量,辨识系统中的信息与噪声,从而可以克服变量相关性在系统建模中的不良作用。
设有q个因变量(y[,1],y[,2],…,y[,q])和p个自变量(x[,1],x[,2],…,x[,p])。自变量与因变量的数据表记为X=[x[,1],x[,2],…,x[,p]]n·p和Y=[y[,1],y[,2],…,y[,q]]n·q,偏最小二乘回归首先分别在X和Y中提取出成分t[,1]和u[,1]。在提取这两个成分时应满足以下两个要求。
(1)t[,1]和u[,1]应该尽可能大的携带它们各自数据表中的变异信息;
(2)t[,1]和u[,1]的相关程度能够达到最大。
在第一成分被提取后,分别实施X对t[,1],Y对u[,1]的线性回归。如果回归方程已经达到满意的精度,则算法终止;否则,将利用X被t[,1]解释后的残余信息以及Y被u[,1]解释后的残余信息进行第二轮的成分提取,如此往复,直到能达到一个较满意的精度为止。若最终对X共提取了m个成分t[,1],t[,2],…,t[,m],偏最小二乘回归将通过施行y[,k]对t[,1],t[,2],…,t[,m]的回归,然后再表达成关于原始变量x[,1],x[,2],…,x[,p]的回归方程,k=1,2,…,q[9,10]。
这里教学评价分析是单因变量,即q=1,自变量个数p=8。通过SAS/STAT软件中的偏最小二乘回归自行编程实现PLS过程,得到各项指标对于总体顾客满意度的回归系数如表6所示[13]。
表6 偏最小二乘回归方程的参数估计
┌───┬─────────┬───┬──────────┐
│ 项目│ 标准回归系数│ 项目│ 标准回归系数 │
├───┼─────────┼───┼──────────┤
│ 截距│ 0.000 000 000 0 │ 截距│
-0.198 757 421 6 │
│Q[,1]│ 0.116 650 056 0 │Q[,1]│0.093 493 268 6 │
│Q[,2]│ 0.084 836 387 5 │Q[,2]│0.078 344 876 2 │
│Q[,3]│ 0.069 693 536 5 │Q[,3]│0.056 162 111 0 │
│Q[,4]│ 0.197 295 671 0 │Q[,4]│0.238 140 951 8 │
│Q[,5]│ 0.012 551 216 9 │Q[,5]│0.012 047 538 5 │
│Q[,6]│ 0.014 598 942 2 │Q[,6]│0.016 739 392 5 │
│Q[,7]│ 0.307 450 674 8 │Q[,7]│0.343 431 744 7 │
│Q[,8]│ 0.385 148 260 2 │Q[,8]│0.397 905 576 1 │
└───┴─────────┴───┴──────────┘
从表6中的标准回归系数可以看出,Q[,8](运用所学知识,可以使我工作更出色)对总体顾客满意度的影响最大,此外,Q[,7](我完成了培训的目标)、Q[,4](教师能理论联系实际)和Q[,1](教师的教学方式易于学习和理解)对总体顾客满意度的影响也很大,而Q[,5](教学设施满足学员要求)和Q[,6](教学时间安排合理)对学员的总体满意度影响不大,这个结果与主成分回归结果基本一致,但由于偏最小二乘是一个不断循环的过程,能够剔除一些不显著的变量,主成分回归却不能,并且偏最小二乘提取主成分时考虑到了主成分与因变量的关系,使提取的主成分包含了大量的因变量信息,使估计值更加接近于真实值,而主成分回归没有考虑主成分与因变量的关系,所以偏最小二乘回归分析的结果比较可靠、合理一些。从分析中也可以得到总体顾客满意度的重要影响因素,这样企业可以找到重要影响因素中亟需解决的问题,在有限的资源下解决较多的问题。
三、结语
通过以上几种方法的介绍,可以看出这几种方法各有自己的优缺点,多元线性回归和逐步回归不适宜解决数据存在多重共线性的问题,根据实证分析,可以得到主成分回归和偏最小二乘回归适合解决数据存在多重共线性的问题,结果表明偏最小二乘回归的分析结果更加稳健可靠。但是这些方法不能确定顾客满意度各影响因素之间的相对重要性,而Kruskal’s相对重要性方法可以做到这一点,确定出各影响因素之间的相对重要性。根据具体情况采用合适的方法确定影响顾客满意度的重要因素,供企业人员参考做出正确的决策,从而采取相应的措施提高顾客的满意度,实施顾客满意战略的发展,使企业的顾客逐渐变成忠实顾客,为企业赢得更高的利润。