文档视界 最新最全的文档下载
当前位置:文档视界 › 面部表情识别的即时加工过程_隋雪

面部表情识别的即时加工过程_隋雪

面部表情识别的即时加工过程_隋雪
面部表情识别的即时加工过程_隋雪

心 理 学 报 2007,39(1):64~70 A cta Psychologica S i n ica

64

收稿日期:2006-04-04

通讯作者:隋雪,E m ai:l s u i xu e88@163 co m

面部表情识别的即时加工过程

隋 雪 任延涛

(辽宁师范大学心理学系,大连116029)

摘 要 采用眼动记录技术探讨面部表情识别的即时加工过程。基本的面部表情可以分为三种性质:正性、中性和负性,实验一探讨大学生对这三种面部表情识别即时加工过程的基本模式;实验二采用遮蔽技术探讨面部不同部位信息对面部表情识别的影响程度。结果发现:(1)被试对不同性质面部表情识别的即时加工过程存在共性,其眼动轨迹呈 逆V 型 ;(2)被试对不同性质面部表情的识别存在显著差异,在行为指标和眼动指标上都有体现;(3)对不同部位进行遮蔽,眼动模式发生了根本性改变,遮蔽影响面部表情识别的反应时和正确率;(4)面部表情识别对面部不同部位信息依赖程度不同,眼部信息作用更大。上述结果提示,个体对不同性质面部表情识别的即时加工过程具有共性,但在不同性质面部表情识别上的心理能量消耗不同;并且表情识别对面部不同部位信息依赖程度不同,对眼部信息依赖程度更大。关键词 面部表情,识别,即时加工过程,眼动。分类号 B842

1 引言

面部表情的研究始于19世纪,自从达尔文在他著名论著《人类和动物的表情(The Expressi o n o f the E m o tions in An i m a ls and M an ,1872)》中阐述了人的面部表情和动物的面部表情之间的联系和区别之后,对于面部表情的含义一直说法不一。情绪理论家认为面部表情传达着有关主体情绪状态的信息;行为生态学家则认为面部表情传达着主体的行为目的和行为要求。有人用研究证明了面部表情以传达情绪状态为主,也含有感情、意图和愿望

[1]

。在人

际交往中,面部表情起着重要作用,正确识别他人的表情是保证顺利交往的条件。对于人类个体如何确定或识别他人面部表情的含义引起研究者们的极大兴趣

[2~4]

。研究者们普遍认为一般的表情识别可以

用单一感官完成,也可以用多种感官相配合来完成。它是一个整体识别和特征识别共同作用的结果。具体说来,远处辨认人,主要是整体识别,而在近距离面部表情识别中,特征部件识别则更重要。此后人们对影响面部表情识别的因素进行了大量研究。Lo tt 等人研究发现,随着年龄增加,面孔识别能力下

降,这种能力下降与其空间视觉和认知能力有关

[5]

。Pf tze 等人也发现面孔识别与年龄有关

[6]

Saito 的研究发现性格与面孔识别关系也非常密

切[7]

。而M ogg 等人研究发现焦虑患者对面部表情的反应与正常人有本质区别。他们会首先选择威胁面孔(threat faces)或把眼睛更快地转移到威胁面孔上

[8]

。M u llins 等研究也发现情绪状态对表情识别

的影响[9]

。此外,健康状况

[3]

、性别

[10]

以及图片上

人物的性别[11]

等因素都影响面部表情的识别过程,

特别是图片上人物的表情性质对面部表情识别具有显著的影响。此外,人脸上不同部位对识别的贡献也不相同,如眼睛和嘴的重要程度大于鼻子

[12]

。这

说明面部不同部位信息对表情识别具有不同意义。那么,图片上人物表情的性质以及面部不同部位信息是如何影响表情识别的呢?它们在个体表情识别的即时加工过程中如何起作用的呢?这是本研究关

心的问题。对于这些问题的探讨,眼动记录是一种很好的技术,它可以考察面部表情识别的即时加工过程。有研究发现,在各种认知任务中对眼睛注视的控制起着巨大的作用,注视的位置和注视的时间与所进行的认知加工任务具有一定的锁时性(ti m e locked)

[13]

。在面部表情识别过程中,主体也是通

过眼睛的运动来完成对不同表情识别所需信息的搜集,然后对这些信息进行加工进而完成识别,这个过程是伴随信息搜集逐步完成的,也叫即时加工过程。

1期隋 雪等:面部表情识别的即时加工过程65

通过分析这一即时加工过程,可以更好地了解面部表情识别过程的实质。本研究通过记录被试面部表情识别过程中的眼动数据,来探讨面部表情识别的即时加工过程,识别不同性质表情的眼动模式如何,以及对面部不同部位信息的依赖程度如何。在实验一中,利用眼动记录技术记录被试识别不同性质面部表情的即时加工过程,考查面部表情的三种性质(正性、中性、负性)对识别过程的影响,并假设加工不同性质面部表情的眼动有规律性,并且时间进程和准确性不同。在实验二中,利用遮蔽技术对实验一的材料进行遮蔽处理,考查眼睛的作用与嘴和鼻子的作用之间有什么差异,在不同部位信息缺乏的条件下,即时加工过程如何改变,并假设面部表情识别对面部不同部位信息依赖程度不同,面部不同部位信息缺乏,眼动模式发生根本性改变。

2 实验一

2.1 方法

2.1.1 被试 随机选取辽宁师范大学18名本科生,5男,13女,年龄在18~21岁之间,平均年龄为19.56岁(SD=0.86),所有被试视力(或矫正视力)正常,且均为自愿参加。2.1.2 设计与材料 采用 识别-判断 实验范式考察面部表情识别的即时加工过程。实验为单因素重复测量实验设计。自变量为表情性质,包括正性、中性和负性三个水平。正性是指个体的愉快、舒适、满意等;中性是指个体的平静、沉稳和沉思等;负性是指个体的不满、愤怒和仇视等。因变量为反应时、正确率和眼动指标。

三种表情图片材料的选取方法如下:选取60幅西方人物图片,所有图片都经过数字化处理,图片为黑白色,亮度和对比度一致,均为肩部以上的正面图片,视角为11.77 。所有图片按照表情性质分成三组,每组各20张,图片人物性别比例一致。正性表情组(男、女各10张)、中性表情组(男、女各10张)、负性表情组(男、女各10张)。把60张图片随机排列,用Po w er Po i n t呈现,由150名大学生进行-5~5分的11级评定,负数代表负性,正数代表正性,靠近0代表中性。结果有效数据143份。对结果进行统计,按照如下标准选取实验图片:负性图片取-5~-2分,中性图片取-1~1分,正性图片取2~5分,每种性质男女各两张,共选取12张图片作为正式实验材料,见表1。

表1 确定的12张实验图片的评定均值

图片编号1610121417222628303941均值0.29 3.64 2.49-0.06-2.28-2.380.20-2.23-0.08 3.433.24-2.27表情性质中性正性正性中性负性负性中性负性中性正性正性负性

2.1.3 实验仪器及程序 本实验由一台Penti u m Ⅳ2.8G计算机控制,刺激呈现在19英寸彩色显示器中央。屏幕分辨率为1024 768,刷新频率为100H z。被试眼睛与屏幕中心的距离为60c m。用ASL504型眼动仪记录被试的眼动情况,数据采集频率为60H z。眼睛在一个点停留16m s记录为一个凝视点(gaze po int),眼睛在一个点停留100m s记录为一次注视(fi x ati o n),两次注视之间的眼动过程记录为眼跳(saccade)。用gazetraker

3.12软件运行实验程序并同时记录被试的反应时、正确率和眼动数据。 整个实验程序分为练习和正式实验两个阶段。练习过程,首先向被试说明表情性质的判断标准,然后呈现指导语: 这是一个表情识别实验,当图片呈现出来后,请您尽快判断图片上人物表情的性质,是正性、中性,还是负性,然后按键盘上的左、中、右光标键,分别代表正性、中性和负性。如果清楚了,请按空格键开始。 经过练习被试掌握了判断方法后,进入正式实验。

正式实验过程:(1)呈现指导语(同练习指导语);(2)然后在屏幕中央呈现注视点,持续2s;(3)注视点消失,接着呈现一张面部表情图片;(4)被试对随机出现的正性、中性、负性图片进行识别;(5)被试识别后,用右手的食指、中指和无名指分别按键盘光标键的左、中、右键(被试之间左右键进行平衡)对图片进行正性、中性、负性判断,按键后,图片自动消失,一次试验(trial)结束。

接着重复步骤(2)~(5)一直到整个实验结束,实验流程见图1,12张图片随机排列。

2.2 结果与分析

2.2.1 面部表情识别的眼动轨迹 本实验中,被试识别不同性质表情图片的眼动轨迹呈 逆V型 者达8

3.3%,即倾向于从右侧眼眉开始向嘴部运动,而后向图片左侧的眼睛返回,完成表情识别,见图2。这说明面部表情识别需要特定信息,被试在搜集

66 心 理 学 报39卷

信息过程中,不是随机观看,

而是有规律的。图1

实验流程图

图2 面部表情识别的眼动轨迹

2.2.2 面部表情识别的反应时和正确率 对三种性质面部表情识别的平均反应时及标准差分别为,

正性M RT =0.8744s ,SD =0.3486;中性M RT =1 1092s ,SD =0.4904;负性M RT =1.3633s ,SD =0 6458。单因素重复测量方差分析结果表明,面部表情的性质对被试识别的反应时影响显著,F (2,34)=26.861,p <0.001。多重比较(LSD )发现,正性与中性、负性,中性与负性差异都显著。识别每种图片的正确率都在89%以上,不同性质表情图片之间差异不显著。

2.2.3 面部表情识别的眼动指标 对总注视时间、注视次数、注视点持续时间和瞳孔直径四个眼动指

标进行统计,结果见表2。

表2 四个眼动指标结果(M SD )

表情性质

总注视时间(s)

注视次数

注视点持续时间(s)

瞳孔直径(像素)

正性0.5760 0.25821.83 0.660.3107 0.04932.85 5.60中性0.7373 0.38512.40 0.840.3126 0.05833.46 4.43负性

0.9677 0.4592

3.00 1.16

0.3172 0.063

34.22 4.59

从表2可以发现,对不同性质面部表情识别的

眼动数据存在一定差异,其中总注视时间、注视次数、瞳孔直径差异较大。

以总注视时间为因变量,进行单因素重复测量方差分析发现,表情性质主效应显著,F (2,34)=25.518,p <0.001。多重比较(LSD )发现,正性与中性、正性与负性、中性与负性差异都显著。以注视次数为因变量,进行单因素重复测量方差分析发现,表情性质主效应显著,F (2,34)=35.58,p <0.001。

多重比较(LSD )发现,正性与中性、正性与负性、中性与负性差异都显著。以瞳孔直径为因变量,进行单因素重复测量方差分析发现,表情性质主效应显著,F (2,34)=3.308,ps <0.05。被试识别正性、中性和负性表情图片时,瞳孔直径逐渐增大,且差异都显著。

为探讨被试面部表情识别过程中对面部部件的依赖程度,依据空间位置确定了两个兴趣区:兴趣区1为眼睛、兴趣区2为鼻子和嘴。

对被试在这两个兴趣区上的两个眼动指标进行统计,结果见表3。

从表3可以发现,不同性质、不同兴趣区的眼动指标存在较大差异。

表3 不同兴趣区眼动指标结果(M SD )

兴趣区

注视时间(s)

注视次数

正性

中性负性正性中性负性10.445 0.2700.593 0.2680.755 0.4001.08 0.671.49 0.751.86 0.952

0.330 0.164

0.378 0.300

0.456 0.368

0.75 0.36

0.36 0.57

1.11 0.83

以注视时间为因变量,进行两因素(表情性质 兴趣区)重复测量方差分析发现,表情性质主效应显著,F (2,34)=28.372,p <0.001;兴趣区主效应显著,F (1,17)=6.436,p <0.05;两者交互作用不显著。多重比较(LSD )发现,正性与中性、正性与负性、中性与负性差异都显著。兴趣区1的注视时间显著多于兴趣区2。

以注视次数为因变量,进行两因素重复测量方差分析发现,表情性质主效应显著,F (2,34)=31 240,p <0.001;兴趣区主效应显著,F (1,17)=7.432,p <0.05。两者交互作用不显著。多重比较

(LSD )发现,正性与中性、正性与负性、中性与负性差异都显著,兴趣区1的注视次数显著多于兴趣区2。

1期隋 雪等:面部表情识别的即时加工过程67

实验一结果表明,个体识别不同性质面部表情的眼动过程存在共性,眼动轨迹呈逆 V 型;而且不同性质表情对识别的眼动过程影响显著,一般分别需要1.8次、2.4次、3.0次注视完成正性、中性、负性表情识别;最后一次注视的位置在左眼的几率最大;表情识别对面部不同部位信息依赖程度不同。

3 实验二

实验一可以初步判断面部表情识别对面部不同部位信息的依赖不同,但尚不清楚差异如何,为了进一步回答面部表情识别对面部不同部位信息的依赖

程度,在实验二中,采用遮蔽技术对实验一的材料进行遮蔽处理,遮蔽部位包括眼睛、鼻子和嘴。然后考查被试对不同部位遮蔽后的面部表情图片识别的即时加工过程。3.1 方法

3.1.1 被试 重新随机选取辽宁师范大学18名在校本科生,男12,女6,年龄在18~20岁之间,平均年龄为19.11岁(SD =0.58),所有被试视力(或矫正视力)正常,均没有参加过实验一的实验。3.1.2 设计与材料 采用 识别-判断 实验范式考察面部表情识别对面部不同部位信息的依赖程度。实验为2(遮蔽部位:眼睛、鼻子和嘴) 3(表情性质:正性、中性和负性)的两因素完全重复测量实验设计。

实验材料为对实验一的12张图片进行遮蔽处理而成。采用photoshop 6.0软件,采用15个马赛克对面部图片中的眼睛部位、鼻子和嘴部位进行遮蔽,形成新的实验材料,部分图片见图3

图3 实验二的部分实验材料

3.1.3 实验仪器及程序 同实验一。

3.2 结果与分析3.2.1 遮蔽面部表情识别的眼动轨迹 本实验中,被试识别遮蔽了不同部位表情图片的眼动轨迹差异较大,判断眼部遮蔽图片的表情性质时,被试眼睛做

上下运动的人数占88.8%,对非遮蔽部位信息依赖

程度低,仍然在搜索眼部信息;而识别鼻子和嘴部遮蔽图片的表情性质时,被试眼睛做左右运动的人数占83.3%,只平行搜索眼部信息,见图4。

图4 部分遮蔽面部表情识别的眼动轨迹

3.2.2 遮蔽面部表情识别的反应时和正确率 对眼部遮蔽的三种性质面部表情识别的平均反应时及标准差分别为,正性M RT =0.844s ,SD =0.061;中性

M RT =1.181s ,SD =0.105;负性M RT =1.461s ,SD =0.222。单因素重复测量方差分析结果表明,面部表情的性质对被试识别的反应时影响显著,F (2,34)=6.536,p <0.01。多重比较(LSD)发现,正性与中性、负性差异显著。对鼻子和嘴部遮蔽三种性质面部表情识别的平均反应时及标准差分别为,正性M RT =1.472s ,SD =0.184;中性M RT =1.429s ,SD =0.157;负性M RT =1.573s ,SD =0.200。单因素重复测量方差分析结果表明,面部表情的性质对被试识别的反应时影响不显著。

进一步进行遮蔽部位 表情性质的重复测量方差分析,结果发现遮蔽部位主效应显著,F (1,17)=17.418,p <0.001,眼睛遮蔽反应时短;表情性质主效应显著,F (2,34)=3.817,p <0.05;交互作用显著,F (2,34)=8.606,p <0.01。识别正性表情与中性表情之间差异显著,而且遮蔽部位对正性表情识别影响大于其它两种表情。

对表情识别的正确率分析发现,眼部遮蔽的正确率为87%;鼻子和嘴遮蔽的正确率为95%,两者差异显著,t =3.308,p <0.01。这说明表情识别更依赖眼部信息,尽管反应时缩短,但是准确率显著下降,眼部遮蔽导致有效信息不足,导致被试识别时猜测成分增加。

3.2.3 遮蔽面部表情识别的眼动指标 对注视时间进行统计,结果见表4。 从表4可以发现,遮蔽部位被注视的时间短,在不同性质表情上差异不大。但是非遮蔽部位的注视持续时间因遮蔽部位和表情性质而异。为了了解三个变量主效应情况,进一步进行重复测量方差分析,

68

心 理 学 报39卷发现兴趣区的主效应显著,F(1,17)=16.776,p<

0.001;表情性质主效应显著,F(2,34)=4.239,p<

0.01;遮蔽部位主效应显著,F(1,17)=4.601,p<

0.05。遮蔽部位影响识别,眼部获得更多注视,在三

种表情图片上均有体现。

表4 遮蔽实验的平均总注视时间(单位:s)

遮蔽部位表情性质兴趣区1兴趣区2

眼睛正性0.23090.5191中性0.42020.6525负性0.35020.9379

鼻子和嘴正性0.94360.3869中性0.96080.3437负性1.07100.3309

对注视次数进行统计,结果见表5。

表5 遮蔽实验的平均注视次数遮蔽部位表情性质兴趣区1兴趣区2

眼部正性0.65 1.19中性1.14 1.46负性0.90 2.01

鼻子和嘴正性2.240.82中性2.460.82负性2.540.79

从表5可以发现,遮蔽部位被注视次数少,不同性质表情识别差异不大。但是非遮蔽部位的注视次数因遮蔽部位和表情性质而异。眼部遮蔽的非遮蔽部位被注视次数少于鼻子和嘴被遮蔽的情况,同样是因为鼻子和嘴的信息含量低,有限注视后无信息可以提取。为了了解三个变量主效应情况,进一步进行重复测量方差分析,发现兴趣区的主效应显著, F(1,17)=25.094,p<0.001;表情性质主效应显著,F (2,34)=4.730,p<0.05;遮蔽部位主效应显著,F (1,17)=11.016,p<0.01。遮蔽部位影响识别,眼部被注视次数多,在三种表情图片上均有体现。

对注视点持续时间进行统计,结果见表6。

从表6可以发现,遮蔽部位注视点持续时间短,不同性质表情识别差异不大。但是非遮蔽部位的注视点持续时间因遮蔽部位和表情性质而异。眼部遮蔽时,非遮蔽部位注视点持续时间比鼻子和嘴被遮蔽时的非遮蔽部位注视点持续时间长,这可能是因为鼻子和嘴的信息同质性高,诱发眼动的力量弱,导致注视点持续时间缩短。而眼睛包含的信息丰富,诱发眼动力量强,使持续时间相对延长。方差分析发现遮蔽主效应显著,F(1,17)=8.889,p<0.01;图片性质主效应显著,F(2,34)=3.514,p<0.05;兴趣区的主效应不显著。遮蔽部位被注视时间短、注视次数少、注视点持续时间也短。与其它两种性质表情识别相比,正性表情识别注视时间最短,注视次数最少,注视点持续时间也最短。

表6 遮蔽实验的平均注视点持续时间(单位:s)

遮蔽部位表情性质兴趣区1兴趣区2眼部

正性0.17590.3195

中性0.23550.3503

负性0.21550.3937鼻子和嘴

正性0.30420.1829

中性0.30750.1907

负性0.31990.1963

4 综合讨论

实验一发现个体加工不同性质面部表情的基本过程是:从右眼眉心开始,向鼻尖运动,然后回到左眼,结束识别活动,整个轨迹呈逆 V 型。这证明了我们的假设:加工不同性质面部表情的眼动轨迹有共同规律。这种轨迹说明面部表情识别需要不同部位信息,在对不同部位信息整合的基础上做出识别。尽管内部特征与外部特征在面孔识别中作用不同[14],但是面部表情识别以内部特征为主。依赖的信息也主要集中在眼睛和鼻子、嘴等部位,不同性质面部表情不影响识别的眼动轨迹。我们认为,对不同性质面部表情识别时的采集信息过程是一致的,采集后对获得的信息进行整合,判断是信息采集、整合后发生的。判断过程没有影响早期的信息采集,所以眼动轨迹具有了共性。眼动之所以呈逆V型,我们可以这样理解:面部表情识别主要以眼部信息为主,其他部位信息为辅,在时间短的快速判断过程中,嘴和鼻子部位信息对判断作用也较大,面部表情判断是在整合眼部与嘴和鼻子部位信息的基础上完成的。这个过程通常先从提取眼部信息开始,然后转向鼻子和嘴,形成眼动轨迹的第一部分,接下来转向提取另一只眼睛的信息,形成眼动轨迹的第二部分。 在实验二中,我们发现面部表情识别对不同面部位置信息依赖程度不同,遮蔽导致眼动模式的改变。判断眼部遮蔽的面部表情,被试的眼睛做上下运动完成识别,虽然眼睛被遮蔽,但识别过程依然寻求眼部信息;而判断鼻子和嘴遮蔽的面部表情时,被试的眼睛做左右运动,没有寻求被遮蔽部位信息,而是寻求左右眼部信息。这说明依赖眼部信息就可以完成识别。被试注视鼻子和嘴被遮蔽的图片的时间长,判断的准确率高,正确率为95%;被试注视眼部被遮蔽的图片的时间则短,判断的准确率低,正确率

1期隋 雪等:面部表情识别的即时加工过程69

为87%,说明判断过程有很大猜测成分。判断眼部被遮蔽和鼻子和嘴被遮蔽面部表情的差异非常显著。这一结果与以往同类研究结果是一致的,眼睛部位条件下的正确判断成绩显著好于嘴部条件下的成绩[15]。眼部遮蔽对表情识别的影响很大,尽管反应时缩短,但是准确率显著下降,说明眼部遮蔽导致有效信息不足,被试完成识别任务的猜测成分增加,这支持面部表情识别以特征部件识别为主的观点。我们认为各部件信息都有利于面部表情识别任务的完成,但研究结果说明不同部件信息的重要性不同,眼部信息是最重要的。提示我们在完成与识别面部表情有关的任务过程中要注意眼部信息的变化。

结合两个实验的结果,我们发现面部表情识别的眼动过程是有规律的,眼动不是随意的,并且以部件信息为主,在整合部件信息的基础上做出识别,在部件信息缺乏时,搜索信息则以眼部为主。

本研究的两个实验还发现表情性质对面部表情判断的显著作用。负性面部表情判断的注视时间长、注视次数多和瞳孔直径大。证明了我们的假设:在反应时等指标上,不同性质表情之间存在差异。那么如何解释这种差异呢?我们认为不同的面部表情引起了被试的不同反应,这与以往研究的结果是一致的,以往研究认为像恐惧、愤怒这样的负性情绪属于令人厌恶的刺激,容易引发人的逃避行为[16],对于观察者来说,负性面部表情属于不良刺激,这种刺激容易使观察者紧张,产生一些负性事件的联想。在判断过程中,负性面部表情提高了观察者的兴奋性、警觉性,这是一种自动提高的过程,导致观察者判断时注视时间长、注视次数多和瞳孔直径大。这与负性面部表情引起观察者内部变化有关,有研究发现,愤怒等负性面部表情激活了与行为抑制有关的神经回路[17]。脑电研究也发现,当呈现一系列面孔图片时,愉快的面孔引起的P300波幅最小,愤怒、悲伤及无表情的面孔图片引起的波幅相对较大, P300的区域显示出与波幅相似的变化,但P300潜伏期的变化与前两项有所不同,悲伤的画面使P300的潜伏期最长[18]。有人认为愤怒等负性情绪趋向于吸引视觉注意。注意倾向于对自然界的危险信号给予优先权,如果出现一个危险信号,个体将很快开始对这个物体(例如,愤怒的表情)的注意,而注意力的移开将会很慢;相反,如果出现的是一个中性或无危险的物体(例如,愉快的表情),那么个体对这个物体的注意开始得很慢,而注意力的移开则会很快[19]。本研究的两个实验结果也支持这种观点。 本研究从眼动角度提供了认识面部表情识别本质的新视角,证明了面部表情性质对面部表情识别的影响,这种影响在遮蔽条件下也得到了证明。下一步我们将改变注视模式,对面部表情识别的眼动轨迹进行探讨。本研究是在注视点后呈现面部表情图片,无法考察被试对不同性质面部表情图片首视点的选择。另外本研究每次呈现一张面部表情图片,属于绝对识别判断,无法考察情境中面部表情的识别,未来研究将同时呈现2张或更多面部表情图片,要求被试进行相对识别判断,进一步考察面部表情识别的本质。

参考文献

1 H orst m ann G.W hat do facial expressions convey:feeli ng states,

b ehavioral i nten tions,or acti on requests?Em oti on,2003,3(2):

150~166

2 Tanskanen T,N?s?nen R,M ontez T,P??ll ys aho J,Rii tta H.

Face recogn i ti on and corti cal res ponses s how si m il ar sens iti v it y to

no i se spatial frequency.C ereb ral Cort ex,2005,15:526~534

3 Bed i ou B,K rol ak-Sal m on P,Saoud M,H e naffM A,et a.l Faci al

expres s i on and sex recogn iti on i n s ch i zophren i a and depressi on.

Canad i an J ou r nal of Ps ychiatry,2005,50(9):525~533

4 Su rgu l adze S A,Young A W,Sen ior C,B r b ion G,TravisM J,

Ph illi ps M L.Recogn iti on accuracy and res pon se b ias to happy and sad facial expressions i n pati en ts w i th ma j or d epression.

Neuropsycho l ogy,2004,18(2):212~218

5 Lott L A,H aegerstro m-Portnoy G,S c hn eck M E,Brabyn J A.

Face recogn i ti on i n t he el derly,Op to m etry and visi on sci ence,

2005,82(10):874~881

6 Pf tze E M,Somm erW,Schw ei nb erge R S.A ge-relat ed sl ow i ng

in face and nam e recogn iti on:ev i dence fro m even t-related

poten tia.l Psychol ogy and agi ng,2002,17(1):140~160

7 S ai to T,N aka m ura T,Endo T.B i g five personali ty f act ors rel ated

to f ace recogn iti on.Sh i n ri gaku K enkyu,2005,75(6):517~522 8 M ogg K,M ill ar N,B rad ley B P.B iases i n eyem ove m en ts t o

threaten i ng facial expressions i n generalized anxiety d i sorder and

d epressiv

e d is order.Journal o

f abnor m al psycho l ogy,2000,109

(4):695~704

9 M u lli ns D T,Duk eM P.E ffects of s oci a l anxiety on non verbal

accuracy and response ti m e:f aci al exp res s i on.J ou rnal of

Nonverbal Beh avi or,2004,28(1):3~33

10 H all J A,M ats um ot o D.Gender differences i n j udg m en ts of

m u lti p le e m oti on s fro m facial expressions.Em otion,2004,4(2):

201~206

11 Baudou in J Y,T i b ergh ien G.Gender i s di m en si on of face

recogn iti on.Jou rnal of Exp eri m en t a lPsyc h ol ogy:L ear n i ng,

M e m ory,and Cogn iti on,2002,28(2):362~365

12 H ess U,Ada m s R B,K leck R E.Facial appearance,gender,and

e m oti on express i on.Em oti on,2004,4(4):378~388

13 H enderson J M,W illi a m s C C,Fal k R J.Eye m ove m ents are

70

心 理 学 报39卷

f unctional duri n

g face l earn i ng.M e mory&C ogn ition,2005,33

(1):98~106

14 Peng X i aohu,Luo Yuoji a,W e i Ji nghan,W ang Guofeng.

Recogn i ti on of eastern and w estern faces w ith i n tern al and extern al

f eatures:An ERP S t udy(i n C h i nese).SpaceM ed i ci n e&M ed ical

E ngi neeri ng,2003,16(2):123~127

(彭小虎,罗跃嘉,魏景汉,王国锋.面孔内外特征对东西方面孔识别影响的ERP研究.航天医学与医学工程,2003,16(2):

123~127)

15 M o Shu li ang,Su Yan jie.C ou l d the eyes al one be e m otional c u es

t o ch il dren(i n C h i nese)?Psychol ogical Science,2004,27(6): 1365~1367

(莫书亮,苏彦捷.儿童情绪表情识别的眼睛线索之发展研究.

心理科学,2004,27(6):1365~1367)

16 M ars h A A,Ambady N,K l eck R E.The eff ects of f ear and anger

facial expressions on approach-and avoi dance-related

b ehaviors.Em oti on,2005,5(1):119~124

17 B l a i r R J R,M orris J S,Frit h C D,Perrett D I&Dol an R J.

D i ssociab l e neu ral respon s es t o facial expressions of sadness and

anger.B ra i n,1999,122:883~893

18 M orita Y,M ori ta K,Ya m a m otoM,W aseda Y,M aeda H.E ffects

of f aci al affect recogn i ti on on t h e aud i tory P300i n h ealt hy

s ub jects.Neu rosci ence Res earch,2001,41:89~95

19 Fox E,Lester V,Russo R,Bo w l es R J,PichlerA,and Du tton

K.Facial expressions of e m otion:Are angry faces detect ed m ore

effici en tl y?Cogn iti on and Em oti on,2000,14(1):61~92

Online Processing of Facial Expression Recognition

Sui X ue,R en Y antao

(The p s ycholo gy d e part m e n t,L iaon i ng N or ma l Un i ve rsit y,Dalian116029,Ch i na)

Abstract

Introduction H um an faces convey i m portant m essages,such as i d entity,age,sex,and e m o ti o na l expression.The traditi o na l v ie w of facial expressi o n is that certai n confi g urations caused by fac i a l muscle contractions convey infor m ati o n about the e m otional state of a person.C ertai n facial expressions and e m oti o ns are i n ti m ate l y tied together.Prev ious studies suggest that factors such as age(Pf tze,2002),e m otional cond ition (M ulli n s,2004),and hea lth(H al,l2004)infl u ence facia l expression recogn iti o n.H o w ever,there is little research on ho w these factors infl u ence facial expression recogn iti o n.Duri n g fac i a l expression recogn ition,the location o f eye fixation plays an i m portant r o le.Fixation sites and durati o ns are close l y ti m e locked to ongo ing perceptua l and cogn iti v e processes duri n g picture perception(H enderson,2005).An ana l y sis of eye m ove m en,t for exa m p le,should fac ilitate the understand fac ial expressi o n recogn ition.The a i m o f the present study w as to explore the on-line pr ocess o f fac ial expression recogn ition.This study consisted o f t w o experi m ents.Experi m ent1 i n vesti g ated the basic m ode l o f on-line process of under g radua te studen ts w hen do i n g heter ogeneous fac i a l expression recogn iti o n.Experi m en t2exa m ined t h e effect of d ifferent parts of the face on t h e recogn ition of fac i a l expression using shading technology.

M et hod In the t w o exper i m ents,t h e recogn iti o n decisi o n parad i g m w as used.Thirty-si x undergraduate students participated in t h e t w o experi m ents(18in each of the experi m ent).Participants w ere requ ired to decide w he t h er each facia l expression(i n the for m of a picture)that w as sho w n to the m w as e ither positive,neutral or negati v e.W hen perfor m i n g the tasks,participants'eye m ove m ent w as recorded usi n g an Am erica Science Laborato ri e s M odel504eye tracker.The ra w data co llected w as m anaged by M icr osoft Exce.l ANOVA w as conducted to exa m i n e m ean differences in participan ts'responses to d ifferent sti m ul.i

Results It was shown tha t(1)partici p ants'eye m ove m ents when perfor m ing heterogeneous facial expression recogn ition show ed a si m ilar path in t h e shape of an i n verted V ;(2)there w ere si g n ificant d ifferences bet w een t h e behav ioral data and eye m ove m ent i n dex;(3)the pattern o f eye m ove m ent drastically changed w hen the different parts o f the face were ca m ou flaged,w hich also affected the reaction ti m e and accuracy of the data;(4) t h e infor m ati o n conveyed by different fac ial parts had diverse effects on the facial expression recogniti o n task.

Conc l u sion The resu lts suggest t h at t h ere m ay ex ist a co mm on eye m ove m ent m ode l in the recogn ition o f fac ial expressi o n a m ong i n div i d uals,but t h e psycho l o g ica l resources needed during the recogn iti o n processm ight be different for different i n div i d uals.M oreover,different facial parts play d ifferent ro les in assisting fac ial expression recogn ition.Apparently the eyes play the m ost i m portant r o le.

K ey w ords fac ial expressi o n,recogn iti o n,on line processi n g,eye m ove m en.t

人脸识别文献综述

文献综述 1 引言 在计算机视觉和模式识别领域,人脸识别技术(Face Recognition Technology,简称FRT)是极具挑战性的课题之一。近年来,随着相关技术的飞速发展和实际需求的日益增长,它已逐渐引起越来越多研究人员的关注。人脸识别在许多领域有实际的和潜在的应用,在诸如证件检验、银行系统、军队安全、安全检查等方面都有相当广阔的应用前景。人脸识别技术用于司法领域,作为辅助手段,进行身份验证,罪犯识别等;用于商业领域,如银行信用卡的身份识别、安全识别系统等等。正是由于人脸识别有着广阔的应用前景,它才越来越成为当前模式识别和人工智能领域的一个研究热点。 虽然人类能够毫不费力的识别出人脸及其表情,但是人脸的机器自动识别仍然是一个高难度的课题。它牵涉到模式识别、图像处理及生理、心理等方面的诸多知识。与指纹、视网膜、虹膜、基因、声音等其他人体生物特征识别系统相比,人脸识别系统更加友好、直接,使用者也没有心理障碍。并且通过人脸的表情/姿态分析,还能获得其他识别系统难以获得的一些信息。 自动人脸识别可以表述为:对给定场景的静态或视频序列图像,利用人脸数据库验证、比对或指认校验场景中存在的人像,同时可以利用其他的间接信息,比如人种、年龄、性别、面部表情、语音等,以减小搜索范围提高识别效率。自上世纪90年代以来,人脸识别研究得到了长足发展,国内外许多知名的理工大学及TT公司都成立了专门的人脸识别研究组,相关的研究综述见文献[1-3]。 本文对近年来自动人脸识别研究进行了综述,分别从人脸识别涉及的理论,人脸检测与定位相关算法及人脸识别核心算法等方面进行了分类整理,并对具有典型意义的方法进行了较为详尽的分析对比。此外,本文还分析介绍了当前人脸识别的优势与困难。 2 人脸识别相关理论 图像是人们出生以来体验最丰富最重要的部分,图像可以以各种各样的形式出现,我们只有意识到不同种类图像的区别,才能更好的理解图像。要建立一套完整的人脸识别系统(Face Recognetion System,简称FRS),必然要综合运用以下几大学科领域的知识: 2.1 数字图像处理技术 数字图像处理又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机

人脸识别技术的应用背景及研究现状

1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面: (1)模板匹配 主要有两种方法,固定模板和变形模板。固定模板的方法是首先设计一个或几个参考模板,然后计算测试样本与参考模板之间的某种度量,以是否大于阈值来判断测试样本是否人脸。这种方法比较简单,在早期的系统中采用得比较

《微表情识别读脸读心》2019期末考试题与答案

《微表情识别读脸读心》2019期末考试题与答 案 一、单选题(题数:40,共40.0 分) 1安慰反应的形态意义哪一项描述是错误的?() A、视线转移,频繁眨眼,闭眼(视觉安慰);轻哼,吹口哨,吁气(听觉安慰) B、舔嘴唇,磨牙,咀嚼,吞咽,吸烟; (口部安慰) C、挠头皮,玩头发,搓脖子;摸脸、额头、鼻子、耳朵、嘴、下巴;捂住锁骨,拍胸口,按摩腹部; 松领带、领口,玩项链、耳环等;搓手,玩手指; 抖腿等(肌肤安慰) D、身体约束僵住 答案:D 2关于这场猜测锁匙位置的测试哪一项描述是错误的?() A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实

C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 答案:D 3关于辨析情绪的意义哪一项描述是错误的?() A、排除了干扰因素才能锁定刺激与情绪反应的因果联系 B、行为痕迹特征不能与说谎直接划等号 C、科学识别应该是找到差异点 D、回应刺激时视线向左表示回忆,视线向右表示编造 答案:D 4关于松明猜测硬币藏匿手的测试哪一项描述是错误的?() A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 答案:D

5逃离反应的形态意义哪一项描述是错误的?() A、吓了一跳、后退、头、身体、脚转向一边 B、深吸气,脸色发白,全身发冷,腿发颤 C、视线转移,坐姿、站姿角度扭转 D、面孔、肢体靠近刺激源 答案:D 6关于表达者表达解析哪一项描述是正确的?() A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 答案:B 7微表情是指持续时间多长的表情?() A、1/2秒 B、不足1/5秒

面部表情识别实验报告分析

面部表情识别实验 实验报告 小组成员: 面部表情识别实验 西南大学重庆 400715

摘要:情绪认知是一种复杂的过程,它包含观察、分析、判断、推理等,是借助于许多线索,特别是借助面部那些活动性更大的肌肉群的运动而实现的。所以,情绪认知的准确度受多种因素的影响。 当我们与他人相互交往的时候,不管是不是面对面。我们都正在不断的表达着情绪,同时又正在观察,解释着的对方做出的表情,在人际交往过程中,情绪的表达和认知是十分的迅速和及时,那么人是借助于哪些表情来认知他人的情绪的呢?情绪识别实际上并不是针对表情本身的,而是针对这它背后的意义。例如:皱眉可能是一种情绪的表现,我们见到这种面部表情就试图解释潜在于它背后的情绪。尖锐,短促,声音嘶哑可能是一种情绪表现,我们听到这种语言表情就试图解释潜在于它背后的情绪捶胸,顿足可能是一种情绪的表现,我们见到这种动作表情就是试图解释潜在于它背后的情绪。对于这个复杂的问题,心理学家曾经做过许多的研究。 面部表情认知的研究可分为两个步骤:第一步是面部表情刺激物的制作或选择,这可以用专门拍摄(录像)或图示来描画,也可以用完全装扮出的活生生的表情或自发的表情等。第二步时对表情进行识别评定。也可以用多种方法,如自由评定法,即让被试自由地对表情给出情绪词汇;或限制评定法,即向被试提供各种提供各种情绪词汇或情绪情境,要求被试只能根据所提供的情绪词汇或者情绪情境进行分类或者匹配等;或参照自由评定法,即向被试提供参考线索(如情境,人格特征等),让其说出所表达的情绪的词汇等。 关键词:情绪表情认知线索

1 前言 传统心理学把情绪列为心理现象的三大方面之一。情绪也是心理学理论体系中一个不可缺少的研究环节。情绪(emotion)是体验,又是反应;是冲动,又是行为;它是有机体的一种复合状态。情绪的表现有和缓的和激动的,细微的和强烈的,轻松的和紧张的等诸多形式,广泛地同其他心理过程相联系。自古以来,科学家们十分注意探讨情绪之奥妙,但与情绪的重要性不相适应的是,长期以来情绪研究一直是心理学尤其是实验心理学研究中的一个薄弱环节。造成这一现象的最主要原因是情绪所特有的复杂性以及由此衍生出来的情绪研究方法学上的困难。我国心理学家孟昭兰(1987)将理论认为面部表情是传递具体信息的外显行为面部表情是提供人们在感情上互相了解的鲜明标记。情绪过程既包括情绪体验,也包括情绪表现,而表情既是情绪的外部表现,也是情绪体验的发生机制;既是最敏锐的情绪发生器,也是最有效的情绪显示器。这就从机制上说明了以面部肌肉运动模式作为情绪标志的根据。 面部表情(facial expression_r)的发生是有其客观的物质基础的:表情按面部不同部位的肌肉运动而模式化,面部反应模式携带着心理学的意义,那就是或快乐、或悲伤等具体情绪。但是,对表情进行测量的原则在于:所要测量的是面孔各部位的肌肉运动本身,而不是面部所给予观察者的情绪信息。该实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本

人脸检测和识别技术的文献综述

人脸识别技术综述 摘要:在阅读关于人脸检测识别技术方面文献后,本文主要讨论了人脸识别技术的基本介绍、研究历史,人脸检测和人脸识别的主要研究方法,人脸识别技术的应用前景,并且总结了人脸识别技术的优越性和当下研究存在的困难。 关键词:人脸识别;人脸检测;几何特征方法;模板匹配方法;神经网络方法;统计方法;模板匹配;基于外观方法; 随着社会的发展,信息化程度的不断提高,人们对身份鉴别的准确性和实用性提出了更高的要求,传统的身份识别方式已经不能满足这些要求。人脸识别技术(FRT)是当今模式识别和人工智能领域的一个重要研究方向.虽然人脸识别的研究已有很长的历史,各种人脸识别的技术也很多,但由于人脸属于复杂模式而且容易受表情、肤色和衣着的影响,目前还没有一种人脸识别技术是公认快速有效的[1]基于生物特征的身份认证技术是一项新兴的安全技术,也是本世纪最有发展潜力的技术之一[2]。 1. 人脸识别技术基本介绍 人脸识别技术是基于人的脸部特征,一个完整的人脸识别过程一般包括人脸检测和人脸识别两大部分,人脸检测是指计算机在包含有人脸的图像中检测出人脸,并给出人脸所在区域的位置和大小等信息的过程[3],人脸识别就是将待识别的人脸与已知人脸进行比较,得

出相似程度的相关信息。 计算机人脸识别技术也就是利用计算机分析人脸图象, 进而从中出有效的识别信息, 用来“辨认”身份的一门技术.人脸自动识别系统包括三个主要技术环节[4]。首先是图像预处理,由于实际成像系统多少存在不完善的地方以及外界光照条件等因素的影响,在一定程度上增加了图像的噪声,使图像变得模糊、对比度低、区域灰度不平衡等。为了提高图像的质量,保证提取特征的有有效性,进而提高识别系统的识别率,在提取特征之前,有必要对图像进行预处理操作;人脸的检测和定位,即从输入图像中找出人脸及人脸所在的位置,并将人脸从背景中分割出来,对库中所有的人脸图像大小和各器官的位置归一化;最后是对归一化的人脸图像应用人脸识别技术进行特征提取与识别。 2. 人脸识别技术的研究历史 国内关于人脸自动识别的研究始于二十世纪80年代,由于人脸识别系统和视频解码的大量运用,人脸检测的研究才得到了新的发展利用运动、颜色和综合信息等更具有鲁棒性的方法被提出来变形模板,弹性曲线等在特征提取方面的许多进展使得人脸特征的定位变得更为准确。 人脸识别的研究大致可分为四个阶段。第一个阶段以Bertillon,Allen和Parke为代表,主要研究人脸识别所需要的面部特征;第二个阶段是人机交互识别阶段;第三个阶段是真正的机器自动识别阶段;第四个阶段是鲁棒的人脸识别技术的研究阶段。目前,国外多所

人脸识别技术的应用背景及研究现状

人脸识别技术的应用背景及研究现状 1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面:

人脸表情识别

图像处理与模式识别 ------人脸表情识别介绍摘要:人脸表情是我们进行交往和表达情绪的一种重要手段,不经过特殊训练,人类对其面部表情往往很难掩饰,所以,通过对人脸表情进行分析,可以获得重要的信息。人脸表情识别是人机交互的智能化实现的一个重要组成部分,也是模式识别、图像处理领域的一个重要研究课题,近几年来,受到了越来越多的科研人员的关注。 本文综述了国内外近年来人脸表情识别技术的最新发展状况,对人脸表情识别系统所涉及到的关键技术: 人脸表情特征提取,做了详细分析和归纳。 关键词:人脸定位;积分投影;人脸表情识别;流形学习;局部切空间排列Abstract:Facial expression is a kind of important means that we communicate and express the special training, People often difficult to conceal their facial , by the analyzing facial expression, we can obtain important information. Facial expression recognition is an important component that the implementation of human-computer interaction, and an important research topic in the field of pattern recognition, image processing, in recent years, more and more researchers focus on this topic. In this paper,we present the latest development of this area,and give a detailed analysisand summary for facial

面部表情识别与面孔身份识别的独立加工与交互作用机制_汪亚珉

心理科学进展 2005,13(4):497~516 Advances in Psychological Science 面部表情识别与面孔身份识别的 独立加工与交互作用机制* 汪亚珉1,2 傅小兰1 (1中国科学院心理研究所,脑与认知国家重点实验室,北京 100101)(2中国科学院研究生院,北京 100039) 摘 要面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。以往诸多研究者都认可并遵循二者分离的原则。但近期研究表明,面部表情识别与面孔身份识别存在交互作用。首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。 关键词面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。分类号 B842 面孔识别一直备受研究者关注。20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。自此,面孔识别成为认知科学研究领域中的热点问题之一。 人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情 收稿日期:2005-04-24 * 本研究得到中国科技部973项目(2002CB312103)、国家自然科学基金重点项目(60433030)和面上项目 (30270466)、中国科学院心理研究所创新重点项目 (0302037)经费支持。 通讯作者:傅小兰,E-mail: fuxl@https://www.docsj.com/doc/3710552870.html, 两者相互独立,互不干扰[2~7]。那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。 在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其

不同情绪面部表情的特征

不同情绪面部表情的特征 了解在不同情绪下人物面部表情的特征,对描绘动画人物的表情很有帮助,本教程将说明人的脸上不同部位是如何协调运动来传达不同情绪。一旦你掌握了各种面部表情的特征, 就可以随心所欲画出自己所想到的任何表情。 F面我们借助示例图来说明(图在上,文字描述在下) 首先,我们开始学习悲哀”表情的画法, 这是一种相当普通的情绪。本图是一个典型的 动画人物的脸,但是注意一下已产生的变化。在这种情况下,人物情绪的最明显特征是眉 毛。请注意眉毛内部的顶端是如何向上弯曲的。同时她的下眼框略微向上弯曲,而上眼皮呈 更明显的圆形曲线。弯曲下眼框能表现压迫,悲伤或忿怒的情绪状向我们说 明人物处于悲伤中 含蓄的悲哀 看看这幅图:他的悲哀就要含蓄些了。人物看起来很沮丧,但没有上图中那么忧伤。他 的眼睛比较小(也许因为是男的吧),嘴也比较大并且向下弯曲得也不是很明显。眉毛的角度 悲哀 ;而在这情况下,眉毛的形 以及呈拱形的下眼框仍然会让你觉得他正在为某事心烦(大男人不好做,再辛苦也不说…)O

介于悲、愤之间 这一张图里的人物表情介于悲、 愤之间。眉毛明显地弯下来, 嘴巴看起来像在喊叫,两 者都表明他处于疯狂状态, 不过他的眼珠还是画得非常大。 这使他看起来像是在生气, 或受 到了伤害或者在为谁谁谁心烦意乱。 这家伙明显是在斥责谁,即使他并没有大喊大叫。 现在你可以画出正在生闷气的人物了。 在本图中,眉毛贴着眼睛并且眉角画得很尖 (我也在眉间画些皱纹),嘴角也明显地向下弯。 双眼睛很窄,而且眼珠非常小, 这会让他的神情看起来更生气 有些困惑、不满 这幅的表情不确定,他既有些困惑又像是心里又对谁不快。 心里又乱又疑。为了增强表情,也可以把嘴的中间稍微留些空白斥责 (这种表情感觉比较蛮阴鸷)。 高低交错的眉角让人觉得他

2019最新版微表情识别·读脸读心答案

1.1 微表情涵义·由来 1 【单选题】微表情是指持续时间多长的表情?()B ?A、1/2秒 ?B、不足1/5秒 ?C、5秒 ?D、以上都不对 2 【多选题】下面哪些描述符合微表情的特征?()ABCD ?A、时间不足1/5秒 ?B、受到有效刺激后的反应 ?C、不由自主地表现出来 ?D、表达内心的真实情感 3 【判断题】表情是表现在面部或姿态上的情感信息。()正确 1.2 保罗·埃克曼的贡献 1 【单选题】保罗·埃克曼研究的微表情主要在哪个领域?()C ?A、身体动作 ?B、副语言 ?C、面部表情 ?D、以上都不对 2 【多选题】保罗·埃克曼研究微表情的主要贡献有哪些?()ABCD ?A、完成面部表情编码 ?B、编撰并发布FACS—AU教程 ?C、研发微表情训练工具(Meet) ?D、人际欺骗研究 3

【判断题】独立发现并深入研究微表情的学者是保罗·埃克曼。()错误 1.3 国内·应用研究概况 1 【单选题】 国内探索微表情应用研究的实战机构不包括哪些?()D ?A、公安机构 ?B、检察机构 ?C、安全机构 ?D、环保机构 2 【判断题】 受到lie to me 传播的影响国内业界开始关注并研究微表情。()正确 3 【判断题】 国内研究微表情的专业团队主要有中科院心理研究所傅小兰团队、中国人民政法大学姜振宇团队和上海政法学院范海鹰团队。()正确 1.4 教学模式·教学环节 1 【单选题】微表情识别读脸读心课程宜采用哪种教学模式?()D ?A、理论讲授式 ?B、实操训练式 ?C、案例观摩式 ?D、A+B+C 2 【多选题】微表情识别读脸读心课程的教学模式包括哪些教学环节?()ABC

自发表情识别方法综述

收稿日期:2015-04-03;修回日期:2015-05-26 基金项目:国家自然科学基金资助项目(61463034) 作者简介:何俊(1969-),男,江西东乡人,副教授,硕导,博士,主要研究方向为人机交互技术、模式识别等(boxhejun@tom.com);何忠文(1986-),男,江西九江人,硕士研究生,主要研究方向为人机交互技术、模式识别等;蔡建峰(1990-),男,河北人,硕士研究生,主要研究方向为人机交互;房灵芝(1988-),女,山东人,硕士研究生,主要研究方向为人机交互. 自发表情识别方法综述* 何 俊,何忠文,蔡建峰,房灵芝 (南昌大学信息工程学院,南昌330031) 摘 要:介绍了目前自发表情识别研究的现状与发展水平,详细阐述了自发表情识别研究的内容和方法,以及自发表情识别研究的关键技术,旨在引起研究者对此新兴研究方向的关注与兴趣,从而积极参与对自发表情识别问题的研究,并推动与此相关问题的进展。关键词:表情识别;自发表情;特征提取 中图分类号:TP391.41 文献标志码:A 文章编号:1001-3695(2016)01-0012-05doi:10.3969/j.issn.1001-3695.2016.01.003 Surveyofspontaneousfacialexpressionrecognition HeJun,HeZhongwen,CaiJianfeng,FangLingzhi (Information&EngineeringCollege,NanchangUniversity,Nanchang330031,China) Abstract:Thispaperintroducedtheactualityandthedevelopinglevelofspontaneousfacialexpressionrecognitionatthe presenttime,andpaidparticularattentiontothekeytechnologyontheresearchofspontaneousfacialexpressionrecognition.Thispaperaimedtoarouseresearchers’attentionandinterestsintothisnewfield,toparticipateinthestudyofthespontane-ousfacialexpressionrecognitionproblemsactively,andtoachievemoresuccessescorrelatedtothisproblem.Keywords:facialexpressionrecognition;spontaneousfacialexpression;featureextraction 表情识别被视为未来情感人机交互的重要技术[1] ,吸引了国内众多高校和科研机构的参与和研究[2~6]。但目前国内 外研究中比较常用的表情数据库中的人脸表情大都固定为正面,任务仅限于识别Ekma提出的六种基本表情(愤怒、高兴、悲伤、惊讶、厌恶和恐惧)。这不仅与实际表情不相符,而且忽视了真实表情中特有的脸部肌肉形变与头部运动之间的时空相关性。谷歌申请的新一代表情识别专利,挤眉弄眼方可解锁手机;荷兰开发的诺达斯(Noldus)面部表情分析系统是世界上第一个商业化开发的面部表情自动分析工具,用户使用该系统能够客观地评估个人的情绪变化,可以跟踪人的表情变化。但二者均要求测试者的头姿基本保持不动,实时连续头姿估计阻碍了其在手机等智能终端领域的应用。因此,面向实际应用的 非正面表情识别研究在国内外日益受到重视[7,8] 。 近十几年来,开展自发表情识别研究的机构主要有美国的加利福尼亚大学、卡耐基梅隆大学机器人研究所、匹兹堡大学心理学系,伊利诺伊大学、沃森研究中心、贝克曼研究所、伦斯勒理工学院、麻省理工大学媒体实验室、丹佛大学、德克萨斯大学计算机视觉研究中心、新泽西技术学院、芬兰的奥卢大学计算机科学与工程系机器视觉组、荷兰的阿姆斯特丹大学信息学院、澳大利亚的昆士兰科技大学科学与工程学院、加拿大的麦吉尔大学、日本的庆应义塾大学、爱尔兰的爱尔兰国立大学计算机视觉和成像实验室,中国的清华大学和中国科学技术大学等已经有人做了大量工作。目前该领域比较重要的国际会议包括计算机视觉与模式识别会议(InternationalConferenceonComputerVisionandPatternRecognition,CVPR)、模式识别会议 (InternationalConferenceonPatternRecognition,ICPR)、人脸与姿态自动识别会议(InternationalConferenceonAutomaticFaceGestureRecognition,FGR)。关于非正面表情识别的研究文章 逐年增多,但国内还只是刚开始涉足该领域的研究[9] ,一些非 正面表情识别中的关键技术尚有待突破。但总的来说,对目前自发表情识别的研究和探索还处于初级阶段,对自发表情识别的研究还需要研究人员共同的努力。本文介绍了常用的自发表情数据库以及自发表情识别关键技术研究进展。 1 自发表情数据库 1)USTC-NVIE数据库 USTC-NVIE(naturalvisibleandinfraredfacialexpressions) 数据库[10] 是由中国科学技术大学安徽省计算与通讯软件重点 实验室建立的一个大规模的视频诱发的集自发表情和人为表情的可见光和红外自发表情数据库。其中自发表情库由自发的表情序列和夸张帧组成,人为表情库仅由中性帧和夸张帧组成。该表情数据库包含年龄在17~31周岁的215名被试者的自发和人为的六种表情。 2)VAM数据库 VAM数据库[11] 采用的是以参加电视访谈节目(TVtalk show)的方式诱发的自发表情数据库,记录了节目中年龄在16~69周岁的6位男嘉宾和14位女嘉宾总共20位嘉宾的面部表情和语音信息。该数据集由834名评估者使用两种方式进行评估:a)采用Ekman的六种基本表情类别进行标注;b) 第33卷第1期2016年1月 计算机应用研究 ApplicationResearchofComputersVol.33No.1Jan.2016

表情识别技术综述

表情识别技术综述 摘要:表情识别作为一种人机交互的方式,成为研究的热点。基于对表情识别的基本分析,文章重点介绍了面部表情识别的国内外研究情况和面部表情特征的提取方法。 关键词:表情识别;特征提取;表情分类。 前言:进入21世纪,随着计算机技术和人工智能技术及其相关学科的迅猛发展,整个社会的自动化程度不断提高,人们对类似于人和人交流方式的人机交互的需求日益强烈。计算机和机器人如果能够像人类那样具有理解和表达情感的能力,将从根本上改变人与计算机之间的关系,使计算机能够更好地为人类服务。表情识别是情感理解的基础,是计算机理解人们情感的前提,也是人们探索和理解智能的有效途径。如果实现计算机对人脸表情的理解与识别将从根本上改变人与计算机的关系,这将对未来人机交互领域产生重大的意义。 正文:一、面部表情识别的国内外研究情况 面部表情识别技术是近几十年来才逐渐发展起来的,由于面部表情的多样性和复杂性,并且涉及生理学及心理学,表情识别具有较大的难度,因此,与其它生物识别技术如指纹识别、虹膜识别、人脸识别等相比,发展相对较慢,应用还不广泛。但是表情识别对于人机交互却有重要的价值,因此国内外很多研究机构及学者致力于这方面的研究,并己经取得了一定的成果。 进入90年代,对面部表情识别的研究变得非常活跃,吸引了大量的研究人员和基金支持。美国、日本、英国、德国、荷兰、法国等经济发达国家和印度、新加坡都有专门的研究组进行这方面的研究。其中MIT的多媒体实验室的感知计算组、CMu、Ma州大学的计算机视觉实验室、Standford大学、日本城蹊大学、大阪大学、ArR研究所的贡献尤为突出。 国内的清华大学、哈尔滨工业大学、中科院、中国科技大学、南京理工大学、北方交通大学等都有专业人员从事人脸表情识别的研究,并取得了一定的成绩。在1999年的国家自然科学基金中的“和谐人机环境中情感计算理论研究”被列为了重点项目。同时中国科学院自动化所、心理所以及国内众多高校也在这方面取得了一定的进展。2003年,在北京举行了第一届中国情感计算与智能交互学术会议,会议期间集中展示了国内各研究机构近几年来从认知、心理、模式识别、系统集成等多种角度在情感计算领域取得的研究成果,一定程度上弥补了我国这方面的空白。国家“863”计划、“973”项目、国家自然科学基金等也都对人脸表情识别技术的研究提供了项目资助。 二、面部表情特征的提取方法 表情特征提取是表情识别系统中最重要的部分,有效的表情特征提取工作将使识别的性能大大提高,当前的研究工作也大部分是针对表情特征的提取。 目前为止的人脸面部表情特征提取方法大都是从人脸识别的特征提取方法别演变而来,所用到的识别特征主要有:灰度特征、运动特征和频率特征三种阎。灰度特征是从表情图像的灰度值上来处理,利用不同表情有不同灰度值来得到识别的依据。运动特征利用了不同表情情况下人脸的主要表情点的运动信息来进行识别。频域特征主要是利用了表情图像在不同的频率分解下的差别,速度快是其显著特点。在具体的表情识别方法上,分类方向主要有三个:整体识别法和局部识别法、形变提取法和运动提取法、几何特征法和容貌特征法。 整体识别法中,无论是从脸部的变形出发还是从脸部的运动出发,都是将表情人脸作为一个整体来分析,找出各种表情下的图像差别。其中典型的方法有:基于特征脸的主成分分析(prineipalComponentAnalysis,pCA)法、独立分量分析法(Indendent ComPonent Analysis,ICA)、Fisher线性判别法(Fisher’s Linear Discriminants,FLD)、局部特征分析(LoealFeatureAnalysis,LFA)、Fishe诞动法(Fisher^ctions)、隐马尔科夫模型法(HideMarkovModel,HMM)和聚类分析法。

人脸表情识别综述

人脸表情识别综述 一、人脸表情识别技术目前主要的应用领域包括人机交互、安全、机器人制造、医疗、通信和汽车领域等 二、1971年,心理学家Ekman与Friesen的研究最早提出人类有六种主要情感,每种情感以唯一的表情来反映人的一种独特的心理活动。这六种情感被称为基本情感,由愤怒(anger)、高兴(happiness)、悲伤(sadness)、惊讶(surprise)、厌恶(disgust)和恐惧(fear)组成 人脸面部表情运动的描述方法---人脸运动编码系统FACS (Facial Action Coding System),根据面部肌肉的类型和运动特征定义了基本形变单元AU(Action Unit),人脸面部的各种表情最终能分解对应到各个AU上来,分析表情特征信息,就是分析面部AU的变化情况 FACS有两个主要弱点:1.运动单元是纯粹的局部化的空间模板;2.没有时间描述信息,只是一个启发式信息 三、人脸表情识别的过程和方法 1、表情库的建立:目前,研究中比较常用的表情库主要有:美国CMU机器人研究所和心理学系共同建立的 Cohn-Kanade AU-Coded Facial Expression Image Database(简称CKACFEID)人脸表情数据库;日本ATR 建立的日本女性表情数据库(JAFFE),它是研究亚洲人表情的重要测试库 2、表情识别: (1)图像获取:通过摄像头等图像捕捉工具获取静态图像或动态图像序列。 (2)图像预处理:图像的大小和灰度的归一化,头部姿态的矫正,图像分割等。 →目的:改善图像质量,消除噪声,统一图像灰度值及尺寸,为后序特征提取和分类识别打好基础 主要工作→人脸表情识别子区域的分割以及表情图像的归一化处理(尺度归一和灰度归一) (3)特征提取:将点阵转化成更高级别图像表述—如形状、运动、颜色、纹理、空间结构等,在尽可能保证稳定性和识别率的前提下,对庞大的图像数据进行降维处理。 →特征提取的主要方法有:提取几何特征、统计特征、频率域特征和运动特征等 1)采用几何特征进行特征提取主要是对人脸表情的显著特征,如眼睛、眉毛、嘴巴等的位置变化进行定位、测量,确定其大小、距离、形状及相互比例等特征,进行表情识别 优点:减少了输入数据量 缺点:丢失了一些重要的识别和分类信息,结果的精确性不高

实验心理学实验设计方案-表情识别

不同面部表情的识别速度与识别准确性差异研究 一、引言速度—准确性权衡是关系到一切反应时实验信度的基本问题,下面我们将尝试通过一个简单的生活化的实验来展示任务速度和任务准确性之间普遍的权衡关系。在反应时实验中,当被试追求较快的速度时,必然要以牺牲准确性为代价。同样,当被试力求高的准确性时,也必然要以放慢速度为代价。在具体的实验中,被试究竟会如何权衡二者的关系,取决于很多因素。本实验主要探讨不同面部表情(痛苦、微笑、悲哀、快乐)识别速度与准确率是否存在显著差异。 实验假设:不同面部表情的识别速度与识别准确性存在差异 二、实验目的通过实验证明不同面部表情(痛苦、微笑、悲哀、快乐)的识别速度与识别准确性存在差异,本实验旨在研究不同面部表情的识别速度与识别准确性存在差异,通过自编的e-prime 实验程序对四十名被试进行施测。 三、实验仪器与材料 痛苦、微笑、悲哀、快乐的图片(均选自于标准的实验图片库)、电脑、e-prime 程序 四、实验设计 采用单因素完全随机化设计

自变量为不同面部表情、区分为(痛苦、微笑、悲哀、快乐)四种。每个小组只接受一种实验处理,只对一种表情做出反应。 因变量为反应时、准确率,分别是识别的准确率、以及被试对不同面部表情识别的反应时。 五、实验程序 (一)被试构成 采用简单随机抽样,在弘德楼随机选取了几个自习室,共选取了 40 个被试。男女各半,年龄为18-23 岁,随机分为四个小组。 (二)研究工具 在计算机上自编好e-prime 实验程序 (三)实验过程 (1)正式实验前被试要先进行几次类似练习,以熟悉按键反应。 (2)被试坐在电脑前,接受相同的指导语。其指导语为:“在接下 来的一段时间里你将继续进行此类题目的正式作答,请用心作答”。被试按键确认后即开始正式实验、期间不再中断休息。 (3)使用主试自编计算机视觉搜索程序,每帧呈现一副面部表情图 片,每幅图片呈现的间隔时间一致,随机播放图片。每种表情的图片都有10 张,每张呈现2 次,共呈现20 次,所有表情图片共呈现80 次。痛苦按 “1 ”键、微笑按“2”键、悲哀按“3”键、快乐按“4 ”键。 其中第1 小组只对痛苦做反应、2 小组只对微笑做反应、3 小组只对悲哀做反应、4 小组只对快乐做反应。每出现一幅图要求被试按对应的反应键,计算机自动记录反应时间和正确率。

2019年微表情识别-读脸读心考试答案

2019年微表情识别-读脸读心最新满分考试答案 一、单选题(题数:40,共分) 1.愉悦的识别要点包括的表情形态和意义,以下错误的是()A A.瞪眼 B.咧嘴 C.嘴角上扬 D.超乎预期的满足和开心 2. 微表情是指持续时间多长的表情() B A、1/2秒 B、不足1/5秒 C、5秒 D、以上都不对 3. 关于猜测选放的墙的测试哪一项描述是错误的()B A、李博士回应天蝎座,b型血、警号3867问题时目光低视,摇头说我不知道是控制的对抗反应 B、在听到十八岁那年考上了海洋大学出现快速眨眼,点头是思考比对时的真实反应 C、在听到这成为了您神探之路的起点时出现连连点头是高度认同的下意识反应 D、人在接受有效刺激时也能完全控制自己的情绪反应 4. 冻结反应的形态意义哪一项描述是错误的()D A、面部的惊讶 B、肢体的约束 C、呼吸的控制 D、肢体冰冷 5. 有意控制的动作的形态意义哪一项描述是错误的()D A、可以出现在面部表情 B、可以出现在身体动作 C、可以出现在站姿或坐姿 D、可以控制出汗或面部颜色 6. 国内探索微表情应用研究的实战机构不包括哪些()D A、公安机构 B、检察机构 C、安全机构 D、环保机构 7. 反应性行为的形态意义哪一项描述是错误的() D

A、包括副语言行为 B、包括头部反应 C、是难以自主控制的生理反应 D、是可以自主控制的生理反应 8. 关于表达者表达解析哪一项描述是正确的() B A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 9. 爱恨反应的形态意义哪一项描述是错误的() D A、爱的时候会主动亲近对方 B、恨的时候会主动拉开距离 C、身体间的距离,可以体现出人和人之间的心理距离 D、人的内心的喜爱与厌恶是不能从表情动作中表达出来的 10. 保罗·埃克曼研究的微表情主要在哪个领域() C A、身体动作 B、副语言 C、面部表情 D、以上都不对 11. 仰视反应的形态意义哪一项描述是错误的() D A、头和肢体向上是正仰视反应 B、头和肢体向下是负仰视反应 C、有身份地位差异的握手是正或负仰视反应的体现 D、头和肢体远离刺激源 12. 关于松明猜测硬币藏匿手的测试哪一项描述是错误的()D A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 13. 关于这场猜测锁匙位置的测试哪一项描述是错误的() D A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实 C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 14. 关于情绪“干扰点”哪一项描述是错误的() D A、有意控制行为 B、经历带入反应

幼儿表情识别实验报告

幼儿表情识别实验报告 摘要在情绪活动中,人的面部、姿态和语音、语调会发生一系列明显的变化,这些变化因为可被他人直接观察到,往往成为情绪活动的表征,所以统称为“表情”。它包括面部表情、姿态表情和语调表情。面部表情为人际交流提供了丰富的个人信息和社会交往信息。本实验采用了表情指认的范式,探讨学前儿童对于高兴、好奇、伤心、害怕、讨厌和愤怒等6种面部表情的识别特点。结果发现,大中小班的儿童均对于“高兴”和“好奇”等积极情绪的表情识别成绩最好,对于“愤怒”的识别成绩最差,其他消极情绪的识别成绩居于之间。随着年龄增长,儿童对于以上6种基本表情(特别是高兴、好奇和生气)的识别能力也逐渐增强。 关键词学前儿童面部表情识别 1 引言 在情绪活动中,人的面部、体姿和语音、语调会发生一系列明显的变化,例如:面红耳赤、目瞪口呆、手舞足蹈、语无伦次等等。这些变化因为可被他人直接观察到,往往成为情绪活动的表征,所以统称为“表情”。表情是情绪活动所特有的外显表现,是人际交往的重要工具,也是研究情绪的重要客观指标。它包括面部表情、姿态表情和语调表情。其中最引人关注,也是非常重要的表情就是面部表情。(邹巍,2007) 面部表情是指通过眼部肌肉、颜面肌肉和口部肌肉的变化来表现各种情绪状态。面部表情是情绪的发生机制,它是最敏感的情绪发生器,也是显示器。同时,面部表情也可以被定义成面部肌肉的特定运动模式。这些特殊的肌肉和其他肌肉组织不同,并不负责关节运动的功能,而仅仅用来专门承担面部表情的表达任务。表情的独特地位从其生理基础就可见一斑。 面部表情的重要性在于它是人类情绪最为明显的外显形式,是人际交往中传递情绪的主要媒介。面部表情为人际交流提供了一套快捷、有效的符号系统,使得个体情绪不需要依赖言语就能准确地被传递出来。它包含丰富的个人信息和社会交往信息,同时还传达出一些有关人的认知、行为、性情、个性、气质、真实性和心理的信息。当看到不同面孔时,人能轻易地识别同一种表情,这就是所谓的面部表情识别。这种机能,在人类的生存活动和种族演进中具有重要的生物适应价值和社会交际功能。 那么,人类从何时开始能够识别不同的面部表情呢?以往研究发现,婴儿早在3个月时就能区分通过图片呈现的一些基本面部表情的模式,如愉快、悲伤和惊奇等,到 7个月时已能对一些基本积极表情进行表情意义上的归类识别,即可以跨情境、跨面孔地抽取出它们的表情模式(梅冬梅等, 2013)。利用习惯化与去习惯化的实验范式,研究者还发现,10个月大的婴儿可以区分高级分组的积极情绪(快乐+惊奇)与高级分组的消极情绪(愤怒+恐惧)。 关于面部表情模式的研究,贡献较大的是Izard和P. Ekman。他们通过婴儿面部表情提出了特定的基本情绪的面部模式和标定的标准,并从而得出人类基本情绪的类别。Ekman制订了一个以面部肌肉运动成分为基础的情绪测量系统,称为“面部表情编码技术”(FAST)。FAST把面部分为:(1)额-眉区,(2)眼-睑区,(3)鼻颊-口唇区三个部位,以照片为标本确定每一部位的肌肉运动变化,从而提出愉快、惊奇、悲伤、厌恶、愤怒和惧怕六种情绪。Ekman和Frieser又把FAST修改为“面部运动编码系统”(FACS)。FACS是以解剖为基础,标定面部肌肉运动,分辨出和FAST相同的六种情绪。Izard和Dougherty提出了“最大限度辨别面部肌肉运动编码系统”(Max),能辨认兴趣、愉快、惊奇、悲伤、愤怒、厌恶、轻蔑、惧怕和生理不适的痛苦9种基本情绪。

相关文档
相关文档 最新文档