面部表情识别与面孔身份识别的独立加工与交互作用机制

更新时间:2023-05-17 07:13:01 阅读量: 实用文档 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

心理科学进展 2005,13(4):497~516 Advances in Psychological Science

面部表情识别与面孔身份识别的 独立加工与交互作用机制*

汪亚珉

1,2

傅小兰1

(1 中国科学院心理研究所,脑与认知国家重点实验室,北京 100101) (2 中国科学院研究生院,北京 100039)

摘 要 面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。以往诸多研究者都认可并遵循二者分离的原则。但近期研究表明,面部表情识别与面孔身份识别存在交互作用。首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。

关键词 面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。 分类号 B842

面孔识别一直备受研究者关注。20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。自此,面孔识别成为认知科学研究领域中的热点问题之一。

人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情

两者相互独立,互不干扰[2~7]。那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。

在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其

收稿日期:2005-04-24

自然科学基金重点项目(60433030)和面上项目(30270466)、中国科学院心理研究所创新重点项目(0302037)经费支持。

* 本研究得到中国科技部973项目(2002CB312103)、国家

通讯作者:傅小兰,E-mail: fuxl@

497

-498- 心理科学进展 2005年

次,介绍新近提出的分布式人脸知觉神经机制,以及相关的实验证据;最后,从知觉表征及加工阶段的角度,探讨面孔身份识别与面部表情识别之间的交互机制,提出基于自上而下加工的多级整合模型,并展望研究前景。

如图1所示,该模型从信息加工角度区分出图形码,结构码,7类面部识别的信息编码:

身份码,视觉语义码(年龄与性别),姓名码,表情码和面部言语码(唇读或注视方向等)。其中图形码提供光照、纹理(grain)、瑕疵以及表情信息(相当于面部的二维表征,;结构码捕捉区分Marr称之为2.5维表征[8])

不同脸的轮廓信息(相当于面部的三维表征)。Bruce和Young认为,图形码和结构码是面孔识别加工的基础,而其余5种编码则涉及进一步的个体面孔信息的确认。

1 面部表情识别与面孔身份识别的并行双路径加工

1.1 面孔识别功能模型

Bruce和Young基于前人有关人脸识别的研究,于1986年提出了面孔识别功能模

[2]

型(functional model for face recognition)。

图 1 Bruce-Young 经典面孔识别功能模型

引自Bruce V, Young AW. Understanding face recognition. British journal of psychology, 1986, 77: 305~327

面孔识别功能模型从功能角度把面孔

识别划分为两大独立的过程:一是面孔身份

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -499-

识别,主要是识别面孔身份的语义信息,如特定面孔的姓名信息;另一个是面孔分类信息识别,即识别面部的普遍属性信息,包括性别、年龄及表情等。该模型认为,这两类根据这种面孔信息的加工是并行独立的[2,5]。

身份识别与表情识别并行双路径加工观点,表情对面孔身份识别是不重要的,表情只不过是以观察者为中心的描述(viewer-centered descriptions)。

结构码和以观察者为中心的描述均来自Marr提出的物体识别三阶段理论[8]。Marr认为,物体识别有三个阶段:一是初级要素图(primal sketch)阶段,其次是以观察者为中心的描述阶段,最后是以客体为中心的描述(object-centered description)阶段。Young认为,人脸的识别比较特殊,以客体为中心的描述对人脸的识别并不重要,因而在其模型里并不强调这种描述[5]。在面孔识别功能模型中,结构码被设定为后面各路径加工的共同基础,因此,该模型具有一定的层级属性。模型中多路径并行的结构也为解释面孔识别加工提供了较多的灵活性。在后续的大量工作中,功能模型被视为面孔识别研究的基本框架和经典模型,产生了广泛的影响。

1.2 并行双路径加工的行为学依据及其挑战

1.2.1 支持并行双路径加工的实验证据

Bruce用熟悉与不熟悉人的面部表情图片设计了3个快速分类(speeded classification task)实验[3]。实验一要求被试进行表情分类判断,结果发现判断不受熟悉度影响;实验二要求被试进行性别判断,结果发现熟悉度显著影响判断;实验三要求被试判断是原始图片(intact face)还是改动过

的图片(jumbled faces),结果发现熟悉度显著影响这种身份判断。实验结果出现了分离:熟悉度影响身份识别,但并不影响表情判断。这支持功能模型假设,因为这里的熟悉度仅仅是指对面孔身份的熟悉程度,与面部表情的熟悉程度无关,因此,如果面孔身份识别与面部表情识别相互间不独立,那么面孔身份熟悉度在影响面孔身份识别的同时也会影响面部表情识别。

采用同样的分离范式,Young[5]也设计了一系列身份或表情匹配任务实验,考察熟悉度对面孔身份识别与面部表情识别的影响。结果也支持功能模型:面孔身份识别受面孔身份熟悉度的影响,表现为对熟悉面孔的身份识别快于对不熟悉面孔的身份识别,但面部表情的判断不受面孔身份熟悉度的影响。

这种熟悉度不影响面部表情识别的观点还得到重复启动研究的支持。Ellis等[9]用重复启动效应考察了熟悉度判断与面部表情判断,实验中第一阶段让被试看一些面孔图片以熟悉这些图片,第二阶段让被试对熟悉的与不熟悉的面孔图片进行熟悉度、表情及性别判断,结果发现熟悉度判断上出现重复启动效应,而面部表情判断与性别判断上未出现明显的重复启动效应,即熟悉度不影响表情识别,结果支持并行独立路径假设。

Calder和Young[6]用混合范式(即面孔的上下两半分别由不同的身份和/或表情组成)做的实验表明,表情变化不影响身份识别,身份变化也不影响表情识别,这也支持并行独立路径假设。后来,Calder等[7]又用计算机分析的方法,对人脸灰度图片进行像素主成分分析,结果发现编码表情信息的主成分与编码身份信息的主成分不同,彼此之

-500- 心理科学进展 2005年

间是独立的,这为面部表情识别与面孔身份识别的并行独立加工假设提供了物理特征的基础。此外,Deruelle等[10]比较了成人与儿童识别面孔身份与识别面部情绪时所使用的空间频率之间的差异,也认为面孔身份识别独立于表情识别和性别识别。 1.2.2 质疑并行双路径加工的实验发现

在大量研究支持功能模型假设的同时,也有一些研究质疑功能模型假设。Endo等[11]给被试呈现熟悉与不熟悉的三种不同表情(中性,快乐,愤怒)的面部图片,让被试进行面孔熟悉度判断,记录反应时。结果发现,在识别熟悉面孔图片时,被试对无表情面孔(中性)的熟悉度判断快于对表情面孔(快乐或愤怒)的熟悉度判断。Endo等接着给被试呈现名人的中性或快乐面孔图片,结果发现,对快乐面孔的熟悉度判断要快于对中性面孔的熟悉度判断。Endo等的结果表明面部表情影响熟悉度判断,进而质疑并行独立路径假设。

Sansone和Tiberghien[12]也报道了一个面部表情效应的研究:被试首先通过观看图片以熟悉这些图片,然后进行测试。实验分为两种条件:一种是单编码条件,给被试看5遍同一张带表情的图片;另一种是混合编码条件,给被试前4次看同一张带表情的图片,第5次给被试看同一面孔身份但表情与前面4张不同的图片。看完图片后进行测试,测试时给被试呈现一个与前面学习过的图片表情不同而身份相同的图片,考察再认率。结果发现,单编码条件下的正确识别率要明显低于混合编码条件,说明表情影响身份识别。

表情效应似乎对熟悉面孔比较敏感。最近,Kaufmann等[13]用熟悉与不熟悉面孔的

快乐与愤怒表情图片作为目标情绪,用计算机拟合出连续变换的情绪图片,让被试根据熟悉度进行快速分类。结果发现,表情不影响对不熟悉脸的分类,却影响对熟悉脸的分类,当表情为适度快乐时分类速度最快。这表明表情对面孔熟悉度有影响。

比较争执双方的实验证据可以发现,Bruce[3]和Young[5]只是让被试做面孔身份或面部表情判断,并没有让被试对熟悉度进行判断以考察表情的作用,所以未能发现表情对身份识别的影响。若采用不同的判断任务,会得到不同的研究结果,相关研究已证实了这一点。例如,Baudouin等[14]用名人与一般人的微笑与中性表情脸进行著名程度、熟悉度分类测试,结果发现微笑提高了对面部熟悉度的评价;Baudouin等[15]设计的面部表情与面孔身份的分类任务实验发现,身份变量影响表情分类,而表情变量不影响身份分类。实际上,熟悉度不能简单等同于面孔身份的熟悉程度,熟悉面孔的表情也有熟悉度问题。换句话说,熟悉度与面孔身份、面部表情识别之间存在复杂的交互作用。面孔身份Schweinberger等[16,17]的研究发现,识别与面部表情识别间具有一种不对称的干扰关系,即面孔身份信息对面部表情识别的影响易显现出来,而面部表情信息对面孔身份识别的干扰则较难表现出来。

其实,在Bruce 与 Young提出的熟悉度影响面孔识别的研究范式中,三个重要变量(面孔身份、熟悉度与面部表情)之间的关系并不是简单划一的,相对而言,只有面孔身份与熟悉度之间的关系比较明确,而表情与面孔身份以及表情与熟悉度间的关系还受其他一些因素的影响。例如,表情有正性与负性之分,而正性与负性情绪对认知有

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -501-

不同的影响,它们在情绪评价中甚至不处于而表情识别与熟悉度间的交同一个维度[18]。

互更是具有多重性:熟悉面孔的表情可能具有或表现出独特的表达模式,而人们对不同表情的反应本身也会有快、慢反应通道之别

[19]

度,面孔身份的区分度明显更大一些。

Ganel等[20]进而提出了面孔身份识别与面部表情识别的结构参照假说(structural reference hypothesis),假设一个面孔的潜在结构(the underlying structure of a particular face)将决定该面孔会以什么样的特殊方式表达情绪。基于这一假说可做出以下两个推论:因为身份比表情更容易区分,所以身份识别(计算)应该快于表情识别;熟悉度是身份与表情的交互中介,面孔的熟悉度会影响Garner效应,即相对于不熟悉的面孔,熟悉面孔的Garner效应更大。这两个推论得到实验结果的支持[20]。需要指出的是,虽然区分度与典型性能较好地解释熟悉度在面孔身份识别与面部表情识别中的作用,但由于潜在结构这一概念本身比较抽象,潜在结构与面孔身份识别与面部表情识别两者间的关系似乎并不明确。

人脸识别的特殊性就在于它受众多因素的影响。若单纯比较差异,人脸之间的差异甚至可能比我们见到的物体类别内的差异还小,因此,像熟悉度、区分度及典型性这些变量在人脸识别中都有重要的作用。Ganel等人在研究中提出的结构参照假说中的结构,更像是熟悉度、区分度及典型性交互的共同基础。从这一点看,潜在结构假说比Bruce和Young仅仅强调熟悉度这一个变量更为全面,对身份识别与表情识别关系的解释也更强调交互性。此外,按照经典功能模型的划分,不仅存在表情识别与身份识别的并行加工路径,而且存在面孔身份识别与分类特征的识别的并行加工路径,因为性别与表情都属于面部分类特征,所以性别识别但是,有关与身份识别也是并行加工的[2,5]。

性别识别与身份识别间关系的研究结果也

。因此,用熟悉度来检验面孔身份识别与

面部表情识别的并行独立假说是否恰当有待商榷。

1.2.3 交互加工与结构参照假说

虽然一些实验证明了表情对熟悉度判断的影响,但直接证明表情影响面孔身份识别的研究还很罕见。系统考察表情对面孔身份识别的影响是分析表情识别与身份识别之间独立与交互加工的重要依据。

Ganel等[20]以Garner效应作为测量指标,考察了面孔身份识别与面部表情识别之间的交互作用。Garner效应是Garner提出的研究两个维量之间交互干扰程度的一种测量指标,经典的Garner实验范式包括两个实验组段,考察两个维量之间的交互影响

[20~22]

。在面孔身份与表情识别的交互影响实

验中,典型的Garner任务设计是:在组段一中要求被试只根据一个维量(如表情)进行快速分类作业而另外一个维量(如身份)保持恒定(称为基线组段),而在组段二中要求被试同样根据维量一进行快速分类但维量二则是变化的(称为过虑组段),分别记录两个组段中的反应时成绩,然后以两个组段中被试的平均反应时成绩差作为维量二对维量一的干扰效应量。Ganel等的实验结果验证了面孔身份对表情识别的干扰以及面部表情对面孔身份识别的干扰,并用面孔的区分度(discriminability)及典型性(typicality)解释了表情对面孔身份识别的干扰效应较弱的原因:相对于表情的区分

-502- 心理科学进展 2005年

不支持经典功能模型[23]。因此,经典功能模型关于面孔身份与面部分类信息识别二者并行独立加工的假设,面临着巨大的挑战。 1.3 并行双路径加工的神经心理学事实及其局限性

如果说行为学研究尚不足以证实面孔身份识别与面部表情识别的并行双路径加工的观点,那么神经心理学研究似乎提供了更重要的证据。最为典型的是面孔失认症(prosopagnosia或agnosia)与杏仁核受损伤病人表现出的面孔识别机能的选择性受损:前者表现为不能识别熟悉人的面孔身份,但可保留对面部情绪线索的识别;后者则表现为不能识别面部的一些表情,但能识别面孔身份(相关研究的综述见下面)。这些病人的症状都是特定的大脑皮层区域受损引起的,这种限定性大脑皮层区域损伤引起机能的选择性丧失证明了面孔身份识别与面部表情识别在机能上可分离,而这种机能上的分离提示这两种加工可能存在相互独立的脑神经通路。如果能确认存在相互独立的脑神经通路,那么并行双路径加工假设就得到强有力的证明。

1.3.1 失认症病人的研究

研究者用失认症病人进行了大量的面孔识别研究。失认症主要分为知觉性失认(apperceptive agnosias)与关联性失认(associative agnosias)两大类,前者被认为是视知觉受损导致失认,而后者则被认为是视知觉正常但相应的知识关联受损导致失认[4,24~26]。就已有的案例而言,[24,27]大多数失认症病人是面孔身份识别与面部表情识别均受损,只有少数出现面孔身份识别与面部表情识别受损的分离;在面孔身份识别受损的病人中,有些还会伴有物体识别能力的

受损。

失认症病人面孔识别的这种选择性受损,预示着面孔身份识别与面部表情识别之间可能存在相互独立的脑神经通路。有关正常被试的脑皮层诱发电位研究发现,N170脑电成分可能是面孔身份识别的特有成分,而N400附近的负波成分则与表情识别有关

[28~32]

。但是,N170是否就是面孔身份识别

的特异反应,目前尚存在争议[31]。

为了进一步探讨失认症病人的这种面孔身份识别与面部表情识别的分离受损情况,Ellis等[33]将失认症病人与另外一种Capgras错觉症(Capgras delusion)病人进行了对照研究。Capgras错觉症病人的症状表现为,怀疑自己身边的亲人被人冒充。虽然这些病人视觉正常,但总认为身边的亲人不是原来的亲人,不能认同,不过病人能从声音或其它信息上正常识别身边的人。Ellis等经过分析认为,这类病人在对面孔进行识别时,其外显层面的视知觉正常,但是其内隐层面的识别能力丧失,因而当外显层面正确识别之后得不到内隐层面的验证,就会被个体的合理化认知防御策略解释为替换。

对照分析失认症病人,Ellis等认为,失认症病人损伤情况正好与Capgras 错觉症病人相反:面孔识别的外显层面受损,表现为身份识别不能,但其内隐层面识别正常(自主神经系统对熟悉面孔的识认反应正常)。为证明这种推测,Ellis等对这两类病人的自主神经系统(皮肤电测量)及脑诱发电位反应进行了测试,结果支持上述推测。据此,Ellis等认为熟悉面孔的识别应该包含两个过程,一是外显的视知觉辨认过程,另一个是内隐的情绪性信息的匹配确认过程。当外显辨认过程受到损伤就形成失认症,而

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -503-

当内隐的情绪性确认过程损伤,即形成Capgras错觉症。根据这一划分,Ellis对经典的功能模型进行了修改(见图2)。

从模型中可以看出,熟悉面孔的身份识别过程需要获取情绪性反应信息,如果这里的情绪性反应信息与面部表情识别中涉及的情绪性反应信息是来自相同的情绪反应

系统,那么面孔身份识别与表情识别就不应该是完全独立的加工路径,它们之间必须要有信息的交流,这样面孔身份识别与情绪性反应之间才能形成完整的反馈环路。如果这两类情绪性信息来自不同的情绪反应系统,那么就面临以下问题:这两种情绪性反应有什么不同?为什么会有这种不同?

图2 Ellis的面孔失认症与capagras错觉症病人视觉受损模型

来源:Ellis HD, Lewis MB. Capgras delusion: a window on face recognition. Trends in Cognitive Sciences, 2001, 5(4): 149~156

1.3.2 杏仁核损伤病人的研究

杏仁核损伤病人是面部识别研究的另外一类重要临床对象,这类病人大多出现不同程度的负性面部表情识别困难。有关这方面的研究很多,Posamentier等[34]综述过3个最有代表性的案例研究:第一个是Adolphs等[35,36]关于SM的研究。SM是个三十多岁Urbach-Wiethe病人,疾病导致其双侧杏仁核灰化与萎缩,SM经常把恐惧表情评价为惊奇与愤怒,而且把高强度情绪评价为很弱的情绪。相对于正常者,SM不能解释情绪之间的相似与混合,不能画出恐惧的面部表情,但知道语词概念的恐惧。SM不

能正常识别表情,但能正常识别面孔,所以Adolphs认为杏仁核的作用是连接表情的视觉表征与情绪的概念表征。Adolphs等[37]对SM的进一步研究表明,恐惧表情识别困难与被试不能主动地注视眼睛部位有关。据此,Adophs认为杏仁核与这种注意集中调节有关。

第二个案例是Young等[38]关于DR的研究。DR左侧杏仁核大范围损伤与右侧杏仁核小范围损伤,虽然表情识别严重受损,但不熟悉人的面孔匹配能力正常,可是当面孔匹配中两面孔身份相同而表情不同时,DR就会错认为是两个不同的人。与SM一样,

-504- 心理科学进展 2005年

知道语义概念的情绪。

第三个案例是Anderson和Phelps[39]关于SP的研究。SP右杏仁核摘除,左杏仁核受损,右颞叶切除,面孔身份识别正常,并能识别面部年龄与性别,但恐惧、恶心与伤心表情识别评价受损,快乐表情评价略微受损,愤怒与惊奇的评价完好,情绪的语义概念与前两位一样,完好无损,SP不能识别恐惧表情但能表达恐惧表情。

由上述三个案例可以发现,杏仁核受损表现为面部表情识别受损,但面孔身份识别正常。这一结果在其他病人身上也得到验证

[40]

损,因而就有学者提出失认症导致的是一种亚范畴内专家水平分类能力受损(deficits in within-category discrimination),而不是所谓的特异性面孔身份识别能力受损[43~45]。

综上所述,尽管神经心理学研究对并行双路径加工的验证还有待进一步的探讨与确认,但有一点是肯定的,即:神经心理学研究给出了两系统机能可分离的事实,然而这种机能分离未必能证明加工路径上的分离。

1.4 面部表情识别与面孔身份识别的特异性脑区

神经心理学的研究未能确认面孔身份识别与面部表情识别的并行独立加工假说,但却提示存在相应的脑皮层区域。如果面孔身份识别与表情识别确实是并行独立的加工路径,那么面孔身份识别与面部表情识别就存在不同的脑神经通路,如果能证实,那就能确认面孔身份识别与面部表情识别是并行独立的加工机制。为此研究者利用各种认知神经科学的技术手段进行了研究。要证明面孔身份识别与面部表情识别之间的并行加工路径假说,从认知神经科学研究的方法上来看有两种可行的方式:一是证明确实存在独立的,区分面孔身份识别与面部表情识别的大脑皮层区域;二是验证时间上/形态上独立区分的生理信号。对应于这两种可行的方式,研究者们分别采用了脑成像与电生理的技术手段进行了相关研究。有关结果简述如下,详情请参阅徐岩等[46]以及张伟伟等

[47]

。这种分离受损可能正如Adolphs所解释

的那样,杏仁核受损伤导致情绪的视觉表征与概念表征之间不能匹配。这里的视觉表征与概念表征之间不能匹配,与前面的关联性失认症病人的失认原因有很强的可比性,都是视知觉正常,但视知觉与相关知识表征的关联失败。

然而,研究中也有一些例外。Hamann两个双侧杏仁核受损的病人等[41]研究发现,

(一个73岁,另一个59岁,两者均在50岁后因单纯疱疹脑炎导致双侧杏仁受损)并未表现出表情识别受损,而研究中用的测试材料与测试SM的一样。Adolphs等[42]也报道了同样的病例。这说明面孔身份识别与表情识别的神经机制可能是多区域的,单纯的局部脑皮层区反应差异未必能说明面孔身份识别与表情识别的分离。

脑损伤病人的损伤区域多半不局限于某个特定的机能区,所以很难确切地验证到底是哪一个具体机能区域受到损伤,这也可能是研究结果出现多样性的原因。另外,相同的损伤区域也可能与多种机能相关,比如有的失认症病人也表现出对物体识别的受

的综述。

利用精确的神经元定位的研究手段,

Hasselmo等[48]考察了短尾猴颞视皮质区对面孔特异反应的神经元,结果发现对表情反应的神经元在颞上沟(superior temporal

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -505-

sulcus, STS),而对身份反应的神经元在颞下回。这是最早提出面孔身份识别与面部表情识别对应不同脑皮层区域的研究。

接着,在人类被试身上,有关面孔身份识别与面部表情识别的脑皮层特异区域最经典的研究是Kanwisher等[49]做的fMRI研究,研究中他们发现右侧梭状回对面部(相对于物体)有强烈激活,因而认为梭状回(fusiform gyrus)在面孔身份识别中有重要的作用,为表示此区对面孔反应的特异性,他们把此区称为梭状回面孔区(Fusiform Face Area, FFA),这就是后来被广泛沿用的面孔身份识别的FFA区。在FFA提出之后,Kanwisher研究小组又设计了一系列实验,系统地考察了FFA对人脸、动物脸、动画脸、物体以及注意朝向与投入、面孔倒置等的区别反应,结果验证了这种FFA的激活是面孔而STS与表情识别之身份特异反应区[50,51]。

间的关系也得到相关研究的支持[34,52]。

利用脑诱发电位技术,Bentin研究小组研究[30,32,53]发现,N170与面部识别相关联,N400附近有一个明显的负波,被认为与表情识别关联。Allison等 [29]在一个严重的失认症病人身上的实验也发现,正常组对面孔产生一个增强的N170(相对于房子)而病人组却没有出现这种区分。

综合上述研究结果可以看到,脑成像研究能够支持面孔身份识别与面部表情识别存在特异性脑区,同时,脑诱发电位研究也基本发现了为面孔身份识别与面部表情识别相区分的诱发电位成分。如果进一步的研究事实能确认这些发现,那么就有理由认为面孔身份识别与面部表情识别之间是一种并行独立加工机制。

1.5 面孔识别的脑区特异性与亚范畴内专

家水平分类的普遍性

在面孔身份与面部表情识别的特异性脑区提出后,研究者分别从各个角度对此进行了验证,其中有不少研究对这种特异性脑区提出疑问,相关研究情况简述如下,详细报道请参阅徐岩等[46]以及张伟伟等[47]的综述。

Kreiman等[54]的研究发现,位于颞上皮质(IT)的单个细胞具有视觉刺激的选择性激活,但是这种细胞选择性激活也可以在后来的视觉辨别训练中出现,可见神经元的激活反应与经验有很大的关系。尽管不少研究证明FFA与STS的存在[34,49~52],但还是不能排除亚范畴内专家水平分类(within category discriminating)的嫌疑,即这种脑区激活代表的只是一般性的物体类别内区分不同个体的一种经验,而不只是面孔识别的独有经验[43~45]。这一结论与Kanwisher研究组提出的FFA结论[49~51]正好相反。亚范畴内专家水平分类(within category discriminating)的结论也得到来自孤独症病人研究的支持[55, 56]。

面孔识别是否存在特异性脑区,神经心理学、认知神经科学的研究均无法确凿地回答,面孔身份识别与面部表情识别是否只是一种亚范畴内专家水平分类经验尚难确定

[43~57]

。正如Grand等[58]在先天白内障患者身

上所发现的那样,白内障导致患者的早期视觉发展受阻,引起后来面孔识别的轮廓加工受损,但对物体(几何图形)的轮廓加工并未受到损害。可见,面孔识别即使有特异性脑区,这一脑区似乎也不是先天就形成而更可能与后天的经验有很大关系[57]。 1.6 小结

面孔身份识别与面 以上这些研究表明,

-506- 心理科学进展 2005年

部表情识别在机能上的可分离是事实,但神经机制以及心理加工路径上的独立仍然缺乏切实的证据。行为学研究的结果并未能一致确认并行双路径加工机制,而是倾向于认为这两者之间是一种交互作用;神经心理学虽然提供了机能上分离受损的事实,但相应皮层区域损伤导致不一致的机能损伤却也是事实;认知神经科学的研究表明所谓的面孔身份识别与面部表情识别的特异性脑区也只是相对的,可能与专家经验(expertise)相关联。以上这些研究一致性地表明,完全并行独立的加工路径不能解释所有的研究结果,局部的交互与反馈是并行独立模型的必要补充。

孔识别的相关脑区,发现总共有6个皮层区域显著地与面孔识别相关:腹颞皮质的梭中回(medial fusiform gyri),外侧梭状回(lateral fusiform gyri),颞下回(inferior temporal gyri);腹枕皮质的后梭状回(posterior fusiform gyri),枕下回(inferior occipital gyri),枕中回(mid-occipital gyri)。面部表情识别则明显包括两大区域,颞下皮质与杏仁核。这种广泛的皮层区域激活用面孔识别特异区的观点难以解释。

Ganel等[60]最近设计的fMRI研究也表明,FFA区域并不是过去所认为的那样只是面孔身份识别的专门区域而不是表情识别的相应区域。当给被试看同一系列表情图片时,两组被试一组要求注意面孔身份识别,另一组要求注意表情,结果是要求注意表情的那一组FFA高度激活。可见,面部表情刺激可以激活面孔身份识别对应的脑区,支持面孔识别的多区域协同工作观。

面孔识别的脑皮层区域相对性在临床病人的研究中也得到验证。Marotta等[61] 使用fMRI技术对两个失认症病人进行研究发现:相对于正常组,病人组在面孔身份识别时出现很强烈的梭状回尾端激活,而梭状回一直被认为是面孔身份识别的特异大脑区域,研究者因此认为,这种尾端激活可能就是正常梭状回受损伤后的一种补偿。这一研究结果也说明,面孔识别的皮层区域并不是绝对不变的,当所谓的特定区域受损伤后,其它区域仍然可以形成相应的机能补偿,支持多区域协同工作的观点。

Hadjikhani等[62]利用fMRI技术对三个失认症病人的研究发现,虽然病人组在实验中并没有显示出梭状回中部(mid-fusiform gyrus)与枕下回对面孔的激活高于对房子的

2 人脸知觉的分布式神经机制对表情与身份识别的解释

虽然失认症及杏仁核受损伤病人的机能损伤能为面孔身份识别与表情识别的并行路径假设提供依据,但仍然不能确认,更无法支持表情信息对面孔身份识别无关紧要的观点。行为学实验发现的表情对面孔身份识别的影响难以在并行分离假设中得到解释,神经心理学的证据只能从脑皮层的机能区域上来说明问题,而无法真正从神经机制上找到完全区分的加工路径。绝对的并行独立路径假设不能很好地解释已有实验事实,而绝对的单一路径也说明不了各方面的实验事实。随着相关研究结果不断积累,越来越多的研究者似乎更加赞同这两者之间是一种分布式交互机制。

2.1 面孔身份与面部表情识别的脑皮层多区域激活

面孔身份识别的脑皮层特异区难以确定的另外一个重要原因是识别本身可激活多个相关脑皮层区域。Ishai等[59]总结过面

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -507-

激活,但是三名被试在面孔侦察任务中却表现正常,这说明,公认的梭状回面孔区可能只是对应于面孔身份识别的部分认知加工过程,面孔身份识别整个过程涉及的可能是多个皮层区域。同样的结论也得到Adolphs等[42]的研究支持。

从上面的这些研究可以看出,面孔身份与面部表情识别的特异区只是相对的,面孔身份识别涉及多个皮层区域,即使是普遍认同的梭状回面孔区也会在面部表情识别中被激活,而面部表情识别更是明显地涉及颞下皮质与杏仁核两大区域。单一的皮层特异区似乎很难解释已有的实验结果,多皮层区域的协同工作更符合实际情况。 2.2 人脸知觉的分布式神经模型

Gauthier等与Kanwisher等的研究得出相反的结论,面孔身份与面部表情识别的特异性脑区假说难以解释这种不一致的结果。越来越多的实验证明,面孔身份与面部表情识别是多皮层区域共同完成。Haxby等[63~65]

在总结相关脑成像及脑诱发电位研究的基础上,提出人脸知觉的分布式神经模型。如图3所示,该模型把面部信息明确地分为两大类:可变的与不变的。面孔身份信息属于不变信息,面部表情信息属于可变信息。有关该模型的详细介绍请参阅徐岩等[46]以及张伟伟等[47]的综述。

该模型的最大的一个特点是协同分布加工,所以模型中的各不同区域在功能上的分离是不确定的。例如,梭状回面孔区就可能会在表情的识别中起作用,因为某个个体可能就会出现独特的表情特征;扩展系统中的杏仁核同样也可能会参与面部的视觉分析。这种分布式特征在模型上已经直接体现出来,就表情识别来看,从核心系统到扩展系统涉及多个皮层区域的参与,以完成表情的视觉分析,表征及意义的提取。

与经典功能模型相比,分布式神经模型强调功能完成过程中神经系统的协同工作,因而面部表情与面孔身份识别在这一模型

图 3 面孔识别的分布式神经模型

来源:Haxby J V, Hoffman E A, Gobbini M I. The distributed human neural system for face perception. Trends in Cognitive Sciences,

2000, 4(6): 223~233

-508- 心理科学进展 2005年

的解释中就不像经典功能模型那样强调并行独立加工。分布式神经模型认为,表情与身份的识别加工在表征上有信息的交流,在进一步的加工中也会有信息上的交互。虽然模型认为表情识别与身份识别都是多区域协同完成,但总体上两者在主要脑皮层加工区域上是有区分的。就认知过程的分析上看,分布式神经模型继承了经典功能模型中关于分类信息与身份信息的区分加工而提出不变与可变信息的区分。实际上,这种两类信息的区分也是经典功能模型中得到最多支持的部分[66]。

分布式神经模型的这种协同加工观点在解释神经心理学的研究结果上也很有用。本文前面在介绍Capgras错觉症研究时曾提出过一个问题,即面孔身份识别中的情绪性反应与面部表情识别中情绪性反应涉及的情绪性知识是否同源。根据分布式观点,这两种情绪性反应都是由同一个情绪反应机制来调节,这种调节表现为一种分布式机制。

分布式神经模型虽然有很多的优点,但它也仍然不是完美的。就像Haxby自己所指出的,它仍然不能令人满意地回答下述一些基本问题:枕下回到底在面孔识别表征中扮演什么样的角色?颞上沟中注视、表情与唇部动作诱发的神经模式是否相同?面部的可变与不可变信息加工的时间进程到底是怎样的?而且,分布式观点在模型中体现得不是很明确,面孔的可变与不变信息的划分也相对简单,难以解释面孔身份与面部表情识别之间的分布式交互。

好地解释面孔身份识别与面部表情识别的脑皮层区域特异性,但它对一些基本问题仍然难以回答:面孔身份识别与面部表情识别在信息表征上如何区分?面孔身份与面部表情加工的时间进程如何?

3.1 面部表情识别与面孔身份识别在信息表征上的区分

面孔身份与面部表情识别在信息表征上的区分对理解两者之间的关系颇为重要,为此,不少的研究者进行了富有创见的探讨。Vuilleumier等[67]使用两种不同空间频率的面孔图片(中性图片与恐惧表情图片)设计了性别判断任务,结果从脑成像的数据中发现:杏仁核在高空间频率条件下对恐惧的面部表情没有反应,而梭状区在高空间频率下对表情面孔或中性面孔的反应都显著地高于在低空间频率下的反应,但低空间频率下的恐惧表情图片对梭状区也在显著地激活。考虑到不同的空间频率过滤本身可能导致恐惧程度的主观评价改变,实验者请了另外一组被试评定两种条件下使用的恐惧图片的恐惧水平,结果发现,高空间频率下的恐惧程度甚至还高于低空间频率下的恐惧程度。这一结果说明,低空间频率与表情识别有关,而高空间频率与面孔身份的识别有关。此外,梭状区似乎是不仅对高频率空间信息作反应而且对低空间频率也会做出反应。从结论可以看出,在视觉的信息表征上,表情识别与面孔身份识别之间相互区分,当然这种区分只是相对的,它们之间也可能大量地相互重叠,尤其是面孔身份识别在低频率空间信息上也能进行。信息表征上的这种区分与关联使得交互分布的加工机制成为可能:表情信息的传递主要依赖于低频空间

3 多级知觉整合模型

虽然人脸知觉的分布式神经模型能较

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -509-

信息,而面孔身份信息的传递则主要依赖于高频信息,两者在进一步的加工中相互有着信息的交流。

在另一个研究中,White等[68]用原始面孔图片(positive picture)与该图片相应的底片(negative picture)进行面孔身份或表情识别实验,结果发现,身份识别上的底片效应(反色显示对识别的影响)明显大于表情识别上的底片效应。后来,White等[69]用轮廓(configural)改变(图片中的双眼上移)与范畴(categorical)改变(图片中一只眼睛上移)范式研究了面孔身份识别与表情识别,结果发现,在面孔匹配反应时上轮廓改变比范畴改变大,但在表情匹配反应上正好相反。这说明面孔身份识别更多受轮廓改变影响,而表情识别更多受范畴改变影响。

在White的第一个研究中,研究者们认为,面孔身份识别主要利用基于表面的信息而面部表情识别(surface-based information),

则主要利用基于边缘的信息(edge-based information),使用图片底片技术改变的更多的是基于表面的信息,因而对身份识别影响较大。结合White的第二个研究以及vuilleumier的研究可以发现,低空间频率似乎更多地传递的是范畴信息而高空间频率更多地传递的是轮廓信息,轮廓信息更多地与身份识别相关而范畴信息更多地与表情识别相关。轮廓信息主要是基于表面的描述,而范畴信息则主要是基于边缘的描述。实际上,在高空间频率图片中,边缘对比增强使得无关的噪音信息相对增加,而低空间频率图片中,基于表面描述的信息很多丧失但主要范畴的信息相对较少丧失,所以,高空间频率图片较少影响身份识别,而低空间频率图片较少影响表情识别。最近,Goffaux

低空间频率的面孔图片进行了等[70]也用高、

面孔匹配实验,先给被试呈现一个靶面孔图片,然后呈现两个备选的探测项:一个匹配项和一个干扰项。干扰项包括轮廓改变的面孔与特征改变的面孔,轮廓改变的面孔(configural difference face)是由原来面孔中的两眼移近或移离鼻子做成,特征变化面孔(featural difference face)是由原来面孔中的某一只眼睛被换成另外一个人的眼睛做成。实验结果发现,在低空间频率条件下,干扰项是轮廓变化脸的那一组成绩好;而在高空间频率条件下,干扰项是特征变化脸的那一组成绩好,这里的特征改变与轮廓改变与White实验中的范畴改变与轮廓改变相对应。综合以上4个研究可以发现,高空间频率与轮廓信息相关,对面孔身份识别重要;低空间频率与范畴信息相关,对面部表情识别重要。

以上的这些研究足以说明身份识别与表情识别在信息表征上的区分,这种区分是后来两类信息(面孔身份与面部表情)区分加工的基础。当然,这种表征上的区分只是相对的,就像Vuilleumier等[65]发现的那样,低频空间信息在面孔身份识别中也起到重要作用。面孔信息的表征既是区分的又是相对连续的,正如Marr和Nishihara(1978,(转引自Young, 1998)[5]所言:识别1982)

物体的表征系统必然是基于一个交互的系列描述,这种描述是对应于不同的精细水平的(the representational system used for recognizing objects must be based on an interlinked set of descriptions at different levels of detail)。 3.2 多级整合模型

关于第二个问题的回答涉及基本的知

-510- 心理科学进展 2005年

觉加工阶段,尤其是知觉的早期阶段。面孔识别加工是否一开始就进行身份与表情区分的表征加工呢?身份与表情信息在后续的加工中是否会有顺序选择呢?为此,研究者们一直想从高时间分辨的脑电成分上寻找答案。Bentin等[30,32]进行了一系列面孔识别的脑电研究,结果认为,面孔身份识别加工集中体现在N170成分上,而有关表情等分类信息的加工则体现在N400附近的成分上。

Liu等[71]用MEG技术研究了人脸的早期知觉加工,结果发现M100是早期反映分类识别的信号(是不是人脸),而不是过去认为的M170是反映早期识别的信号。并且,进一步研究表明,当要求进行身份识别时,出现M170。可见,M100是更为早期的分类识别(what)而M170才是身份识别。至于N400成分与表情之间的关系,相关研究结论一致性较低,成分划分范围从N400~N600[30,32,53]。

早期知觉加工与后来的面孔身份或面部表情信息加工在阶段上的区分也得到动物实验结果的支持。Sugase等[72]在短尾猴颞下皮质,包括STS区,记录了单个神经元对猴和人的不同面部表情图片的反应,发现同一神经元以点火模式(潜伏期)区分出两种信息传递,一是整体信息传递(即区分是什么,猴脸/人脸/几何图形),另一是精细信息(晚于第一信息51ms,主要涉及面孔身份及表情的识别)传递,有理由认为整体信息可能是一个导航信息,为特定区域来识别更为精细的信息做准备。从这个实验结果可以看出,在面孔身份与表情信息加工之前确实存在一个早期加工阶段。另外,STS细胞以两种不同的点火模式对面孔识别的不同

阶段信息作反应,形成单个神经元的多路信息(multiplexing information)编码,这表明认知加工阶段与神经机制之间不是一种简单的对应关系,Ellis提出的分布式神经模型能很好地说明这一点。

总体上,脑诱发电位研究确认了在面孔身份识别与面部表情识别之前存在一个早期识别阶段(what),同时,研究结果也表明,面孔身份信息的加工快于面部表情信息的加工。然而,这并不能说明面孔身份识别与面部表情识别的先后顺序问题。加工面孔身份信息还是加工面部表情信息的选择是通过启动不同的神经模式来完成。那么到底如何选择,从理论上看,相应的加工控制必不可少。关于这种加工控制,Schyns等[73]基于实验任务本身进行了研究,考察了面部识别的分类任务本身对后续空间尺度信息选择的影响,结果发现,不同的分类任务本身(身份/表情)直接决定着对不同信息加工的选择(身份/表情)。

在早期知觉加工之后,加工系统开始对相关的面部信息进行表征,然后提取这些视觉表征的意义信息。这种加工过程的划分在经典功能模型与分布式神经模型中都有所体现。经典功能模型以结构编码与观察者为中心的描述作为表征阶段,早期知觉阶段尚未能被肯定,意义提取阶段则在各个独立的信息加工路径中得到体现。分布式神经模型对这三个过程的划分稍微明确些,开始是早期知觉加工阶段与表征阶段(核心系统),然后是意义提取与分析阶段(扩展系统)。

这种阶段性的划分是正确理解面孔身份识别与面部表情识别的重要途径。Maurer等[74]用行为标记的方法研究区分出面孔识别的整体加工三阶段:初级关系侦察

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -511-

(detecting the first-order relations: two eyes above a mouth),整体加工(holistic processing: gluing the features together into a Gestalt),二级关系加工(processing second-order relations: the spacing among features)。虽然具体阶段的划分还有待进一步的实验考察,但这种阶段性加工的思想被很多研究者所接受。其实,如前所述,这种加工阶段思想最早来源于Marr等(1978,1982)[8]在物体识别研究中提出的三阶段理论。分布式神经模型在表征区分及阶段划分

上有了很大的突破,但是仅仅基于神经基础来描述认知加工的过程难以表达表征及意义加工阶段的区分与交互。

本研究在经典功能模型及分布式神经模型基础上,综合近来神经心理学及知觉的空间尺度信息(轮廓的与范畴的信息)研究,同时也参照Martinez[75]的研究,仅仅针对面孔身份识别与面部表情识别之间的加工机制,提出面孔身份识别与面部表情识别的多级整合模型(Multi-Stages Integrative Model),如图4所示。

图4 多级整合模型

多级整合模型强调人脸知觉加工中的阶段性。模型总体上把面孔身份与表情的知觉划分为三个阶段:早期知觉阶段,表征阶段,分析识别阶段。早期知觉阶段是一种基于自上而下加工的目标确认阶段(what),在这一阶段里主要是形成面孔格式塔,这一面孔格式塔形成后又作为后续加工的信息输入而启动更为精细的信息描述。在模型的

表征阶段,选择性注意起到重要作用,通过它的选择,加工系统启动不同的后续神经模式(表情的或是身份的)。当然,这种选择可以是意识层面的也可以是无意识层面的,这由任务情境的特性来确定。在模型的分析识别阶段,模型在表情与身份识别之间提出了情绪与认知的整合机制,这一机制在分析识别阶段为身份及表情的识别提供一种反

-512- 心理科学进展 2005年

馈回路,这一点与Ellis的研究有很大关系。总体上,对身份与表情加工体现出不同的信息分类启动不同的神经模式,但反馈回路会产生一种多通道的整合评价。

多级整合模型继承了分布式神经模型的分布式加工观。模型通过重叠表征与反馈确认而体现这种分布式加工的特征。重叠表征的实现保证了信息加工的充分性,同时有效地减弱了新异信息的干扰。此外,随着任务与情境的变化,重叠表征还能为加工过程提供一个可选择的加工模式(进一步加工表情或进一步加工身份),因为重叠表征提供的信息不是分离独立的信息而是有所偏重的双重信息。这种重复表征与后面的反馈确认之间的关系恰好体现了信息加工的连续性。所以我们认为,重叠表征与反馈确认是分布式认知的两个非常重要的特征。

当然,作为表情与身份信息的识别模型,对熟悉与不熟悉面孔加工上的区分仅仅通过最后一个阶段的情绪与认知调节来说明,更具体的加工过程仍然有待确定。此外,表征分类的验证尚需进一步的研究。

会遇到很多的障碍。

忽略情绪的一些基本属性似乎也是已有研究的一个重要不足,比如情绪的适应性,尽管近来有所考察[76],但系统研究尚显不足。另外,正性情绪与负性情绪在识别中是否相同?前面的神经心理学研究就已经发现,基本上没有病人表现出快乐表情识别的困难。而且对于熟悉面孔而言,快乐表情识别比中性的情绪识别得更快也是事实。因此,未来的面部表情识别研究中有关这些情绪属性的考察颇为重要。

除此之外,在已有研究的实验任务设计中,对与情绪相关的影响因素的考虑也显不足。如Stone和Valentine[77]研究表明,对名人面孔图片的熟悉度反应与被试对名人的态度有关。人们完成行为任务的表现也会在很大程度上受到情绪的影响。例如,Rojahn等[78]研究了面孔表情识别中的区分任务的信度与效度,认为负性情绪具有错误反应偏向。情绪导致注意选择上的偏向也一直是面孔身份识别与面部表情识别的一个重要影响因素。关于选择性注意在面孔身份识别与表情识别中的作用的研究目前已有不少,本文鉴于篇幅所限,没有去分析选择性注意在面部识别模型中的作用。

除了上述情绪任务设计中的不足外,以往情绪识别研究的指标也比较单一。行为研究多采用反应时,而神经生理上的研究多采用中枢神经系统的指标。事实上,外周神经反应的指标在情绪研究中特别值得重视。文章前面提到过,失认症病人与Capagras错觉症病人识别情绪的内隐与外显反应分离,这就提示情绪识别可能从外周反应上进行检测,这种分离也可能在正常人身上表现出来。

4 研究展望

总结自比较功能模型提出之后的90年代以及近几年来有关面孔身份识别与面部表情识别的研究文献可以发现,经典的功能模型把表情放在一个孤立的位置上来进行研究,所以更多的是验证面孔身份识别与表情识别的双分离特征,而没有更清楚地去认识表情识别与面孔身份识别之间的交互。同时,这种分离的研究模式也导致表情识别研究对情绪自身属性关注不够。而实际上,表情特征的提取、加工与匹配本身就是多通道的,具有生物适应功能的,所以将表情识别与面孔身份识别并行为两个独立路径无疑

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -513-

最后需要指出的是,本文提出的多级知觉整合的交互模型尚不成熟,有必要基于该模型进行分级探讨,以进一步阐释面孔身份识别与面部表情识别之间的关系;对不同的表情的识别将是未来理论与应用研究中的热点;而更新更精确的脑认知研究技术将不断地推进该领域研究的发展。 参考文献

[1] Ekman P, Friesen W V. Unmasking the Face. Englewood

Cliffs (NJ): Prentice Hall, 1975

[2] Bruce V, Young A W. Understanding face recognition.

British journal of psychology, 1986,77: 305~327

[3] Bruce V. Influences of familiarity on the processing of

faces. Perception 1986, 15: 387~397 (abstract)

[4] Farah M J. Visual Agnosia. The Massachusetts Institute of

Technology Press, 1990

[5] Young A W. Face and Mind. New York: Oxford

University Press, 1998

[6] Calder A J, Young A W. Configural information in

expression perception. Journal of Experiment Psychology: Human Perception and Performance, 2000, 26(2): 527~551 [7] Calder A J, Burton A M, Miller P, Young A W, Akamatsu

S. A principal component analysis of facial expressions. Vision Research, 2001, 41: 1179~1208

[8] Marr D著,姚国正,刘磊,汪云九 译,视觉计算理论

(Vision). 北京:科学出版社,1986

[9] Ellis A W, Young A W, Flude B M. Repetition priming

and face processing: Priming occurs within the system that responds to the identity of a face. Quarterly Journal of Experimental Psychology: Human Experimental Psychology, 1990, 42(A): 495~512

[10] Deruelle C, Fagot J. Categorizing facial identities,

emotions, and genders: Attention to high- and low-spatial frequencies by children and adults. Journal of Experimental Child Psychology, 2005, 90(2): 172~184

[11] Endo N, Endo M, Kirita T, Maruyama K. The effects of

expression on face recognition. Tohoku Psychologica Folia. 1992, 51: 37-44 (in Japanese) (English abstract)

[12] Sansone S, Tiberghien G. Traitement de l'expression

faciale et reconnaissance des visages:indépendance ou interaction? Psychologie Française, 1994, 39: 327~343 (in

French) (English abstract)

[13] Kaufmann J M, Schweinberger S R. Expression influences

the recognition of familiar faces. Perception, 2004, 33: 399~408

[14] Baudouin J Y, Gilibert D, Sansone S, Tiberghien G. When

the smile is a cue to familiarity. Memory, 2000, 8(5): 285~292

[15] Baudouin J Y, Martin F, Tiberghien G, Verlut I, Franck N.

Selective attention to facial emotion and identity in schizophrenia. Neuropsychologia. 2002, 40: 503~551 [16] Schweinberger S R, Soukup G R. Asymmetric

Relationships Among Perceptions of Facial Identity, Emotion, and Facial Speech. Journal of Experimental Psychology: Human Perception and Performance, 1998, 24(6): 1748~1765

[17] Schweinberger S R, Burton A M, Kelly S W. Asymmetric

dependencies in perceiving identity and emotion: experiments with morphed faces. Perception and Psychophysics. 1999,61(6): 1102~1115

[18] Watson D, Tellegen A. Toward a consensual structure of

mood. Psychological Bulletin, 1985, 98: 219~235 [19] LeDoux JE. Emotion circuits in the brain. Annual Review

of Neuroscience, 2000, 23: 155~184

[20] Ganel T, Goshen-Gottstein Y. Effects of Familiarity on the

Perceptual Integrality of the Identity and Expression of Faces: The Parallel-Route Hypothesis Revisited. Journal of Experimental Psychology: Human Perception and Performance, 2004, 30(3): 583~597

[21] Garner W R. Interaction of stimulus dimensions in concept

and choice processes. Cognitive Psychology, 1976, 8: 89~123

[22] Garner W R, Felfoldy G L. Integrality of stimulus

dimensions in various types of information processing. Cognitive Psychology, 1970, 1: 225~241

[23] Ganel T, Goshen-Gottstein Y. The perceptual integrality of

sex and identity of faces: Further evidence for the single-route hypothesis. Journal of Experimental Psychology: Human Perception and Performance, 2002, 28: 854~867

[24] Barton J J S, Cherkasova M V, Press D Z, Intriligator J M,

Connor M O. Developmental prosopagnosia: A study of three patients. Brain and Cognition, 2003, 51: 12~30 [25] McMullen P A, Fisk J D, Phillips S J, Maloney W J.

-514- 心理科学进展 2005年

Apperceptive Agnosia and Face Recognition. Neurocase, 2000, 6(5): 403~414

[26] Delvenne J F, Seron X, Coyette F, Rossion B. Evidence for

perceptual deficits in associative visual (prosop)agnosia: a single-case study. Neuropsychologia, 2004, 42: 597~612 [27] Sala S D, Young A W. Quaglino’s 1867 case of

prosopagnosia. Cortex, 2003,39: 533~540

[28] Eimer M. Event-related brain potentials distinguish

processing stages involved in face perception and recognition. Clinical Neurophysiology, 2000, 111: 694~705

[29] Allison T, Puce A, Spencer D D, McCarthy G.

Electrophysiological studies of human face perception I: Potentials generated in occipitotemporal cortex by face and non-face stimuli. Cerebral Cortex, 1999, 9(5): 415~430 [30] Bentin S, Carmel D. Accounts for the N170 face-effect: a

reply to Rossion, Curran, & Gauthier. Cognition, 2002, 85: 197~202

[31] Rossion B, Curran T, Gauthier I. A defense of the

subordinate-level expertise account for the N170 component. Cognition, 2002, 85: 189~196

[32] Bentin S, Deouell L Y, Soroker N. Selective visual

streaming in face recognition: Evidence from developmental prosopagnosia. Neuroreport, 1999, 10: 823~827

[33] Ellis H D, Lewis M B. Capgras delusion: a window on face

recognition. TRENDS in Cognitive Sciences, 2001, 5(4): 149~156

[34] Posamentier M T, Abdi H. Processing Faces and Facial

Expressions. Neuropsychology Review, 2003, 13(3): 113~143

[35] Adolphs R, Tranel D, Damasio H, Damasio A R. Impaired

recognition of emotion in facial expressions following bilateral damage to the human amygdala. Nature, 1994, 372: 613~614

[36] Adolphs R, Tranel D, Damasio H, Damasio A R. Fear and

the human amygdala. Journal of Neuroscience, 1995, 15: 5879~5891

[37] Adolphs R, Gosselin F, Buchanan T W, Tranel D, Schyns

P, Damasio A R. A mechanism for impaired fear recognition after amygdala damage. Nature, 2005, 433(6): 68~72

[38] Young A W, Aggleton J P, Hellawell D J, Johnson M,

Broks P, Hanley R J. Face processing impairments after amygdalotomy. Brain, 1995, 118(1): 15~24

[39] Anderson A K, Phelps E A. Expression without recognition:

Contributions of the human amygdala to emotional communication. Psychological Science, 2000, 11: 106~111 [40] Sprengelmeyer R, Young A W, Calder A J, Karnat A,

Lange H, Homberg V, Perrett D I, Rowland D. Loss of disgust: Perception of faces and emotions in Huntington’s disease. Brain, 1996, 119: 1647~1665

[41] Hamann S F, Stefanacci L, Squire L, Adolphs R, Tranel D,

Damasio H, Damasio A. Recognizing facial emotion. Nature, 1996, 379: 497

[42] Adolphs R, Tranel D, Hamann S, Young A W, Calder A J,

Phelps E A, Anderson A, Lee G P, Damasio A R. Recognition of facial emotion in nine individuals with bilateral amygdale damage. Neuropsychologia, 1999, 37: 1111~1117

[43] Gauthier I, Anderson A W, Tarr M J, Skudlarski P, Gore J

C Levels of categorization in visual recognition studied with functional MRI. Curruent. Biology, 1997, 7: 645~651 [44] Gauthier I, Tarr M J, Anderson A W, Skudlarski P, Gore J

C. Activation of the middle fusiform ‘face area’ increases with expertise in recognizing novel objects. Nature Neuroscience, 1999, 2(6): 568~573

[45] Gauthier I, Skudlarski P, Gore J C, Anderson A W.

Expertise for cars and birds recruits brain areas involved in face recognition. Nature Neuroscience, 2000, 3(2): 191~197

[46] 徐岩, 张亚旭, 周晓林. 面孔加工的认知神经科学研究:

回顾与展望. 心理科学进展, 2003, 11(1): 35~43 [47] 张伟伟, 陈玉翠, 沈政. 从面孔模块到马赛克——视觉

特异加工的脑机制. 心理学报, 2001, 33(2): 182~188 [48] Hasselmo M E, Rolls E T, Baylis G C. The role of

expression and identity in the face-selective responses of neurons in the temporal visual cortex of the monkey. Behavioral Brain Research, 1989, 32: 203~218

[49] Kanwisher N, McDermott J, Chun M M. The fusiform face

area: A module in human extrastriate cortex specialized for face perception. Journal of Neuroscience, 1997, 17(11): 4302~4311

[50] Kanwisher N, Tong F, Nakayama K. The effect of face

inversion on the human fusiform face area. Cognition, 1998, 68: B1~B11

第12卷第4期 面部表情识别与面孔身份识别的独立加工与交互作用机制 -515- [51] Kanwisher N. Domain specificity in face perception.

Nature Neuroscience, 2000, 3(8): 759~763

[52] Critchley H D, Daly E M, Phillips M, Brammer M J,

Bullmore E T, Williams S C R, Amelsvoort T V, Robertson D, David A, Murphy D. Explicit and implicit neural mechanisms for processing of social information from facial expressions: A functional magnetic resonance imaging study. Human Brain Mapping, 2000,9: 93~105 [53] Carmel D, Bentin S. Domain specificity versus expertise

factors influencing distinct processing of faces. Cognition, 2002, 83: 1~29

[54] Kreiman G, Koch C, Fried I. Category-specific visual

responses of single neurons in the human medial temporal lobe. Nature Neuroscience, 2000, 3(9): 946~953

[55] Pierce K, Muller R A, Ambrose J, Allen G, Courchesne E.

Face processing occurs outside the fusiform `face area' in autism evidence from functional MRI. Brain, 2001, 124(10): 2059~2073

[56] Grelotti D J, Klin A J, Gauthier I, Skudlarski P, Cohen D J,

Gore J C, Volkmar F R, Schultz R T. fMRI activation of the fusiform gyrus and amygdala to cartoon characters but not to faces in a boy with autism. Neuropsychologia, 2005, 43: 373~385

[57] Rossion B, Curran T, Gauthier I. A defense of the

subordinate-level expertise account for the N170 component. Cognition, 2002, 85: 189~196

[58] Grand R L, Mondloch C J, Maurer D, Brent H P. Early

visual experience and face processing. Nature, 2001, 410: 890.

[59] Ishai, A., Ungerleider, L G., Martin A, Haxby J V. The

representation of objects in the human occipital and temporal cortex. Journal of Cognitive Neuroscience, 2000, 12: 35~51

[60] Ganel T, Valyear K F, Goshen-Gottstein Y, Goodale M A.

The involvement of the “fusiform face area” in processing facial expression. Neuropsychologia, 2005 (in press) [61] Marotta J J, Genovese C R, Behrmann M. A functional

MRI study of face recognition in patients with prosopagnosia. Neuroreport, 2001,12: 1581~1587 [62] Hadjikhani N, Gelder B. Neural Basis of Prosopagnosia:

An fMRI Study. Human Brain Mapping, 2002, 16: 176~182

[63] Haxby J V, Gobbini M I, Furey M L, Ishai A, Schouten J L,

Pletrini P. Distributed and overlapping representations of faces and objects in ventral temporal cortex. Science, 2001, 293(5539): 2425~2430

[64] Haxby J V, Hoffman E A, Gobbini M I. Human Neural

Systems for Face Recognition and Social Communication. Biology Psychiatry, 2002, 51: 59~67

[65] Haxby J V, Hoffman E A, Gobbini M I. The distributed

human neural system for face perception. Trends in Cognitive Sciences, 2000, 4(6): 223~233

[66] Andrews T J, Ewbank M P. Distinct representations for

facial identity and changeable aspects of faces in the human temporal lobe. NeuroImage, 2004, 23: 905~913 [67] Vuilleumier P, Armony J L, Driver J, Dolan R. Distinct

spatial frequency sensitive for processing facial and emotion expression. Nature Neuroscience, 2003, 6(6): 624~631

[68] White M. Effect of photographic negation on matching the

expressions and identities of faces. Perception, 2001, 30: 969~981

[69] White M. Different spatial-relational information is used to

recognize faces and emotional expressions. Perception, 2002, 31: 675 ~682

[70] Goffaux V, Hault B, Michel C, Vuongô Q, Rossion B. The

respective role of low and high spatial frequencies in supporting configural and featural processing of faces. Perception, 2005, 34: 77~86

[71] Liu J, Harris A, kanwisher N. Stages of processing in face

perception: A MEG Study. Nature Neuroscience, 2002, 5(9): 910~916

[72] Sugase Y, Yamane S, Ueno S, Kawano K. Global and fine

information coded by single neurons in the temporal visual cortex. Nature, 1999, 400: 869~873

[73] Schyns P G, Oliva A. Dr. Angry and Mr. Smile: when

categorization flexibly modifies the perception of faces in rapid visual presentations. Cognition, 1999, 69: 243~265 [74] Maurer D, Grand R L, Mondloch C J. The many faces of

configural processing. Trends in Cognitive Sciences, 2002, 6(6): 255~260

[75] Martinez A M. Matching expression variant faces. Vision

Research, 2003, 43: 1047~1060

[76] Webster M A, Kaping D, Misokaml Y, Duhamel P.

Adaptation to natural facial categories. Nature, 2004, 428: 557~561

-516- 心理科学进展 2005年 [77] Stone A, Valentine T. Accuracy of familiarity decisions to

famous faces perceived without awareness depends on attitude to the target person and on response latency. Consciousness and Cognition (in press)

[78] Rojahna J, Gerhardsb F, Matlocka S T, Kroegera T L.

Reliability and validity studies of the Facial Discrimination Task for emotion research. Psychiatry Research, 2000, 95: 169~181

Recognizing Facial Expression and Facial Identity: Parallel Processing or Interactive Processing

Wang Yamin 1,2 Fu Xiaolan 1

(1 State Key Laboratory of Brain and Cognitive Science, Institute of Psychology, Chinese Academy of Sciences, Beijing, 100101, China)

(2 Graduate School of the Chinese Academy of Sciences,Beijing 100049, China)

Abstract: The model that facial expression and facial identity was traditionally viewed as parallel processing is now dubious. More and more evidences tend to establish an interactive model to illustrate the relationship between the processing of facial expression and the processing of facial identity. The article reviewed the literatures on the issue after Face Recognition Functional Model (Bruce & Young, 1986) was proposed, and focused on the debates about parallel or interactive processing between facial expression recognition and facial identity recognition. The distributed neural system was discussed as a recent model, and then an idea of integrative model was proposed based on visual representation and stages of faces perception to illustrate mechanism of facial identity and facial expression recognition.

Key words: facial identity recognition, facial expression recognition, functional model for face recognition, distributed neural system for face recognition, multi-stages integrative model.

本文来源:https://www.bwwdw.com/article/lxz4.html

Top