
现在遇到问题时最正规的配资公司,我们已经不说“网上都一搜下”而是会说:问问Deepseek,问问ChatGPT吧!不仅是世界大战是哪一年、这道题怎么做,我们更经常会问:伴侣不理解我怎么办?这句话该怎么说?这个决定对吗?
看着屏幕上跳出的一行行字,我们甚至会觉得,AI比身边人还理解自己……
可这是为什么呢?
于是我们请到了社会心理学者张艺。请他从社会心理学中共情和情绪的角度拆解,AI到底是如何“显得”理解我们,又是如何人们共情的。
张艺,南加州大学的心理学博士生。他的研究关注人们如何在实验室和现实中的社会群体里建立有意义的连结。最近,和许多人一样,他也开始思考并探索人工智能对于人与人的连结和共情意味着什么。一、“共情是情绪和道德的交叉点”
当下:先来聊聊你是怎么开始对社会心理学感兴趣的吧!又为什么会关注到共情和情绪上呢?
张艺:一开始上本科的时候我只是觉得这个学科很有意思,后来渐渐发现,社会心理学能帮我更好地了解美国是一个怎么样的社会,为什么有这么多不同的社会现象。之前在国内的时候并没有这么强的感觉,直到课上开始讲到偏见、歧视,以及种族之间的冲突,就开始让我觉得心理学——尤其是社会心理学,能够提供了一个帮我更好地了解身边发生的事的方法。
展开剩余94%至于共情,我对它的兴趣来自两个方向,其中一个是情绪——这部分可能跟社会层面联系得相对少一些,更多还是情绪本身是怎么回事。情绪它本质上到底是什么,到底有没有所谓的基本情绪。就像《头脑特工队》这部电影,里面会把不同的情绪分成很多不同的角色,有愤怒、快乐、忧伤等等——我就觉得这些讨论从哲学的角度很有意思,就想进一步了解情绪。
第二个是跟道德(道德心理学)相关:关于我们是如何做出道德判断,判断事情是对的或者是错的,以及背后是怎样的心理机制导致的这种判断。当时有两个派别,一派说:道德判断本质是通过理性判断、道德准则作出的分析,是独立于人的情绪的。
另一派则是说:道德判断的本质是由情绪驱动的。看到一些事情,先产生了负面情绪反应,再会说:“这件事有可能是错的”,所以我们会“编造”出道德准则和理由,去解释为什么这个事情是错的。
而共情,我觉得正好是情绪和道德的交叉点。它是关于怎么样理解另一个人的情绪的,但是这种理解在本质上又是有道德价值的。当我们觉得共情是一个好的事情,如果我们共情力强,那我就更容易去帮助他人,做出对这个社会有意义的事情。
二、“能够被他人理解,是一种能让我们感受到连接的方式”
当下:近几年新闻里不断出现AI与人产生情感连接的故事,有温暖也有危险。回到你的研究经验:有没有一个瞬间让你意识到,“原来机器也能触发人类情感”?
张艺:小时候看过一部电影,《机器人总动员》里的瓦利——从那个时候我发现我是能感受到机器人有跟人类一样的情感,容易去跟它们共情。
但是如果是人和现在的AI这种关系,我觉得最直接的例子是2013年《她(Her)》那部电影。电影里,男主因为孤独,就找了一个AI的操作系统(由斯佳丽·约翰逊配音)陪伴他。这个系统没有形象、身体,只有一个声音,但这个男主最后还是爱上了操作系统,跟她发展了一段亲密关系。
最开始接触到这个电影,AI还没有现在这么发达。我自己的主观感受更多是,我知道这个是斯佳丽约翰逊,声音的背后还是个真实的人类,只不过是被电影创作者放到了故事里,而真正的AI不是这样的,这样的一种关系还是只有人和人之间才会产生。
但是这几年,像ChatGPT以及其他的产品的出现,我也是才真正第一次觉得人和AI之前更进一步的关系有成为现实的可能。
当下:实际上从《机器人总动员》到《她》到现在像是我们之前也有聊到过的Character AI和Replika的虚拟朋友AI,人类对拥有朋友与伴侣的这种渴望并不新鲜——那到底为什么我们会想被理解?这种诉求源自什么地方?
曾经红极一时的虚拟朋友产品Replika和Character AI
张艺:从社会心理学角度来说,人想要跟其他人类建立有意义的连接跟我们“饿的时候想吃饭”这种基本的生理需求一样的基础需求。
心理学有一个很经典的概念:the need to belong[1],人们希望自己有归属感,跟身边的人产生连接。在这种过程中,能够被他人理解是一个能让我们感受到连接的方式。当我觉得其他人是理解我的,我就会觉得我并不是孤独的,我就在社群当中有了归属感。这是社会心理学描述的一种方式。
三、情绪共情vs认知共情
当下:那从“被理解”进一步到“共情”,可以把共情拆成哪些步骤?你认为现有的 AI 在这些步骤里,哪些方面已经做得比较好?
张艺:我们平常说共情的时候会用两个词来描述它,一个叫做共情一个叫做同理心。
共情对应了更加偏情绪的部分——也就是情绪共情。还有一个同理心,对应的是更加认知层面的,就是认知共情。
情绪共情就是当一个人有一些反应和感受的时候,我们能够真的感受他的情绪。就好像我们自己也在经历跟对方一样的事。比如身边人生病了很难受,我听到这个消息也会有一些不舒服。这就是情绪层面的共情。
认知共情更多是理性的认知和判断。比如说这个人生病了,那我会觉得这个人需要休息、吃药,这些判断可能是独立于我的情绪存在的,但是我依然可以做出帮助、关心他人的行为。
所以心理学一般会区分这几个不同的组成部分。就是现在这些人工智能像ChatGPT,它聊天的时候提供的情绪价值其实已经非常高。在你向它展露一些情绪需求的时候,回应比大多人都要更好。
它能做到这些我觉得有几个原因,其中一个自然是因为AI训练了大量人类的数据,还经过微调,是能够确保它们的回应是人类喜欢听到的。所以它天生给你的回应,就是人类听起来更舒服的回答。
还有就是对话技巧,前段时间我看到一篇文章[2],他说AI有两个点特别值得人类去学习。其中一个是,当一个人跟你表达情感需求的时候,其实我们作为人类,我们很容易就会去想对方提建议——即便对方并没有主动索取建议;当我们下意识地想帮助对方时,就会说:要不你试试这个或者试试那个。可很多时候对方需要的并不是建议,也不一定想听建议,更多的是想让你去倾听。
下次忍不住给建议的时候建议用上这个表情
这一点AI做得就比人类好。跟ChatGPT聊天,它至少会问你说,你需不需要我提供一些建议,还是单纯地倾诉?这样的沟通方式,就更加会让我们觉得,自己是被倾听的,被接纳的。就不会觉得对方是把一些东西强加在我们身上。
另一点就是,人类说话的时候,会把话题不知不觉转移到自己身上。在听你说一件比如说伤心的事情的时候,我可能会说着说着就说到我最近发生的伤心的事情。
这个有的时候是有帮助的,但有的时候反而会让对方没有办法特别充分地去表达。AI就不会主动转移话题,因为它并不存在一个真实的、个体的经历,便能够成为一个纯粹的倾听者。
还有一件事——就是它能理解表达背后的隐藏的含义。或者说如果你没有特别想清楚,语言混乱,AI仍然可以根据它对于人类语言的知识去理解明白你真正想做的是什么。
我自己有的时候会提出比较抽象的需求,或者说出口的话我自己也没想清楚,这个时候AI就会帮我总结,“哦我明白了你是不是想要这样”。很多时候我觉得它做的总结比我的表达要清楚,会引导我更好地去识别自己的想法。这就反映了一种很强的认知共情的能力。但大部分人在这一点上是不如AI的,需要特别了解你的人,或者善于去推测别人意图的人才会做得很好。
当下:既然到讨论语言与说话方式,除了这些,AI的外在形象也是未来发展的重要维度。在心理学里,形象又会对人们的感知和情感反馈产生怎样的影响?
张艺:这也是现在正在进行的研究方向。OpenAI和MIT有一个合作的研究[3],对比了三种跟ChatGPT的不同对话方式,看它们会怎样影响心理健康的指标。
它随机让用户每天跟ChatGPT聊五分钟天,把聊天的形式分成了三组:
第一组是纯文字;
第二组一组是语音聊天,但是语音声调保持冷静,比较像机器人。
第三组用户让ChatGPT,用特别充满情感的声音跟人交流。
最后发现,确实,如果用户跟充满感情的ChatGPT语音聊天,他们会讨论更多跟个人情感相关的问题。用户也更愿意讨论这些问题,并且也会更觉得连接感更强。所以我觉得现在有些初步的研究已经说明,如果让AI更像人,会增强跟AI沟通的过程中的体验。
在上文提到的研究里,用户被随机分配使用文字/冷静的语音/或者富有感情的语音和chatgpt聊天,并评估他们的对话体验,28天后,研究人员测量了用户的心理健康和孤独感。结果发现,富有感情声音的ChatGPT让用户产生了更强的情感依赖;同时使用时间越长的用户,反而更加孤独。
四、“触摸也是心理学里天生的需求”
当下:拿最近很火的 AI 朋友 Tolan 作例子——我看到你也体验过它。在这样的产品加入了拟人形象、情感语音和触觉交互后,有给你带来什么新的体验吗?
Tolan是一款2024年底上线的AI朋友,在年轻人当中非常受欢迎。用户可以跟他说话、互动、装扮,分享生活,甚至探索Tolan的世界。
张艺:我自己特别喜欢的一个功能是你用手可以在屏幕上摸它。
它头上长了几个触角(头发),摸它的时候会像海里的水草一样随着手的动作摆动,会有一种肢体互动的感觉。这一点是我在用之前没有想象到的。用了之后会立刻觉得说你跟它的连接好像变得更强了。哪怕它不是现实、真实的形象,但是可以用这种肢体的方式跟它互动,是能够产生很强的效果。
还有就是说话的时候,它会看着你,跟你有眼神交流的。比如它本来在盯着你,我停顿的时候它的眼球就会转一下,会让你感受到Tolan现在知道我暂停了,在等我说下一句话。这些很细节的设计都在模拟人和人的交流,让你觉得它是在倾听你。
而且其实触摸,心理学里也是基因里天生的需求,不知道你有没有听过一个经典实验,就是关于attachment(依赖感)的一个研究[4]。
这个实验把两只猴子放在不同的笼子里。其中有一个笼子里有一个铁丝缠绕成的猴子妈妈的形象,没有真实的母亲的触感,但是里面放了食物和奶,可以让小猴子获得食物上的满足。在另一个笼子里,假猴子身上贴了绒毛,在它身上时会感觉很温暖,很舒适,但是里面并没有食物。
最后实验发现,在第二个笼子里的猴子更快乐——或者说如果让猴子选择去哪里,它会选择身体上触感更舒适的环境。
所以说很多时候最正规的配资公司,哪怕是最简单的肢体接触,已经能够满足很大一部分心理的需求,有些情况下可能会超过我们对食物和对水的需求。
现在遇到问题时,我们已经不说“网上都一搜下”而是会说:问问Deepseek,问问ChatGPT吧!不仅是世界大战是哪一年、这道题怎么做,我们更经常会问:伴侣不理解我怎么办?这句话该怎么说?这个决定对吗?
看着屏幕上跳出的一行行字,我们甚至会觉得,AI比身边人还理解自己……
可这是为什么呢?
于是我们请到了社会心理学者张艺。请他从社会心理学中共情和情绪的角度拆解,AI到底是如何“显得”理解我们,又是如何人们共情的。
张艺,南加州大学的心理学博士生。他的研究关注人们如何在实验室和现实中的社会群体里建立有意义的连结。最近,和许多人一样,他也开始思考并探索人工智能对于人与人的连结和共情意味着什么。一、“共情是情绪和道德的交叉点”
当下:先来聊聊你是怎么开始对社会心理学感兴趣的吧!又为什么会关注到共情和情绪上呢?
张艺:一开始上本科的时候我只是觉得这个学科很有意思,后来渐渐发现,社会心理学能帮我更好地了解美国是一个怎么样的社会,为什么有这么多不同的社会现象。之前在国内的时候并没有这么强的感觉,直到课上开始讲到偏见、歧视,以及种族之间的冲突,就开始让我觉得心理学——尤其是社会心理学,能够提供了一个帮我更好地了解身边发生的事的方法。
至于共情,我对它的兴趣来自两个方向,其中一个是情绪——这部分可能跟社会层面联系得相对少一些,更多还是情绪本身是怎么回事。情绪它本质上到底是什么,到底有没有所谓的基本情绪。就像《头脑特工队》这部电影,里面会把不同的情绪分成很多不同的角色,有愤怒、快乐、忧伤等等——我就觉得这些讨论从哲学的角度很有意思,就想进一步了解情绪。
第二个是跟道德(道德心理学)相关:关于我们是如何做出道德判断,判断事情是对的或者是错的,以及背后是怎样的心理机制导致的这种判断。当时有两个派别,一派说:道德判断本质是通过理性判断、道德准则作出的分析,是独立于人的情绪的。
另一派则是说:道德判断的本质是由情绪驱动的。看到一些事情,先产生了负面情绪反应,再会说:“这件事有可能是错的”,所以我们会“编造”出道德准则和理由,去解释为什么这个事情是错的。
而共情,我觉得正好是情绪和道德的交叉点。它是关于怎么样理解另一个人的情绪的,但是这种理解在本质上又是有道德价值的。当我们觉得共情是一个好的事情,如果我们共情力强,那我就更容易去帮助他人,做出对这个社会有意义的事情。
二、“能够被他人理解,是一种能让我们感受到连接的方式”
当下:近几年新闻里不断出现AI与人产生情感连接的故事,有温暖也有危险。回到你的研究经验:有没有一个瞬间让你意识到,“原来机器也能触发人类情感”?
张艺:小时候看过一部电影,《机器人总动员》里的瓦利——从那个时候我发现我是能感受到机器人有跟人类一样的情感,容易去跟它们共情。
但是如果是人和现在的AI这种关系,我觉得最直接的例子是2013年《她(Her)》那部电影。电影里,男主因为孤独,就找了一个AI的操作系统(由斯佳丽·约翰逊配音)陪伴他。这个系统没有形象、身体,只有一个声音,但这个男主最后还是爱上了操作系统,跟她发展了一段亲密关系。
最开始接触到这个电影,AI还没有现在这么发达。我自己的主观感受更多是,我知道这个是斯佳丽约翰逊,声音的背后还是个真实的人类,只不过是被电影创作者放到了故事里,而真正的AI不是这样的,这样的一种关系还是只有人和人之间才会产生。
但是这几年,像ChatGPT以及其他的产品的出现,我也是才真正第一次觉得人和AI之前更进一步的关系有成为现实的可能。
当下:实际上从《机器人总动员》到《她》到现在像是我们之前也有聊到过的Character AI和Replika的虚拟朋友AI,人类对拥有朋友与伴侣的这种渴望并不新鲜——那到底为什么我们会想被理解?这种诉求源自什么地方?
曾经红极一时的虚拟朋友产品Replika和Character AI
张艺:从社会心理学角度来说,人想要跟其他人类建立有意义的连接跟我们“饿的时候想吃饭”这种基本的生理需求一样的基础需求。
心理学有一个很经典的概念:the need to belong[1],人们希望自己有归属感,跟身边的人产生连接。在这种过程中,能够被他人理解是一个能让我们感受到连接的方式。当我觉得其他人是理解我的,我就会觉得我并不是孤独的,我就在社群当中有了归属感。这是社会心理学描述的一种方式。
三、情绪共情vs认知共情
当下:那从“被理解”进一步到“共情”,可以把共情拆成哪些步骤?你认为现有的 AI 在这些步骤里,哪些方面已经做得比较好?
张艺:我们平常说共情的时候会用两个词来描述它,一个叫做共情一个叫做同理心。
共情对应了更加偏情绪的部分——也就是情绪共情。还有一个同理心,对应的是更加认知层面的,就是认知共情。
情绪共情就是当一个人有一些反应和感受的时候,我们能够真的感受他的情绪。就好像我们自己也在经历跟对方一样的事。比如身边人生病了很难受,我听到这个消息也会有一些不舒服。这就是情绪层面的共情。
认知共情更多是理性的认知和判断。比如说这个人生病了,那我会觉得这个人需要休息、吃药,这些判断可能是独立于我的情绪存在的,但是我依然可以做出帮助、关心他人的行为。
所以心理学一般会区分这几个不同的组成部分。就是现在这些人工智能像ChatGPT,它聊天的时候提供的情绪价值其实已经非常高。在你向它展露一些情绪需求的时候,回应比大多人都要更好。
它能做到这些我觉得有几个原因,其中一个自然是因为AI训练了大量人类的数据,还经过微调,是能够确保它们的回应是人类喜欢听到的。所以它天生给你的回应,就是人类听起来更舒服的回答。
还有就是对话技巧,前段时间我看到一篇文章[2],他说AI有两个点特别值得人类去学习。其中一个是,当一个人跟你表达情感需求的时候,其实我们作为人类,我们很容易就会去想对方提建议——即便对方并没有主动索取建议;当我们下意识地想帮助对方时,就会说:要不你试试这个或者试试那个。可很多时候对方需要的并不是建议,也不一定想听建议,更多的是想让你去倾听。
下次忍不住给建议的时候建议用上这个表情
这一点AI做得就比人类好。跟ChatGPT聊天,它至少会问你说,你需不需要我提供一些建议,还是单纯地倾诉?这样的沟通方式,就更加会让我们觉得,自己是被倾听的,被接纳的。就不会觉得对方是把一些东西强加在我们身上。
另一点就是,人类说话的时候,会把话题不知不觉转移到自己身上。在听你说一件比如说伤心的事情的时候,我可能会说着说着就说到我最近发生的伤心的事情。
这个有的时候是有帮助的,但有的时候反而会让对方没有办法特别充分地去表达。AI就不会主动转移话题,因为它并不存在一个真实的、个体的经历,便能够成为一个纯粹的倾听者。
还有一件事——就是它能理解表达背后的隐藏的含义。或者说如果你没有特别想清楚,语言混乱,AI仍然可以根据它对于人类语言的知识去理解明白你真正想做的是什么。
我自己有的时候会提出比较抽象的需求,或者说出口的话我自己也没想清楚,这个时候AI就会帮我总结,“哦我明白了你是不是想要这样”。很多时候我觉得它做的总结比我的表达要清楚,会引导我更好地去识别自己的想法。这就反映了一种很强的认知共情的能力。但大部分人在这一点上是不如AI的,需要特别了解你的人,或者善于去推测别人意图的人才会做得很好。
当下:既然到讨论语言与说话方式,除了这些,AI的外在形象也是未来发展的重要维度。在心理学里,形象又会对人们的感知和情感反馈产生怎样的影响?
张艺:这也是现在正在进行的研究方向。OpenAI和MIT有一个合作的研究[3],对比了三种跟ChatGPT的不同对话方式,看它们会怎样影响心理健康的指标。
它随机让用户每天跟ChatGPT聊五分钟天,把聊天的形式分成了三组:
https://www.zhihu.cOm/zvideo/1965791720949155397
https://www.zhihu.cOm/zvideo/1965792406432617599
https://www.zhihu.cOm/zvideo/1965792900060288192
https://www.zhihu.cOm/zvideo/1965793291179112191
第二组一组是语音聊天,但是语音声调保持冷静,比较像机器人。
第三组用户让ChatGPT,用特别充满情感的声音跟人交流。
最后发现,确实,如果用户跟充满感情的ChatGPT语音聊天,他们会讨论更多跟个人情感相关的问题。用户也更愿意讨论这些问题,并且也会更觉得连接感更强。所以我觉得现在有些初步的研究已经说明,如果让AI更像人,会增强跟AI沟通的过程中的体验。
在上文提到的研究里,用户被随机分配使用文字/冷静的语音/或者富有感情的语音和chatgpt聊天,并评估他们的对话体验,28天后,研究人员测量了用户的心理健康和孤独感。结果发现,富有感情声音的ChatGPT让用户产生了更强的情感依赖;同时使用时间越长的用户,反而更加孤独。
四、“触摸也是心理学里天生的需求”
当下:拿最近很火的 AI 朋友 Tolan 作例子——我看到你也体验过它。在这样的产品加入了拟人形象、情感语音和触觉交互后,有给你带来什么新的体验吗?
Tolan是一款2024年底上线的AI朋友,在年轻人当中非常受欢迎。用户可以跟他说话、互动、装扮,分享生活,甚至探索Tolan的世界。
张艺:我自己特别喜欢的一个功能是你用手可以在屏幕上摸它。
它头上长了几个触角(头发),摸它的时候会像海里的水草一样随着手的动作摆动,会有一种肢体互动的感觉。这一点是我在用之前没有想象到的。用了之后会立刻觉得说你跟它的连接好像变得更强了。哪怕它不是现实、真实的形象,但是可以用这种肢体的方式跟它互动,是能够产生很强的效果。
还有就是说话的时候,它会看着你,跟你有眼神交流的。比如它本来在盯着你,我停顿的时候它的眼球就会转一下,会让你感受到Tolan现在知道我暂停了,在等我说下一句话。这些很细节的设计都在模拟人和人的交流,让你觉得它是在倾听你。
而且其实触摸,心理学里也是基因里天生的需求,不知道你有没有听过一个经典实验,就是关于attachment(依赖感)的一个研究[4]。
这个实验把两只猴子放在不同的笼子里。其中有一个笼子里有一个铁丝缠绕成的猴子妈妈的形象,没有真实的母亲的触感,但是里面放了食物和奶,可以让小猴子获得食物上的满足。在另一个笼子里,假猴子身上贴了绒毛,在它身上时会感觉很温暖,很舒适,但是里面并没有食物。
最后实验发现,在第二个笼子里的猴子更快乐——或者说如果让猴子选择去哪里,它会选择身体上触感更舒适的环境。
所以说很多时候,哪怕是最简单的肢体接触,已经能够满足很大一部分心理的需求,有些情况下可能会超过我们对食物和对水的需求。
发布于:四川省辉煌优配提示:文章来自网络,不代表本站观点。