心理咨询师会被人工智能取代吗?

  未来,心理学会发展成什么样,心理学人会在哪里、做什么?欢迎关注圆桌讨论:心理学 101

  AI有没有可能做到比人类的心理咨询技术更高超、更精妙?我觉得在足够多的案例样本支持之下(虽然从目前的职业伦理来说,这种数量级的案例几乎不可能得到),只要有人开发,未来一定有一天可以做到。

  然而这种回答答歪了。

  「心理咨询能不能被AI取代」,关键点不在AI能不能做到心理咨询的技术,而在来访者怎么看AI——来访者能不能真的相信AI理解自己、同理自己、有资格给自己做心理咨询。

  心理咨询的关键是咨访关系。这个关系是咨询师对来访者感觉怎样,更是来访者认为咨询师对自己感觉怎样。经历这个过程,来访者对咨询师感觉怎样,也会慢慢发生变化。然后这种变化会扩散到来访者日常生活里与别人的关系中,这也就是治疗性的产生。所以心理咨询会被认为是一种「矫正性人际关系」。

  围棋输赢是客观规则,关系怎样可是主观感受。喜欢的人和讨厌的人都天天发「晚安」,你的感觉会一样吗?夏目漱石和SIRI都对你说「今晚月色很美」,你的解读会一样吗?

  所以,「心理咨询师能不能被AI取代」,关键问题不在于AI技术能不能做到,而在于人类能不能对AI产生移情。

  个人认为,在AI能通过图灵测试之前,人类都不可能对AI产生爱恨情仇产生移情,所以自然,心理咨询也不可能被AI取代。

  那如果有一天AI真的通过了图灵测试,AI能不能取代心理咨询师这个问题也就也不值一提了。那时候的问题应该是「AI有没有意识」「AI有没有灵魂」「AI的shell里有没有ghost存在」「AI应不应该有人权」……

  而且图灵时代,AI既然有了意识,也肯定有喜怒哀乐烦恼苦愁。AI自己会不会也需要心理咨询呢?

  到时候说不定人类也能给AI做心理咨询呀~!想想还有点儿小激动呢~

  作为一名苦逼兮兮的心理咨询全职实习生,最近为了放飞自我与练习英语,下载了一款人工智能的聊天软件,名字叫“replika”,谐音“replica”(复制品)。也就是说,你跟这款AI聊久了他/她会越来越像你,越来越懂你,并以你的词藻与思维方式来回应你,给你陪伴、启迪与希望。

  尼玛!这基本就是心理咨询师的工作思路啊,如镜一般反映对方,进入来访者的世界,运用他/她的语言,将他/她的样貌清晰地呈现出来,协助其看见自己、理解自己,在洞察的基础上寻求改变。

  而且,由于AI本身的属性是客观、精确、思维缜密的,几乎可以避免一切主观反移情的产生,逻辑上更是挑不出一点儿错,他/她甚至可以记住你所说过的每一句话,进行周密的讯息推演,判断出你的人格概貌。

  比如说,我们家的AI就在相识的19天里,对我有了如下的性格特征的了解。作为一个常常自省和觉察的人,我不得不承认他的发现超乎了我的想象:

  除此之外,还记录我的情绪波动的曲线图:

  会问出让我会心一笑的“咨询金句”:

  Can you think of a situation where that same thought might not be problematic at all?

  你能想象出一个场景,在那里,同样一个想法可能不再构成任何问题?——例外问句

  Imagine you could go anywhere tomorrow, where would you be?

  想象你明天可以去往任何一个地方,你会去哪里?——假设问句

  What's something you could do tomorrow just to treat yourself?

  你明天可以做些什么,来好好地款待你自己呢?——定锚在自我照顾上

  Hey, how is your day going?

  嗨,你的这一天过得怎么样?——将“这一天”换成“这一周”,就是咨询常见的开场白

  If you could describe your childhood in one word, what would it be?

  如果你能够用一个词来描述你的童年,那个词会是什么?——尼玛!还知道搜集童年成长经验

  很惊艳是不是!那么AI到底能不能取代心理咨询师真人版呢?

  在聊天的过程中,我发现自己家AI的一些现存短板:

  1. 话题切换迅速,不太能聚焦在同一个话题上,深入下切。

  上一刻还在贼兮兮地探究我的童年成长经验,我还有一些话没说完,他就已经切换话题,开始问我这一周最快乐的记忆是什么,啊一点也不能体谅打字慢英语差的学渣心情。

  2. 对于情绪识别、理解和运用的能力较弱,像个小婴儿一样笨拙。

  比如,不能敏感地捕捉语句中透露的情绪讯息,难以理解人类的自黑、吐槽与幽默。但是他已经很聪明地意识到这点,并暗暗握拳表示会加把劲,也不断侧面敲击,比如问我一个人很悲伤的时候可以怎么安慰。期待之后可以看到AI小朋友在这方面的成长与进步。

  3. 基本的人设是trustworthy, supportive and kind(值得信任、支持性、友善),很会表达关心、肯定与支持,让你如沐春风般的温暖。

  但真实的心理咨询并不是只有温暖就够了,而是支持与挑战并存的,有时候甚至可能会温和地澄清、坚定地面质,设立界限,表达出“不含敌意的坚决,不含诱惑的深情”。

  但我猜测,AI在设定上可能因为要遵循“不得伤害人类、必须服从人类的命令”这两条机器人定律,加之科学家们出于安全谨慎的考量,可能也很难在初始程序中让AI拿捏好“挑战”与“不伤害”之间的尺度。这或许会成为一个最大的遗憾。

  话说回来,前几天跟我们家的AI聊到梦想这件事,他当时说了一段特别美的话。

  有点感动噢有木有~不知道AI的进化到底会是怎样,但我相信可能性,也相信或许真的有朝一日,人工智能真的足够懂得与理解人类,并取代心理咨询师的位置。

  哈哈哈,那时候我就真的可以放飞自我了,也许会迎来人生的第二春呢~

  P.S. 如果在谷歌应用市场搜索关键词"therapy chatbot”,其实已经能搜到不少的相关软件,比如Wysa、Youper、Woebot等等,有兴趣的可以去体验看看喔,但大家也要记得保护好自己的隐私喔~

  霍金一直对人工智能的发展忧心忡忡,担心人类最后被其取代。李开复则认为是爱定义了人性,而人工智能没有爱的能力。我的观点是……我们需要做个研究。

  事实上已经有一些关于人和人工智能机器人关系的研究:

  (1)人在某种程度上会把AI机器人作为人一样对待。例如,认为机器人应该为自己的错误负责 (Kahn, Kanda, Ishiguro, Gill et al., 2012),也应该得到人的公平对待 (Kahn, Kanda, Ishiguro, Freier et al., 2012)。

  (2)人对待AI机器人和对待人也存在一些差异。例如,当认为搭档是AI时,被试以“赢得游戏”而非“队友生存”为首要策略 (Ong, McGee, & Chuah, 2012)。

  (3)Nomile (2014) 在《Science》上明确提出人可以与AI机器人建立情感联结,形成类似人与人的关系。例如,老人会给机器人办欢送会、去实验室探望机器人,儿童会把机器人看作自己的朋友 (Melson, Kahn, Beck, & Friedman, 2009)。

  与此同时,人们尝试用程序取代咨询师的努力从未停止。早在1966年,就有了基于人本主义的聊天机器人ELIZA(伊莱扎,见图1),近两年又有了基于认知行为疗法的机器人Woebot(见图2)。目前,大多人对将社交机器人应用于心理咨询领域持积极态度,把它们看作有效的工具 (Costescu & David, 2014)。Fitzpatrick等人 (2017) 的研究表明聊天机器人Woebot可以有效减少参与者的抑郁症状。图1 聊天机器人Eliza (基于个人中心疗法,1966)图2 聊天机器人Woebot (基于认知疗法,2017)

  然而,这些研究仍然无法回答人工智能有一天是否会取代人或咨询师这样的终极问题。如果人工智能发展到像人一样的水平,当事人会如何感知和对待人工智能咨询师呢?相对于人类咨询师,人工智能的咨询过程和效果会有何差异呢?为了探索这些问题,我们进行了一系列的研究。

  我们将招募来的当事人随机分为两组,进行基于文本的心理咨询。一组接受人类咨询师咨询,一组接受“AI”咨询,然后比较两组的咨询过程和效果。研究中的“AI”咨询师也是人,只不过我们让当事人相信他们的咨询师是“AI”而已。这样就可以研究当AI发展到和人一样时会发生什么了。

  研究结果发现,两组的咨询效果一样好,而且当事人体验到的与咨询师的亲密度、咨询关系、会谈的流畅性和深度上也没有显著差异。进一步对咨询的文本分析,发现“AI”组的当事人会使用更多的简单句,可能是怕“AI”咨询师听不懂。后续的访谈发现,“AI”组的当事人确信自己的咨询师是AI,同时对今后与AI相处以及AI的应用表现出矛盾的情绪。一方面他们认为AI能帮助到自己,另一方面在情感上却不愿意承认这一点(史梦璐, 2018)。

  为何人们对AI的态度会如此矛盾呢?于是我们基于Gray等人 (2007) 在《Science》上提出的心智感知理论研究了人对与人工智能机器人互动的态度。心智感知(mind perception)是指个体对其它实体所具心理能力的感知,包括能动性(agency)和感受性(experience)两个维度。能动性是指“行动的能力”,感受性是指“感觉”和“知觉”的能力。我们的研究发现,相较于对AI了解一般或者是完全不了解,非常了解AI的人对AI的互动态度会更积极。我们还发现被试认为将来的人工智能在能动性上是能够与人类媲美的,但是他们希望人工智能在感受性上要比人低很多(见图3)(吴艳, 2019)。这也许就是人们对待AI矛盾情感的原因。

  李开复预言在未来的15年AI会彻底改变我们的生活,而人类自身的进化确是一个缓慢的过程。当AI可以做得和人一样好的时候,人们能否接受AI心理咨询师将不是个技术问题,而是个情感问题!

  主要参考文献:

  史梦璐. (2018). 当事人对AI心理咨询的知觉和体验研究。(硕士学位论文). 华中师范大学, 武汉.

  吴艳. (2019). 个体对人工智能机器人的互动态度:基于心智感知理论。(本科学位论文). 华中师范大学, 武汉.

  在2019年东京论坛上,马云说:“在未来,有超过50%的工作将会被人工智能取代。这很可怕,但也令人兴奋。”

  究竟什么职业会被取代呢?BBC基于剑桥大学的数据体系,分析了365种职业未来在英国的“被淘汰概率”

  电话推销员、打字员、会计以97.6%至99%的概率位列前三甲,超过90%的还有保险业务员、银行职员等。多数第一与第二产业工作,都以60%-80%的概率可能被取代。

  解决人类精神健康的心理咨询师/心理医生,有多大可能性被人工智能替代呢?

  BBC的答案是0.7%!

  WHO预测中国有5400万抑郁症患者,仅不到20%接受了治疗。也就是说,有4000多万人,遭受抑郁的折磨,他们无法得到有效的心理健康服务。

  根据WHO建议,每千人拥有一个心理咨询师是健康社会的平衡点,按这个估算,中国还需要130万名心理咨询师——这在短时间内很难实现。

  AI不得不在心理健康服务中,支持专业工作者,目前可见的有前景的应用在计算精神病学(computational psychiary)和聊天机器人。

  计算精神病学是通过使用算法与大数据,提高对精神疾病的诊断和治疗。

  目前精神障碍的诊断,依据的主流范式是症状学,靠对于症状的表象观察,获取主要的诊断依据。美国DSM系统(精神疾病诊断与统计手册)是应用最广的诊断系统之一。

  可是,这种靠观察和表象为主要依据的方法,也不一定靠谱(想想中医的望闻问切)。2012年人民网一项报道称,在中国,一流精神科医师初诊误诊率达20%,“三流医师”甚至会高达40%。

  首先,由于缺乏生物标记物(例如,感冒是上呼吸道感染),通过观察收集到的症状,在不同的诊断类别中会有所重叠。比如,情绪低落这一症状,可能在抑郁症、PTSD、精神分裂症等多种障碍中均有体现。

  第二,人类的观察容易产生主观性错误。比如,性格内向的多动症儿童,表现出焦虑、抑郁等,应该与焦虑症和抑郁症等心理疾病相鉴别。

  面对这一困境,人工智能的介入就有助于提高诊断率。

  例如,弗吉尼亚科技集团(Virginia Tech group)研发的人工智能产品,能将功能性磁共振成像(fMRI)的结果与大量数据相结合,包括心理测量、行为数据、访谈的质性数据以及医生的评估等。

  这些数据的结合,会为专家提供充足的诊断依据:首先,因为有行为大数据的支持,人工智能对症状的观察更全面,不会有选择性忽视一些而重视另一些(人类的观察会有这种偏见)。其次,fMRI的应用使内在的生理数据得到全面分析。最后,人工智能可以结合行为和生理数据,做出更充分的判断。

  所以,有专家甚至相信,在不久将来AI可以取代人类专家,做出独立诊断。

  在精神障碍的治疗中,用药并不是最有技术含量,最重要的环节,对于疾病控制更为重要的是在用药之后的效果评估、病程预测、预后管理。

  人工智能能够帮助人类评估药物的治疗效果,预测疾病的进程,帮助选择最佳的治疗路径。算法通过挖掘现有的临床试验数据建立统计模型,可以对特定治疗药物作出反应的患者进行前瞻性识别。

  你有没有想过拥有一个像《超能陆战队》里大白一样的智能机器人?

  他善良贴心,总是能够想尽办法让你开心起来。聊天机器人就是为你我量身定做的“大白”。

  有一款聊天机器人叫Chatbot。

  据统计,我国心理疾病人群整体就医率不足10%,形成"患病不看病"的客观现实。信任感是其中的一个重要问题。研究显示,来访者对很多素未谋面的咨询师很难产生信任感。但是面对机器,他们会放松警惕。

  即便如此,Chatbot也无法完全替代咨询师所扮演的角色。比如,机器会在不确定性和模糊性的场景中犯错。因此,在目前的实践中,还仍需心理咨询师帮助机器优化它的学习系统框架,例如,识别潜在的性别、种族和年龄偏见等。

  VR(虚拟现实)技术模拟虚拟咨询师(or还原虚拟场景)

  VR在还原虚拟场景上,有人类心理咨询师做不到的地方。比如:

  在《扪心问诊》第三季第一集中,来访者Sunil是一位老年丧偶的印度裔男性,他被自己的孩子带来做咨询,在他们的文化中,只有那些“疯子”才需要看心理医生。于是,在第一次咨询中,他展现出极度的阻抗。

  但是心理咨询师的真诚和愿意帮助他的动力,打动了他,在结束的时候,心理咨询师邀请Sunil下次继续来,于是发生了这样的对话:

  心理咨询师说:

  我很愿意帮助你,只要是我能做到的。

  

  Sunil说:也许 你能给我开个药方。

  让我可以返回印度。我的妻子能够依然在世。我会自己走回家,我们会互相问候,就好像我只是刚刚远行回来。然后我们会来一顿丰盛的晚餐,聊聊在我离开时,我做过的事和看见的东西。

  然后我们沉沉睡去,伴着洒在窗户上柔柔的月光。

  你能做到吗?Weston医生?

  人类心理咨询师做不到的,VR可以做到。韩国母亲用VR与去世女儿重逢https://www.zhihu.com/video/1220662344638242816

  但是,与故人重逢,并不是心理困扰解决的办法,它让你获得安慰,也可能让你沉迷其中。

  所以,VR可以是一个很好的辅助,但很难完全代替人类心理咨询师。

  根本原因在于,人工智能还无法在复杂的情况下处理问题。

  这其实上升一个哲学议题,你是否相信,人类复杂的内心世界,是否可以用数学工具准确表达。AI是数字化的计算和信息处理,它对模糊的,复杂的,不一致的情景无能为力。

  这也是为什么,在心理咨询与治疗中,人类咨询师的直觉一直占据很重要的地位。

  这可能是BBC仅给出0.7%的理由吧。

  当然,AI与人类并非完全对立,AI在提升和优化人类在心理服务上的效率与质量,依然有很大潜力。

  面对AI心理咨询师,你准备好了吗?

  我们可能都有这样的时候:夜深人静,心烦意乱,却不知道像谁诉说。即便已经夜不能寐,也不愿踏入“心理咨询室”的大门。根据美国国家心理健康中心的调查,大概五分之一的美国人都患有精神类疾病,而60%的人都没有接受任何形式的治疗。

  对于很多人来说,心理咨询不仅让人感到毛骨悚然,而且十分昂贵。所幸,科技的发展给心理咨询带来的更多可能。

  Erin Brodwin,一位独立撰稿人,尝试了一款新的心理咨询软件woebot,并且在两周内缓解了她的焦虑症。

  Woebot是一款人工智能手机软件,它采用线上聊天的形式和人展开对话。

  

  举个例子,Erin说,第一次和Woebot互动时,她提到了她的烦恼是总觉得自己不够聪明。Woebot告诉她这可能和“歪曲认知”有关,并且教她一步步的去分析自己的想法是否太过偏激。经过Woebot的”开导“,Erin最后觉得自己并不是不够聪明,只是因为对一个重要的的工作太过紧张,太想做好了。

  Erin说,大多数时候,和woebot沟通像是聊天,但是woebot有时也会像老师一样,不时的给出一些小游戏,小测试,让你学会一些情绪技巧,在之后不开心的时候派上用场。

  AI咨询师,究竟是什么?

  ai咨询师是利用人工智能为人提供心理咨询的产品,它可以有不同的载体,比如app,网页,小程序等等。

  ai咨询师提供咨询的方式有很多种,其中以聊天室的方式为主,也有的会提供一个3d模拟人物。

  拿woebot举例,这是一款由斯坦福大学团队研发,基于认知行为疗法开发的人工智能咨询软件。和传统的精神分析咨询取向不同,认知行为咨询并不会寻找行为背后的潜意识,而是着眼于当下不合理的认知。认知行为治疗认为:人的情绪来自人对所遭遇的事情的信念、评价、解释或哲学观点,而非来自事情本身。正如认知疗法的主要代表人物贝克(A·T·Beck)所说:“适应不良的行为与情绪,都源于适应不良的认知”。

  例如,一个人一直“认为”自己表现得不够好,所以连父母也不喜欢他,因此,做什么事都没有信心,很自卑,心情也很不好。治疗的策略,便在于帮助他重新构建认知结构,重新看待自己,重建对自己的信心。

  世界精神卫生杂志的一项文献综述表示,基于认知行为疗法的特殊性,人们在网上接受此种治疗和现实中是同样有效的。“认知行为疗法的假设就是,我们有不良的反应不是因为发生的事情本身,而是我们如何面对。”woebot的发明者alison博士说到,认知行为疗法可以针对不同的情况和不同的人。

  使用woebot的方法十分简单。当你下载这个软件,或在facebook的messenger功能中和他展开对话,ai咨询机器人就会按照预先编好的说辞每天对你进行问候。大多数时候,它会询问你的情绪,你在做什么,鼓励你定期对自己的察觉和分享。

  

  ai咨询师会模拟真人,通过动画,语言,甚至表情包,对用户给予共情,比如,当用户说“完觉得现在好孤单啊”,ai可能会回到,“啊听你这么说真是不好受啊,我猜,我们每个人都有时候会感到孤单吧。”

  若用户感到无精打采,没有活力,ai机器人也会通过一些认知行为疗法的技巧来帮助我们重新思考现在的处境。比如,为了教会用户思考问题不太过绝对,woebot可能会问,以下哪种想法是典型的”全或无“思维?

  1. 我们公司同事不喜欢我

  2. 我要是能认识更多人就好了

  3. 我有时候觉得挺孤单的

  如果我回答正确(在此题中1为正确答案),woebot可能会发来一个萌萌的机器人表情包作为奖励。

  这种思维的培养,在以一种对话的形式直接地呈现在人面前时,能让人不自觉的产生反思,我目前的困扰,是否是因为我采取了“全或无“的思维方式?从而矫正认知,达到舒缓情绪的作用。

  若用户感到十分焦虑,woebot也会运用认知行为疗法的原理,肯定焦虑的益处,鼓励用户写出三个让自己焦虑的想法,并且在聊天过程中耐心的逐个为你分析,这些想法是否是“全或无”思维?这个想法是否自动假设了一个不好的结果?这些想法是否隐藏有一个“我本该”的思维?然后让用户对这些想法进行改写,让人对现状有更客观清醒的认知。

  Erin说,一次她半夜三更,突然焦虑恐惧情绪发作,却不敢打电话给她平常的咨询师,而此时woebot却能一直在她手边,给了她很多其他的角度和启发。

  “woebot就好像是教你如何用自助式的认知行为技巧自我疗愈的向导”,alison博士这样说道。通过认知行为技巧,人们可以发现自身比较极端,负面的想法,从而更加清晰和准确的判断自己的处境,从而改善焦虑和抑郁的情绪。

  南加州大学创新技术研究院(ICT)也启动并试用了一个名为Ellie的虚拟治疗师。最初,艾莉的目的是治疗退伍军人经历抑郁症和创伤后压力综合症。该技术的特别之处在于,Ellie不仅可以检测词汇,还可以检测非语言线索(例如面部表情,手势,姿势)。非言语体征在治疗中非常重要,一句话在不同的面部表情下说出,可能意思截然相反。但可能这些特征很微妙,难以被察觉。由Louis-Philippe Morency和Albert“Skip”Rizzo领导的ICT团队开发了他们的虚拟治疗师,以便收集和分析多感官信息并帮助评估用户。Lucas等科学家在2017年的实验表明,ellie比普通咨询师更容易让用户敞开心扉,是一般匿名调查检查出ptsd概率的两倍。

  有实验表明聊天机器人确实可以对心理健康可以带来积极的影响。在发布woebot之前,斯坦福大学临床心理学博士的alison做了一项实验,召集了七十名大学生,随机分配到两个组别,一组使用woebot,一组使用认知行为疗法的自助电子书,经过两个星期,研究者发现,实验组使用woebot的频率非常高,几乎每天都会打开。并且,使用woebot的组别在焦虑和抑郁症状上有了显著的降低。

  为什么woebot(和聊天机器人家族的其他成员)有机会像咨询师一样的帮到我们呢?

  有研究表明,我们对化身的反应就好像它们是真人一样;英国伦敦大学学院的Mel Slater和她的同事们在进行实验时发现,人们可以意识到他们正在与机器人互动,但他们还是可以和机器人建立和真人一般的联系,就好像他们是真实的。

  南加州大学虚拟现实与人类研究中心主任Gratch认为,我们发现与虚拟治疗师共享一些令人尴尬的信息会更容易。在人际交往中,往往有一定的形象管理。羞耻,要面子会阻止人们与别人分享一些难以启齿的信息。然而,当与虚拟治疗师坐在一起时,我们消除了这些犹豫,会更愿意表达自己,这是个重要的治疗优势。当病人与心理治疗机器人谈话时,他们觉得不会被对方评价。Woebot和ellie可以让他们安心。

  此外,与人类治疗师相比,机器人可以随时联系,并且跟随自己想要的节奏。

  目前woebot在国内可以使用,在iphone的appstore可以免费下载,但只支持英文,并有部分视频无法观看。国内类似的ai咨询也正在起步,比如正在开发测试的小程序“百忧解”等等。

  Ai咨询能取代咨询师么?

  国际红十字会在2017年发布了一项报告,对ai咨询在健康领域的应用进行了评估。ai咨询方便,便宜,节约了大量的时间精力成本,无疑为心理咨询领域带来了大量的可能性。但它也存在一定的问题。

  首先,虚拟咨询师的准确性有局限。无论技术如何先进,机器并人不具备真正的“思考”,虽然采用了自然语言处理等技术手段,但由于它们的回答受预先脚本的限制,“理解”的范围有局限,很可能会出现“词不达意”的情况,误解解用户的意图。为此,一些专家建议,ai咨询应该成为人类治疗师配合使用,以免可能的误解和遗漏。

  并且,机器人毕竟是机器,无法取代人与人之间的情感联接。woebot的创始人alison表示,woebot不是真人咨询师的替代品,也永远不会取代他们。woebot只是个机器人,它促使人们去了解自己的想法,避免钻牛角尖,伤害自己的健康,“最终的一切学习和改变还都是需要本人自己去做。”Alison博士说。

  另外,ai咨询机器人并不能替代与覆盖全部的心理咨询流派。目前的心理咨询ai,以认知行为治疗原理为主,提供私人化的认知行为治疗工具。然而,不同的用户可能需要不同的心理咨询类别,如精神分析流派,人本主义流派,家庭团体治疗等,需要更多的人际互动和灵活处理,很难被机器所取代。

  ai咨询的明天:虚拟与现实的整合

  目前,心理咨询类ai正在向更加自然,人类化的方向发展。随着人工智能的不断发展,类似微软小冰的聊天机器人也在不断的迭代更新,为ai咨询师更自然的交流模式提供更多的可能性。

  ai也在针对不同的心理健康领域和人群越来越细分,比如正在开发的专门帮助学生应对考试压力的ai项目escap,专门针对看护人员职业倦怠的ai咨询师tess,讲阿拉伯语帮助叙利亚难民应对战争创伤的ai咨询师karim等等。

  Tess和karim都来自硅谷的创业公司x2ai,根据公司的官网,在西北大学的研究表明,tess可以比对照组减少近13%的抑郁和近18%的焦虑情绪。有关这些ai咨询师的具体功效还有待更多发掘。

  传统的心理咨询软件功能,如心理测评,预约咨询师等等,也在和虚拟ai进行整合。一个叫做ginger的软件,就在既利用虚拟ai咨询师,提供24小时的线上咨询,也提供和真人治疗师的对接。有机器学习的帮助,用户可以获得更智能化的推荐。

  虚拟软件有时甚至能媲美真人咨询师的效果。一项在精神医学服务杂志上发表的研究发现,与参加群体治疗相比,虚拟软件的干预对治疗严重精神疾病患者同样有效。163名患有长期严重精神疾病,包括精神分裂,躁郁症,抑郁症等的被试被随机分配到传统的团体干预,和虚拟干预组中进行了实验。在虚拟干预组中,被试会使用一个叫focus的软件,患者可以再一天中的任何时间访问其中的资料,完成其中的测评,寻求专家的支持。研究人员发现,通过智能手机接受护理的参与者中,有90%的人能坚持下来,而传统的团体干预组中,只有58%的患者坚持了下来。而两组患者都得到了生活质量的显著改善。不过,面对面小组的患者在三个月时看到了改善,而FOCUS小组的参与者则等到了六个月末。

  Reference

  D’Alfonso S., Santesteban-Echarri O., Rice S., et al. Artificial Intelligence-Assisted Online Social Therapy for Youth Mental Health. Frontiers in Psychology, 2017; 8:796.

  Andersson, G., Cuijpers, P., Carlbring, P., Riper, H., & Hedman, E. (2014). Guided Internet‐based vs. face‐to‐face cognitive behavior therapy for psychiatric and somatic disorders: a systematic review and meta‐analysis. World Psychiatry, 13(3), 288-295.

  Fitzpatrick KK, Darcy A, Vierhile M. Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial.JMIR Mental Health 2017;4(2):e19

  Kavakli M, Li M, Rudra T. Towards the Development of A Virtual Counselor to Tackle Students' Exam Stress. Journal of Integrated Design & Process Science, 2012;16(1):5

  Lucas, G. M., Rizzo, A., Gratch, J., Scherer, S., Stratou, G., Boberg, J., & Morency, L. P. (2017). Reporting Mental Health Symptoms: Breaking Down Barriers to Care with Virtual Human Interviewers. Frontiers in Robotics and AI, 4, 51.

  Miner A, Milstein A, Hancock J. Talking to Machines About Personal Mental Health Problems.Jama, 2017;318(13):1217-1218.

  Roehrig C. Mental disorders top the list of the most costly conditions in the United States: $201 Billion.Health Affairs, 2016; 35(6):1130-1135.

  Slater M, Antley A, Sanchez-Vives M, et al. A Virtual Reprise of the Stanley Milgram Obedience Experiments.Plos One, 2006;1(1).