西湖大学研发AI辅助心理咨询机器人,免费提供咨询服务,AI的心理咨询真的能理解人

  “我想辞职,工作内容和我理想中的差太多了”“你理想中的工作是什么样的呀?”这段对话并非来自人们的日常交流,而是AI辅助心理咨询机器人“小天”与其研发团队的模拟对话。7月12日,西湖大学工学院深度学习实验室负责人蓝振忠在介绍“小天”时表示,当前心理咨询收费昂贵,每小时收费300元到2000元不等,不是所有人都能负担得起。“我们希望借助‘小天’,在拥有同等专业度的情况下,随时随地为人们提供免费心理咨询服务。”心理健康问题已逐渐成为社会关注的焦点之一。心理出现问题的人,最需要的是什么?蓝振忠认为是及时、专业和普惠的心理服务。但当前,受限于心理咨询费贵或心理咨询师紧缺等问题,很多患者无法随时随地做专业咨询。为破解这一难题,蓝振忠组建团队,投入到AI辅助心理咨询机器人“小天”的研发中。据悉,该款机器人能模拟人类大脑运作方式,对大量数据进行分析、编码和学习。投射到应用场景,即能根据大量真实的咨询案例,学习优秀咨询师的技巧,提供心理咨询服务。目前,“小天”存在于微信小程序上。蓝振忠说,现在小程序中聊的每一句话,并非都来自机器人。其中,约30%的回复来自机器人,70%是由心理咨询师指导过的。这些心理咨询师有的毕业于纽约大学、苏州大学等心理咨询专业,有的来自国际医疗队心理援助小组,还有一些志愿者是浙江省立同德医院临床心理科的精神科医生、心理治疗师。“想辞职,本来觉得找到的工作应该是充满创造力的。”如果有人这样和你说,你会怎么回复?现场,演示者这样提问后,“小天”跳出了三条回答,心理咨询师看过后从中选择了一条。“目前‘小天’仍属于1.0阶段。”西湖大学深度学习实验室AI技术负责人宋持瑜表示,这三个回答都是“小天”基于以往心理咨询案例作出的。他说,当心理咨询师觉得其中一个回答比较符合时,可直接选择并发送。当“小天”的回答不够好时,心理咨询师会自主回复。蓝振忠表示,目前已经有三千多人在“小天”进行心理咨询,用户覆盖了各个年龄层。若咨询人数达到一万人以上,就能达到以AI为主的咨询服务。值得一提的是,若遇到解决不了的问题,“小天”会预警,并请专业咨询师来帮忙;当它发现可能有严重心理问题或精神障碍的用户时,会建议对方转入精神专科医院诊治;若遇到非常紧急的危机个案,它会启动相应的危机干预措施。存在于微信小程序,只是“小天”的1.0版本。在蓝振忠的构想中,2.0版本可以语音,好比是一个心理热线;3.0版本会变成一个机器人。但对于他而言,更长久的计划是,在五年内,“小天”能为一千万人提供公益服务。“它能提供的不仅是免费的心理咨询,还有心理科普、心理陪伴和心理评估等服务,并能针对亲子关系、子女教育等问题,进行回答和心理疏解。”蓝振忠说,最重要的是,它能进入千万家,帮助留守儿童、边远山区的孩子,为一些不愿意去医院进行心理咨询的人提供服务。西湖大学研发AI辅助心理咨询机器人 免费提供咨询服务

  根据2020年黄悦勘教授提供的报告,中国除阿尔茨海默病外,任何一种精神障碍的患病率在过去12个月中为9.32%,相当于1.4亿人(不包括儿童)。相应的,每百万人却只有2.4名心理咨询师提供服务。心理咨询的需求缺口仍在不断扩大,但是服务段的供给却迟迟没有更近上来。

  2023年,随着ChatGPT的横空出世,人工智能技术迅猛发展,一些心理咨询平台已经开始在未公开的情况下使用AI进行心理咨询,引发了讨论AI是否能够替代人类心理咨询师的话题。MePlus认为AI心理咨询的发展已经开始走上正轨,因为AI在心理咨询领域具有很多优势,例如可以实现24小时在线服务、节省咨询成本、提高效率等等。虽然目前还存在一些技术和伦理方面的挑战,但MePlus相信随着数字化心理技术的进步和AI应用的不断完善,AI在心理咨询领域的应用前景将会越来越广阔。本篇文章将带领大家来一同探讨AI在心理咨询领域的实际应用和操作。

  AI的共情能力

  大部分人都认为,人类与机器最大的区别就是人类拥有着高级的共情能力。共情是指理解和分享他人情感的能力。在心理学中,共情是心理治疗和咨询中的一个非常重要的部分,它能够帮助咨询师建立与客户的关系,拉近彼此之间的距离,促进他们之间的互动和理解。因此,共情在心理治疗和咨询中是非常重要的。

  人工智能在共情能力方面的发展仍然处于初级阶段。目前,人工智能主要是通过对大量数据的分析来了解人类情感,例如通过关键词识别、语音识别、面部表情分析等技术来推测人类的情感状态。此外,一些研究人员还尝试使用深度学习模型来模拟人类的情感体验。

  虽然目前人工智能的共情能力还远远不及人类,但随着技术的不断进步和应用的不断完善,人工智能在共情领域的应用前景将会越来越广阔。MePlus相信,在未来,人工智能有极大的可能会成为心理治疗和咨询的重要工具,通过对大量数据的分析和模拟,为客户提供更好的服务和支持。

  AI心理咨询的伦理问题

  现阶段,已经有学界的人士开始担心AI会产生的一系列伦理问题。ChatGPT有的时候会因为数据库资料不足的限制而回答不上一些问题,但它并不会直接告诉你它回答不出来,而是进行一通胡言乱语般的输出。有些时候,它会提供一些错误的、虚假的(它自己编造出来的)信息,并且还会一直坚持自己的错误观点。

  就像上面所提到的,目前AI缺乏人类的情感共鸣和同理心。尽管它可以通过分析数据和算法来提供建议,但它无法真正理解人类的情感和复杂情境。这可能导致AI提供不准确或不适当的建议,甚至可能对来访者产生不良影响。

  其次,由于AI缺乏道德判断力和自我意识,它不能像人类咨询师那样对来访者的信息进行保密。这可能会对来访者的隐私和机密性产生不良影响。这就需要服务供给商对AI的对话进行脱敏和加密处理。

  最后,AI缺乏对文化背景和社会环境的理解。由于AI是通过训练数据进行编程的,数据来源的局限性,就会导致它可能无法真正了解人类的文化和社会因素。这可能导致AI在提供咨询服务时出现文化偏见或不适当的行为。

  AI在心理咨询中的应用确实具有潜在的大量好处,但我们必须认真考虑这些伦理问题。我们需要确保AI在提供咨询服务时遵循伦理规范和标准,同时也需要保障来访者的权利和隐私。在实践中,AI和人类咨询师应该共同工作,以确保来访者获得最好的护理和支持。

  展望AI心理咨询的未来

  当MePlus在测试ChatGPT的时候,问了它这样一个问题:“你觉得AI能够做心理咨询吗?”

  ChatGPT这样回答道:

  “作为一个人工智能语言模型,我可以执行简单的心理咨询任务,如回答一些基础的心理问题、提供一些心理建议、提供一些压力缓解技巧等等。但是,我并不具备人类的情感、同理心和经验,这使得我难以在某些情况下提供准确、全面的心理咨询。当然,随着技术的发展和数据的积累,人工智能在心理咨询方面的应用也在不断进步。但是,在使用人工智能进行心理咨询时,我们也需要注意到一些伦理问题,如隐私保护、数据安全、人机关系等等。因此,我认为,尽管人工智能在心理咨询方面具备一定的潜力和发展前景,但在实际应用时还需要深入研究和慎重考虑。”

  ChatGPT的回答和上文想要表的主要观点其实是一致的,AI的发展已经势不可挡,现在AI的大部分发展还是集中在模型和硬件,对于实际应用仍然处在探索期。心理咨询在中国的需求也是肉眼可见的上升,各大社交媒体上充斥着人们对情绪的探索、对人际关系的思考、以及对爱的理解。但是服务供给端,不论是数量还是质量都不能满足人们的需求。AI虽然处于阶段,但其不需要休息、相对中立的工作态度,可以满足一些需要“短、平、快”的心理疏导的人们的需求。至于AI能不能完全替代掉人类心理咨询师,MePlus认为短时间内是不太可能,但是技术的突破已经不在遵循摩尔定律,也许说不定哪一天Her就在我们的生活中出现了呢。

  注:《Her》是一部由斯派克·琼兹执导,华纳兄弟影片公司于2013年推出的科幻浪漫电影。影片讲述了一个在未来的洛杉矶,一个孤独的写手西奥多(由豪昆·菲尼克斯饰演)因为和妻子离婚而感到沮丧和孤独。他购买了一款操作系统,这个系统的声音由一个智能操作系统的虚拟人物Samantha(由斯嘉丽·约翰逊配音)来控制,这个系统可以帮助他完成工作、组织生活,并最终成为他的知己和情人。影片通过探讨人类和人工智能之间的关系、爱情的定义以及人类情感的本质等问题,呈现出一幅科技与人性交织的未来图景。总的来说,《Her》是一部具有深刻思考和情感共鸣的电影,让我们不仅反思人工智能的发展,还让我们思考人类情感的本质和意义。

  #MePlus AI#将在5月中开启限号内测,欢迎您私信我们,加入内测群,参与我们的内测活动!

  届时MePlus将从群里的用户中选择20名幸运用户率先体验内测版本的软件。在内测过程中,如果您有任何使用体验和建议,欢迎直接与MePlus进行联系。

  您的每条建议都对MePlus非常重要,感谢您的支持与参与,MePlus期待与您相遇~