AI替代医生?“望、问”可以,“闻、切”做不到
当AI变得越来越聪明,人工智能真的可以给人看病?
复旦管院信息管理与商业智能系助理教授李文文长期关注AI在医疗健康领域的运用。李文文和团队收集了人们在网上公开发布的内容,用AI自动识别可能存在抑郁倾向的人,希望能为这些人群提供帮助。此外,李文文还和上海市眼病防治中心合作进行研究,市眼防把AI眼病筛查仪器投放到社区,居民可以随时做免费眼病筛查。现在AI在医疗健康领域有哪些运用?ChatGPT可以替代医生给患者看病吗?AI如何识别出人的心理健康状态?
复旦管院信息管理与商业智能系助理教授李文文
?一起聊聊AI在医疗领域的运用?
AI怎么“治病”
@阿树:AI再智能也毕竟不是真的人类。对于复杂的人体,AI真的能做到和人类医生一样诊疗吗?面对心理疾病的治疗,能做到感同身受,再以专业角度给予帮助吗?
李文文:目前使用人工智能是希望分担医生的部分工作,因为医疗资源很紧张,没有足够的人手能够主动去识别具有抑郁倾向的人群。人工智能帮助完成第一步的患者识别。后续的治疗还是由医生来做,毕竟目前人工智能尚不具备足够的同理心、感同身受的能力和专业知识,无法完成复杂的疾病治疗工作。
@一条猪kk:人工智能怎么能判断人的情绪呢?每个人性格都不一样,语言表达方式也有差异。
李文文:虽然个体有差异,但人们的语言表达会有一些共通的模式。例如,可以根据积极词汇与消极词汇使用的频率判断情绪。研究表明,具有抑郁情绪的人具有一些特别的写作风格,比如经常使用“我”“我的”等表现个体的词汇,而不太会使用“我们”之类的词,他们也经常使用一些比较绝对的词汇,比如“一定”“肯定的”“绝对”之类的。人工智能能够识别出这些语言模式(模式识别是人工智能的长项),因而可以判断人的情绪。后续可以联系专门的组织或工作人员与用户沟通。未来也有可能使用人工智能与用户沟通。
@默博博:AI可以动手术是真的吗?
李文文:手术是一个很复杂的过程,目前AI并不是完全独立完成全过程,而是以辅助医生进行手术为主,所以所有的决策权都在医生手中。
医生会失业吗
@吃面包会上火哭哭:目前AI在医疗领域的主要用途是什么?以后真的不需要医生了?
李文文:AI目前主要用于各类辅助工作,例如疾病辅助诊疗、问诊分流等。本质是利用AI的图像识别能力和自然语言理解能力完成一些模式化的工作。即便以后技术更加先进,还是需要医生的。医疗服务不只是冰冷的诊断治疗,还需要沟通和人文关怀,这都需要人与人之间的交互。
@无象今生:现实中无论主动或被动,不少医生似乎已经在扮演了AI的角色,每天面对吵吵嚷嚷、不断质疑且素质不一的患者和家属,重复着问答。
@瞧瞧没了:AI能模仿中医望闻问切法给病人诊断病情吗?中医会因此失业吗?
李文文:以目前的技术,“望”和“问”可以做到一些,但“闻”“切”不行,AI暂不具备嗅觉和触觉能力。我觉得中医不会受到太大影响,AI更多用于西医的诊断和手术辅助中。
@SELINAA:有了人工智能,影像科、检验科医生是不是会失业?
李文文:目前是不会的。因为现在的AI以辅助诊疗为主,辅助的话,最终的决定权仍在医生手中。
AI“治病”的风险
@落落罗罗:目前AI筛查出结果后,会有专业人员再进行一次审核吗?如果AI做出错误的诊断,目前有什么法律保障使用者的权益?
李文文:会有的。以眼病筛查为例,AI筛查出结果后,会由医生判断并给出最终诊断结果。AI只是起到辅助决策的作用,医生可以决定是否采纳AI建议。后续应该会有更加健全的法律制度。
@栗子宝:如果医院用了更先进的AI设备介入治疗,需要告知患者吗?或者说您认为到哪种程度的介入,应该让患者自己做出选择呢?
李文文:需要告知的。我觉得随着AI技术在医疗健康领域的发展和应用,大家的接受程度会改变。比如,现在用AI眼病筛查设备帮助社区居民进行免费眼病筛查的时候,都需要告知患者。未来,大家可能对于这种简单筛查场景中的AI设备习以为常,就不需要特别告知了。
@Deryy:人工智能进入医疗领域,是否会引起伦理问题?
李文文:会的,即便是在更普遍的消费领域,大家也会关心伦理问题。医疗健康领域对于伦理之类的问题更加敏感和重视,患者层面、医生层面以及医院层面,都有一系列挑战。
@云走过的音乐:看报道说ChatGPT也会性别歧视,职业歧视,那么在将其用于心理治疗的时候,是否可能加重患者病情?AI可能会发展出真正的共情能力吗?
李文文:目前AI主要用于进行心理疾病筛查。未来尝试使用类ChatGPT技术与患者沟通的话,我们会对AI的输出进行一定的限定,并设置审核环节。病人的身心健康是第一位的。目前来看,AI具有一定的逻辑思维能力,尚不具备共情能力。我认为共情需要具备感知和感受的能力,以现在AI模型的训练方式来看,可能比较难。