Lancet子刊 | 人工智能用来解决伦理问题,机器就能更公正吗?

  原标题:Lancet子刊 | 人工智能用来解决伦理问题,机器就能更公正吗?

  人工智能对于人们而言不再陌生。它从上世纪的《黑客帝国》《机器管家》等影视神坛上被拉下来,逐渐走入我们的现实生活,在各行各业中扮演了不可或缺的角色。从上世纪中末期开始的循证医学,发展到还在起步阶段的精准医学,在不断强调人文关怀、个性化医疗的时代下,越来越精密的机器和科学的大数据,是否能比医生做出更合理的医学决策、解决伦理问题呢?

  加拿大多伦多儿童病医院生命伦理学系、危重护理医学系和人工智能载体研究所,通过这篇Comment阐明了他们的看法。

  算法忽略了社会因素

  我们必须得承认的是,完善算法设计中的伦理道德因素,这样的诱惑是巨大的,尤其是对于工作压力巨大又始终供不应求的医学工作者。临床医生想要将这些算法模型整合到护理工作中,坚信通过种种限制 ,如人种、性别等条件,偏倚的问题能够得到解决。

  然而,算法并没有考虑到社会环境因素。众所周知,社会因素对健康问题起到了不可小觑的作用,况且,直到现在也没有一个很好的算法,能完美地解释社会环境因素的影响机制。

  差异并不总是导致不平等

  实际上,人种、性别等生物学上的差异,确实会不同程度地影响治疗效果,因此,将这些差异纳入处方算法并不会导致不公正。毕竟,通过算法来“纠正”差异性带来的不平等,这本身就与结果没有因果关系。

  况且,在许多情况下,很难区分承认差异和传播歧视。比如,在心脏研究中,女性(尤其是有色人种)因为样本数据过少,直接影响了心脏病治疗上的男女、人种的信息不均衡。

  病人的临床轨迹与公平预测之间的脱节

  撇开公正和平等不谈,只要是一个算法模型,都会主动预测病人对治疗的反应。那么,若是病人没有预期的反应会发生什么呢?

  理想化的模型和非理想的真实世界,这之间的差异将会影响模型性能(例如,特异性、敏感性)和实际临床效用的度量。此外,倘若AI提出了一个无效的建议,而临床医生和患者都认可了算法的中立性,那么,这将会掩盖更多能帮助该患者的相关干预措施。

  对机器学习健康模型中处理伦理问题的建议

  临床医生在识别可操作的临床问题时起着关键作用 透明化模型开发和统计验证的过程:例如,按种族、性别或社会经济地位分层 以患者为中心:重视与患者的交流,防止决策而导致的意外伤害 伦理决策要考虑不同的信息来源:包括受影响群体的现实后果,权衡各种方法的利益和风险,并得出能让患者利益最大化的结论,而不是采用仅仅在算法指标中追求公平的假设。 END

  单独的算法显然不能解决偏见问题,但它仍然可以在医疗公平中占有一席之地。算法的公平性对于修正偏见是必要的,我们鼓励这样做。

  然而,机器学习具有揭示偏见、激发变化和支持的潜力,其中的风险不能忽视。从《她》到《机械姬》,从《真实的人类》到《西部世界》,人工智能一直都在用自己的算法挑战人类的智商和情商,而自信满满的人类也总是在与AI的博弈中一败涂地,最终掉进了人工智能的陷阱。

  我们利用科学技术,但不要被技术所摆布。就如医学之父 Hippocrates 所说:”医学除了是科学之外,也是门艺术,温暖的目光、同情的语言和理解的态度,带给病人的可能超越外科医生的手术刀和药剂师的药物。“

  参考文献:Melissa D McCradden, Shalmali Joshi, Mjaye Mazwi, James A Anderson. Ethical limitations of algorithmic fairness solutions in health care machine learning. LANCET DIGITAL HEALTH. MAY 2020

  图片来源于网络,侵删

  编辑:小瑶哥

  校审:TopMed

  责任编辑: