昏迷在ICU,AI决定生死!想想你的愿望的平均值。想想就觉得可怕。

新智慧报道主编:庆庆【新智慧简介】当医生按下回车键时,AI决定一个人的生死!美国华盛顿大学进行的一项名为“AI Agent”的研究旨在利用算法来预测昏迷患者的生或死意愿。支持者称这是医学的新时代,但反对者担心这只是复制偏见的机器。当AI能够理解生命时,人类的同情心、犹豫和责任会被海量数据所取代吗?还没等医生说话,AI就已经做出了决定。该模型预测患者更有可能放弃救援工作。这不是电影剧本,而是美国华盛顿大学进行的真实研究。如果病人陷入昏迷无法说话,AIYou会告诉医生是否同意代你抢救。在实验中,研究人员将其称为“人工智能代理人”。这声音这就像一次人体技术实验。在生与死的交叉点,让算法解读人类的欲望。但问题是:人工智能真的能理解这一点吗?或者它只会理解看起来像患者的数据?在这个系统的核心,算法并不“倾听灵魂”。我们分析您过去的医疗记录、人口统计特征和医疗选择模式,以推断与您类似的人通常如何做出决定。这样,人的意志就被塑造了,个体生命的价值就被平均了。当人工智能开始预测生死时,它做出的决策就不再是技术决策,而是社会偏见的延伸。当医生按下回车键时,AI就会决定他是否能活下去。在生死危机时刻,患者失去言语和意识,往往不得不依靠家人、代表、甚至医生来做出是否继续复苏的关键决定。但我们真的知道什么吗患者想要什么?这个问题继续影响卫生系统。当时,“AI替代品”的概念诞生了,由华盛顿大学医学院创伤学系研究员穆罕默德·奥朗则布·艾哈迈德(Muhammad Aurangzeb Ahmad)提出。艾哈迈德先生的创伤团队使用“病史、过去的医疗选择和人口统计数据”作为关键数据,利用机器学习模型来尝试预测患者在失去表达能力时如果有选择的话会做什么。此类研究的逻辑核心是,该算法被医生、伦理委员会和家属用作参考,以决定是否同意继续研究,并在患者清醒的情况下进行救援工作。研究团队模拟了模型的运行过程,目标之一是在患者无法自己说话的情况下实现约三分之二的预测准确率。首先,患者的损伤严重程度、病史和人口特征被收集。这些变量被输入机器学习模型,并回顾性观察该模型对过去案例的预测准确性。该团队对该模型的未来有长期计划。它允许患者在一生中与系统进行交互,记录文本数据,例如医患对话、家庭短信和生活偏好,并随着时间的推移不断更新患者的数字文件。然而,此时该系统仍然是一个概念,尚未真正应用于与患者的交互或决策过程中。华盛顿大学医学院发言人表示:“我们需要在推出前完成多步骤审查。” “让算法决定是否拯救某人”不再是科幻小说中的情节,而是正在成为医学伦理与人工智能交叉的新实验领域。算法盲点:人工智能预测偏差,而不是冲动。 “患者选择”听起来像是个人陈述t,但机器学习将其简化为一组概率。在华盛顿大学的人工智能代理项目中,这个概率来源于历史数据:谁被救了,谁签署了治疗豁免书,谁“选择了死亡”以及在什么情况下。问题就在这里。在医疗数据的世界里,不存在“真正中立的样本”。现有数据显示,老年人、少数民族和低收入人群放弃治疗的比例往往较高。算法从这些模式中学习到的“意志”实际上是社会结构的投影。 Emily Moyn 博士在接受采访时指出:决策是动态的、视情况而定的。如果人工智能被要求预测昏迷者的欲望,它只会依赖“方便的真理值”,而不是实际的现实。他警告说,人工智能代理可以首先用于“没有家人、无法沟通”的患者——其真相永远无法得到验证的患者。这意味着你无法拟合模型或表明模型有偏差。更危险的是医院和医生在高压环境下可能过度依赖模型结果。随着时间的推移,算法不再只是参考,而是成为默认答案。这种类型的“技术放弃”在systems.healthcare ace中非常有吸引力。虽然人工智能代理似乎减轻了医生的心理负担,但它们实际上正在使系统更有效地再现不平等。研究员艾哈迈德本人认识到,一个模型要真正“公正”,不仅要考虑预期结果,还要考虑“患者的道德世界”。即两名具有相似临床症状的患者,一名关注宗教,另一名关注个人意志。如果算法对他们一视同仁,那将是一种道德毁灭。乍一看,这项技术实验是在寻求更好地了解患者的方法,但其底层逻辑实际上是在问为什么?o 有资格被拯救并且被默认抛弃的人。当人类变得依赖人工智能时,偏见就会开始增长。人工智能代理并不直接侵犯生命权和死亡权,而是依赖一个最强大的秘密:信任。医生、家属和伦理委员会都试图回避最困难的问题:“我们应该拯救病人吗?”而人工智能只是填补了这种心理空白。在医院的日常节奏中,医生要与数十名重症患者打交道,每次沟通都需要大量的情感和时间。随着人工智能模型的到来,一切都被“简化”,判断、结论和信念瞬间产生。于是,“模型预测:患者更有可能放弃复苏”这句话开始成为道德盾牌。 Emily Moyn 表示:“我可能会同意这样的结论:如果家人拒绝谈话,医生也没有足够的时间,那么每个人都应该去看 AI。”或者理解。渐渐地,人们会停止争论、质疑人工智能将成为最权威、最不负责任的决策者。伦理学家罗伯特·特鲁格警告说:在现实世界中,心肺复苏不是一个非此即彼的问题。几乎所有情况下的答案都取决于。然而,AI无法理解“情况”,只能理解“是”或“否”。当医院依赖这种二元逻辑时,灰色地带就会受到压迫,模糊性就会被认为是错误,确定性就会与正义混淆。这是第二代偏见。当算法学习数据时发生第一代。当人们决定信任该算法时,就会发生第二种情况。最终,医生的心理负担会减轻,医院的效率会提高,社会会产生一种虚假的理性感。这样做的代价是,真正的“意志”被默默地隐藏在模型之中。将人类价值观写入AI算法代理的危险在于,它们不仅可以预测错误的欲望,还可以决定哪些生命最“值得”拯救。艾哈迈德在即将发表的一篇文章中写道:“对于人工智能代理来说,公平不仅意味着结果平等,还意味着忠实地代表患者的世界观、宗教和家庭关系。”他举了一个很有争议的例子。根据旧记录,接受测试的孕妇“不想戴上呼吸机”。然而,如果她后来成为一名相信生命神圣的宗教信徒,人工智能可能会误解那些旧数据,说她仍然想拔管。人类特工可以保护她,但人工智能却不能。因为在算法的世界里没有后悔或改变,只有一致性。艾哈迈德表示,这种平等对待是一种“道德抹杀”。两名临床情况相似的患者。一个注重宗教,另一个注重个人意志。如果算法对他们一视同仁,那将是一种道德毁灭。换句话说,人工智能是一个这意味着即使它看起来公平,它可能正在悄然消除差异。区别在于人类的起源。更严重的问题是谁决定算法的道德水平。是工程师写的吗?是基于统计吗?还是社会共识的缺陷?当人工智能开始为人们说话时,它实际上是在模仿特定文化的声音。可能是西方的个人主义,也可能是提高医疗系统效率的逻辑。医学伦理学的系统评价长期以来一直指出,在临床伦理决策(包括替代决策)中使用人工智能有可能提高预测的准确性,但可能会重现现有的偏见和不平等。于是,宗教信仰、家庭伦理、文化差异等无法数字化的价值观就被悄然排除在模型之外。虽然人工智能看起来像是在预测人们的欲望,但实际上它正在不断重塑“意志”的定义。艾哈迈德使他的文章末尾有一个有趣的陈述。最公正的人工智能体并不是最确定的,而是质疑并促使人类重新考虑的系统。或许,这才是一切讨论的出发点。当人工智能开始学会为人们说话时,我们需要再次学会倾听。当谈论人工智能代理时,人类最常说的是:“我们只想做出决定。”政策要更加科学。 “但科学从来都不是中立的。当算法开始了解谁想活、想做什么、想死时,你学到的永远不是人的意愿,而是社会的态度。也许真正的问题是:人工智能可以预测死亡意愿吗?这不是你是否希望某人做出这个决定的问题。人工智能不会赎罪人们的罪过。它不会提供任何安慰,它不会带来任何后果。它只是收集了我们逃避的人性部分,例如责任、模糊性和犹豫。”当我们按下 Enter 键时,家人点击确认,那一刻获得解脱的可能是我们,而不是病人。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易 Acc”提供并由广大用户上传发布,本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由仅提供信息存储服务的社交媒体平台网易用户好上传发布。
收藏! 2026年山东高考报名时间安排!请于18日付款!第七条 特别关注高校和公安专项!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注