法女子被ChatGPT诊断患癌一查是真的,真实案例引发AI医疗应用争议

2025年03月26日 08:56:30  来源:中网资讯综合
 

  在人工智能技术日益普及的当下,人工智能(AI)在医疗领域的应用引发了广泛关注。然而,近日法国一名27岁的女子加恩赖特因长期身体不适,通过ChatGPT诊断出患有血癌的消息,再次将AI在医疗领域的局限性推到了公众视野。

  根据报道,加恩赖特因持续出现夜间盗汗、皮肤瘙痒以及体重下降等症状,感到身体极度疲惫,最终前往医院确诊。这一事件引发了关于AI诊断准确性的讨论。尽管ChatGPT在某些领域表现出色,例如美国犹他大学的研究显示,ChatGPT在回答癌症相关问题时,其准确率高达96.9%,甚至让专家难以分辨答案来源。然而,其他研究也表明,ChatGPT在提供癌症治疗建议时,存在高达34%的不一致或错误信息,这可能误导患者。

  ChatGPT在癌症诊断中的局限性主要体现在以下几个方面:首先,AI依赖于输入的信息,而这些信息可能不完整或存在偏差。例如,在一项研究中,ChatGPT提供的乳腺癌筛查建议中,有88%的答案是正确的,但仍有部分答案基于过时或错误的信息。其次,ChatGPT在处理复杂病例时,缺乏医生的专业判断能力。例如,有研究指出,在妇科肿瘤治疗中,ChatGPT的建议与肿瘤委员会的最终决定一致率仅为46%。

  尽管ChatGPT在某些情况下可以作为辅助工具,但其生成的医疗建议仍需谨慎对待。医生警告,AI无法完全替代人类医生的角色,尤其是在面对复杂病情时,医生的专业判断和情感支持是不可或缺的。此外,AI在医疗领域的应用还面临伦理和法律风险。例如,AI生成的诊断报告可能存在误导性信息,甚至可能引发患者对医疗系统的不信任。

  值得注意的是,ChatGPT在癌症诊断中的表现并非一成不变。随着技术的不断进步,其准确性和可靠性有望进一步提高。例如,OpenAI最近发布的Deep Research功能,通过持续思考和深度学习,提升了AI在复杂问题上的表现。然而,目前ChatGPT仍需在真实医疗场景中接受更多验证,以确保其在辅助诊断中的安全性。

  加恩赖特的案例提醒我们,AI在医疗领域的应用仍需谨慎。虽然AI在某些方面展现出潜力,但其局限性也不容忽视。患者在使用AI提供的医疗建议时,应始终以医生的专业意见为准,避免因依赖AI而延误治疗或产生不必要的恐慌。

  未来,随着AI技术的不断发展,其在医疗领域的应用将更加广泛。然而,现阶段AI仍需作为医生的辅助工具,而非替代品。医生与AI的协作将是实现医疗智能化的关键。只有在医生的指导下,AI才能真正发挥其潜力,为患者提供更优质的医疗服务。

(责编:东 华)

推荐阅读

关于我们 | 保护隐私权 | 网站声明 | 投稿办法 | 广告服务 | 联系我们 | 网站导航 | 友情链接 |
京ICP备05004402号-6