本文作者:访客

离谱!盲目相信ChatGPT,美国一老头把自己吃到溴中毒

访客 2025-08-11 15:36:10 16
离谱!盲目相信ChatGPT,美国一老头把自己吃到溴中毒摘要: 虽然AI能给人类解决很多问题,但AI也并不是万能的,甚至还会有坑。据美媒LIVE SCIENCE报道,美国一个60岁老头...

虽然AI能给人类解决很多问题,但AI也并不是万能的,甚至还会有坑。据美媒LIVE SCIENCE报道,美国一个60岁老头为了调整饮食而向ChatGPT咨询,按照ChatGPT的饮食指导吃了3个月后,把自己吃成了溴中毒。

据悉,老头子在调整饮食前,曾经看到吃太多盐(主要成分为氯化钠)对身体不好,就想着要减少钠的摄入,但他却没找到如何减少氯的建议(但其实,氯化物对于维持血压很有帮助)。然而,老头在大学时曾学过营养学,所以他要自己做实验,从自己的饮食中去掉氯化物。

于是AI登场了,老头咨询的可能是3.5或者4.0版本ChatGPT,ChatGPT告诉他建议用溴化物替代氯化物,所以他用溴化钠替代了家里的食盐。就这样吃了3个月后,老头身体不舒服了,但完全没怀疑是自己吃坏了,反而怀疑是邻居给他投毒。

在急诊化验结果出来后,报告显示老头的血液里二氧化碳升高、呈碱性反应,并出现“假性高氯血症”,但这是血液中有大量溴化物干扰检测结果导致的。结合中毒控制中心意见,医生认定是溴中毒。

而且在住院时,老头还出现了精神病症状,想逃离医院,最后被精神科强制留院并服用抗精神病药物。在他的精神稳定后,他才告诉医生自己用过ChatGPT事情,以及其他的身体反应,侧面实锤了是溴中毒。好奇的医生后来也向ChatGPT 3.5提问,同样得到了类似回答,而且模型提到“需要结合情境”,却没有发出明确健康警告。

学过营养学+盲信ChatGPT,结果硬生生把自己吃成溴中毒,这老头的操作属实是有点离谱了。目前,这份神奇的病例报告已发表在8月5日的《内科医学年鉴:临床病例》上,这也警告了所有人,现阶段任何事情都千万别完全相信AI,不然你也会上新闻,甚至还要上科学期刊。

阅读
分享