危险的 AI 聊天机器人登顶 ECRI 2026 年医疗技术风险榜
ECRI 最新发布的《2026 年医疗技术十大风险》报告指出,AI 聊天机器人在医疗领域的不当使用已成为当前最严重的技术风险。与此同时,“数字黑暗”(系统宕机)、不安全医疗产品以及可能导致临床流程混乱的技术实施,也被列为主要威胁。
随着 AI 聊天机器人在医疗咨询、客服和患者互动中的应用日益普及,业内对其安全性的担忧不断上升。问题的核心在于:用户往往无法确认这些系统背后的数据来源及其可靠性。一些州甚至已经开始着手监管此类技术,原因是担心聊天机器人可能向患者提供不恰当甚至危险的健康或心理建议。
正因如此,ECRI 将“医疗领域中 AI 聊天机器人的误用”列为 2026 年医疗技术风险榜首。当前常见的大语言模型(LLM),如 ChatGPT、Grok、Copilot、Claude 和 Gemini,虽然能够以接近人类对话的方式提供信息,但这种“类人”交互方式可能误导用户过度信任其回答。
这些系统可能受到“幻觉”、数据漂移等问题影响,从而导致错误诊断、不必要甚至有害的建议,或推动不安全的医疗行为。
宾夕法尼亚州非营利机构 ECRI 总裁兼首席执行官 Marcus Schabacker 博士在报告发布声明中指出:“医学本质上是一项高度依赖人类判断的工作。尽管聊天机器人是强大的工具,但算法无法取代医疗专业人员的专业知识、教育背景和临床经验。要在释放 AI 潜力的同时保护患者安全,就必须实施严格监管、清晰指引,并清楚认识到 AI 的局限性。”
他还补充道:“AI 模型反映的是其训练数据中的认知和偏见。如果医疗行业缺乏审慎管理,AI 可能会加剧原本就存在的医疗不平等问题。”
值得注意的是,今年榜单也反映了 AI 在医疗领域的迅速发展。去年排名第一的风险是“AI 医疗技术的整体风险”,而今年则进一步细化为“AI 聊天机器人误用”。这表明未来榜单中可能会出现更多与 AI 相关的具体风险条目。
今年排名第二的风险是“数字黑暗”——即医院或医疗系统突然失去电子病历(EHR)及关键 IT 系统访问能力的情况。这一问题甚至被搬上了荧幕:HBO/MAX 热播剧《The Pitt》中,就描绘了医院在系统瘫痪后被迫“回归纸笔”的场景。
相比之下,网络安全风险在今年榜单中排名下降,从去年的第三位降至第八位,主要聚焦于老旧医疗设备的安全隐患。
值得一提的是,去年排名第二的“居家护理患者技术支持不足”在今年榜单中已不见踪影,尽管医疗服务正持续向家庭和远程场景转移。
2026 年榜单中其余技术风险还包括:
劣质或伪造医疗产品
家用糖尿病管理设备召回信息传达不畅
输液管路或注射器错误连接(尤其在 ENFit、NRFit 推广缓慢的情况下)
围术期未充分利用用药安全技术
医疗器械清洁说明不充分
老旧医疗设备带来的网络安全风险
技术实施不当导致不安全的临床流程
器械消毒用水水质不达标

