

利用AI聊天机器人获取医疗信息——如何防范虚假医疗资讯
您还在依靠搜索引擎查询医疗健康信息吗?
如今,ChatGPT等AI聊天机器人正在取代传统的搜索引擎,它们不仅能提供即时对话式的解答,还能更好地理解您的提问需求,甚至自动整合网络上的相关内容。
但使用AI工具搜索医疗信息可能会带来风险。AI聊天机器人的知识受限于其训练数据,可能会提供过时甚至错误的医疗信息,最关键的是,它无法验证其输出内容是否真实无误。
AI聊天机器人常常会因过度自信而出现错误。研究表明,尽管GPT-4在临床问题上表现出色,但仍会“虚构”事实且不注明来源。在医学领域,这类错误可能带来严重后果:误判症状、轻信未经证实的疗法或遵循错误指导,这些都可能延误患者接受专业医师的适当治疗。世界卫生组织(WHO)已警告称,错误的医疗信息传播迅速,尤其在医疗危机期间,这会严重妨碍公共卫生应对措施。
此外,某些AI聊天机器人会生成虚假医疗信息。《内科学年鉴》发表的这项研究显示,部分AI聊天机器人给出的错误答案率竟高达100%。
为降低使用AI聊天机器人时遭遇虚假医疗信息的风险,建议采取以下措施:
务必要求提供信息来源
可信的回答应当援引权威机构的资料,例如,世卫组织、美国疾病控制与预防中心(CDC)或经过同行评审的医学期刊。若未注明来源,请谨慎对待该回复。
将AI作为信息参考起点,而非诊断工具
AI聊天机器人可用于整合医疗信息,但绝不能替代专业医生的诊疗建议。美国食品药品监督管理局(FDA)强调,若无专业医疗人员监督,任何AI工具都不可用于医疗诊断或作出治疗决策。
了解AI的局限性
大多数AI模型都是基于过去某个时间节点的数据进行训练。以2023年数据训练的AI聊天机器人,可能完全不了解2024年及之后更新的诊疗指南或新批准药物。即便是专门提供医疗建议的AI工具,也可能会援引不相关信息,给出不一致的建议。
学会识别虚假医疗信息
需警惕过度直白简化的解释、夸大其词的论断或缺少信息来源的情况——这些都是虚假医疗信息的典型特征。提高数字健康素养对安全获取网络医疗信息至关重要。
世卫组织呼吁:“展平信息疫情曲线”(世卫组织信息疫情指南)
世卫组织针对健康信息评估提出七项实用建议:
- 评估信息来源——是否来自公认的卫生权威机构或同行评审期刊?
- 核对发布日期——该信息是否及时更新?
- 交叉验证事实——与PubMed或世卫组织等官方网站内容进行比较核对。
- 向事实核查机构求证——利用专业核查服务(如FactCheck.org)。
- 关注透明度——是否注明作者、资金来源及利益冲突声明?
- 评估证据等级——建议是否基于对照试验或专家共识?
- 警惕夸张表述——提防标题党用语和煽情式表达。
加强人工监督
目前多家医院部署的AI聊天机器人的回复会由临床医师审核,确保其兼具准确性与时效性。斯坦福医学院研究发现,使用聊天机器人的医生,其表现与AI不相上下,且显著优于仅依赖网络搜索的同行——这凸显了“人工+AI”模式的优势。
需谨记:技术可为健康信息提供支持,但绝不能取代使用者自身的谨慎判断。
本文仅做提供医疗保健知识用途。并非所有的创新成果都可用于或被批准用于临床。AsiaMD可能从参与开发这些创新产品的公司或机构处获得资金或非资金赞助。然而,AsiaMD不对文中出现的任何具体产品或服务表示认可,其他请参阅使用AsiaMD.com网站的条款及条件。如需了解更多信息,请咨询您的医疗保健专家。
0条评论