
众议院在5月6日的医疗资源,长期等待时间和成本增加的背景下报告了这一点,越来越多的人开始使用人工智能聊天机器人(例如Chatgpt)进行医疗自我诊断。根据一项新调查,大约六分之一的美国成年人每月至少使用一次聊天机器人来获得健康建议。但是,对聊天机器人产出的过度信心会带来风险。牛津大学(University of of of of Soxford)领导的一项最新研究教导说,人们经常难以提供基本信息,这些信息在向聊天机器人提供信息时可以获得最佳健康建议。牛津互联网研究所研究生计划主任,研究的合着者亚当·马赫迪(Adam Mahdi)说:“这项研究显示了双向通信障碍。” “使用聊天机器人的人比依靠传统方法(例如在线搜索或自己的判断)做出更好的决定。”为了进行研究,研究人员招募了约1,300名英国参与者,并给予了根据家中的一群医生,医疗情况。参与者需要在这些情况下确定潜在的健康状况,并使用聊天机器人及其自己的方法来确定可能的行动方案(例如,去看医生或去医院)。在研究中,参与者使用了默认的AI模型GPT-4O,从而增强了Chatgpt,以及命令R+和Meta的Llama 3。研究的结果表明,聊天机器人不仅使PPATECTIPANT更难知道相关的健康状况,而且比他们已经确定的健康状况的小小更可能更少。 Mahdi指出,参与者在询问聊天机器人或收到困难的答案时通常会错过关键细节。他补充说:“他们从聊天机器人那里得到的答案通常是混合的建议。” “当前审查聊天机器人的方法并不能反映与人类用户互动的复杂性。”同时,科技公司不断推动G使用人工智能作为改善健康的一种方式。据报道,苹果可以开发一种可以提供有关运动,饮食和睡眠的建议;亚马逊探索了一种基于AI的方法来检查医学数据库中的“健康社会决定”; Microsoft帮助开发AI,将患者发送给护理提供者发送的消息首先分类。但是,专业人士和患者都不同于AI是否准备用于高危健康应用。美国医学协会建议医生不要使用聊天机器人(例如Chatgpt)来帮助临床决策,以及包括OpenAI在内的主要AI公司,请根据聊天机器人产出的结果警告诊断。 Mahdi说:“我们建议依靠可信的信息来源,例如新药的临床试验。”在部署聊天机器人系统之前,应在现实世界中进行试验。携带