最近好像得了感冒,新闻说人工智能(AI)已可以查出来早期癌症还能看舌苔,便用ChatGPT询问自己的症状。

不知道是吃了抗过敏药还是感冒症状,身体有些虚弱,于是问ChatGPT:“我身体无力、少量活动就会不停流汗,还有点喘不过来气,这是怎么回事?”它的“语气”突然变得严肃,列出一系列可能,还说:“须要认真对待”“准备好去医院”。

我顿时紧张,以为吃错药伤了肾。越想越慌,心跳更快,呼吸更急。慌乱中,我又带着“新症状”去问它,它说:“这是较危险的症状组合,可能危及生命”“如果加重立即拨打995,能忍受也建议尽快去医院”。

这下我更加认定器官出问题,赶紧叫太太陪我去急诊,并把经过全讲给她听。她先有点担心,听完后却平静地说:“你脸色这么红润,不像器官问题。”我照镜子一看,果然红彤彤的。她又说:“你这个症状比较像恐慌症。”

隔两天去诊所,果然基本指标一切正常,医生诊断也是恐慌症,让我注意调节情绪和心理压力。

折腾一番除了觉得可笑,也琢磨哪里出了问题。我想质问AI,为什么当时不说“可能是恐慌症”?但回看对话,发现可能是自己给它的信息不准确。或者说,我这个医学门外汉描述的症状,和自己当时的真实情况有严重偏差,所以AI的回答也没什么参考意义。例如,我自己都不确定是流感还是感冒,却告诉它“我好像感冒了”。后来出现的症状也可能是流感反复造成的。更重要的是,我的描述主观笼统,如“乏力、出汗、心跳快”,却没有提供心跳数、血压等具体数据。这类主观感受可以很严重,也可能什么事都没有。

看病时医生给的是诊断,而AI只是根据我输入的文字,总结归纳网上案例,提供更多相关信息。我用AI“看病”时,其实还是我在主导着整个过程,给自己的症状下定义,AI无法跳出我的引导和定义进行反驳。当我认定自己有问题时,它只能不断根据我的描述推送更严重的可能,制造一种“反复确认我有病”的假象。所以,这次的庸医是我自己。

医生不会听什么就信什么,有些人没病却觉得自己很多病;有些人病情严重却说“没什么”。医生不仅倾听,还会观察病人的状态,获取很多语言没有表达出来的信息,综合检测结果,对病人状态、心理、病史一系列的了解,再结合医学专业与行医经验,得出治疗方案。

从心理角度看,“未知”有时比糟糕的结果更令人恐惧。比如我说心脏不舒服,AI会列出很多种造成心脏问题的原因,这反而会让我不停地猜测以致恐慌。医生则有语言技巧,会排除不相关信息,用病人能接受的方式告知病情。

可见,人工智能时代虽然降临,但专业依旧有着无可替代的价值,尤其像医学这样既复杂又涉及与人沟通的学科。毕竟连AI自己也说:“AI不是医生,它没有办法检查你的身体、测量指标,也不能承担医疗责任。”