当前AI发展阶段,已浮现出估值、技术、应用与商业化四重泡沫。其中技术泡沫的核心表现,便是炒作AI的“万能性”、将技术神化,却刻意忽视其存在的幻觉、推理局限、知识滞后等固有缺陷。
近期,张文宏教授在高山书院十周年论坛上的表态引发关注:“在我们医院,我拒绝把AI引入病历系统。”这句话看似“逆潮流而行”,背后却蕴含着严谨的逻辑与深刻的现实考量。张教授坦言,自己会先让AI分析病例,再凭借专业经验甄别其中的错误,而他对AI的这份专业担忧,直指AI幻觉问题——这正是技术泡沫的典型具象。
所谓AI“幻觉”(AI Hallucination),是指AI模型生成内容表面看似合理,实际却存在荒谬偏差或事实错误的现象。回归张文宏教授的核心观点,医生的职业成长无捷径可走,医学界更需对AI幻觉保持高度警惕:若将存在此类缺陷的AI用于临床诊断,极易引发严重后果,甚至危及患者生命。简言之,AI不应试图“替代医生”,而应找准定位——辅助医生,让医生成为更优秀的医生。
2026年1月,杭州互联网法院审结全国首例由生成式AI“幻觉”引发的侵权纠纷,为AI服务的责任划分树立了关键判例。该案中,一名考生家属通过某AI平台查询高校报考信息,平台不仅生成了不存在的校区信息,还在被用户质疑时作出“如有错误赔偿10万元”的承诺;用户核实信息错误后提起诉讼,最终法院一审驳回了原告的诉讼请求。
面对AI幻觉这一行业共性问题,亟需从技术研发、法律规范、用户认知三个维度构建全方位治理体系。走近AI,走进AI,让人类与AI各展所长、相辅相成,才能真正实现AI与人类的共生并行、良性发展。