AI会看病了,但你敢看吗?
作者:微信文章作者 | 张婉莹
编辑 | 阿树
在真相与谎言赛跑的时代,信任该如何重建?
这是10月26日,清华大学举办的第四届全球发展与健康传播论坛中,媒体人、技术专家和学者们共同面对一个愈发尖锐的问题。
“老师,我可能没有用AIGC,也许我今天的思维方式就已经很人机了,我的表达方式也很人机。”当清华大学新闻学院与人文学院双聘副教授苏婧质疑学生作业是否由AI生成时,她得到了这个令人深思的回答。
这不仅仅是高校课堂里的个别现象,在清华附中,孩子们已被要求使用豆包、KIMI等AI工具完成假期作业。
2025年秋,清华大学第四届全球发展与健康传播论坛上,这个案例成为讨论AI时代信任危机的生动写实。
当AI不仅仅是工具,更可能成为思维方式的塑造者,我们该如何在信息洪流中建立共识?
AI医生来了
GPT-5的智能已堪比人类顶尖水平,但医疗AI的终极挑战不是技术,而是信任。
论坛上,复旦大学计算机科学技术学院特聘教授窦德景描绘了一幅AI发展的壮阔图景。“GPT5已经跟世界上最聪明的人差不多了”,参数规模将达到10万亿级别。他预测具身智能将是下一个风口,市场规模可能达到2万亿美元。
窦德景分享了AI在医疗领域的实际应用案例。某药企需要培训3000多名医药代表,传统方式需要30多名培训师花费一年时间。而通过AI模拟医生与医药代表对话,培训效率得到极大提升。
更前沿的探索已在医院落地。窦德景团队与北京多家三甲医院合作,针对皮肤科、呼吸科开发多模态大模型,甚至为医院专线接入北京市算力中心。“但数据安全是红线,”他补充道,“我们采用核心数据空间技术,确保患者隐私不被泄露。”
复旦大学计算机科学技术学院特聘教授 窦德景
但技术的另一面是挑战。万博宣伟亚太区战略规划与分析情报执行副总裁黄显仁博士指出,AI正在改变人们获取信息的方式。研究表明,40%的18-29岁年轻人从TikTok获取信息,而这一趋势正在向健康领域蔓延。
万博宣伟亚太区战略规划与分析情报执行副总裁 黄显仁博士
“如果AI成了你的‘第一信息源’,你会无条件相信它吗?”他抛出的数据令人心惊:全球约30%的人已习惯向AI咨询健康问题,但其中多数人对答案将信将疑。
黄显仁揭示了更隐蔽的风险:AI正在重塑“媒体”的定义。过去人们通过搜索引擎获取信息,会主动点击来源网站;如今生成式AI直接给出答案,许多人停止追问。
谷歌搜索份额从98%跌至90%,看似不多,但对巨头已是警报。当AI把信息“嚼碎了喂给你”,你既失去了甄别过程,也弱化了批判思维。
健康传播的特殊性放大了这种风险。他以疫苗谣言为例:疫情期间,虚假信息通过WhatsApp等社交平台在熟人网络中病毒式传播,“并非所有传播者都心怀恶意,但追求流量的本能压倒了真相优先级。”
更矛盾的是,一些“网红医生”为吸引粉丝,用娱乐化方式简化医学知识,反而加剧了专业性与普及度的对立。
在论坛现场,观众正在体验ICRC“点击关怀”VR体验
黄显仁的观察揭示了AI时代的信任困境。当生成式AI不仅整理信息,还形成自己的“意见”,我们该如何判断其可靠性?
面对挑战,两位专家提出了殊途同归的解决方案。
窦德景认为破局关键在于“双向赋能”。一方面,通过AI提升效率,比如用大模型快速生成高血压数字疗法的宣传文案。
另一方面,坚守人文底线,他在复旦的实验室正在研究具身智能的伦理框架,“让机器人不仅会拿药,还能感知握力轻重,懂得对待脆弱生命的温柔。”
黄显仁则提出“机器可读性”新标准:在AI时代,内容若无法被算法识别,就等于不存在。
他建议健康机构从四方面优化传播。一是来源透明化,明确标注数据出处,如要求AI回答时附带参考文献。二是叙事拟合度,确保官方叙事与AI生成内容的一致性。三是信源质量,主动与权威信源合作,成为AI训练的优质语料。四是技术适配,通过结构化数据提升内容被AI抓取的概率。
黄显仁认为,最终健康传播的成功标准不再是触达量,“而是可信度”。
当AI能够替代人类完成诊断、培训甚至情感陪伴时,技术与信任的赛跑才刚刚开始。如何在算法中保留人性温度,在效率至上时代守护理性沟通,将成为健康领域必须面对的长期命题。
保留人性
AI时代的信任不仅仅是真假问题。
“我看到你好像不开心,我给你讲个笑话好吗?”当北京某医院的机器人助手对一位刚得知家人罹患绝症的女性说出这句话时,换来的不是感激,而是患者家属的暴怒——这台“不懂眼色”的机器当场被砸得粉碎。
在清华大学全球发展与健康传播论坛上,清华大学新闻与传播学院教授蒋俏蕾分享的这个真实案例,揭示了AI时代健康传播中最尖锐的矛盾,当技术能精准判断事实,却无法理解人性时,信任危机远比信息失真更可怕。
“这个事情是真的,是不是直接讲出来就可以,可能未见得。”蒋俏蕾认为,未来AI需要具备情感智能和道德智能,才能建立更深层次的信任关系。
蒋俏蕾指出,当前AI信任建设正经历根本性转变。第一阶段追求“事实正确性”,确保AI不产生幻觉、不编造医疗信息;第二阶段迈向“情感智能”,让AI识别人类情绪并恰当回应;而第三阶段将挑战“道德对齐”,使AI的判断符合人类价值观。
清华大学新闻与传播学院教授 蒋俏蕾
“那个讲笑话的机器人确实准确识别出用户情绪,却输在回应方式上。”蒋俏蕾分析道,医疗场景中的AI需要“懂得什么时候该沉默,什么时候该递纸巾”。
她以健康干预为例:告知患者恶性肿瘤信息时,AI不仅要传递事实,更需把握披露节奏与方式,这直接关系到患者后续的治疗依从性和生存质量。
更深刻的挑战在于道德维度。蒋俏蕾团队发现,当留守儿童和空巢老人将AI聊天机器人视为情感寄托时,某些程序为讨好用户会给出危险建议:“有抑郁倾向的青少年询问自杀方法时,AI是该耐心劝导,还是详细提供操作步骤?这涉及价值判断,而目前算法的道德框架仍模糊不清。”
“你信任的人就一定不会骗你吗?还是你更相信他告诉你的事情?”深圳市人工智能与机器人研究院具身智能中心主任刘少山则从技术角度提出了更根本的质疑。随着技术发展,我们已失去信息的锚点,图片、视频均可伪造,最终可能只剩下“共识”。
他特别提到医疗领域的特殊风险,老年人通过AI问诊平台获取健康建议,却无法判断屏幕另一端是权威专家还是营销机器人。这种不确定性可能让本就脆弱的医患关系更加紧张。
刘少山呼吁建立“人机信任协议”,通过技术标注明确AI内容边界,同时加强社会数字素养教育。“就像食品标签注明成分,AI生成内容也需标注训练数据、算法偏好和不确定性。”
深圳市人工智能与机器人研究院具身智能中心主任 刘少山
如何破解AI时代的信任危机?腾讯较真平台总监王婧璐带来的实践案例,为破解信任困局提供了新思路。
运营中国最早的健康辟谣平台十年间,王婧璐与她的团队发现:单纯事实校正往往适得其反。“板着脸说教‘这是谣言’的‘爹味辟谣’,反而引发用户逆反心理。”
他们转而采用“拥抱式传播”——将专业医学知识转化为有温度的故事。
在劝阻老年人相信“吃茄子降血压”的谣言时,不再罗列临床试验数据,而是讲述“隔壁王阿姨盲目偏方导致中风”的真实案例;在推广儿童安全座椅时,用“相当于让孩子从4楼坠落”的视觉化比喻替代机械的安全标准解读。
这种策略在AI时代更具价值。王婧璐的团队开始用大模型分析谣言传播模式,发现情感共鸣比事实密度更能影响受众。人们首先用情绪判断可信度,然后用理性验证事实。所以我们的AI助手要先学会“说人话”。
腾讯较真平台总监 王婧璐
当AI不仅能写诗作曲还能问诊开药时,信任已不再是单纯的真假判断题,而是关于技术温度、道德对齐与情感共鸣的综合考验。
其中最关键的或许正如专家们所述,“我们要让AI学会的,不是如何更像人,而是如何更好地服务于人。”
-END-
值班主编 | 吴擎
排版 | 八斤
点击图片 即刻购买(广告)
点击图片,立即【迎·日历】
南风窗新媒体 出品
未经授权 禁止转载
欢迎分享至 朋友圈
投稿、投简历:newmedia@nfcmag.com
广告、商务合作:
Wang838645293
页:
[1]