AI取代人类?还没那么快
作者:微信文章经常用AI的朋友们在体验AI模型的“聪明”的同时,一定也经常遇到AI犯傻的时刻。
这和AI的工作原理是息息相关的。
语言理解还是是概率赌博?
以教AI认苹果为例来看看AI的工作模式:
第一阶段:填鸭式教育(预训练)
先给它看100万张苹果图片(红的/绿的/被咬过的...),AI会自己总结规律:"圆形+有把+红色≈苹果"。这时候它可能把西红柿认成苹果,就像小朋友犯错一样。
·第二阶段:家教特训(微调)
发现错误后,你告诉它:"要看有没有果蒂!"AI就会调整判断标准。这个过程叫反向传播——就像你骑车摔倒后,大脑自动记住"车把左歪时要往右蹬"。
所以AI模型看上去理解了语言并作出回答,实际只是通过海量数据训练出来的公式生成概率最高的答案。
2025年2月16日《科学报告》研究显示,AI模型在简单文本理解任务中表现远逊于人类:
· 准确率差距:人类平均准确率89%,而表现最佳的ChatGPT-4仅83%,其他模型(如Llama2、Gemini)未超过70%。
· 一致性不足:人类重复回答一致性达87%,而AI模型仅66%-83%。
根本原因在于,AI依赖统计模式匹配而非语义理解。例如,模型无法结合语境、文化背景解析双关语或隐喻(如“道是无晴却有晴”),仅能机械生成概率最高的文本序列。
当然,有人会发现,人类刚开始不也是这样吗——接触多次苹果后才能分辨出苹果的样子——靠经验来获得认知。
但是人类更厉害的地方在于,具有逻辑思维能力。
比如大家背的九九乘法表,往往是机械记忆。
但是两位数的乘法,则是先学会计算程序,再结合九九乘法表来解决,不用死记硬背所有两位数的乘法结果。
但现在的大语言模型似乎还是全靠已有数据归纳总结,稍微要进行推理的部分还是有点弱。
甚至时不时出现幻觉问题:模型可能生成看似合理但完全错误的内容。典型案例包括:
· 律师使用ChatGPT时引用虚构法律案例,导致法庭文件被驳回;
· 医疗AI误诊率因数据偏差高达12%,尤其在罕见病领域。
其根源在于Transformer架构的概率预测机制——模型仅优化token序列的连贯性,而非事实准确性。
不过Deepseek在推理方面已经有了长足的进步,不过在具有时效性的问题分析上还是明显有缺陷。
总之,当前AI的“智能”本质是数据拟合与模式优化,而非真正的认知能力。突破这些局限需跨学科协作——例如将认知科学框架引入神经网络设计,或通过RAG(检索增强生成)技术缓解知识更新难题。未来3-5年,AI发展将聚焦“可解释性增强”与“人机协同范式”,而非单纯追求规模扩张。
AI取代人类,还没那么快。
页:
[1]