知道“题目是什么、目的是什么”,而是推测“在这种上下文中,最可能出现的词或句子是什么”;
? 比如:它可以写诗、写代码,但并不能天然知道“这个代码是否安全”“这首诗是否表达了想表达的情绪”。
结论:任务导向的“目标函数”缺失 → 无法学会“为什么做”。
?
3. 可解释性角度:非标注训练缺乏因果结构建模
? 人类通过监督学习明确学习“因果—目的—手段”结构;
? 但大语言模型更像是“相关性结构模拟器”;
? 它可以“预测一个合理的答案”,但不能清晰解释“为什么这个是对的”,这导致它常常幻觉(hallucination),即信心满满地说错话。
结论:缺乏标注训练导致“因果推理能力弱化”,解释力不足。
?
三、类比视角:大模型 vs 人类学习
我们可以做几个有趣的类比来更好理解:
模型机制
类比人类
结果
自监督训练
看大量书籍和对话,但没人教你正确答案
可形成语言风格、思维路径,但很难准确判断对错
监督训练
老师出题、讲解并纠错
能建立清晰的“任务-结果-反馈”链条
强化学习
实践中不断试错并获得反馈
学会策略优化,但很依赖奖励设计
未训练领域
没人讲解、也从没见过的知识
只能“猜”而不是“知道”
所以,大模型并非“全知”,而是“巨量输入+相关性建模”的结果。没有明确监督和反馈,它可以“模仿得很好”,但无法“知道得准确”。
?
四、哲学层面:知识的完整性依赖于目的性与验证路径
知识完整性的构建不仅依赖数据,而更依赖:
1. 目的性(Goal-oriented learning):你学习是为了什么?没有目标就没有选择与筛选;
2. 验证路径(Validation mechanism):你怎么知道你学对了?没有反馈就无法修正偏差;
3. 理论抽象(Theory abstraction):你是否能将个例升华为结构?这需要
本章未完,请点击下一页继续阅读! 第2页 / 共3页