- OpenAI发布的报告阐释了大语言模型幻觉的根源,指出其来源于概率生成范式下的表征偏移与训练数据偏差。
- 报告建议通过优化评测机制和训练流程,建立治理框架,以提升AI模型的可信性和减少幻觉现象。
- 评测机制的设计缺陷导致模型在不确定时倾向于猜测,报告提出设定“信心阈值”以激励模型在低确定性情况下主动表达不确定性。
核心要点2
OpenAI于2025年9月4日发布的理论报告《Why Language Models Hallucinate》系统性探讨了大语言模型产生幻觉的内在机制,指出其根源在于概率生成范式下的表征偏移和训练数据偏差。
报告建议从评测体系构建和训练流程优化两个方面入手,建立治理框架,以推动AI行业从粗放型模型向高可信性转型。
报告强调,即使训练数据完全正确,基于统计概率的预训练目标也会导致错误生成。
通过将“回答有效性”视为二分类任务,研究证明生成错误率与分类错误概率存在明确关联。
同时,模型在经过人类反馈强化学习后表现出“过度自信”,这为模型生成似是而非内容提供了关键证据。
报告分析了特定类型事实幻觉的产生机制,指出低频率事实的高稀疏性是导致模型更易产生幻觉的关键因素,并通过“单例率”量化了这种稀疏性。
这解释了为何高频率常识性问题通常回答准确,而低频率长尾知识更易出现幻觉。
评测机制设计缺陷被认为是模型幻觉难以根治的重要原因。
当前主流评测基准采用的二元评价体系激励模型在不确定时倾向于猜测而非拒绝生成,从而增加了幻觉风险。
报告提出优化评测机制的建议,包括设置“信心阈值”和相应的错误惩罚机制,以激励模型在低确定性情况下主动表达不确定性。
最后,报告指出行业面临的风险包括需求疲软、供应链风险和竞争加剧。
投资标的及推荐理由投资标的:大语言模型相关技术公司、AI治理技术公司 推荐理由: 1. 随着OpenAI发布的报告深入分析大语言模型幻觉的根源及治理路径,相关技术公司有望在优化模型训练和评测机制方面获得重要发展机遇。
2. 报告指出,当前模型的训练和评测机制存在缺陷,导致幻觉现象难以根治,这为专注于AI治理和模型可信度提升的公司提供了市场需求。
3. 通过优化评测机制,设定信心阈值等措施,可以有效提高模型的可靠性,推动行业向高可信方向演进,进而提升相关公司的市场竞争力。
4. 随着AI全产业链估值体系的重构,投资于相关技术公司能够把握行业转型带来的潜在增长机会。