当前位置:首页 > 研报详细页

电子行业:海通国际-中国电子行业:OpenAI发布报告解析大语言模型幻觉根源与治理路径,从机制机理到评测优化-250923

研报作者:姚书桥,吕小潼 来自:海通国际 时间:2025-09-23 23:21:45
  • 股票名称
    电子行业
  • 股票代码
  • 研报类型
    (PDF)
  • 发布者
    133****352
  • 研报出处
    海通国际
  • 研报页数
    9 页
  • 推荐评级
  • 研报大小
    994 KB
研究报告内容
1/9

核心要点1

- OpenAI发布的报告阐释了大语言模型幻觉的根源,指出其来源于概率生成范式下的表征偏移与训练数据偏差。

- 报告建议通过优化评测机制和训练流程,建立治理框架,以提升AI模型的可信性和减少幻觉现象。

- 评测机制的设计缺陷导致模型在不确定时倾向于猜测,报告提出设定“信心阈值”以激励模型在低确定性情况下主动表达不确定性。

核心要点2

OpenAI于2025年9月4日发布的理论报告《Why Language Models Hallucinate》系统性探讨了大语言模型产生幻觉的内在机制,指出其根源在于概率生成范式下的表征偏移和训练数据偏差。

报告建议从评测体系构建和训练流程优化两个方面入手,建立治理框架,以推动AI行业从粗放型模型向高可信性转型。

报告强调,即使训练数据完全正确,基于统计概率的预训练目标也会导致错误生成。

通过将“回答有效性”视为二分类任务,研究证明生成错误率与分类错误概率存在明确关联。

同时,模型在经过人类反馈强化学习后表现出“过度自信”,这为模型生成似是而非内容提供了关键证据。

报告分析了特定类型事实幻觉的产生机制,指出低频率事实的高稀疏性是导致模型更易产生幻觉的关键因素,并通过“单例率”量化了这种稀疏性。

这解释了为何高频率常识性问题通常回答准确,而低频率长尾知识更易出现幻觉。

评测机制设计缺陷被认为是模型幻觉难以根治的重要原因。

当前主流评测基准采用的二元评价体系激励模型在不确定时倾向于猜测而非拒绝生成,从而增加了幻觉风险。

报告提出优化评测机制的建议,包括设置“信心阈值”和相应的错误惩罚机制,以激励模型在低确定性情况下主动表达不确定性。

最后,报告指出行业面临的风险包括需求疲软、供应链风险和竞争加剧。

投资标的及推荐理由

投资标的:大语言模型相关技术公司、AI治理技术公司 推荐理由: 1. 随着OpenAI发布的报告深入分析大语言模型幻觉的根源及治理路径,相关技术公司有望在优化模型训练和评测机制方面获得重要发展机遇。

2. 报告指出,当前模型的训练和评测机制存在缺陷,导致幻觉现象难以根治,这为专注于AI治理和模型可信度提升的公司提供了市场需求。

3. 通过优化评测机制,设定信心阈值等措施,可以有效提高模型的可靠性,推动行业向高可信方向演进,进而提升相关公司的市场竞争力。

4. 随着AI全产业链估值体系的重构,投资于相关技术公司能够把握行业转型带来的潜在增长机会。

推荐给朋友: 收藏    |      
  • 大家关注
尊敬的用户您好!
         为了让您更全面、更快捷、更深度的使用本服务,请您"立即下载" 安装《慧博智能策略终端
         使用终端不仅可以免费查阅各大机构的研究报告,第一手的投资资讯,还提供大量研报加工数据,盈利预测数据,历史财务数据,宏观经济数据,以及宏观及行业研究思路,公司研究方法,可多角度观测市场,用更多维度的视点辅助投资者作出投资决策。
         目前本终端广泛应用于券商,公募基金,私募基金,保险,银行理财,信托,QFII,上市公司战略部,资产管理公司,投资咨询公司,VC/PE等。
慧博投资分析手机版 手机扫码轻松下载