AI编程 · 架构思考 · 技术人生

LLMs中的'幻觉神经元':存在、影响与起源研究

智谱 GLM,支持多语言、多任务推理。从写作到代码生成,从搜索到知识问答,AI 生产力的中国解法。

大型语言模型(LLMs)经常产生看似合理但事实不正确的输出(即’幻觉’),严重影响其可靠性。本研究首次从神经元层面系统探索了与幻觉相关的神经元(H-Neurons)。研究发现,极少数神经元(不到总神经元的0.1%)可以可靠预测幻觉发生,且在不同场景下有很强的泛化能力。控制性实验证实这些神经元与模型的过度服从行为有因果关系。更令人惊讶的是,这些神经元可追溯到预训练阶段,表明它们在基础模型形成时就已出现。这一发现连接了AI模型的宏观行为模式与微观神经机制,为开发更可靠的LLMs提供了新思路和新方法。该研究对AI安全性、可靠性以及模型设计具有重要指导意义。

原文链接:Hacker News

赞(0)
未经允许不得转载:Toy's Tech Notes » LLMs中的'幻觉神经元':存在、影响与起源研究
免费、开放、可编程的智能路由方案,让你的服务随时随地在线。

评论 抢沙发

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始