news 2026/2/18 2:42:05

收藏必看:大语言模型的6大局限性:从幻觉到多模态,一篇读懂LLM的边界

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏必看:大语言模型的6大局限性:从幻觉到多模态,一篇读懂LLM的边界

大语言模型发展到今天,人们已经发现了它的很多局限性。研究者们试图通过改进模型来消除它们,模型使用者们也设计了很多机制来规避这些局限性的影响。今天一起来读一篇综述论文,系统地了解一下LLM的局限性到底有哪些:

《On the Fundamental Limits of LLMs at Scale》 https://arxiv.org/abs/2511.12869

全文分为六个章节:

  • • 模型幻觉
  • • 上下文的局限
  • • 推理能力的问题
  • • 查询的脆弱性
  • • 多模态问题
  • • Benchmark的局限

这篇文章的贡献在于,不但系统性地阐述了这些局限,而且用形式化的表达(数学公式)来精确地证明了一些局限性为什么不可避免。以下分章节总结这篇论文的要点。关于各个局限性的形式化论证,请参考原论文。

幻觉

首先在数学上,模型幻觉是不可能根除的。从可计算性理论来说,总是可以构造一个数据分布,让模型无法精确拟合这个分布,在一些数据点上出现幻觉;另外,总有一些无法计算的问题,比如图灵停机问题,模型在其上必出现幻觉。从信息论的角度来说,模型的容量(参数量)是有限的,必然无法在无限的问题空间中做到准确预测。

其次,训练数据本身也会必然带来各种幻觉问题。比如,数据的不完整性、时效性让模型无法存储未知数据;数据中存在噪音、虚假信息,模型无法判断真伪;数据的分布不均(skewed),让长尾部分的数据不能被模型有效记忆;数据的内部冲突,让模型的输出对prompt极其敏感,prompt的细微差异可能产生完全相反的答案;训练数据中benchmark的污染,让我们无法精确评估模型的能力。

模型的训练/评估方法鼓励模型编造答案,而不是承认无知(“我不知道”总是不得分,而编造答案总有一定猜中的几率)。RLHF也有Reward Hacking的问题,模型总是倾向于输出看起来流畅有条理、容易得到人类认可的文字,这可能会牺牲逻辑性、准确度。这里可以参见另一篇文章的讨论:LLM幻觉 - 怎样让LLM更加Truth-Seeking?

创造性(creativity)和准确度(factuality)不可调和的矛盾,或者说是Exploration和Exploitation二者的矛盾。要让模型的输出有一定的创造性(比如调节temperature等参数),输出的分布更广,准确性就必然会下降,而在某些领域,比如文学创作,幻觉本身就是创造性的一种体现;反之,限制输出的确定性,也必然导致创造力的降低。我们必须根据应用的领域做灵活调节。

上下文

尽管LLM的名义上下文(Context Window)在不断增长,能被模型有效使用的上下文长度却非常有限。关于这个问题有一个系统性的研究:Context Rot。模型无法有效使用整个Context,有几方面的原因:

训练数据在Context中存在左偏(Left skewed)。大部分训练数据都较短,集中在Context左侧,致使位于右侧的参数空间无法得到充分的训练。实际使用中,有效的Context长度远小于最大Context,往往不到最长训练数据的50%。

位置编码在长序列的情况下存在饱和(saturation)的问题。无论是Sin编码还是RoPE编码,距离过远的位置编码几乎都接近正交,严重丧失区分度。这使得模型难于处理距离较远token的关联性。最近的研究通过NTK-aware和Scaled RoPE来化解这个问题。

第三方面是注意力机制本身的问题。当token序列过长时,注意力呈现Overload现象(类似人类的注意力涣散)。

Softmax的机制中,大量的token会占据注意力的主体,一个token要获得足够的注意力,它的分数就必须比其他的token大Log(N)倍。N越大,就越难以达到这种非常显著的分数差距,或者说,难以获得高对比度的注意力分布。

另外,注意力机制中的平方级的运算,在长token序列的情况下,也给浮点数精度带来考验,错误积累和梯度消失的问题都会更加明显。

推理能力

时至今日,对于LLM是否真能胜任推理工作,仍然没有定论。比如这篇论文(苹果论文:LLM所谓的推理就是个幻觉[1])就曾引发很多争议。基于likelyhood的训练机制,使得LLM本质上就是一个“填空机器”,这和基于因果关系、固定规则的推理机制本质是不同的。

所以LLM只能捕捉到语言表面的相关性,对于复杂的、深层的推理问题往往表现不佳(汉诺塔[2]、象棋[3])。LLM在推理上的局限性有三个成因:

目标错配(mismatch)。我们训练的目标是最终结果的正确性,中间推理步骤不重要,甚至是可有可无的。这种激励机制会让模型编造看似合理、连贯的推理过程,应该改进一种按步骤反馈(step-aware)的机制,让推理步骤都能接收到奖惩信号。

模型往往会把错误的相关性数据(correlation)引入推理过程,而不是按照因果关系去推理

模型往往会陷入贪婪(或者说短视)的搜索策略,不会回溯。虽然推理中也会出现自我纠正的现象(Wait…),但是这种现象的成因到底是对人类推理过程的模仿,还是来自对问题本身的理解?在引导推理方面,已经有了一些成功的尝试,比如长/短推理。

作者认为这种推理能力上的局限性是根植于LLM模型结构和训练模式的,只有用新的范式才能根除,他也提到了HRM等新型架构。

文章列举了几种提高模型推理能力的实用手段:

  • • PAL - Program-Aided Language Models,用程序辅助大模型进行符号化的推理,比如用python脚本去解决汉诺塔问题。
  • • CoVe - Chain-of-Verification,用单步验证、自我修正的方式提高推理步骤的可靠性。
  • • Neuro-Symbolic Integration,把神经网络(LLM)和符号推理机制结合起来。
  • • 多模态推理 - 引入其他模态的Grounding,扩大推理证据的范围。

RAG

RAG系统已经是AI应用的一种主流模式。RAG系统的效果依赖两方面的因素,一是搜索的质量,即能不能找到相关的数据),二是LLM能不能充分利用Context中的引用数据。

Relevance–Coverage Dilemma。Context的空间是有限的,所以必须选择和问题相关的资料。如果引用资料很多,coverage有一定保障,但是可能包含很多无关数据;如果注重relevance,谨慎选择数据,可能会损失coverage,所以要有所取舍。

放入Context数据的排序也很重要。Context比较长的时候,会出现lost-in-the-middle的问题,只有开始和结束部分的token会获得比较高的注意力权重。所以,数据的不同排序会导致LLM得出不同的结果。

记忆污染问题。索引资料库中可能存在污染数据,它们和Query强相关,从而把其他相关数据排除在外。实验证明,只要5个“有毒”文档,就能导致RAG程序的表现下降90%。

LLM对于Context中的数据和问题是否相关没有很强的判别能力,无关数据可能构成distractor,影响LLM在问题上的表现:一篇无关文档就能让Performance下降30%。

在模型的世界知识和引用数据出现冲突时,还有一个“该信谁”的问题。要让模型把所有结论基于引用数据,需要额外的训练、引导。

多模态

多模态模型的一个主要问题就是文本模态的绝对主导地位,视觉模态的数据被强制转换到文本的空间中。文本数据在注意力结构中也存在压倒性的优势,论文提到一个例子:文本token的注意力是Vision token的157倍。

把多种模态融合在一个Latent空间中,等于人为创造了一个信息瓶颈,一个有损的信道。为了融合text和vision两种不同token,一般对Vision token进行分片(patchify),这种机制破坏了视觉数据的连续性。

不同模态数据之间会产生错误的相关性,导致跨模态的幻觉、跨模态的数据污染

不同模态之间的参数存在不同的学习速率,导致训练时难以对齐。和单文本模型不同,增大模型的大小并不能解决问题,因为不同模态的Scaling Law也有不同的特点(Divergent Scaling Laws)。

Benchmarks

Benchmark的首要问题当然是数据污染。不管是有意还是无意,Benchmark都已经进入各个模型的训练数据集。

对于LLM-as-judge的评估方式,也存在一些天然的缺陷:self-bias(对自身模型的偏向),Position bias(对不同位置数据的偏向),Verbosity bias(对较长内容的偏向)。

Benchmark常常忽略compute efficiency的比较:往往模型的算力消耗(FLOPs)越多,时间越长,效果越好,但是很多benchmark只比较最终结果,没有把计算效率纳入考虑。

测试结果的稳定性不高,采用不同的种子,不同的prompt的格式会得到不同的结果,模型的版本升级也会影响模型评估的准确性。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/12 6:26:52

水泥搅拌机数据采集远程监控系统方案

随着国家大规模基础设施建设的不断推进,水泥搅拌机作为关键施工设备,其市场需求呈现出持续增长的趋势。然而,这一增长态势也给设备制造商带来了运维服务上的巨大挑战。由于水泥搅拌机项目遍布全国各地,设备分布广泛且分散&#xf…

作者头像 李华
网站建设 2026/2/9 20:36:32

FF14智能钓鱼计时器:渔人的直感完整使用手册

FF14智能钓鱼计时器:渔人的直感完整使用手册 【免费下载链接】Fishers-Intuition 渔人的直感,最终幻想14钓鱼计时器 项目地址: https://gitcode.com/gh_mirrors/fi/Fishers-Intuition 还在为FF14钓鱼时错过关键时机而烦恼吗?渔人的直感…

作者头像 李华
网站建设 2026/2/11 6:39:20

构建软件测试中的伦理风险识别与评估体系

在人工智能与大数据技术蓬勃发展的今天,软件测试已从单纯的功能验证转向更广阔的责任疆域。根据Gartner 2024年预测,到2027年,未能建立系统化伦理风险评估机制的企业将面临30%以上的合规处罚风险。软件测试从业者作为产品质量的重要把关者&am…

作者头像 李华
网站建设 2026/2/14 13:14:04

OpenBoardView终极指南:快速掌握电路板文件查看技巧

OpenBoardView终极指南:快速掌握电路板文件查看技巧 【免费下载链接】OpenBoardView View .brd files 项目地址: https://gitcode.com/gh_mirrors/op/OpenBoardView 想要高效查看和分析电路板设计文件吗?OpenBoardView作为一款功能强大的开源软件…

作者头像 李华