toolin.ai logo
toolin.ai
首页
AI工具
AI技能包
AI资讯
精选推文
AI提示词
提交AI工具提交
toolin.ai logo
toolin.ai

百万AI玩家的创作利器库,发现最佳AI工具组合,提升您的创作效率

AI工具1,022个
技能包11个
产品功能
  • AI工具
  • AI技能包
  • AI资讯
  • 精选推文
关于我们
  • 关于Toolin
  • 联系我们
  • 合作洽谈
  • 更新日志
关注我们
© 2025 toolin.ai. All rights reserved.
服务条款隐私政策

Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍

2026/03/15
·toolin小编

Claude Opus 4.6 上下文从 200K 升级到 1M,实际可用空间从 118K 提升至 923K,长文本检索领先,API 取消长度溢价

Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍
Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍
2026/03/15

Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍

Claude Opus 4.6 上下文从 200K 升级到 1M,实际可用空间从 118K 提升至 923K,长文本检索领先,API 取消长度溢价

名义 5 倍,实际近 8 倍为什么上下文这么重要?长上下文检索:Claude 领先优势明显API 取消长度溢价其他两个实用更新如何使用?Toolin 点评
AI产品

Anthropic 刚刚为 Claude Opus 4.6 开放了 100 万 token 的上下文窗口。但这次更新的真实价值,远比"5倍提升"这个数字更夸张。

名义 5 倍,实际近 8 倍

大多数人会认为从 200K 到 1M 是 5 倍提升。但实际情况是:你真正可用的项目上下文空间提升了 7-8 倍。

原因很简单:200K 上下文中有大量空间被系统提示词、记忆、skills 和预留的 compact buffer 占据。真正留给你的项目上下文只有 100K 出头。

看两组实测数据对比:

Sonnet 4.6(200K 上下文)

  • 打开对话就用掉 25% 空间
  • Free space: 118K(58.8%)

Claude Sonnet 4.6 上下文占用

Opus 4.6(1M 上下文)

  • 同样的 skill 配置,只用掉 4% 空间
  • Free space: 923K(92.3%)

Claude Opus 4.6 上下文占用

923 ÷ 118 ≈ 7.8 倍。对于 skill 配置越重的用户,这个倍数会更夸张。

为什么上下文这么重要?

上下文不是存储容量,是模型的草稿纸。

想象你在解一道复杂数学题,做到一半草稿纸被拿走了。你的智商没变,但你解不出这道题了。

模型也一样。很多时候它出错不是因为不够聪明,而是看不见关键信息:

  • 代码开发:bug 的根源在三个文件之前的变量定义,但那段代码已经超出上下文了
  • 长文写作:写到后半段,前面的论点消失了,开始出现前后矛盾
  • 多轮对话:第 3 轮定的约束到第 30 轮就忘了,建议越来越离谱

上下文越小,这类"残缺"越多,判断越差。

长上下文检索:Claude 领先优势明显

Anthropic 用 MRCR v2(8-needle)测试了长上下文检索能力——在超长文本中同时找多个关键信息:

长上下文检索对比

模型256K1M
Claude Opus 4.691.9%78.3%
Claude Sonnet 4.690.6%65.1%
GPT-5.479.3%36.6%
Gemini 3.1 Pro59.1%25.9%

上下文越长,差距越大。256K 时几个模型还挤在一起,拉到 1M 后,GPT-5.4 掉到 36.6%,Gemini 3.1 Pro 只剩 25.9%,Claude Opus 4.6 还保持在 78.3%。

API 取消长度溢价

以前 OpenAI 对长上下文收"长度税":超过 272K 输入收 2 倍单价,输出 1.5 倍。

现在 Anthropic 取消了这个溢价:900K token 的请求和 9K token 一个价。

长上下文终于从"高级功能"变成了模型的标配能力。

其他两个实用更新

1. 图片/PDF 上限:100 → 600

以前处理一堆 PDF 要手动拆批,现在一次喂进去。写文章整理十几张截图和参考资料,直接省了好几步。

2. Adaptive Thinking 转正式版

模型自己判断什么时候需要深度思考、什么时候直接回答,不用你手动配置推理深度。

如何使用?

  • Claude Code Max/Team/Enterprise:默认启用,无需设置
  • Pro 版和 Sonnet:使用 /extra-usage 手动开启
  • API 用户:直接调用,无需额外参数

根据 Claude Code PM Boris Cherny 的说法,使用 1M 上下文后,自动压缩事件减少了 15%。对长期迭代的复杂项目,这个价值至少等于模型能力提升 10%-20%。

Toolin 点评

这次更新的核心价值不在"更大",而在让你不用再做减法。

以前你得精心挑选哪些信息放进上下文,每次删减都是在赌"这段不重要"。赌错了,模型就会在某个看不见的地方犯错。

现在你可以放心把所有相关信息都喂给模型。对于需要处理大型代码库、长文档、多轮复杂对话的场景,这是质的飞跃。

适合谁?

  • 需要处理大型代码项目的开发者
  • 长文写作和研究工作者
  • 需要维护长期对话上下文的用户

不适合谁?

  • 只做简单问答的轻度用户(200K 够用)
  • 预算敏感且不需要长上下文的场景
所有文章

作者

avatar for toolin小编
toolin小编

分类

  • AI产品
名义 5 倍,实际近 8 倍为什么上下文这么重要?长上下文检索:Claude 领先优势明显API 取消长度溢价其他两个实用更新如何使用?Toolin 点评

相关文章

CC Switch:一键切换6大Agent模型的开源神器
AI教程

CC Switch:一键切换6大Agent模型的开源神器

GitHub 50K星标的开源桌面工具,支持在Claude Code、OpenClaw等6个Agent中一键切换模型,附带用量追踪和故障转移功能

avatar for toolin小编
toolin小编
1天前
DeepSeek 发布视觉原语技术:让AI学会边指边想
AI产品

DeepSeek 发布视觉原语技术:让AI学会边指边想

DeepSeek 公布多模态推理新技术 Thinking with Visual Primitives,用坐标替代语言描述,在多项视觉推理任务上超越 GPT-5.4 和 Claude Sonnet 4.6

avatar for toolin小编
toolin小编
23小时前
MiniCPM-o 4.5:消费级显卡跑全双工全模态AI助手
AI产品

MiniCPM-o 4.5:消费级显卡跑全双工全模态AI助手

面壁智能开源9B参数全双工全模态模型,12GB显存即可本地运行,支持边看边听边说,附在线Demo和一键安装包

avatar for toolin小编
toolin小编
1天前