toolin.ai logo
toolin.ai
首页
所有AI工具
AI技能包
AI教程
提交AI工具提交
toolin.ai logo
toolin.ai

百万AI玩家的创作利器库,发现最佳AI工具组合,提升您的创作效率

AI工具717个
技能包10个
产品功能
  • 所有AI工具
  • AI技能包
  • AI教程
关于我们
  • 关于Toolin
  • 联系我们
  • 合作洽谈
  • 更新日志
关注我们
© 2025 toolin.ai. All rights reserved.
服务条款隐私政策
Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍
2026/03/15

Claude Opus 4.6 开放 1M 上下文:实际可用空间提升近 8 倍

Claude Opus 4.6 上下文从 200K 升级到 1M,实际可用空间从 118K 提升至 923K,长文本检索领先,API 取消长度溢价

Anthropic 刚刚为 Claude Opus 4.6 开放了 100 万 token 的上下文窗口。但这次更新的真实价值,远比"5倍提升"这个数字更夸张。

名义 5 倍,实际近 8 倍

大多数人会认为从 200K 到 1M 是 5 倍提升。但实际情况是:你真正可用的项目上下文空间提升了 7-8 倍。

原因很简单:200K 上下文中有大量空间被系统提示词、记忆、skills 和预留的 compact buffer 占据。真正留给你的项目上下文只有 100K 出头。

看两组实测数据对比:

Sonnet 4.6(200K 上下文)

  • 打开对话就用掉 25% 空间
  • Free space: 118K(58.8%)

Claude Sonnet 4.6 上下文占用

Opus 4.6(1M 上下文)

  • 同样的 skill 配置,只用掉 4% 空间
  • Free space: 923K(92.3%)

Claude Opus 4.6 上下文占用

923 ÷ 118 ≈ 7.8 倍。对于 skill 配置越重的用户,这个倍数会更夸张。

为什么上下文这么重要?

上下文不是存储容量,是模型的草稿纸。

想象你在解一道复杂数学题,做到一半草稿纸被拿走了。你的智商没变,但你解不出这道题了。

模型也一样。很多时候它出错不是因为不够聪明,而是看不见关键信息:

  • 代码开发:bug 的根源在三个文件之前的变量定义,但那段代码已经超出上下文了
  • 长文写作:写到后半段,前面的论点消失了,开始出现前后矛盾
  • 多轮对话:第 3 轮定的约束到第 30 轮就忘了,建议越来越离谱

上下文越小,这类"残缺"越多,判断越差。

长上下文检索:Claude 领先优势明显

Anthropic 用 MRCR v2(8-needle)测试了长上下文检索能力——在超长文本中同时找多个关键信息:

长上下文检索对比

模型256K1M
Claude Opus 4.691.9%78.3%
Claude Sonnet 4.690.6%65.1%
GPT-5.479.3%36.6%
Gemini 3.1 Pro59.1%25.9%

上下文越长,差距越大。256K 时几个模型还挤在一起,拉到 1M 后,GPT-5.4 掉到 36.6%,Gemini 3.1 Pro 只剩 25.9%,Claude Opus 4.6 还保持在 78.3%。

API 取消长度溢价

以前 OpenAI 对长上下文收"长度税":超过 272K 输入收 2 倍单价,输出 1.5 倍。

现在 Anthropic 取消了这个溢价:900K token 的请求和 9K token 一个价。

长上下文终于从"高级功能"变成了模型的标配能力。

其他两个实用更新

1. 图片/PDF 上限:100 → 600

以前处理一堆 PDF 要手动拆批,现在一次喂进去。写文章整理十几张截图和参考资料,直接省了好几步。

2. Adaptive Thinking 转正式版

模型自己判断什么时候需要深度思考、什么时候直接回答,不用你手动配置推理深度。

如何使用?

  • Claude Code Max/Team/Enterprise:默认启用,无需设置
  • Pro 版和 Sonnet:使用 /extra-usage 手动开启
  • API 用户:直接调用,无需额外参数

根据 Claude Code PM Boris Cherny 的说法,使用 1M 上下文后,自动压缩事件减少了 15%。对长期迭代的复杂项目,这个价值至少等于模型能力提升 10%-20%。

Toolin 点评

这次更新的核心价值不在"更大",而在让你不用再做减法。

以前你得精心挑选哪些信息放进上下文,每次删减都是在赌"这段不重要"。赌错了,模型就会在某个看不见的地方犯错。

现在你可以放心把所有相关信息都喂给模型。对于需要处理大型代码库、长文档、多轮复杂对话的场景,这是质的飞跃。

适合谁?

  • 需要处理大型代码项目的开发者
  • 长文写作和研究工作者
  • 需要维护长期对话上下文的用户

不适合谁?

  • 只做简单问答的轻度用户(200K 够用)
  • 预算敏感且不需要长上下文的场景
所有文章

作者

avatar for toolin小编
toolin小编

分类

  • AI产品
名义 5 倍,实际近 8 倍为什么上下文这么重要?长上下文检索:Claude 领先优势明显API 取消长度溢价其他两个实用更新如何使用?Toolin 点评

相关文章

阿里 JVS Claw 上手:手机遥控云端 AI Agent
AI产品

阿里 JVS Claw 上手:手机遥控云端 AI Agent

阿里云推出移动端 AI Agent 产品 JVS Claw,基于 OpenClaw 架构,配备独立云电脑环境,支持手机遥控完成编程、信息整理等复杂任务

avatar for toolin小编
toolin小编
3天前
Clawdbot: 你的首位 7×24h 本地 AI 员工
AI产品

Clawdbot: 你的首位 7×24h 本地 AI 员工

Clawdbot 是一个开源的本地 AI 助手,运行在 Mac mini 或 VPS 上,拥有长期记忆,能主动执行任务,不仅是聊天机器人,更是能干活的私人管家。

avatar for toolin小编
toolin小编
2026/01/26
OpenClaw 必装安全插件:Skill Vetter 使用指南
AI教程

OpenClaw 必装安全插件:Skill Vetter 使用指南

OpenClaw Skills 存在投毒风险,Skill Vetter 能在安装前审查插件安全性,防范恶意代码威胁

avatar for toolin小编
toolin小编
3天前