AI,

别再硬塞资料了:让 NotebookLM 给 Claude 当免费 RAG

Apr 21, 2026 · 1 分钟阅读
别再硬塞资料了:让 NotebookLM 给 Claude 当免费 RAG
Share
可引用摘要
1文章标题:别再硬塞资料了:让 NotebookLM 给 Claude 当免费 RAG
2发布时间:2026-04-21
3分类:AI
4关键词:featured, Claude, NotebookLM, RAG, Google, Skill, Zaokit
5核心摘要:Claude 额度哗哗掉?把检索脏活丢给 Google NotebookLM,免费档 50 个源、PDF/网页/YouTube 字幕全塞。实测 5 轮研究 $9.59 降到 $0.55,差了 17 倍。

常见问题

为什么不直接把资料塞到 Claude 对话里?

原文一次性灌入会极速消耗上下文与 token 额度,多轮追问 cache miss 尤其明显。NotebookLM 只返回带引用的结论片段,成本骤降。

NotebookLM 免费档能用什么?

单 notebook 支持 50 个源,PDF、网页、YouTube 字幕均可导入,检索和摘要算力由 Google 承担。Google AI Ultra 用户无上限。

这两天 Claude Opus4.7 发布后,账单爆掉的人估计不少。

尤其是做研究型任务的——把几篇论文、几十个网页、几段 YouTube 访谈一股脑往对话里灌,额度哗哗掉。上下文越长、cache miss 越猛,一个晚上能吃掉半个月的订阅。

但这事其实有解——而且是免费的解。

核心思路就一句话:把检索这件脏活累活丢给 Google NotebookLM,Claude 只负责读它返回的结论。

NotebookLM 当 Claude 的 RAG 外挂:检索算力白嫖


一、往对话里塞资料,为什么越塞越贵?

Claude 的计费逻辑很朴素:每一个 token 都算钱,cache 命中才便宜。

问题是——你塞进去的原始资料,99% 是噪声。 100 页 PDF 里真正跟问题相关的,可能就 3 段。但 Claude 得把这 100 页全读一遍,每轮对话都按全长扣费。

更狠的是多轮研究。每追问一次,整个上下文都要重算。5 轮下来,你已经按”100 页 × 5”付过钱了。

传统塞料方式 问题
原文直接进上下文 token 消耗按全长计费
多轮追问 上下文反复读,成本叠加
cache 命中率低 资料每次都换,缓存失效
50 个源以上 直接超窗,塞不下

这就是为什么高端用户抱怨”Claude 越用越贵”——不是 Claude 贵,是用法错了。


二、把 RAG 搬到 NotebookLM:Google 替你烧算力

Google NotebookLM 本质是一个免费的 RAG 引擎:你把资料扔进去,它负责切片、embedding、检索。

资料外包给 NotebookLM:检索和摘要 Google 全包

免费档配置相当能打:

  • 单 notebook 支持 50 个源
  • PDF、网页链接、YouTube 字幕——都能直接塞
  • 存储、embedding、检索算力——Google 全包
  • 返回结果自带页码级引用

Claude 那边只看结论——原文一字不进对话。 你问”这几篇论文对 RLHF 的关键分歧是什么”,NotebookLM 返回带引用的片段,Claude 基于这几百字做综合判断就够了。

Google AI Ultra 用户更爽——NotebookLM 直接无限用。 你订的是 Gemini,捎带的是一个世界级的检索后端。


三、实测 17 倍差距:$9.59 → $0.55

光讲原理没意思,直接看数字。

原作者做了一个对照实验:同样的 5 轮研究会话,一边把资料全塞进 Claude,另一边通过 NotebookLM 做 RAG 再让 Claude 总结。

5 轮研究实测:$9.59 掉到 $0.55,差了 17 倍

方案 5 轮会话成本 备注
原文全塞 Claude $9.59 每轮都重算长上下文
NotebookLM + Claude $0.55 只传结论片段
差距 17× 一杯咖啡 vs 一顿饭

这还是保守估计。源越多、对话越长、追问越深——差距就越大。 真做深度研究的,一个月省下几百美金不稀奇。

而且 NotebookLM 的引用可追溯——Claude 要是开始胡诌,你立刻能回到原文核对。这比 Claude 自己 hallucinate 出个不存在的 reference 靠谱得多。


四、三步装好:客户端 + 登录态 + Skill

理论讲完,实操也就三步,全程不到五分钟。

三步上手:装客户端 → 导登录态 → 装 Skill

1️⃣ 装客户端

npm i notebooklm-client

2️⃣ 把 Google 登录态导到本地

npx notebooklm export-session

这一步是关键——通过复用浏览器已有的登录态,绕过 Google 对自动化的限制。 不用额外 API Key,也不用开发者账号。

3️⃣ 在 Claude Code 里装 Skill

npx notebooklm skill install

装完之后,你在 Claude Code 里直接说一句:

“查下 NotebookLM 里关于 XXX 的资料”

Claude 就会自动调用 NotebookLM 检索,拿回结论片段再做回答。不用切窗口、不用复制粘贴、不用手动拆任务。


五、这套打法的底层逻辑

把 NotebookLM 当 RAG 外挂,本质是在白嫖大厂的基建

白嫖大厂基建:缝合性价比工作流

Google 为了推 Gemini 生态,愿意补贴 NotebookLM 的检索算力;Anthropic 为了让 Claude 专注推理,Skill 系统开放度极高。这两边的战略缝隙,刚好被开发者用来拼出一个极致性价比的工作流。

类似的套路以后会越来越多。哪家大厂在卷哪一层的基建,哪一层就有白嫖的可能。 你要做的,不是对某一家死忠,而是把每家的长板拼进自己的工作流。

工具是中性的。真正的护城河,是你对工作流的拆解能力。


写在最后

Claude 是好引擎,但引擎不该兼职搬运工。检索归 NotebookLM,推理归 Claude,各司其职——这才是 2026 年该有的 AI 工作流姿势。

原文参考:@minlibuilds on X

我一个人打造的 Zaokit AI 正在内测,2026年4月30日前1000名用户赠送价值150RMB的Pro计划,助力大家高效完成图文创作和PPT生成,唯一网站:zaokit.app

别再用 Claude 当仓库了。它是聪明人,不是搬运工。


相关阅读

Enjoyed this article?

Stay updated with the latest insights on AI, DevOps, and cloud architecture. Subscribe to get notified when new articles are published.

关注微信公众号,获取更多AI前沿洞察
微信公众号:JustJason

扫码关注 JustJason

Found this helpful? Share it with others who might benefit!
Jason Zhang
Written by Jason Zhang Follow
企业级软件架构师,专注 AI 私有化部署、DevOps、云原生架构。曾主导多个知名企业的大模型落地项目。

标签相关推荐