把大模型塞进浏览器侧边栏:这款「网页总结神器」让DeepSeek、豆包和本地Ollama全听你指挥
信息过载时代,我们终于等来一个“不联网也能思考”的浏览器助手
每天刷10篇技术长文、3份行业报告、5条政策解读……结果合上电脑,只记得自己很累。不是不想读,是万字原文像一堵墙——而你缺的从来不是时间,而是一个真正懂你、随时待命、还不偷看隐私的阅读搭档。
现在,它来了。微软 Edge 商店最新上架的浏览器扩展 AI 页面总结器,正悄然改写网页阅读的规则:它不只是“一键总结”,而是把整个大模型生态,压缩进了你的浏览器侧边栏。
不只是支持大模型,而是“通吃”大模型
市面上不少总结工具只绑死一家API——今天豆包能用,明天DeepSeek更新了就歇菜。而这款扩展的底层逻辑很硬核:它不做模型,只做桥梁。
✅ 原生对接主流在线服务:DeepSeek(R1/V3)、字节豆包(Doubao)、Gitee AI,开箱即连,无需手动填密钥;
✅ 更关键的是——它深度集成 Ollama 和 Docker Desktop AI,让你在离线环境、公司内网、甚至没有公网的开发机上,也能调用本地部署的 qwen2.5:7b、deepseek-coder:6.7b 或自定义微调模型,全程数据不出设备。
📌 真实场景举例:你在高铁上打开一篇IEEE论文,手机没信号?没关系——只要笔记本里跑着Ollama,点击总结,3秒出摘要,连Wi-Fi都不需要。
侧边栏里的AI对话间:能总结,更能追问、翻译、重写
它长得像一个轻量侧边栏,但用起来像一个专属知识助理:
- 智能截断+全文理解:自动识别网页正文结构,精准提取核心段落(非简单复制前N字),最长支持 15,000字符输入(约3页A4纸内容);
- Markdown原生渲染:总结结果自带标题层级、代码块高亮、列表缩进,可直接复制到Notion或Obsidian中继续整理;
- 多轮上下文追问:刚生成的摘要里提到“Transformer架构瓶颈”,你随手问一句:“能用中文解释下这个瓶颈具体怎么影响推理延迟吗?”——它立刻基于当前页面语境作答,无需重新加载;
- 跨语言理解力:遇到英文技术文档?选中“翻译为中文并总结要点”,一步到位;日文博客、韩文白皮书,同样适用。
极客友好到“懒人感动”:Ollama用户狂喜
对开发者来说,最烦什么?配环境、下模型、调端口、改配置……而这款扩展做了件很“温柔”的事:
🔹 安装即检测本地Ollama服务是否运行;
🔹 首次使用时,自动拉取常用模型(如 llama3.2:3b),并缓存至本地;
🔹 模型切换?下拉菜单点一下,后台静默切换,无需重启浏览器;
🔹 连Docker Desktop AI也支持——只要你启用了其内置的AI Runtime,扩展就能识别并接管。
一句话:它不教你怎么用Ollama,它直接帮你用好Ollama。
现在就能装:免费、开源倾向、无订阅陷阱
该插件已在 Microsoft Edge Add-ons 商店 正式上架,完全免费,无隐藏付费墙,无强制账户绑定。官方GitHub仓库已预告将开源核心模块,后续还将支持自定义Prompt模板与快捷键绑定。
在这个“算力正在从云端下沉到桌面,再滑入浏览器”的拐点上,AI 页面总结器做的不是功能堆砌,而是一次精准的体验缝合——
把顶尖模型的能力,变成你手指一点的自然动作;把复杂的AI工程,藏在简洁的UI之下。
毕竟,对抗信息焦虑最好的方式,从来不是读得更快,而是让每一页,都只留下你真正需要的那一句。
