跳转到正文
莫尔索随笔
返回

Vol.88 2026年AI全景解析:大模型、Agent、开源生态与中美竞争格局

预计 36 分钟
AI 周刊

第一时间捕获有价值的信号

⼤家好,Weekly Gradient第 88 期已送达,本期内容深度解析2026年AI行业全景,涵盖大模型技术演进、AI Agent记忆系统与集群架构、开源生态崛起、中美技术路径分化、推理加速与安全沙箱实践、开发者角色转型及AI商业模式探索等核心议题。

AI 商业化

聚焦AI行业的商业化路径、市场竞争格局和商业模式创新,包含投资趋势、GTM策略、SaaS转型等商业分析

1.Vol.86 同一代技术,两个系统,181 页 PPT 全记录 AI 行业的 2025(屠龙之术)

庄明浩这份181页的PPT报告,简直是把2025年AI行业的底牌都翻开了。最震撼的观点是,虽然中美用的是同一代大模型技术,但已经彻底走向两个不同的系统:美国那边在疯狂搞推理模型大爆发,从模型转向产品,英伟达和云巨头砸下史诗级算力;中国这边却靠开源模型贴身肉搏,DeepSeek直接重塑了行业叙事,新BAT在超级应用和多模态硬件上激进布局。报告还点出,全球AI投入已经进入“GW级别”的电力竞赛,数据中心建设疯狂到连电力和存储芯片都成了瓶颈。更关键的是,AGI的定义正在转向能执行长时间复杂任务的L4自主学习,未来的Agent不再是聊天框,而是能自主拆解目标、产生商业回报的智能实体。这份全景式观察,给所有技术决策者提供了清晰的行业地图。

2.Vol.85 写在 DeepSeek 发布一年之后,也写在元宝要发 10 亿红包之后---串台厚雪长坡(屠龙之术)

这期节目聊得真带劲!DeepSeek 发布一年后,中国 AI 硬是靠着开源和工程优化撕开了美国的技术垄断,把动辄百亿美金的烧钱叙事给颠覆了。现在 AI 正从聊天机器人进化到能真正干活的 Agent,2025 年就看谁能让 AI 跨应用执行任务了。更狠的是,科技巨头们已经在拼“五层蛋糕”了——从芯片、云服务到基座模型、应用平台,甚至机器人,缺一层都可能被淘汰。投资逻辑也变了,别再盯着概念炒作,得看台积电的订单有没有真需求。最后还提醒我们,在技术狂奔的 2026 年,别光听宏观故事,亲手用工具才是硬道理。

3.131. 印奇出任阶跃星辰董事长的首次访谈:聪明人的诱惑、残酷的淘汰赛、赌注和超多元方程(张小珺Jùn|商业访谈录)

印奇这次访谈真是干货满满,他刚出任阶跃星辰董事长,就坦诚分享了AI创业的残酷现实。现在大模型竞赛已经进入淘汰赛阶段,没有百亿级资金和顶尖人才根本玩不转。他特别强调创业公司不能硬碰硬跟巨头拼纯软件或服务,阶跃星辰选择了一条聪明的路——通过终端设备收集物理世界数据,用软硬结合的方式构建商业闭环。这让我想起他反思旷视时期的安防大战,当时团队基因和行业需求不匹配,现在他更清楚创业要专注能服务好用户并赚钱的场景。最让人兴奋的是他预测未来5-7年,通过车、穿戴设备收集的物理数据将成为AI理解现实世界的关键,这可能是通往通用人工智能的最后一块拼图。整个访谈既有战略层面的冷静分析,又有技术信仰的热忱,值得每个关注AI商业化的人仔细品味。

AI 产品设计

探索AI原生产品的设计范式与用户体验革新,强调产品哲学、交互模式、Agent设计等

1.MiniMax Music 2.5: 格莱美级创作,不再需要录音棚(MiniMax 稀宇科技)

MiniMax刚刚发布了Music 2.5模型,这简直是音乐创作领域的一次小革命!过去AI生成音乐总让人觉得有点随机,现在不一样了,它开放了14种结构标签,比如前奏、副歌、桥段这些,创作者能像专业编曲师一样预设情绪曲线和乐器配置,不再是碰运气了。更厉害的是,音质提升到了接近录音棚水准,专门优化了人声转音和共鸣切换,解决了吞字、糊音这些老问题。特别针对华语流行音乐做了深度优化,旋律走向和中英文混唱咬字都更自然,听起来更有爆款潜质。还支持100多种乐器和风格化混音,影视配乐、游戏声场这些专业场景都能轻松驾驭,感觉专业音乐创作的门槛真的被拉低了一大截!

2.MiniMax M2-her:我们做出了更懂你的 AI(MiniMax 稀宇科技)

MiniMax 这次推出的 M2-her 模型,专为角色扮演场景而生,目标就是让 AI 伙伴更懂你。他们发现,好的 AI 伙伴得融合世界观、故事感和用户偏好,但角色扮演这事儿没有标准答案,怎么评估好坏呢?他们想了个巧办法——定义“非对齐”,也就是用户不喜欢的那些情况,比如逻辑混乱、角色崩坏,用这个来给模型打分。技术上,M2-her 用 Online RLHF 从你的隐式反馈里学习,比如你点了重新生成、停留时间长短,模型就能捕捉到你没说出口的偏好。最厉害的是,它解决了长对话的难题,大多数模型聊个 20 轮就疲了,M2-her 却能撑到 100 轮以上,保持回复长度稳定、信息密度高,人设还不崩。未来,他们要从单向角色扮演升级到“Worldplay”,让你能动态改变世界记忆,多个角色协同叙事,你的选择真能影响剧情走向,听起来就像在共同创造故事了。

3.OpenAI 今天发布了 Prism,一个专为科学家设计的 AI 工作区。免费,对所有 ChatGP(宝玉(@dotey))

OpenAI 这次真的把科研工具卷出新高度了!他们刚刚发布了 Prism,一个专门给科学家和研究人员用的 AI 工作区,而且对所有 ChatGPT 用户完全免费。这可不是简单的功能堆砌,它直接把最强的 GPT-5.2 模型塞进了一个云端 LaTeX 编辑器里,底层用的是他们收购的 Crixet 平台。最厉害的是它能理解整篇论文的上下文逻辑,帮你自动搜索整理文献并生成引用,甚至能把手机拍的手写公式或者图表照片一键转换成 LaTeX 代码。团队协作也考虑到了,支持多人实时编辑。OpenAI 的产品负责人说得很直白:AI 改变完软件开发,下一个目标就是彻底革新科研工作流程。看来以后写论文真要轻松不少了,感兴趣的话可以直接去他们的体验地址试试看。

4.#409.Facebook 前副总裁 Julie Zhuo:以创造自信构建产品(跨国串门儿计划)

Facebook前产品设计副总裁Julie Zhuo的分享太有启发了!她直接点破很多产品失败的根本原因:团队往往沉迷于自己想到的“绝妙方案”,却忽略了先去搞清楚用户到底在为什么而烦恼。她给了一个特别实用的三步骤框架:第一步,用大白话说清楚我们要帮谁解决什么具体问题,而且描述里不能夹带任何预设的功能方案;第二步,用真实数据和用户观察来验证这个问题是不是真的存在、值不值得花力气解决,她举了Facebook开发Reactions功能的例子,团队就是先发现用户在评论里总想表达更多情绪,才决定做这个功能;第三步,产品还没上线前,团队就得先商量好怎么才算成功,不能只看刚发布时的点击率,要看长期留存这些更实在的指标。最核心的是,她强调团队要“爱上问题本身”而不是某个特定的解决方案,这样哪怕方案失败了,大家也不会气馁,反而更有动力去尝试新路子,直到真正解决问题。这套心法听起来简单,但确实是硅谷顶尖产品人多年实战提炼的真东西。

5.BAI、高瓴领投,ThetaWave 李文轩:我们想成为下一代年轻人默认的知识获取入口(Founder Park)

ThetaWave 创始人李文轩分享了一个挺有意思的创业思路:他们做的不是让你学更多,而是帮你学更少。听起来有点反常识对吧?但仔细想想,现在信息爆炸,大家缺的不是资料,而是高效筛选和吸收的能力。他们通过拖拽文件就能生成知识图谱和笔记,把冗长的学习材料变成考前急救包,这定位确实精准。更厉害的是增长策略,管理几百个社交媒体账号,用爆款内容框架结合本地化审美,在TikTok上低成本触达大学生群体。创始人反复强调要在想做、能做、可做的交集中找机会,这个方法论很实在。最打动我的是他们对AI产品的理解——不是堆砌技术,而是降低用户触达模型能力的门槛,通过GUI和自然语言结合的交互,让AI真正服务于具体场景。ThetaWave已经实现百万美元年收入,用户留存也不错,看来他们定义的那种可交互的动态知识平台,正在成为现实。

AI 工程实践

涵盖AI系统技术实现与场景化开发的全流程,包含工程架构、工具链实践、提示工程等核心技术环节

1.AI Agent 记忆系统:从短期到长期的技术架构与实践(阿里云开发者)

如果你正在为AI Agent的记忆问题头疼,这篇文章简直是及时雨!它把记忆系统拆解得明明白白,从单次对话的短期记忆到跨会话的长期记忆,每个环节都有清晰的解决方案。短期记忆部分特别实用,教你如何用缩减、卸载和隔离三种策略巧妙应对Token限制和成本压力,不是简单粗暴地砍内容,而是有策略地优化。长期记忆部分则揭示了背后的技术架构,原来它和RAG有点像,但更专注于构建动态更新的个人知识库,用向量库和图数据库来沉淀经验和偏好。最让人兴奋的是,记忆管理正在演变成像云服务一样的基础设施,也就是“记忆即服务”,未来AI应用可能会像人脑一样学会巩固和遗忘。读完感觉对AI记忆系统的理解一下子清晰了很多,不再是黑盒子了!

2.自建一个 Agent 很难吗?一语道破,万语难明(阿里云开发者)

嘿,如果你觉得自建一个智能 Agent 是件遥不可及的事,那这篇文章可能会让你改观。它详细拆解了如何为阿里云内部平台‘奥德赛’成功接入一个叫‘小D同学’的BFF Agent。整个过程可不是纸上谈兵,而是实打实的工程实践。核心亮点在于对‘上下文工程’的深度打磨:他们用上了Anthropic官方推荐的XML标签和角色设定来优化系统提示词,让Agent更懂人话;为了解决模型对特定语法(比如TQL)一头雾水的问题,他们构建了一个多维度的RAG知识库,把线上热门脚本、系统指令集甚至服务端源码都整合进去,还做了人工清洗和预切分,召回质量蹭蹭往上涨。技术架构上,他们用LangGraph状态图来构建Agent的核心逻辑,把复杂的对话流转变成一张清晰的有向有环图,开发起来门槛低了不少,逻辑也更可控。最妙的是,他们碰到了一个硬骨头:FaaS环境不支持长连接,这怎么实现Agent和用户界面的深度交互?他们设计了一套基于‘中断-恢复’机制的UI工具调用链路,利用SSE流式输出和前端隐藏消息回传,硬是在这个限制下把路给走通了。最后,为了对付长对话下容易出现的幻觉和窗口超限问题,他们祭出了双重压缩策略——先用轻量模型对工具返回的海量数据进行XML格式化提取,再在窗口快满时触发有损摘要,硬生生把Token消耗降到了原来的十分之一。这波操作下来,成本问题和注意力稀疏都得到了显著缓解。整篇文章读下来,感觉自建Agent虽然挑战重重,但只要思路清晰、工具到位,还真能一步步啃下来。

3.阿里重磅开源!OpenSandbox:专为 AI Agent 打造的下一代沙箱(阿里技术)

阿里巴巴这次开源了个挺厉害的东西——OpenSandbox,专门给AI Agent用的沙箱平台。现在AI生成代码不是挺火的嘛,但直接让它在服务器上跑,万一代码有bug或者被恶意利用,那可就麻烦了,数据泄露、系统被搞坏都有可能。OpenSandbox就是来解决这个问题的,它把AI代码执行环境给隔离起来,还管权限和依赖,相当于给AI上了个安全笼子。这个平台设计得挺开放的,用OpenAPI统一协议,Python、Java、JS都能接,还能自己扩展。最实用的是它针对企业场景做了优化,基于Kubernetes搞了高性能调度,能同时开好多沙箱,秒级创建销毁,适合强化学习那种需要频繁交互的场景。还有个细节挺赞的,它能精细控制每个沙箱的网络访问,比如只让访问特定API或镜像源,从根儿上防数据外流。阿里内部已经在用这个搞代码生成、评测和训练了,看来是经过实战检验的。对于想安全落地AI应用的公司来说,这工具应该能省不少心。

4.万字详解大模型推理加速核心原理:分形规律与资源计算公式(腾讯云开发者)

大模型推理优化听起来很复杂?这篇文章给出了一个清晰的框架。它借鉴了分形几何的自相似性,把优化工作归结为算力、显存、显存带宽和通信带宽这四个核心资源的调配,让你在不同层级都能用同一套逻辑去思考,避免顾此失彼。文章深入剖析了DeepSeek R1/V3的MLA和MoE架构,解释了MLA如何通过低秩压缩减轻KV Cache的显存带宽压力,而MoE又是怎么用稀疏激活在保持模型能力的同时平衡计算量的。更关键的是,它提供了一套完整的资源计算公式手册,让你能精确量化评估在H20这类硬件上,不同批处理大小和序列长度下的性能极限和瓶颈所在。最后,通过PD分离、算子融合、CUDAGraph优化和异步RDMA传输这些实战案例,展示了如何在宏观集群、中观框架和微观算子层面识别并消除资源瓶颈,真正把硬件利用率提上去。如果你正在为推理效率发愁,这套方法论值得细读。

5.从 ReAct 到 Ralph Loop:AI Agent 的持续迭代范式(阿里云开发者)

最近AI编程圈里冒出来一个挺有意思的新工作流,叫Ralph Loop。它专门解决大模型干活不靠谱的问题——你肯定遇到过那种AI做到一半就摆烂说“我完成了”的情况吧?Ralph Loop的妙处在于,它不依赖模型自己的判断,而是通过一个叫Stop Hook的技术,强行拦截AI的退出信号。只要任务没达到预设的硬性标准,比如测试没通过或者代码格式有问题,系统就会重新加载原始提示词,让AI再跑一轮。更聪明的是,它把状态管理从对话历史转移到了文件系统里,用progress.txt和prd.json这些文件记录进度,每次迭代都是全新的上下文,彻底解决了长任务中常见的上下文腐烂问题。这意味着开发者现在可以真正实现“无人值守”编程了——你只需要定义好最终要达成的目标,比如“所有测试用例通过”,然后就让AI在沙箱里自己折腾去吧。这可不是小打小闹的改进,而是从“人在回路”到“机器自主”的范式转变,让AI编程的杠杆效应大大提升。

6.10 亿红包后,我们打算开源这个 800 亿的模型(腾讯混元)

腾讯刚刚开源了一个超强的图像编辑模型,叫混元图像3.0,参数规模高达800亿,是目前全球最强的开源图像编辑模型之一。这个模型最厉害的地方是它真的会“先思考,后编辑”,接到指令后不是直接动手改图,而是先分析图像内容和用户意图,想清楚要改哪里、怎么改,再精准执行,所以编辑效果特别自然。它采用了混合专家架构,在保证性能的同时兼顾了效率,还用了自研的MixGRPO算法来优化指令响应和保持非编辑区域的稳定性。现在这个模型在权威的LMArena图像编辑榜单上已经排到全球第七了,进入了第一梯队,支持增删改、风格变换、老照片修复、多图融合等各种复杂任务。开发者们现在就可以去GitHub和Hugging Face上获取权重和代码,赶紧试试吧!

7.Kimi K2.5: Visual Agentic Intelligence(Simon Willison’s Weblog)

Moonshot AI最近放了个大招,发布了Kimi K2.5,这可不是小打小闹的升级。它直接从纯文本模型K2进化成了能看懂图片、还能指挥上百个“小弟”一起干活的多模态智能体。最酷的是那个“智能体集群”架构,能协调最多100个子智能体并行处理复杂任务,想想就挺科幻的。实际测试里,它画SVG图、把大型软件项目拆分成可并行开发的模块都干得不错,在代码和规划能力上已经能和Claude 4.5、GPT-5.2这些顶级选手掰手腕了。不过,这模型块头真不小,足足595GB,而且虽然开源,但用了种特别的“修改版MIT”许可证——如果你的产品月活过亿或者月收入超过2000万美元,就得在界面上给“Kimi K2.5”挂个醒目标牌。这波操作既展示了技术野心,也藏着商业心思,挺值得琢磨的。

8.Kimi 发布并开源 K2.5 模型,带来全新视觉理解、代码和 Agent 集群能力(月之暗面 Kimi)

月之暗面这次放了个大招!他们正式开源了Kimi K2.5模型,这可不是简单的升级。最让人兴奋的是,它能把截图或录屏直接变成可运行的代码,比如你录个网页操作视频,它就能拆解出交互逻辑并生成前端代码,这简直是设计师和开发者的福音。更酷的是,它首创了“Agent集群”功能,能自己创建最多100个分身来并行处理复杂任务,效率提升了好几倍。他们还同步发布了Kimi Code编程工具,深度集成主流编辑器,并且开源了Agent SDK,让开发者能自由定制。K2.5提供了快速、思考、Agent和集群四种模式,目标很明确:降低AI使用门槛,让办公自动化变得更简单。这波操作,感觉AI真的要渗透到日常工作的每个角落了。

9.ChatGPT Containers can now run bash, pip/npm install packages, and download files(Simon Willison’s Weblog)

嘿,你知道吗?ChatGPT的代码解释器最近悄悄升级了,现在它已经从一个单纯的Python环境变成了一个功能强大的多语言容器。这意味着它不仅能运行Bash命令,还支持Node.js、Go、C++等超过10种编程语言,简直就像Claude Code一样全能了。更厉害的是,它新增了一个container.download工具,可以安全地下载公共文件到沙箱里,而且为了防止数据泄露,还要求下载的URL必须在对话中出现过。最让人惊喜的是,OpenAI居然在受限的容器里搞了个自定义代理,让ChatGPT能通过内部网关路由请求,直接执行pip install和npm install,这样一来就能轻松安装第三方库,大大扩展了解决问题的能力。不过,这些重大更新居然没有官方文档,全靠用户自己摸索,这确实有点让人头疼,毕竟透明度和信任对开发者来说太重要了。

10.两个事奥~(通义大模型)

通义千问这次动静不小,一口气放出了两个重磅更新!一边是Qwen3-TTS全家桶开源了,包含1.7B和0.6B两个版本,最厉害的是能3秒克隆音色,还能用自然语言控制音色,比如直接告诉它“极度悲伤”,它就能生成带着悲伤情绪的语音,而且支持10种语言,端到端延迟低到只有97ms,几乎感觉不到等待。另一边是上线了Qwen3-Max-Thinking大模型,这个模型引入了测试时扩展技术,通过多轮迭代推理,能从过往步骤中提炼洞见并自我反思,在处理复杂问题时逻辑逼近能力更强。它还具备自适应工具调用能力,能根据需求自动判断并调用搜索引擎或代码解释器,让它在执行复杂任务时效率大大提升。多项基准测试成绩已经能媲美GPT-5.2这样的顶尖模型了,现在通过API和Qwen Chat就能用上,真是让人期待实际用起来的效果!

11.#411. 2026 年 AI 全景解析:大模型、代码生成、Scaling Laws、中国 AI 崛起与 AGI 未来(跨国串门儿计划)

这期播客聊得真够硬核的!Lex Fridman 拉着两位 AI 专家 Sebastian Raska 和 Nathan Lambert,直接把时间线拉到 2026 年,给你拆解 AI 的全景图。他们从那个引爆话题的“DeepSeek 时刻”说起,分析了中国开源模型怎么用更开放的协议和超高性价比,悄悄改变全球 AI 的基础设施格局,这背后可是中美在算力、数据和人才上的全面博弈。技术部分更是干货满满:Scaling Laws 已经不只是堆算力和数据了,现在演变成预训练、后训练(就是那个叫 RLVR 的可验证奖励强化学习)和推理时计算的三重扩展路径。简单说,模型不光要“吸收知识”,更得通过试错和“多想想”来“解锁技能”,逻辑能力能线性提升!他们还讨论了 Transformer 架构的微调趋势,以及编程教育的本质变革——以后可能真就“用英语编程”了,咱们得更多关注系统设计和需求定义,具体代码让 AI Agent 去闭环搞定。当然,想真正理解 AI 系统怎么运作,最扎实的路子还是从零手搓一个模型,比如 GPT-2,那种底层逻辑的直觉是任何工具都给不了的。最后也没回避 AGI 的时间线,给了些理性预期。整场对话既有工程细节,又有宏观战略,不管你是想从零构建模型,还是追踪前沿研究,都能挖到不少宝藏。

12.[AINews] Moltbook — the first Social Network for AI Agents (Clawdbots/OpenClaw bots)(Latent Space)

嘿,这期内容有点意思!Moltbook 这个平台让 AI 智能体自己搞起了社交网络,它们通过 OpenClaw 协议在论坛上自组织互动,简直像在创造另一个互联网表面,这背后对人类的观察和安全性提出了新挑战。Moonshot 的 Kimi K2.5 模型也挺厉害,用视觉强化学习居然把文本推理能力也带飞了,跨模态共享推理电路加强后,延迟更低效果更好。不过 Anthropic 的研究给热衷 AI 编程工具的人泼了冷水,过度依赖会让初级工程师失去学习和调试能力,虽然代码交付快了,但理解深度反而下降。NVIDIA 的量化感知蒸馏技术是个大突破,能把模型从 16-bit 压缩到 4-bit,准确率还能保持 99.4%,这下部署大模型的计算和存储压力小多了。还有个“Agent Trace”标准正在制定,让智能体在复杂工作流中的行为和代码变更都能追溯,解决了代码库审计的难题,Cursor 和 Vercel 这些大玩家都在参与。

13.How I Use Clawdbot to Run My Business and Life 24/7(Greg Isenberg)

嘿,最近看到一篇挺有意思的分享,讲的是怎么用AI智能体来管理整个生活和生意。核心是把Discord变成了一个中央控制台,里面养着各种专业AI人格——有专门管编程的工程师,有负责算账的会计,甚至还有健康教练。最酷的是这些AI能直接访问你电脑的本地Shell,这意味着它们能操控硬件、管理智能家居,还能自动化那些复杂的软件工作流。当然,安全是个大问题,文章里特别强调了连接敏感数据(比如邮箱)时要做好防护,比如用高级推理模型、在容器环境里运行,避免实时Webhook。最后有个挺有冲击力的观点:未来职业成功可能不看你多会写代码,而看你多会指挥这支“智能体大军”。

14.Clawdbot 开发者:未来一大批应用都会消失,提示词就是新的 interface(Founder Park)

Clawdbot开发者Peter Steinberger这次聊得挺狠的,直接说未来一大批应用都会消失,提示词就是新的界面。他作为资深开发者,认为GUI扩展性太差,CLI才是AI智能体最自然的交互方式——智能体看个帮助菜单就能学会工具使用,开发门槛瞬间降低。他还尖锐批评了MCP协议,说那玩意儿就是对API的重新包装,会吃掉大量Token,产生严重的‘上下文税’,相比之下CLI配合管道符能更精准过滤信息。最颠覆的观点是,未来软件会从通用App变成超个性化API,你不再需要订阅整套软件,直接用提示词驱动按需构建的解决方案。他提倡的‘Agentic Engineering’也很有意思,不是搞复杂框架,而是学会直接和AI对话,小步快跑、实时反馈,这才是人机协作的未来。

15.#408.Clawd 的创造者:“我发布我不读的代码”(跨国串门儿计划)

这期播客聊得太有启发了!PSPDFKit创始人Peter Steinberger直接抛出一个颠覆性的观点:在AI时代,开发者可能真的不用再逐行阅读业务代码了。他的核心思路是,AI已经能处理掉90%的重复性管道工程,那我们干嘛还埋头苦写呢?真正的价值应该转向设计清晰可验证的系统架构,然后像带团队一样,用精准的提示词去引导AI Agent干活。他特别强调‘闭环验证’——让AI自己写测试、跑工具、调试,形成一个自动反馈环,这样生成代码的质量就有保障了,我们自然就不用费劲去一行行审了。更酷的是,他说AI让架构重构的成本从几周降到几小时,整个开发过程都变得有点像打游戏,即时反馈感超强。未来协作模式也会大变,重点可能不再是传统的代码审查,而是大家一起来打磨提示词的逻辑和意图。他还畅想了个人AI助手Clawd_的愿景,以及大公司面对这种高效并行开发模式时,组织结构上会遇到的挑战。听完感觉,开发者的角色真的要重新定义了,从码农转向架构师和AI领航员,这转变既刺激又充满未知啊。

16.燃尽、重启、爆火:Clawdbot 创始人的 35 分钟访谈实录(宝玉的分享)

Peter Steinberger 的故事太有启发性了,从职业燃尽到带着 Clawdbot 强势回归,他分享的 AI 智能体开发经验简直像在描绘未来。他坚信 2026 年会是个人助手智能体的爆发年,而且展示了当 AI 拥有系统权限后,能自主完成格式转换、API 逆向这些复杂任务,那种足智多谋的表现让人惊讶。他特别推崇命令行工具,觉得 Unix 风格的 CLI 比 MCP 协议更符合模型的理解方式,智能体通过 help 菜单就能自主学习,这种集成方式既简单又容易扩展。他还提到 AI 辅助开发让一人公司成为现实,开发者现在能靠 LLM 和自动化工具达到过去整个团队的生产力水平。未来很多独立 App 可能会消失,变成由智能体调用的超个性化 API,用户不再需要订阅一堆软件,直接对话就能解决问题。不过他也坦诚,快速迭代的凭感觉编程虽然高效,但提示词注入这类安全风险在智能体拥有高权限的背景下是个大挑战,缺乏企业级安全设计确实让人捏把汗。

17.Clawdbot/moltbot Clearly Explained (and how to use it)(Greg Isenberg)

如果你还在用AI当个听话的工具人,那可得看看Greg Isenberg和Alex Finn聊的这个Moltbot了。这玩意儿根本不是普通聊天机器人,它更像是个能自己找活儿干的数字员工——设定好背景和指令,它就能主动发现问题、执行任务,甚至还能自我改进。Finn分享了几个超酷的实际案例:AI每天自动生成情报简报,在YouTube上帮你做竞品研究,甚至能根据市场趋势数据自己给SaaS产品写代码。技术实现上挺有意思,他们建议用Mac Mini这类本地硬件来跑,不仅控制权完全在自己手里,隐私也更有保障。最关键的转变其实是心态:别再把AI当工具使,得把它当成能自主行动的合作伙伴。当然风险也得警惕,特别是提示词注入这种安全问题——给AI开了业务系统的访问权限,就得严格设好边界,比如别让它碰敏感社交媒体账号,用专用邮箱隔离风险。还有个实用技巧:用Claude Opus这种高推理模型当“大脑”负责策略,把编程这类执行任务甩给Codex这类专用模型,这样既能保证智能水平,又能优化token成本。说到底,这波AI Agent的玩法正在重新定义人机协作的边界。

18.红杉对话 LangChain 创始人:2026 年 AI 告别对话框,步入 Long-Horizon Agents 元年(海外独角兽)

红杉资本和LangChain创始人的这场对话,信息量真的很大!核心观点是,到2026年,我们熟悉的对话框式AI交互可能就要过时了,AI将进入一个全新的阶段——长程智能体元年。这意味着AI不再只是你问一句它答一句,而是能像一位有经验的助手,自己设定目标,在很长一段时间里独立完成复杂的任务,比如帮你写代码初稿、处理系统运维或者生成金融报告。虽然它可能做不到百分百完美,但能大大解放我们的双手。更关键的是,文章揭示了当前AI开发的一个重大转向:大家不再只盯着通用大模型本身,而是开始围绕一个叫“Harness”的软件外壳做文章。这个外壳里内置了规划工具、文件系统交互和上下文压缩等能力,通过深度适配模型来挖掘性能,这比单纯等模型升级更有意思。还有一个颠覆性的变化是“Tracing”(追踪)。因为AI的行为不像传统代码那样确定,所以开发者现在必须通过追踪每一步的内部状态来复现和调试,这成了开发协作的新支点。文章还强调,文件系统权限和代码执行能力将是未来智能体的标配,甚至暗示所有智能体最终可能都是某种形式的“编程智能体”。最后,一个深刻的洞见是:真正能让一个智能体在特定领域(比如医疗、法律)建立竞争壁垒的,不是模型本身,而是它长期积累的“记忆”。一个经过长时间磨合、内化了特定任务模式和背景知识的智能体,其用户粘性和性能会远超通用模型。这不仅是技术问题,更关乎如何构建可持续的竞争优势。

19.Agent 真正的护城河,正在从工具转向记忆资产(Founder Park)

最近AI圈有个挺有意思的转变,大家不再只盯着模型本身有多强,而是开始关注AI怎么记住东西。这篇文章讲的就是这个趋势——AI Agent真正的护城河,正在从工具转向记忆资产。传统做法要么靠长上下文硬塞,成本高还容易记混;要么用RAG临时查资料,太被动而且没法实时协作。所以现在行业急需独立的Memory层,就像给AI建个专属记忆库。这个记忆系统还挺讲究,得分三层管理:参数化记忆存长期知识,激活记忆处理即时状态,明文记忆留着审计用,还得有个全局调度系统来精准调用。更关键的是,记忆得资产化,不能绑死在某家模型上。想想看,如果你用惯了某个AI助手,它记住你所有工作习惯,结果换家模型就得从头再来,多难受啊。第三方中立的记忆基础设施就能解决这个问题,让记忆在不同模型间自由迁移。说到底,记忆系统决定了AI能走多远——无论是专业场景里沉淀方法论,还是日常陪伴中提供情绪价值,有记忆的AI才可能从工具变成真正的伙伴。

20.网易云音乐前 CTO 曹偲:代码越来越不重要,好的架构才是软件工程核心(Founder Park)

网易云音乐前 CTO 曹偲最近聊了个挺有意思的观点:在 AI 疯狂生成代码的今天,代码本身反而越来越不重要了。他觉得真正决定软件成败的,是背后的架构设计。光靠堆代码解决不了维护难题,好的架构才能让软件活得久、跑得稳。他创办的 Toco AI 就在尝试把确定性和工程规范带进 AI 编程,不是像 Cursor 那样靠概率生成,而是用建模方法给 AI 立规矩,确保输出既靠谱又一致。更关键的是,曹偲认为业务架构这块 AI 暂时还接不了手——技术可以黑盒化,但业务涉及对现实世界的理解和未来预判,得靠人自己把握。所以未来的开发者可能不用再埋头写底层逻辑了,重心得转向理解业务、描述需求,甚至参与长期规划。这波转变,听着像是给工程师们开了条新赛道。

其他

行业前沿与开源生态,整合行业深度洞察与开源技术动态的复合型主题,技术哲学、AGI讨论、领袖观点

1.#410. Marc Andreessen:真正的 AI 繁荣尚未开始,我们正处于历史性的转折点(跨国串门儿计划)

Marc Andreessen 这位科技界的传奇人物,在播客里抛出了一个震撼的观点:2025年可能成为堪比柏林墙倒塌的历史性转折点。他把 AI 比作现代炼金术,能把廉价的沙子变成稀缺的思想,这听起来有点科幻,但背后是算力成本极低却能生产人类智慧的底层逻辑变革。更关键的是,他认为 AI 出现得正是时候,全球人口萎缩和生产率停滞正让经济承压,AI 成了防止经济萎缩的关键,反而让剩下的人类劳动力变得更值钱。未来职场会大变样,产品经理、工程师和设计师的界限会模糊,那些能掌握多项技能、又能驾驭 AI 的“超级个体”会成为核心,生产力可能实现指数级增长。教育也得跟着变,在 AI 能提供无限知识的时代,培养孩子主动寻找问题、动手解决的“主观能动性”比遵守规则更重要,AI 会成为有能动性的人撬动世界的杠杆。最后,他分享了一种“不确定的乐观主义”投资哲学,面对无法预测的 AGI 未来,与其精准预言赢家,不如支持大量聪明创业者的多元实验来捕捉进步。这期内容不只是技术讨论,更是对文明走向的深度思考,让人既兴奋又带点敬畏。

2.Vol.98|小冰之父李笛谈新 AI 项目:AI 这门生意的终极模式,不是只卖 Token(开始连接LinkStart)

这期播客聊得真有意思!微软小冰前负责人李笛带着他的新项目“明日星辰”来了,他抛出了一个挺颠覆的观点:现在大家拼命卷多模态、堆算力,其实都还在“知识推理”层面打转。真正的突破得靠“认知能力”——就是那种能跨领域迁移思维、像人一样抽象思考的能力。他特别强调,单一模型再厉害也有盲区,得让不同特长的AI智能体在框架里辩论碰撞,才能产生真正的智慧。不过这里有个反直觉的发现:不是智能体越多越好,信息过载反而会让群体变“蠢”,所以必须精心设计治理框架来控制信息流动。最让我有共鸣的是他对商业模式的思考:按Token收费就像卖算力,太初级了。AI的终极价值应该是成为我们人生决策的“智囊团”,帮我们处理那些复杂的职业选择、生活难题,未来可能是人机协作的团队新范式。听完感觉对AI的想象又开阔了不少。

3.Sam Altman 与开发者的一小时:GPT-5 的坦白、招聘放缓、以及 2026 年最担心的事(宝玉的分享)

Sam Altman在开发者大会上聊了不少干货,他承认GPT-5在写作能力上做了些不太明智的取舍,但预测到2027年推理成本能降100倍,这听起来挺让人期待的。他提到软件工程师的角色要大变样了,以后可能不再需要整天敲代码,而是专注于创造价值,软件也会变成根据个人需求即时生成的定制化工具,感觉整个行业都要重新洗牌。OpenAI打算大幅放缓招聘,因为他们觉得AI能让更少的人做更多的事,面试时会更看重候选人怎么利用AI快速完成任务,这招挺狠的。他还警告说,Agent的权限问题是个大隐患,用户为了方便可能会过度授权,这种“梦游式”的信任搞不好会出大事。最让人担心的是,他认为2026年AI领域最大的风险可能在生物安全方面,模型能力太强了,光靠限制不够,得建立更灵活的基础设施。最后他强调,AI时代最重要的技能反而是高能动性和韧性这些软技能,挺有启发性的。