跳转到正文
莫尔索随笔
返回

Vol.91 AI前沿洞察:智能体革命、编程范式转移与商业变革深度解析

预计 15 分钟
AI 周刊

第一时间捕获有价值的信号

⼤家好,Weekly Gradient第 91 期已送达,本期内容深入探讨AI智能体如何重塑软件开发流程,分析Claude Code等工具带来的200%生产力提升。解读GLM-5技术突破与World Labs空间智能愿景,探讨AI广告对SaaS模式的冲击,以及开源模型带来的智能平权现象。涵盖多智能体架构、Prompt Caching优化等前沿技术,为开发者与创业者提供全面洞察。

AI 商业化

聚焦AI行业的商业化路径、市场竞争格局和商业模式创新,包含投资趋势、GTM策略、SaaS转型等商业分析

1.#430.Ben Thompson:SaaS 的终结、AI 广告与台积电的产能危机(跨国串门儿计划)

Ben Thompson 这期播客简直把 AI 时代的商业底牌都掀开了!他抛出一个大胆观点:广告才是 AI 走向大众的关键,毕竟现在 AI 推理成本高得吓人,光靠订阅制会把普通人挡在门外,广告反而能像社会福利一样让技术普惠。更震撼的是,他直接给传统 SaaS 模式敲了丧钟——AI 让人效飙升,企业以后可能不需要疯狂招人了,那按人头收费的软件公司增长逻辑不就崩了吗?硬件方面也有大雷:台积电因为垄断不敢大胆扩产,但 AI Agent 对算力的需求是指数级增长的,2029 年很可能爆发全球芯片荒。最后他还给了内容创作者一条活路:别在 AI 泛滥的通识内容里卷了,深耕细分领域,哪怕粉丝再小众,只要建立起深度洞察,互联网的规模效应照样能让你活得滋润。对了,他心中理想的 AI 广告根本不是现在这种关键词匹配,而是基于全时用户画像的预判性购物,AI Agent 在你还没意识到需求时就把推荐闭环完成了。

2.#428. 在 AGI 时代,应用层还重要吗?(跨国串门儿计划)

这期播客聊得真够劲爆!a16z合伙人直接点破了AI行业最残酷的现实:现在钱砸进去就能立刻变成算力,模型能力瞬间提升,这种资本飞轮彻底改变了游戏规则。更吓人的是恒星扩张理论,底层模型公司要是融的钱比所有应用层公司加起来还多,它们就能不断训练新功能,把应用层的生存空间一点点吃掉。不过别灰心,Cursor就打了个漂亮仗,专注给开发者做极致体验,反而用低成本做出了高效模型,证明应用层在AGI时代还是有活路的。还有更酷的,空间智能技术直接把3D场景生成成本从几万美金降到不到一美金,这简直是降维打击!现在硅谷抢人都抢疯了,顶尖工程师年薪能到千万美元,公司直接搞创始人式收购,生怕错过能改变行业走向的人才。这期内容把AI行业的资本、技术、人才三条战线全捋清楚了,听完你会对AGI时代的商业格局有全新的认识。

3..@drfeifei: “Language is fundamentally a purely ge(a16z(@a16z))

嘿,有个大新闻!World Labs刚拿了10亿美元融资,投资方里还有NVIDIA和AMD这些科技巨头。他们的联合创始人李飞飞在推文里提到一个挺有意思的观点:语言只是生成信号,而3D物理世界才是结构化的现实。World Labs的目标就是从物理世界里提取信息来做表示和生成,这听起来是想超越现在的大语言模型,往‘空间智能’的方向走。感觉这轮融资不只是钱的事,更像是在押注下一个AI前沿,挺让人期待的。

AI 产品设计

探索AI原生产品的设计范式与用户体验革新,强调产品哲学、交互模式、Agent设计等

1.Make Something Agents Want(Y Combinator)

最近听了YC几位合伙人的讨论,感觉AI领域正在发生一个根本性的转变——以前我们总说“打造人们想要的产品”,现在可能要变成“打造智能体想要的产品”了。这可不是什么遥远的科幻场景,而是正在真实发生的市场变化:AI智能体正在从辅助工具变成独立的决策者,它们会自己选择数据库、API和代码库。这意味着什么?意味着如果你的产品文档不够清晰、API不够友好,智能体可能根本不会考虑你。像Supabase和Resend这些公司已经尝到了甜头,它们通过优化文档让LLM更容易理解,直接把技术文档变成了增长引擎。更酷的是,一种全新的“智能体原生”基础设施正在崛起——想想看,智能体也需要自己的邮箱系统(比如Agent Mail),甚至未来可能有自己的经济体系。还有个颠覆性的观点:通往AGI的路可能不是造一个超级大模型,而是让一群小智能体协作,就像蚂蚁群体那样。最后给创业者的建议特别实在:别光站在外面看,得亲自沉浸到智能体的工作流里,甚至有点“赛博精神病”那种痴迷,才能真正理解它们怎么“思考”,才能做出它们真正想要的产品。

AI 工程实践

涵盖AI系统技术实现与场景化开发的全流程,包含工程架构、工具链实践、提示工程等核心技术环节

1.GLM-5 技术报告:技术细节全公开(智谱)

智谱AI刚刚公开了GLM-5的技术报告,这份报告读起来真是干货满满!7440亿参数的MoE架构已经够震撼了,但他们真正厉害的是用DeepSeek稀疏注意力机制,居然能用极低成本处理20万token的长上下文,计算开销直接降了1.5到2倍。更让人兴奋的是他们从‘氛围编程’转向了‘智能体工程’——现在的GLM-5不再是简单问答工具,而是能自主规划、实现、迭代的智能体,专门解决真实世界的复杂软件工程问题。为了解决长程智能体任务中的训练瓶颈,他们构建了全新的异步强化学习基础设施,通过slime框架把生成和训练过程解耦,大幅提升了GPU利用率。报告还详细介绍了异步Agent RL算法和TITO机制,这些创新解决了异步训练中的策略滞后问题。最让人印象深刻的是他们对国产算力生态的深度适配,在华为昇腾等七大国产芯片平台上实现了软硬协同优化,单节点性能居然能媲美国际主流GPU集群。看完这份报告,能真切感受到中国AI工程能力正在快速追赶国际前沿。

2.Build Hour: Prompt Caching(OpenAI)

OpenAI最近在Build Hour上详细介绍了Prompt Caching这个功能,它可不是简单的缓存,而是直接重用自注意力层里的键值张量。这意味着模型遇到相同的前缀时,能直接跳过计算,大幅降低延迟和成本。关键点在于前缀必须严格一致且连续,所以把静态提示词放开头、动态内容放末尾是个好策略。他们还引入了Prompt Cache Keys,确保相关请求能路由到同一个GPU引擎,提高缓存命中率。对于o1/o3这类推理模型,得用Responses API才能缓存思维链token,让后续对话也能受益。另外,管理上下文时别频繁微调,一次性削减30%历史记录比逐轮修剪更有效,能更好地保持缓存一致性。Warp的案例显示,通过多层缓存架构,成本能降低高达90%,这技术对优化AI系统性能来说,真是实打实的工程利器。

3.OpenAI 应用 CTO 和 Codex 负责人:AI 正在重塑构建软件的方式(宝玉的分享)

OpenAI 内部正在用 Codex 彻底改变写代码的方式,这可不是简单的代码补全工具了。现在 AI 已经能像真正的队友一样,在服务器端独立处理任务,从写代码到初步验证都能自己搞定,工程师们可以离线并行开发,效率直接起飞。更有意思的是,当 AI 解决了代码生成的问题后,瓶颈开始转移到代码审查、集成部署这些环节,团队得不断寻找新的效率卡点。设计师和产品经理也因为 AI 的赋能,技术产出大幅提升,产品直觉和设计感成了关键杠杆。未来的软件工程会更偏向“并行探索”——同时实现多个方案再比较,代码也会越来越抽象,工程师们可能不再纠结底层细节,而是更关注系统属性和形式化验证。据说未来半年开发速度还能再快十倍,这波 AI 驱动的变革,真的在重塑我们构建软件的方式。

4.#427.对话 Claude Code 负责人:从工程师到“开发者”的范式转移(跨国串门儿计划)

这期播客聊得太有启发了!Anthropic的Claude Code负责人Boris Cherny直接告诉我们,现在全球4%的代码提交都是Claude完成的,他自己从去年11月开始就完全不用手写代码了,每天靠AI能提交30个PR,效率直接翻了两倍。最震撼的是他预测到2025年底,开发者可能连传统IDE都不需要了。他分享的工作流转变特别有意思——软件工程正在从埋头写代码转向更高阶的系统构思,工程师以后更像是全能型的“开发者”,专注架构和用户需求。他还提到产品创新的秘诀是观察用户怎么“误用”工具,Claude Code的桌面端就是这么来的。最实用的建议是:现在做开发要想着为六个月后的AI模型做准备,别搞那些复杂的临时方案,等下一代模型来了,你的产品自然就能爆发式增长。最后他还把AI编程比作印刷机革命,说未来每个人都能成为跨学科的开发者,这格局一下子就打开了。

5.#426.谷歌传奇 Jeff Dean 深度访谈:Gemini 的演进、硬件协同与 AI 编程的未来(跨国串门儿计划)

谷歌AI掌门人Jeff Dean这次聊得真够硬核的!他直接把Gemini系列模型的成功秘诀摊开来讲了——原来那些又快又省的小模型,比如Gemini Flash,根本不是凭空变出来的,而是把大模型的复杂能力一点点蒸馏压缩进去的。更颠覆认知的是,他居然从芯片物理层面解释为什么AI推理必须搞批处理:数据在芯片里移动比做乘法还费电,不批量处理根本扛不住能耗。Jeff还回顾了谷歌从90年代就死磕的规模化路线,TPU硬件和算法得提前两到六年协同设计,这前瞻性简直了!最让人心头一震的是他对编程未来的预言:以后工程师不用吭哧吭哧写代码了,核心技能变成当个需求大师,把技术文档写得明明白白,让AI自己去干活。他甚至预测每秒能处理上万个token的时代马上就来,到时候思维链推理会让代码稳如泰山。听完感觉整个AI开发的游戏规则都要被改写了。

6.Boris Cherny: How We Built Claude Code(Y Combinator)

Boris Cherny在YC播客里聊了Anthropic怎么做出Claude Code这个基于终端的AI助手,思路挺有意思的。他们从一开始就没盯着当下模型的短板去优化,而是直接瞄准六个月后模型能达到的水平来设计,这样等模型升级了产品也不会因为过度设计的“脚手架”而报废。最酷的是那个“Mama Claude”架构,主智能体能像俄罗斯套娃一样递归调用子智能体,每个子智能体都有全新的上下文窗口,这样就能并行处理像调试内存泄漏、自动化PR流程这类复杂任务,单个模型窗口搞不定的问题现在能拆解着解决了。效果也够吓人的,Anthropic内部工程师的生产力直接飙升150%,提交的PR多了70%,连Cherny自己都完全不写代码了,转去搞高层级的系统编排。他们还发现指令文件不用写得太复杂,用精简的ClaudeMD文件迭代更新就行,经常删掉重写反而能发现模型已经突破了之前的限制。这背后其实是个更大的趋势:软件工程师的角色正在变成“构建者”,编程的基础活被AI接盘后,工程师、设计师、产品经理的界限越来越模糊,现在更看重的是初心、科学思维和指挥AI智能体的能力,而不是死磕某门编程语言的语法细节。

7.Vol.104|OpenClaw 从装上到上岗:写代码卡住的不是模型,是屏幕前的我(开始连接LinkStart)

最近技术圈都在聊一个叫 OpenClaw 的开源项目,它可不是普通的聊天机器人。几位一线创业者分享了他们的实际体验,发现 OpenClaw 真正厉害的地方在于它能像人一样主动思考、自我迭代,独立完成注册账号、发帖、写代码这些需要多步骤配合的长程任务。这背后其实是 AI 从简单对话到智能代理的一次重大范式转移。更让人兴奋的是,开源模型的爆发正在打破大厂的垄断,让更多普通开发者也能低成本地打造自己的 AI 助手,实现所谓的“智能平权”。不过,这也意味着我们开发者的角色正在被重塑——以后写代码可能不再是瓶颈,真正的挑战变成了如何给 AI 设定清晰的目标、制定标准流程,并像个教练一样管理好这些智能代理。算力成本的优化也让 AI 商业化落地变得更可行。看来,未来我们真的要从繁琐的重复劳动中解放出来,把更多精力放在创造性的工作上了。

其他

行业前沿与开源生态,整合行业深度洞察与开源技术动态的复合型主题,技术哲学、AGI讨论、领袖观点

1.”Visual-spatial intelligence is as fundamental as (a16z(@a16z))

李飞飞博士最近分享了一个挺震撼的观点:视觉空间智能和语言一样,是人工智能的基础能力。她创立的 World Labs 正在推动这个方向,认为要让 AI 真正理解并和物理世界互动,光靠处理文本和图像远远不够,必须建立能模拟现实环境的“世界模型”。现在时机正好,算力、数据理解和算法都在快速进步,空间智能的突破可能就在眼前。这不仅是技术问题,更关乎 AI 如何走出屏幕,成为我们生活中更自然、更智能的伙伴。

2.#424.红杉资本 CEO 教练:为何创业从未如此简单,而规模化却从未如此艰(跨国串门儿计划)

这期播客干货满满,红杉资本的CEO教练Brian Halligan聊透了创业公司从0到1再到100的生死关。现在AI和云服务让创业变得超简单,但坏消息是,市场太拥挤了,想做大做强反而比以往任何时候都难。他掏出了评估顶级创始人的“L-O-C-K-S”模型,看看你有没有魅力、够不够痴迷、想不想证明自己、专业底子厚不厚、学习速度快不快。公司一旦突破100人,CEO就得彻底转型,别再埋头干活了,赶紧去搭建高管团队、设计组织架构。招人得慢一点,多花时间用NDA实战面试和盲测背调找那些有“棱角”的天才;但开人一定要快,别犹豫。AI可不是闹着玩的,传统的营销漏斗马上要被AI搜索优化和数字分身取代了,以后你的网站可能就是个无所不知的虚拟销售。他还分享了实战经验:跨部门项目必须指定唯一的直接责任人,别搞委员会那套,否则执行力全完蛋;企业文化也别光盯着员工满意度了,把管理层奖金和客户留存率挂钩,让客户价值真正成为公司的北极星。