第一时间捕获有价值的信号
⼤家好,Weekly Gradient第 84 期已送达,本期内容全面总结2025-2026年AI领域核心趋势,涵盖Agent大规模落地、多模态技术爆发、企业级AI增长、AI编程范式转变、创业机会与出海策略、投资估值逻辑变化、开源模型进展、伦理安全挑战等关键主题,为从业者提供深度洞察。
AI 商业化
聚焦AI行业的商业化路径、市场竞争格局和商业模式创新,包含投资趋势、GTM策略、SaaS转型等商业分析
1.从大厂设计师到超级一人公司:6000 字回顾我和 AI 的 2025(歸藏的AI工具箱)
一位大厂设计师在2025年彻底转型,靠着AI工具打造出能持续盈利的“超级一人公司”。她不仅高效运营着微信公众号、Twitter等多个平台,还通过社群把AI创业者和产品连接起来,实现了个人成长与商业价值的双赢。文章里干货满满:强化学习让编程变得像“凭感觉”一样简单,多模态技术正在视频生成领域大放异彩。更让人兴奋的是,她预测2026年Vibe Coding会真正破圈,而AI Agent将不再追求“万能”,而是深耕垂直领域解决具体问题。如果你也好奇AI如何赋能个人职业发展,或者想提前了解明年技术趋势,这篇年度总结绝对值得一读。
2.深度|对话 Sam Altman:企业级市场是 OpenAI 26 年重点发力方向,25 年 B 端业务增长已超过 C 端增长(Z Potentials)
OpenAI的CEO Sam Altman最近聊了聊他们接下来的大动作,核心信息很明确:企业级市场是未来两年的重中之重。他透露,其实2025年B端业务的增长速度已经超过了面向消费者的C端,这说明AI模型的能力已经足够支撑企业级应用了。OpenAI打算利用ChatGPT在消费端积累的品牌认知,快速切入编码、金融、科学这些垂直领域。Altman还分享了他们保持领先的秘诀——不仅仅是模型要强,更要靠快速的产品迭代和构建一个完整的产品生态体系。他描绘的未来AI图景也很有意思,AI将不再是简单的工具,而是能主动理解你、拥有超强记忆、甚至能动态生成界面的智能助手,真正融入工作流。当然,这条路投入巨大,OpenAI在基础设施和算力上砸了很多钱,Altman坚信这能推动科学发现和AI能力的指数级增长,长期看经济价值巨大。他也坦率地提到一个现象,叫“capability overhang”,意思是现有AI模型的潜力其实远超我们目前的使用程度,改变工作习惯需要时间,但一旦用起来,回报会非常可观。
3.a16z’s Justine Moore on the potential of multimoda(a16z(@a16z))
a16z的Justine Moore最近分享了对AI未来的看法,特别让人兴奋的是她提到的多模态AI潜力。她预测到2026年,我们可能会看到“任意输入、任意输出”的模型,这意味着用户能更自由地创作各种媒体内容,迭代速度也会大大加快。这其实是a16z消费者团队讨论的一部分,他们还聊到了企业如何推动消费者使用AI、应用生成数量会怎么增长,以及更好的模型怎么帮助小众产品发展。有意思的是,讨论还触及了大型语言模型“赢者通吃”的现象、分发策略的重要性,甚至提到了2025年可能被低估的产品。整体来看,这不仅是技术展望,更关乎AI如何真正融入商业和日常生活,值得关注。
[4.What our consumer team expects in 2026 for AI:
a16z的消费者团队最近分享了对2026年AI发展的预测,挺有意思的。他们觉得企业级AI的普及会反过来推动消费者使用习惯的转变,就像当年企业电脑带动个人电脑普及那样。未来AI应用会越来越多,而且能力会更强,什么都能输入、什么都能输出。最让人兴奋的是,他们认为初创公司有机会利用更好的底层模型,做出更专业、更有特色的产品,不用再和大厂硬碰硬了。这个预测其实来自他们一个更长的视频讨论,里面还聊了2025年的趋势、大模型的主导地位、品牌在分销中的作用,以及那些被低估的产品机会。如果你关心AI怎么真正走进普通人的生活,这些观点值得琢磨。
5.拾象 2026 AI Best Ideas:20 大关键预测(海外独角兽)
拾象投研团队对 2026 年 AI 领域做了 20 个大胆预测,描绘了一幅激动人心的商业图景。ChatGPT 可能成为真正的全球入口,日活用户翻倍到近 10 亿,甚至挑战 Google 的搜索流量,还会出现首个年收入过亿美元的原生应用,开启它的“应用商店时刻”。企业级 AI 将迎来爆发年,Anthropic 凭借中立的 API 服务可能实现收入翻倍,企业采购会分化为“即买即用”和“深度定制”两种模式。多模态技术不再只是演示,将迎来“编程时刻”,催生出像《Pokémon GO》那样的现象级消费产品。更值得关注的是,推理算力消耗预计会增长至少 10 倍,因为 AI 正从简单对话转向处理长程任务和主动智能体,自动驾驶也将结束十年投入期,进入规模化商业变现元年,Tesla 的 Robotaxi 和 FSD 订阅有望带来指数级增长。这些预测共同指向一个核心:AI 正在从技术探索加速转向大规模商业落地,每个环节都可能诞生新的巨头和现金流。
6.Benchmark 新合伙人 Everett Randle: 忘掉 SaaS 逻辑与毛利率,AI 时代估值看单客价值(海外独角兽)
嘿,最近读到一篇挺有意思的访谈,来自 Benchmark 的新合伙人 Everett Randle。他聊到在 AI 时代,VC 那套估值逻辑真的得彻底翻新了。过去 SaaS 公司总爱盯着毛利率,但现在 AI 应用因为推理成本高,毛利率可能没那么好看,但这不代表它不赚钱。关键要看单客绝对利润,AI 能替代大量人力预算,创造的经济价值可能远超传统软件。他还强调,AI 公司的护城河其实还是技术和人才,那些能深度融入工作流、做出差异化体验的产品才真正有竞争力。Benchmark 作为精品基金,坚持早期深度介入,追求高倍数回报,跟那些追求规模的大基金走的是完全不同的路。最触动我的是他说投资要相信直觉,别被复杂结构或短期共识带偏,像 OpenAI 这种机会,如果纠结于非营利架构这些细节,可能就错过了时代级的投资。说到底,公司最核心的还是人,产品是团队能力的证明,市场反而是最容易调整的。
7.想成为下一个 Manus,先把这些出海合规问题处理好(Founder Park)
AI 企业出海可不是简单的技术复制,合规问题处理不好,分分钟让你从“下一个 Manus”变成“下一个被告”。这篇文章把出海路上的合规雷区都给你标出来了:那种把数据放海外、团队留国内的“三明治架构”风险极大,数据反复跨境传输很容易踩到各国数据主权的红线。不同国家监管逻辑天差地别,美国喜欢用诉讼让你整改,欧盟 GDPR 对数据保护严到变态,中国则盯着数据出境评估和 AI 备案。想安全出海,至少得在美国、欧盟、新加坡和中国布好数据存储节点,满足本地化要求。训练数据来源也得小心,网上爬的数据要守规矩,用自家用户数据得更新隐私政策,开源数据集更要避开版权坑。AI 生成的内容版权归谁?得靠用户协议提前约定好。侵权风险怎么防?平台得主动管理,建立举报机制,还得给生成内容打上标识。律师团队还建议把新加坡作为出海节点,优化主体架构。这些合规细节看似繁琐,但提前布局才能让你真正抓住全球市场的机会,而不是半路翻车。
8.#377.法律界的 AI 革命:Harvey 如何重塑法律市场(跨国串门儿计划)
这期播客聊得真有意思,Harvey这家公司正在用AI彻底改变法律行业。他们不是简单地做个工具给律师用,而是把复杂的法律工作,比如大型并购案,看成一套需要处理的“代码”,然后用AI去结构化地处理这些非结构化的文件,就像给律师配了个智能助手。更厉害的是,他们正在构建能模拟初级律师工作的AI智能体,通过强化学习去执行查找判例、起草文件这些任务,还能从资深律师的反馈里不断学习。Harvey有个很独特的“前线部署工程师”模式,工程师会直接跑到客户现场,去连接那些老旧的计费、治理系统,确保AI能在这些大企业里真正用起来。他们的目标不是只提升某个律师的效率,而是想通过AI基础设施,去提升整个律所甚至整个法律行业的“组织生产力”。Harvey选择不自建律所去和客户竞争,而是赋能现有的律所,帮它们都变成“AI优先”的律所,这个合作思路挺聪明的。未来,他们还会持续探索AI和人类律师怎么更好地协同工作,来应对法律服务市场越来越复杂的挑战。
9.喝点 VC|a16z 谈 AI 的“玻璃鞋效应”:大量模型都能把事情“勉强做好”,却没能够激发用户忠诚度(Z Potentials)
最近读到一篇挺有意思的分析,讲的是AI领域正在发生一种叫“玻璃鞋效应”的现象。简单来说,就是现在很多AI模型都能把任务“勉强做好”,但真正能让用户死心塌地留下来的产品却不多。文章提到,传统SaaS产品早期往往流失率很高,但在AI世界里,有些产品一上来就能通过精准解决用户某个高价值、长期没被妥善处理的工作负载,实现惊人的早期留存表现。这就像找到了那双尺寸、形态和用途都完美契合的玻璃鞋,用户一旦用上就离不开了。文章还举了Google Gemini和Anthropic Claude的例子,发现最早那批“基础用户群”对模型的黏性特别强,留存能力也持久,但后面来的用户流失率就明显高得多。这其实在提醒我们,AI时代的产品竞争逻辑变了——不再是比谁功能多或者谁先发布,而是看谁能在一个具体的高价值工作负载上提供压倒性的解决方案。而且,抓住那个短暂的技术领先窗口期特别关键,一旦错过,产品就容易陷入“够用即可”的平庸竞争。所以,对AI创业者来说,与其做泛泛的“够用”产品,不如聚焦彻底解决某个深层问题,这才是建立用户忠诚度的核心。
10.128. Manus 决定出售前最后的访谈:啊,这奇幻的 2025 年漂流啊…(张小珺Jùn|商业访谈录)
这期播客太有料了!Manus被Meta收购前,联合创始人季逸超聊了聊他一路走来的奇幻漂流。从高中做App Store项目赚到第一桶金,到后来从移动浏览器转向NLP和知识图谱,再到放弃AI原生浏览器、全力打造通用AI Agent产品Matters,每一步都踩在时代脉搏上。他特别提到,AI创业和移动互联网完全是两码事,现在更讲究稳健经营和成本控制,用户增长带来的可是实打实的线性成本提升。大模型和应用公司的界限会越来越模糊,未来拼的是应用能力,做好应用比做出更好的模型还难。通用AI Agent的潜力巨大,能通过虚拟化技术满足各种长尾需求,还能靠用户反馈自我进化。创业过程中,Monica这样的现金流产品不仅提供了试错空间,还帮团队深刻理解了用户怎么用AI,尤其是Context传递的重要性。决策模式也得灵活,不同阶段用不同方法,平衡好技术和产品驱动。最后,季逸超强调在AI时代,“不做什么”比“做什么”更重要,得克制和聚焦,目标是把AI Agent真正用到现实世界里。他对2025年Matters的产品和模型迭代充满期待,这场漂流还在继续呢!
11.Manus 加入 Meta,1 年内公司价值 100 倍增长,他们做对了什么?(Founder Park)
Manus 被 Meta 收购这事儿太有意思了!这家公司一年内价值翻了 100 倍,关键是他们连自己的 AI 模型都没有。文章拆解了他们成功的秘诀:在 AI 巨头忙着建基础模型的时候,Manus 聪明地切入应用层,通过连接顶级模型、解决实际问题,创造了实实在在的增量价值。他们用‘工程替代魔法’快速做出产品,抢占了市场先机,这就是所谓的‘量子隧穿效应’。更棒的是,文章还挑战了‘套壳’的偏见——就像苹果手机的核心是芯片,但真正让用户买单的是那套精致的产品工程和体验。AI 创业不一定非要死磕模型,做好应用层创新同样能创造巨大价值,这给咱们国内的创业者打开了新思路。巨头和创业者其实可以更开放地合作,共同把生态做大,而不是急着控制对方。
12.Where does consumer AI stand at the end of 2025?(a16z)
2025年消费级AI走到一个挺有意思的转折点。OpenAI的ChatGPT虽然还是老大,但Google的Gemini靠着安卓生态的分发能力,增长速度已经反超了,市场格局可能真要变天。更让人兴奋的是图像和视频生成模型,现在不光能画得好看,还能生成有物理逻辑、角色一致的视频,甚至音视频原生结合,实用性直接拉满。不过技术再牛,产品不好用也白搭,Gemini那个空白界面就劝退了不少人,而ChatGPT学TikTok搞模板化引导,用户上手快多了。大厂虽然模型强,但初创公司反而有机会,他们更灵活,能针对特定需求做出垂直、有主张的产品。还有个挺现实的发现,AI生成的内容在社交场景里还是差点意思,大家更愿意把它当创作工具,而不是用来交朋友,毕竟少了点真实互动和情感共鸣。
13.推特热议、AI 万亿美元新赛道,「上下文图谱」到底是什么?创业机会在哪?(Founder Park)
最近有个概念在推特上特别火,叫“上下文图谱”,据说是个万亿美元的新赛道。它到底在讲什么呢?简单说,现在很多企业用AI Agent来提升效率,但有个大问题:Agent做决策时,背后的“为什么”根本没被记录下来。比如那些老员工才懂的经验规则、处理过的特殊案例、跨部门协调的流程,这些隐性知识都散落在日常操作里,现有的数据系统根本抓不住。上下文图谱就是想解决这个痛点,它通过记录Agent执行工作时的完整决策轨迹,把这些看不见的“推理过程”变成可以查询、可以沉淀的核心数据,相当于给组织建一个不断进化的“世界模型”。这里还提到一个有趣的“双时钟”比喻——传统系统只记录“现在是什么”(状态时钟),却忽略了“为什么会这样”(事件时钟)。正因如此,大厂们反而有盲区,他们困在现有的数据孤岛里,而初创公司如果能从Agent的工作流切入,实时捕捉决策上下文,反而有结构性优势。创业机会也很明确:专攻那些人力成本高、规则例外多、需要跨系统打通的场景,比如直接替换老旧记录系统,或者以模块形式嵌入特定流程。说到底,这赛道拼的是谁能把那些只有深入一线才能发现的“决策事实”给挖出来并产品化。
AI 产品设计
探索AI原生产品的设计范式与用户体验革新,强调产品哲学、交互模式、Agent设计等
1.这份年终众包调研来自我在 X 上的随手一问,问了三个问题:2025 年 AI 最关键的技术突破是什么(宝玉(@dotey))
宝玉在X上发起了一个挺有意思的众包调研,问了大家三个关于AI未来的问题,收到了上百份回答。大家普遍认为,2025年最关键的突破会是“推理革命”——AI不再只是猜下一个词,而是学会像人一样“慢思考”,能预测下一步行动,o1、DeepSeek R1这些模型已经在路上了。推动这事儿的有RLVR这种新学习方式,还有能降低成本的MoE架构。更酷的是,Agent会真正成熟起来,能流畅调用工具、处理复杂任务链条。产品方面,对话框可能要过时了,像Claude Code、NotebookLM这些产品,都在让AI更像一个能并肩作战的队友,工作流里有清晰的“进度条”反馈。视频生成和空间智能也是热点。展望2026年,Agent会大规模落地,AI变得更“私人化”,有记忆、懂你,甚至能自主指挥“AI舰队”干活。具身智能会更深地融入硬件,让AI有空间感知和物理交互能力。当然也有冷静的声音说,2025年可能还是性能提升为主,未必有颠覆性突破。整体看,AI正从“听话的工具”转向“懂你的伙伴”,这个转变过程本身就够让人期待的。
[2.这篇访谈挺值得听听的。
里面有一句话给我印象挺深刻:“做对一千件小事,比做对三件大事更重要”。
](https://x.com/dotey/status/2006065780253655070)(宝玉(@dotey))
最近读到一篇挺有意思的推文,讲的是播客访谈里一个让人印象深刻的核心观点:“做对一千件小事,比做对三件大事更重要”。这个观点被作者巧妙地联系到了《The Bitter Lesson》理论和Manus团队的AI Agent设计理念上。文章里详细分析了当前AI Agent产品的两种路径:一种是规则主导,另一种是智能主导。Manus选择了后者,虽然初期可能不够稳定,但长远来看上限更高。他们通过降级处理的方式,比如使用MCP、API文档和模拟浏览器操作,实现了不预设规则的灵活性,能应对各种意想不到的情况。更关键的是,Manus不自训模型,而是专注于如何更好地使用外部模型,把模型创新当作养料。最后,文章点明了“做对一千件小事”的真正含义:它不是在追求少数几个天才发明,而是在无数个工程细节上做到极致,这才是产品真正的核心竞争力。
3.Cursor 首席设计 Ryo Lu:KPI 是把设计师全部变成程序员!(随机小分队)
Cursor 的首席设计师 Ryo Lu 最近分享了一个挺有意思的观点:在 AI 时代,设计师的 KPI 应该是把自己变成程序员。这可不是说要设计师去啃底层代码,而是强调用代码作为共同语言,打破和工程师之间的那堵墙,直接从构建开始打磨产品。他详细拆解了 Cursor 怎么从一堆功能堆砌,重构到以文件为中心、让 AI 直接参与编辑的架构,还明确了 Chat 处理一次性问题、Agent 负责执行复杂任务的分工。面对产品快速增长,他们坚持回到第一性原理,聚焦文件、Agent、编辑器这些核心原语,通过工程师深度参与设计,在系统内部持续重构,实现外层易用、内层强大的洋葱结构。品牌视觉也从阴暗复杂转向清晰有温度,甚至做了可交互的代码体验区,让用户不用安装就能感受产品价值,缩短了那个“Aha Moment”的路径。Ryo Lu 还提倡“雕刻式构建”的工作流,用 AI 快速搭出 60-70% 完成度的原型,再像雕刻一样调整交互和美学,提升软件品质。最后他展望了自适应 UI 的未来,界面能根据用户偏好重组,代码成为团队共同语言,连产品经理的文档都可能变成动态可运行的内容。整体来看,这不仅是工具进化,更是一场关于设计角色、协作方式甚至产品哲学的深度思考。
4.AI 陪伴赛道复盘:2026 年了,为什么还没有一款千万级 DAU 的产品跑出来?(Founder Park)
最近读到一篇挺有意思的讨论,一群AI陪伴赛道的创业者聚在一起,聊了聊为什么到现在还没出现千万级日活的产品。他们发现,这个领域最核心的用户其实是年轻女性,她们的情感需求真实且愿意为此付费——想想那些乙女游戏的火爆就知道了。但光靠通用型、只会说些安慰话的聊天机器人肯定不行,用户很快就会腻,真正能活下来的产品必须提供深度链接,要么有独特的剧情体验,要么能融入日常生活建立信任。有意思的是,创业者们觉得DAU可能不是衡量AI陪伴产品成功的最好指标,反而付费率和用户那种“被需要”的感觉更重要——毕竟陪伴需求往往是问题出现时才被激活的。他们还讨论了AI陪伴到底需不需要实体身体,有人觉得实体能增强情感投射、收集更多信息,但也可能限制陪伴的多样性。说到底,AI陪伴的终极魅力在于它能通过长期互动真正“懂你”,那种高度对齐的个性化反馈才是让人上瘾的关键。整个讨论下来,感觉这个赛道正在从泛泛的情绪价值转向更精细的定制化服务,未来可能会在各个细分领域冒出一些王者。
5.AI 2025-2026 众包调研年终总结:从「聊天」到「干活」的范式转变(宝玉的分享)
嘿,最近看到一份挺有意思的AI趋势总结,感觉特别有料。它讲的是AI正在发生一个根本性的变化:从以前那种陪你聊聊天、回答问题的“对话框”模式,变成了能真正“干活”、有“进度条”的实干派。比如2025年最关键的突破,是AI的推理能力终于能工程化落地了,简单说就是AI学会了“慢思考”,能像人一样一步步推理,还能通过新技术把成本降下来。产品上,像Claude Code已经能自动执行复杂工作流,不再是简单的代码提示了。更让人兴奋的是对2026年的展望,Agent(可以理解为智能体或AI助手)会大规模应用,甚至组成协同工作的“AI舰队”;AI还会和硬件深度结合,拥有空间感知能力,同时变得高度个性化,记住你的习惯。这背后其实指向一个更大的趋势:当AI把“怎么做”的成本几乎降到零时,未来的竞争力就不在于你会不会用AI,而在于你能不能精准地“定义问题”和“提出需求”。感觉我们正在见证AI从一个好玩的工具,变成一个真正能扛事、能融入生活的伙伴。
6.深网独家 | Manus 被 Meta 数十亿美元收购背后:创始人肖弘复盘至暗时刻(深网腾讯新闻)
Meta 花几十亿美元收购 Manus 这事儿,背后可不只是钱那么简单。创始人肖弘复盘了创业路上的几个关键选择,比如果断放弃做了七个月的 AI 浏览器项目,转头去搞“给 AI 配一台独立电脑”的架构,还有坚持零市场预算、让 AI 生成 80% 代码这些听起来有点反直觉的操作。核心观点很硬核:AI Agent 正在从“给答案”变成“给结果”,能自己搞定多步骤任务,比如直接给你生成一份完整的 PPT。他们用的“大模型+云端虚拟机”架构,让 AI 能像人一样在虚拟环境里装软件、跑命令,处理各种长尾问题,这成了 Manus 的护城河。更刺激的是,AI 正在彻底改变软件怎么用、活怎么干——以后可能不需要人盯着软件操作了,SaaS 行业得重新改造,而新机会都得用 AI 原生的思路从头设计。肖弘还强调,企业得变成“AI 原生组织”,让 AI 深度融入每个环节,工程师不用再吭哧吭哧写代码,而是聚焦业务需求和架构。这些思考不只是技术问题,更关乎未来怎么工作、怎么竞争,值得每个关注 AI 的人琢磨。
AI 工程实践
涵盖AI系统技术实现与场景化开发的全流程,包含工程架构、工具链实践、提示工程等核心技术环节
1.AMD 服务器上一个诡异的性能问题诊断历程(阿里云开发者)
阿里云工程师最近在AMD服务器上遇到一个特别诡异的性能问题:某个kata容器里的离线任务一跑起来,整台服务器的所有在线业务容器CPI指标突然飙升三四倍,CPU利用率异常拉满。他们通过perf工具抓取微架构指标,发现前端取指异常、L1I缓存丢失率极高,还捕获到了bus_lock事件,初步怀疑是split lock在搞鬼。深入排查后发现,根源居然藏在Python UDF里——在特定竞争条件下,glibc的free函数错误地尝试释放jemalloc分配的内存,而AMD CPU对split lock的处理机制和Intel不同,直接触发了全局性的bus lock,导致整机性能劣化。文章不仅详细拆解了从现象到根因的诊断过程,还对比了Intel和AMD在split lock处理上的差异,最后给出了规避split lock的最佳实践和ODPS团队的实际解决方案,比如强制使用tcmalloc、避免调用malloc_trim,内核层面也将合入AMD的split lock检测补丁。
2.前几天 Google 首席工程师(Principal Engineer)Jaana Dogan 发了(宝玉(@dotey))
最近Google首席工程师Jaana Dogan的一条推文可真是炸了锅,她说Claude Code只用一小时就干完了团队一年在分布式Agent编排系统上的活儿。这下网上可热闹了,有人感叹大公司效率低,有人直接把Claude捧上神坛,甚至开始担心程序员要失业了。但真相其实挺有意思的——Claude生成的那个版本,说白了就是个“玩具”,而且那个Prompt可不是凭空想出来的,是团队花了一年时间探索、试错、提炼出来的“最佳想法”浓缩版。团队那一年真正在干嘛呢?是在“探索”各种可能性,“验证”哪些方案可行,还有“对齐”大家的认知,这些才是真正费脑子的活儿。AI现在厉害的是能快速把想法“建造”出来,但前提是你得先“想清楚要什么”。所以啊,AI其实把技术开发的难点从“怎么写代码”转移到了“怎么把问题想明白、说清楚”。这对咱们普通人反而是个机会——只要提升自己的判断力、品味和表达能力,就能让AI帮你把想法快速变成现实,在竞争中占得先机。
3.如果你看过半年前 DHH(Ruby on Rails 的创造者)和 Lex Fridman 的访谈,(宝玉(@dotey))
嘿,还记得半年前DHH在访谈里对AI编程那种老派程序员的坚持吗?当时他可是把亲自写代码当作一种修行,还警告年轻开发者别太依赖AI生成的“氛围代码”。但最近风向变了!随着AI模型能处理bash命令、网页访问甚至代码分析,这位Ruby on Rails创始人居然松口了——他承认当初抵触部分是因为模型不够强,现在看到AI解决复杂bug时甚至用“启示”来形容。不过别误会,DHH可不是全盘投降:他依然享受亲手写代码的乐趣,只是开始让AI打草稿来提效率。这转变挺有意思的,就像看一位武林高手从拒绝新兵器到琢磨怎么把刀剑和火铳结合着用,既不想丢掉手艺人的手感,又挡不住技术洪流的实用诱惑。说到底,这大概就是老炮开发者在编程乐趣和技术演进之间找平衡的真实写照吧。
[4.AI 时代的代码审核:写两遍,反而更快
做过几年开发的人,大概都有过这种痛苦记忆:第一版代码写完,](https://x.com/dotey/status/2007515334350086153)(宝玉(@dotey))
你有没有遇到过这种情况:辛辛苦苦写完第一版代码,结果发现需求理解错了,或者技术方案根本走不通,最后只能推倒重来?那种感觉简直让人崩溃。现在AI时代来了,开发方式正在发生根本性变化。这篇文章提出了一个特别有意思的观点:与其追求一次写对,不如先让AI快速帮你搭个原型。这个原型不用追求完美,甚至可以直接扔掉,它的价值在于快速验证需求和发现技术难点。等这些问题都搞清楚了,再让人接手,用传统软件工程的方法认真打磨出高质量的生产版本。听起来好像多写了一遍代码,但作者用经济学思维告诉我们,这种“写两遍”的方法反而更省时间、更省钱。AI把早期试错的成本降到了最低,让我们能把精力真正用在刀刃上。文章还配了流程图,把整个流程讲得特别清楚,看完真的有种豁然开朗的感觉。
[5.【10】 那些你看不见的东西
Boris 有一点没提的就是基础的 源代码管理/ CI(持续集成) ](https://x.com/dotey/status/2007238271827329116)(宝玉(@dotey))
宝玉在推文里点出了一个容易被忽略的关键:就算AI Agent能帮你并行处理多个开发任务,没有完善的源代码管理和持续集成流程,代码质量根本没法保证。他特别提到,大公司把这些基础工作流视为理所当然,但个人开发者往往缺乏这些习惯。AI写完代码不能直接合并,必须走PR提交、CI自动化测试和人工代码审查的完整流程,否则连回滚问题代码都成问题。这提醒我们,AI工具再强大,也离不开那些看不见的基础工程实践。
[6.Boris 的 9 条 Claude Code 实战技巧:原来高手的配置这么“朴素”
Boris ](https://x.com/dotey/status/2007217136176148737)(宝玉(@dotey))
嘿,如果你也在用Claude Code但总觉得效率上不去,这篇分享可太有料了!Anthropic内部那位被称作’Claude Code之父’的Boris Cherny,亲自拆解了他的9条实战技巧。最颠覆的是,他压根不追求什么花哨配置,反而强调’最佳实践没有标准答案’——核心在于吃透功能逻辑,组合成高效流程。比如怎么让多个Agent并行干活、什么时候该用Opus模型、怎么用CLAUDE.md文件让团队项目拥有长期记忆,还有Plan模式怎么玩、斜杠命令怎么自动化生成子Agent。权限配置和外部工具集成这些容易踩坑的地方,他也给出了清晰思路。特别提醒:长任务处理和验证能力才是决定成败的关键!看完你会觉得,原来高手的配置可以这么’朴素’,但效果却直接拉满。
7.2025: The year in LLMs(Simon Willison’s Weblog)
2025年的大语言模型世界真是热闹非凡,感觉整个行业都在加速狂奔。最让人兴奋的是,模型们突然学会了“思考”——那种被称为RLVR的推理能力让它们能像人类一样分解复杂问题、制定计划并调整策略,尤其在编程和工具使用上表现惊人。现在,像Claude Code这样的编程智能体已经能直接写代码、调试、迭代,甚至催生了年收入10亿美元的CLI工具,开发者们的工作方式正在被彻底重塑。更意外的是,中国开源模型今年异军突起,DeepSeek、Qwen这些名字在排行榜上直接冲到全球前列,打破了西方长期的主导格局。模型们不仅能在数学奥赛和编程竞赛中拿金牌,还能独立完成需要人类数小时的软件工程任务。Google的Nano Banana这类提示词驱动的图像编辑工具也火得不行,用几句话就能生成实用的信息图表。而曾经领先的Llama和OpenAI正面临激烈竞争,Anthropic、Google等对手在推理能力上已经追平甚至反超,整个市场变得更多元也更卷了。安全担忧和高价订阅模式的出现,让这个快速演进的AI景观既充满机遇又暗藏挑战。
[8.Congrats to our friends at @manusAI!
Manus has b](https://x.com/LangChainAI/status/2006423362210291772)(LangChain(@LangChainAI))
LangChain 最近专门发帖祝贺了他们的合作伙伴 Manus AI,这家公司在打造面向 2025 年的“颠覆性”AI 智能体方面取得了重要进展。核心亮点在于 Manus 对“上下文工程”的独特理解——他们不只是简单地处理上下文窗口,而是形成了一套完整的方法论,包括如何高效管理上下文、优化智能体的响应性能,以及设计能够大规模部署的可扩展架构。为了让大家更深入地了解这些实践,LangChain 还邀请了 Manus 的联合创始人 Peak 进行了一场深度对谈,完整视频和演讲幻灯片都已公开,可以说是给开发者社区送上了一份实实在在的干货礼包。
9.Qwen-Image-2512 开源发布!(通义大模型)
通义大模型团队刚刚发布了Qwen-Image-2512,这可是个重磅更新!相比8月份的版本,新模型在三个关键领域实现了质的飞跃:人物质感更真实了,自然纹理更细腻了,文字渲染也更清晰了。简单说,就是生成的图片越来越接近真实世界,解决了以往人物失真、细节粗糙这些老问题。更让人兴奋的是,在AI Arena上万次用户盲测中,这个开源模型不仅打败了所有开源对手,甚至能和顶级闭源模型掰手腕。现在模型已经全面开源,你可以在ModelScope、Hugging Face和GitHub上直接下载,也可以通过阿里云百炼的API调用,或者去Qwen Chat在线体验。对于开发者来说,这绝对是个值得关注的好消息!
10.为了整理这 100 多条留言(还有些是转发),我先后试了多种 Agent,比如 ChatGPT Atla(宝玉(@dotey))
宝玉最近搞了个大工程——整理一份关于AI未来趋势的众包调研,结果收到了100多条留言和转发,手动处理简直要命。他试了ChatGPT Atlas、Claude Extension这些Agent工具,发现效果都不太理想,最后还是自己动手丰衣足食。他摸索出了一套半自动化的方法:先用Twitter API把数据抓下来,再用Codex CLI解析内容,中间还分享了不少实用的提示词和数据处理技巧。最后整理出的内容相当有料,不仅提到了2025年可能出现的推理革命、Agent系统化成熟这些技术突破,还盘点了Claude Code、NotebookLM这些值得关注的产品。更厉害的是,他对2026年的预测也很有见地,比如Agent大规模落地、具身智能发展,还有AI越来越私人化的趋势。最让人印象深刻的是,大家似乎都认同一个观点:未来的竞争关键不在于会不会用AI,而在于能不能准确定义问题。这套从数据抓取到分析整理的全流程,对处理类似调研项目的人来说,参考价值真的很大。
11.腾讯混元翻译模型 1.5 开源!1.8B+7B 双模型,支持 33 语种+5 种方言,手机端能跑!(魔搭ModelScope社区)
腾讯这次真的放大招了!他们把自家混元翻译模型的1.5版本直接开源了,而且一口气放出了两个版本——1.8B和7B。最让人兴奋的是那个1.8B的小模型,专门为手机优化,只要1GB内存就能跑起来,性能居然能超过很多商用翻译API,这意味着以后手机离线翻译的质量会有质的飞跃。7B版本就更厉害了,是之前WMT25比赛的冠军模型升级版,翻译准确率大幅提升,还解决了之前翻译里经常出现的注释和语种混杂问题。这两个模型支持33种语言和5种方言,还支持自定义术语库、长文本理解和格式保留,实用性拉满。最酷的是他们用了On-Policy Distillation技术,让小模型也能学到大学问,这种工程实践上的创新真的很值得关注。
12.腾讯混元开源翻译模型 1.5,端侧可部署,效果超越商用 API(腾讯混元)
腾讯这次开源的动作挺实在的,直接把自家混元翻译模型的1.5版本放出来了,里面包含两个不同尺寸的模型。那个1.8B的小家伙特别有意思,经过量化处理后只需要1GB内存就能在手机这类消费级设备上跑起来,关键是翻译效果居然比很多收费的商用API还要好,推理速度也快得惊人。另一个7B模型则是之前比赛冠军的升级版,翻译准确率更高。最让人惊喜的是,这两个模型支持33种语言互译,还能处理5种少数民族语言和方言,而且具备自定义术语库、理解长文本上下文、保持原文格式这些实用功能。技术上也挺有讲究,1.8B模型能这么强,是因为用了On-Policy Distillation策略,让7B大模型实时指导小模型学习。现在这些模型已经在GitHub和Huggingface上开源了,支持多平台部署,对于想做本地化翻译应用的人来说,这真是个不错的工具。
13.MAI-UI 开源:通用 GUI 智能体基座登顶 SOTA!(通义大模型)
通义实验室刚刚开源了一个叫MAI-UI的GUI智能体基座,直接登顶了SOTA!这个模型厉害的地方在于,它把用户交互、工具调用和端云协同三大能力原生集成在一个架构里。最让我觉得实用的是它的“主动提问”功能——当指令模糊不清时,它会主动问你需要什么,而不是硬着头皮瞎操作。遇到复杂任务时,它会优先调用地图API、GitHub API这些结构化工具,而不是傻傻地一步步点界面,效率高多了。而且它采用了端云协同架构,日常任务在手机本地跑,敏感信息不离开设备,复杂任务才安全地交给云端,既保护隐私又节省资源。更酷的是,它经过大规模在线强化学习训练,在混乱的手机环境里也能识别任务偏离、自己回退纠正,保持稳定执行。他们还发布了高难度评测基准MobileWorld,并且全栈开源了,这波操作真的给力!
14.AI 时代的代码审核:写两遍,反而更快(宝玉的分享)
最近看到一篇挺有意思的文章,讲的是在AI编程时代,开发者其实可以换个思路——先快速用AI生成一个原型代码,验证需求和踩坑,然后再重新写一遍生产代码。听起来好像多此一举,但仔细想想还真有道理。传统开发经常因为需求理解不完整,导致过早过度设计,最后还得返工。现在有了AI,第一版原型可以快速搞定,不追求代码质量,就是用来探路和确认方向的,写完甚至可以随时扔掉。等路线图清晰了,再启动第二版生产开发,这时候回归传统工程规范,严谨设计、模块划分、代码审核,AI还是主力但由人主导。这种方法不仅解决了需求模糊的问题,还让那些对AI代码质量有顾虑的资深开发者更愿意尝试,毕竟原型代码本来就是要废弃的。感觉这种‘两遍开发’模式,在AI加速的背景下,确实能让整个开发流程更高效、更踏实。
15.#380.揭秘 Manus:从“对话”到“行动”,构建通用 AI 智能体的未来工作流(跨国串门儿计划)
这期播客聊的 Manus 平台挺有意思,它不再只是那种问什么答什么的 AI,而是能直接上手帮你干活。比如演示里看到的,它能自动操作浏览器抓取活动信息建网站,还能在 Slack 里做个报销机器人——从识别发票图片、查公司报销政策到填表格,一条龙全自动搞定,完全不用人插手。平台背后提供了很开发者友好的 API,支持 Docker 镜像和各种集成,让搭建复杂应用变简单了。而且他们特别强调隐私,用户上传的文件 48 小时就会自动删除,工程师也不会随便看你的数据。如果你正琢磨怎么用 AI 把那些重复繁琐的活儿自动化掉,这期内容应该能给你不少实用的灵感和方向。
16.Claude Code 之父 Boris 的 9 条实战技巧:原来高手的配置这么“朴实无华”(宝玉的分享)
嘿,如果你也在用AI写代码,可能会觉得那些复杂的配置和技巧让人眼花缭乱。但你知道吗?被誉为“Claude Code之父”的Boris Cherny,他的方法反而特别“朴实无华”。他分享的9条实战技巧,核心思想就是别迷信什么“最佳实践”,找到适合自己的节奏才最重要。比如,他会在终端和网页同时开多个Claude Code实例,让AI像真正的Agent一样并行处理任务,而不是等着你一句一句地喂指令。他还坚持用Opus模型,虽然单次响应可能慢点,但准确率高,反而省去了大量纠错的时间。团队协作方面,他推崇用CLAUDE.md文件来共享项目知识和纠错经验,让AI能持续学习团队的工作方式,这被他称为“复利工程”。最关键的技巧是,一定要让Claude学会自己验证工作成果,比如运行测试、模拟交互,形成一个“写代码-测试-修改”的闭环。这样一来,AI的产出质量会大幅提升,你也能更放心地让它独立处理长任务。说到底,理解这些功能背后的逻辑,并把它们组合成高效的工作流,远比追求花哨的配置要有价值得多。
17.梁文锋 DeepSeek 新论文!接棒何恺明和字节,又稳了稳 AI 的“地基”(硅星人Pro)
DeepSeek刚刚放了个大招!他们发布了一篇新论文,提出了一个叫mHC的架构创新,专门解决大模型训练时最让人头疼的稳定性问题。这可不是小打小闹的改进,而是从Transformer最底层的残差连接入手,把之前字节跳动Hyper-Connections架构容易导致信号爆炸和Loss尖峰的毛病给治好了。关键是他们用了个很巧妙的数学方法——把连接权重矩阵约束成双随机矩阵,这样信号能量就能守恒,训练过程稳得一批。更厉害的是,这个改进没牺牲模型表达能力,也没增加新的超参数,但实验里7B模型训练时Loss曲线平滑得像条直线,MoE模型收敛速度直接提升了快两倍。最让人佩服的是DeepSeek的工程能力,为了把这个理论方案落地,他们手写了CUDA内核代码,还搞了算子融合和选择性重计算,硬是把计算延迟和显存开销给压下来了。从何恺明的ResNet到字节的Hyper-Connections,再到现在的mHC,这十年AI基础架构的演进真是越来越扎实了。
18.Claude Code 5 亿美元背后的 AI 工程革命(宝玉的分享)
你知道吗?Claude Code 从一个听歌小工具做到年入5亿美元,背后藏着不少颠覆性的工程智慧。核心在于他们发现了“产品溢出”效应——模型本身能力已经很强,只要给个简单的界面和适当权限,就能快速释放价值。团队选技术栈特别聪明,专挑模型擅长的 TypeScript 和 React,结果90%的代码都由 AI 自己写出来了,开发效率简直飞起。更夸张的是,现在做产品原型完全变了样,两天就能搞出20个可运行的原型,工程师得学会从“验证想法”转向“探索可能性”。AI 已经渗透到代码审查、测试编写、事故响应各个环节,连传统的测试驱动开发都因此复兴了。整个团队坚持一个原则:简单至上,减少复杂逻辑,让模型当主角,甚至在开发复杂功能时不惜推倒重来,只为找到用户最容易理解的模式。这不仅是工具升级,更是一场工程思维的革命。
19.#375. Vibe Coding 宣言:为何 Claude Code 并非终局,以及 IDE 之后将迎来什么(跨国串门儿计划)
这期播客请来了编程界的老炮儿Steve Yegge,他直接放话:手动写代码的日子快到头了!他提出的‘Vibe Coding’理念可不是闹着玩的,预言到2025年还在IDE里吭哧吭哧敲代码的工程师,可能就得被贴上‘实习生’标签了。为啥这么狠?因为AI Agent带来的效率提升太吓人了,内部数据显示能比传统方式快十倍!以后咱们用的可能不再是IDE,而是指挥一群AI小助手的‘Agent编排仪表盘’,工程师摇身一变,成了管理‘代码工厂’的‘工厂主’。不过这事儿对资深工程师冲击不小,很多人还在抵触AI,但效率差距摆在那儿,不跟上可能真要被甩开。AI在重构代码、生成新功能上确实厉害,提示词编程要取代单行编辑了。最值得琢磨的是,以后教孩子编程,重点得从死记语法变成理解架构概念,得学会怎么指挥AI团队协同工作。科技巨头们也在摸索怎么用好AI,开源模型势头挺猛,但技术跑太快也可能引发社会反弹。说到底,拥抱变化才是硬道理。
20.#373.MCP 协议一周年(跨国串门儿计划)
嘿,这期播客聊得真够深入的!MCP协议发布才一年,就从Anthropic的内部工具变成了行业标准,发展速度惊人。嘉宾们分享了它如何一步步增加企业级功能,比如远程连接、身份验证这些技术难点,还有异步任务和直接在聊天界面里操作的MCP Apps,让AI用起来更顺手。最让人兴奋的是Agent AI基金会的成立,就是为了防止协议被大公司独占,保持开放中立,推动整个生态一起创新。他们还解释了MCP怎么和“代码模式”、“Skills”配合,一个管效率,一个管知识,共同打造更智能的Agent。未来,MCP的目标是让消费者完全感觉不到底层技术,享受无缝的AI体验,听起来是不是很酷?
其他
行业前沿与开源生态,整合行业深度洞察与开源技术动态的复合型主题,技术哲学、AGI讨论、领袖观点
[1.Happy New Year!
In the New Year issue of The Bat](https://x.com/DeepLearningAI/status/2007174411183423574)(DeepLearning.AI(@DeepLearningAI))
DeepLearning.AI的新年特刊《The Batch》带来了不少干货!吴恩达提出了一个挺有意思的’图灵-AGI测试’新思路——不再只是看AI能不能聊天,而是看它能不能真正干出有经济价值的活儿,这招挺实在的,能帮我们看清哪些AI是真本事,哪些只是市场吹出来的泡泡。这期还集结了IBM、普林斯顿、微软这些大咖的见解,聊的话题也特别接地气:开源AI怎么玩转、AI怎么帮科学家搞发现、教育领域怎么用好AI、AI怎么从预测升级到行动、生物医学里多模态模型有啥新花样,还有那些能建社区的聊天机器人。整体读下来,感觉像是一份AI发展的’路线图’,既有远见又很实用,新年看看这个,对AI的未来方向心里更有谱了。
2.New Year Special! Hopes for 2026 from David Cox, Adji Bousso Dieng, Juan M. Lavista Ferres, Tanmay Gupta, Pengtao Xie, Sharon Zhou(deeplearning.ai)
嘿,这期新年特辑真有意思!Andrew Ng直接给AGI定了个新标准——得能像人类一样干几天活才算数,这招挺实在,专治各种炒作。David Cox那边猛推开源AI,说这玩意儿能防着大厂垄断,跟当年开源软件一样能掀起创新浪潮。Adji Bousso Dieng的想法更酷,她希望AI别光会算数,得能帮科学家发现那些藏在数据尾巴里的新东西,比如搞材料突破。教育这块,Juan M. Lavista Ferres直接说别费劲检测AI作弊了,赶紧教学生怎么跟AI协作才是正事,毕竟这工具以后少不了。Tanmay Gupta则催着AI研究别老预测未来,得多做点能动手干长线任务的智能体,记性好、目标清的那种。最后Pengtao Xie盯着生物医学,要的不仅是强大的多模态模型,还得讲科学、能解释,真正帮上医生和研究员。整体看下来,这帮专家不光聊技术,更在琢磨AI怎么接地气、不跑偏,未来几年有的看了!
[3.Reddit 神贴(转译):
我是一家大型外卖应用的开发者。“优先配送费”和“司机福利费” 100](https://x.com/dotey/status/2006977088843120923)(宝玉(@dotey))
今天看到一篇让人背后发凉的爆料,来自一位外卖平台的前开发者。他揭露了平台那些看似贴心的功能背后,藏着怎样精密的算计。那个让你多付钱的“优先配送”,其实根本不会让你的订单更快,平台只是故意拖慢普通订单,让你产生“花钱真快”的错觉。更离谱的是,你额外付的“司机福利费”,一分钱都没到司机手里,全被拿去游说反对司机成立工会了。最让人愤怒的是,平台居然有个“绝望评分”系统,专门识别那些经济困难的司机,然后故意不给他们看高价的订单,就为了用最低的成本榨干他们。还有,平台会根据你预估的小费金额,动态降低司机的基础运费,这等于变相吞掉了你给司机的心意。这位开发者已经离职,冒着法律风险说出这些,就是不想再沉默。这哪里是科技创新,简直是披着科技外衣的精准剥削。
4.2025 年 12 月 31 日晚上 8 点半,现场 4400 名观众与线上几百万人同时看罗振宇在三(宝玉(@dotey))
你有没有发现,每次罗振宇的跨年演讲结束后,网上总会出现两种截然不同的声音?有人觉得他给了人生指南,有人却说他搞的是商业套路。这篇文章就从这个现象切入,提出了一个特别有意思的概念——施特劳斯式模因。它就像个三层夹心蛋糕:最外面是给大众看的乐观人生指南,中间藏着高阶观察者才能看懂的商业变现系统,而最核心的机制是让这两层人互相不理解却又能和谐共存。文章详细拆解了这种结构是怎么保持稳定的:普通观众会因为身份认同、沉没成本这些心理因素,自动屏蔽掉深层质疑;而看透套路的高阶观察者,又往往因为善意保护或觉得说了也没用,选择保持沉默。更实用的是,文章还给了三步检验法,教你在AI内容爆炸的时代,怎么快速识别这类精心设计的模因陷阱。读完真的让人后背发凉,原来我们每天刷到的那么多内容,背后可能都藏着这样的双层游戏规则。
5.#376.深度学习之争:LLM 是通往通用人工智能的终途,还是误入歧途的“狂热崇拜”?(跨国串门儿计划)
这期播客真是干货满满,两位AI大牛Yann LeCun和Adam Brown直接正面交锋,把当前最火的LLM技术路线给掰开揉碎了聊。LeCun老爷子火力全开,说现在的LLM虽然能写诗聊天,但连修马桶这种基本物理常识都搞不定,本质上还是缺乏对真实世界的理解,离人类那种高效学习差得远呢。他力推自己的JEPA架构,想让AI学会像人一样抽象思考,而不是死磕数据。另一边,DeepMind的Brown却特别乐观,他觉得别小看“预测下一个词”这么简单的规则,在超大模型里能涌现出惊人的数学推理能力,甚至能解奥赛题,而且这种增长势头还没见顶。两人还吵到了AI安全上:LeCun觉得这就是个工程问题,给AI设好目标和安全护栏就行;Brown则担心AI万一自己长歪了,跟咱们的初衷背道而驰怎么办?不过他俩倒是一致认为,必须大力搞开源AI,不然未来数字世界被几家大公司垄断,那可就麻烦大了。这场辩论不只是技术路线之争,更是在追问:我们到底该怎么造出既聪明又安全的AI?
6.#374.怀疑是你的超能力:诺奖物理得主 Saul Perlmutter 聊科学思维、决策艺术(跨国串门儿计划)
这期播客请来了诺贝尔物理学奖得主Saul Perlmutter,聊的可不是什么高深莫测的宇宙理论,而是我们每个人都能用上的科学思维。他反复强调,怀疑不是坏事,反而是推动进步的超能力——科学家们就是靠不断质疑、寻找错误才走到今天的。他还分享了一个特别有意思的理念叫“自信的谦逊”,既要承认自己可能犯错,又要坚信问题能被解决,这种平衡在科研和日常决策里都太重要了。节目里还提到了“盲分析”和“情景规划”这些具体方法,能帮我们避开认知偏误,做决定时更稳当。谈到团队合作,Perlmutter认为多样化的技能和开放的沟通环境是关键,甚至鼓励一点友好的竞争来激发创新。现在AI这么火,他提醒我们批判性思维比以往任何时候都重要,AI是工具也是陷阱,得学会判断它给的信息靠不靠谱。最后,作为发现宇宙加速膨胀的科学家,他特别鼓励年轻人别被末日论调吓住,主动参与进来,用建设性的方式一起塑造未来。整场对话既有深度又接地气,听完会觉得,原来那些顶尖科学家的思考方式,咱们普通人也能借鉴。
7.深度|吴恩达:中国在开源权重模型的发布方面已经远远领先于美国;很多人用 Agentic AI 的方式是错的(Z Potentials)
吴恩达这次聊得挺实在的,直接点破了很多人用Agentic AI的误区——别指望它一口气给你搞定所有事,得学学人类的工作方式,拆成大纲、研究、草稿、修改这些步骤来迭代,这样在医疗、法律这些复杂领域才真正高效。他还特别强调,别以为AI会取代编程,恰恰相反,未来能和AI高效协作的,恰恰是那些懂编程、能精准表达需求的人,所以编程依然是硬核技能。有意思的是,他观察到中国在开源大模型的发布上已经跑到了美国前面,这可不是小事,直接关系到全球AI供应链的格局。对于美国,他挺担忧的,觉得得赶紧调整移民政策、加大科研投入,还得解决能源瓶颈,不然竞争力真要掉队。最后,他把AI比作‘头脑风暴’伙伴,鼓励年轻人别光用AI打杂,要拿它去创造点以前不敢想的东西,这才是AI生产力的真本事。