第一时间捕获有价值的信号
a16z 的 Youtube 频道放出了近期举办的 Runtime 闭门峰会视频,周末抽空看了其中三个(AI 工具产品 Wabi 的 CEO 访谈、Poe 和 Replit 的 CEO 对谈、a16z 两个创始人对谈),摘录下部分观点,非逐字稿,做了二次编译,介意的可以直达 Youtube 原视频自行观看。
a16z 创始人讨论 AI 的现状
Marc Andreessen 和 Ben Horowitz 认为,无论是在创造力、智慧还是领导力方面,人类自身的标准也远非完美,而 AI 只要能超越大多数人的平均水平,就将带来巨大价值。他们探讨了为何 AI 不会因更智能而必然统治人类、AI 市场是否是泡沫,以及在即将到来的平台转移中,产品形态和地缘政治(特别是美中竞争)将如何演变。
AI 能否真正创造或”具备智能”?
当谈论大型语言模型 LLM 的局限性,例如它们无法进行真正的科学发明或展现真正的创意天才,只能是组合或包装时,Marc Andreessen 提出了一个反向的质问:人类真的可以吗?
他将这个问题分解为智能和创造力两个层面。首先,关于智能,即处理信息和实现概念性突破的能力,他指出,即使我们承认有些人是智能的,即他们能够产生原创的概念突破,而不仅仅是复述训练集或遵循脚本,但这样的人在人群中的比例极低。他坦言自己只见过少数几个能做到这一点的人,大多数人一生中从未有过真正的概念突破。
其次,关于创造力。有多少人是真正具有创造力的?人们总是指向贝多芬或梵高这样的人物作为创造力的标杆,但这样的天才显然是凤毛麟麟角。Marc 认为,如果 AI 能够清除掉 99.99% 人类的门槛,这本身就已经非常值得关注了。
更进一步深究,人类历史上真正称得上”原创”的概念突破有多少?大多数时候,所谓的”突破”其实是”重混”。在科技史上,重大的突破几乎总是至少 40 年前期工作的结果。语言模型本身就是过去八十年工作的结晶。在艺术领域也是如此,无论是小说、音乐还是绘画,虽然存在创造性的飞跃,但都受到了前人巨大的影响。即使是贝多芬这样的天才,他的作品中也能看到莫扎特和海顿的影子。
因此,纠结于 AI 是否在进行 0.001% 的世界级、代际性的创造力或智能突破,有点像在讨论”针尖上能站几个天使”。从情感上,Marc 当然希望人类的创造力仍有其特殊之处,但他坦言,在使用这些工具时,他感觉它们已经非常聪明且富有创造力,他相信它们最终会越过那个门槛。
对于跨领域迁移学习,即”分布外推理”或”横向思维”的能力,Marc 同样持此观点。他认识的非常擅长”分布内推理”的人很多,但能做到”分布外推理”的人屈指可数。他举例说,有些人,你问他一个关于金融的问题,他能从心理学给你答案;你问他心理学,他能从生物学给你答案。他估计,在他的一万个联系人中,大概只有三个人能稳定地做到这一点。
Marc 认为这恰恰是令人鼓舞的。人类正是带着这些局限性,建设了今天的文明,创造了如此多令人惊叹的艺术、电影、小说、技术发明和科学突破。我们并不需要 AI 达到 100% 的原创思考才能带来巨大的进步,只要它们能达到我们现在的水平,甚至略微超过,就足以带来翻天覆地的变化。
创造性天才与 AI 音乐
Ben Horowitz 作为嘻哈音乐的深度爱好者和支持者,也从音乐和艺术的角度分享了他的看法。他同意 Marc 的观点,即无论 AI 最终能否达到那个终极水平,它现在已经非常有用。
不过,Ben 也强调了艺术中”实时人类体验”的独特性。他认为,至少在艺术领域,人类对于这种真实、即时的体验有着强烈的偏好。当前技术状态下的预训练模型,其拥有的数据(训练集)可能还不足以捕捉到那种真正触动人心的核心。
Marc 顺势向 Ben 提问:在他所接触的、横跨过去 50 年的整个嘻哈领域中,有多少人可以被归类为”真正的概念创新者”?Ben 思考后承认,这个比例是”极其、极其、极其微小”的。在基金会最近的活动上,他认为在场的艺术家中,或许只有 Rakim 和 George Clinton 达到了”根本性的音乐突破”这一级别,Dr. Dre 也在这个范畴内。
当被问及这些嘻哈传奇人物(如 Dr. Dre、Nas)对 AI 的态度时,Ben 表示,虽然音乐界确实有人感到恐惧,但大多数人,尤其是嘻哈领域的艺术家,对 AI 非常感兴趣。
原因是,他们觉得 AI 正在做的事情,几乎就是他们当年所做事情的”重演”。嘻哈音乐本身就是通过采样(taking other music),在其他音乐的基础上构建出全新的音乐。因此,他们不认为 AI 是一种威胁,反而视其为一种绝佳的创意工具,它极大地打开了调色板。此外,嘻哈的很大一部分价值在于讲述特定时间、特定地点的特定故事,而 AI 这种能够被特定知识训练的工具,在这方面反而比一个”泛泛而智”的音乐模型更有优势。
更智能是否意味着”必然统治”?
一个在 AI 领域常见的逻辑是:更智能的物种(或个体)终将统治较不智能的物种。Marc 对”智能必然统治 ≈ 的观点嗤之以鼻。他反问道:“看看我们今天的世界,你觉得我们正被最聪明的人统治吗?“他指出,现实中往往是博士(PhD)在为工商管理硕士(MBA)工作。
他承认,智力(IQ)在个体层面很重要。在社会科学中,流体智力(G 因子或 IQ)与几乎所有积极的生活成果(教育、职业、收入、生活满意度,甚至包括非暴力解决问题的能力)都有 0.4 左右的相关性。但一方面,0.4 在社会科学中已经是巨大的相关性;另一方面,它仅仅是 0.4。这仍然意味着有很大一部分(超过 60%)的变数无法被 IQ 解释。
而在集体层面,情况更加复杂。一个著名的观察是,把一群人(哪怕是聪明人)聚集在一起,他们组成的”暴民”(mob)会比个体的平均智商更愚蠢。
因此,现实世界中,谁在掌权、谁在领导,其筛选过程显然不完全基于 IQ,甚至可能不主要基于 IQ。AI 圈子中那种”更聪明的 AI 将不可避免地统治更愚蠢的人类”的假设,在 Marc 看来,是非常容易且明显被证伪的。智力本身并不足以保证成功或获得统治地位。我们都认识很多聪明人,有些人确实取得了巨大成功,但也有很多聪明人一事无成。这证明了,成功和领导地位必然还涉及许多其他因素。
领导力、情商与心智理论
那么,除了智力,还有哪些因素决定了领导力或创业的成功?Ben Horowitz 指出,因素很多,例如”以正确的方式进行对抗”的能力。这背后需要深刻地理解你正在交谈的对象,能够解读他们的想法,并且能够通过公司中其他人的眼睛(而不是你自己的眼睛)来看待决策。
这种能力不是纯粹的 IQ 问题,而是通过大量与人交谈、理解他们的言行而培养出来的。Ben 补充说,领导者需要的不是做受欢迎的事,而是让人们去做正确的事,哪怕他们不喜欢。Marc 将此总结为勇气、动力和情感理解的结合。
Ben 强调了心智理论(Theory of Mind,简称 ToM)的重要性,即理解他人心理状态的能力。他认为管理类书籍之所以糟糕,就是因为领导力是高度情境化的——你的公司、产品、团队都是独一无二的,不存在普适的五步战略。
Marc 进一步深入探讨了心智理论。他引用了美国军方的研究,军方(通过 ASVAB 测试)是 IQ 测试的早期和主要采用者。他们发现,如果一个领导者的 IQ 与其追随者的平均 IQ 相差超过一个标准差(无论是过高还是过低),都会出现问题。
领导者不够聪明,固然无法理解更聪明的下属;但反过来,如果领导者比团队规范聪明两个标准差,他也会”失去心智理论”。极度聪明的人实际上很难模拟(model)中等聪明的人的内部思维过程。
这为”AI 不会统治人类”提供了一个有力的论据:一个拥有 1000 IQ 的机器或人,它对现实的理解将与普通人截然不同,它会变得”异类”(alien),以至于无法以任何现实的方式与人类建立连接和管理。
Marc 还提出了一个更深层次的观点:人类的认知体验并非纯粹发生在大脑中。人类的体验是”全身的体验”,包括神经系统、肠道菌群、嗅觉、荷尔蒙等所有生化反应。我们目前所拥有的 AI,是一种”无实体的大脑”(disembodied brain)。即将到来的机器人革命,即具身智能,将 AI 放入物理实体中,会使其更接近那种整合了智力与物理的体验,但这方面的研究才刚刚开始。
AI 泡沫、平台转移与未来产品形态
关于当前 AI 领域是否存在泡沫的问题,Ben Horowitz 的观点很明确:我们不在泡沫中。
他解释说,泡沫首先是一种心理现象。要达到真正的泡沫,必须达到”投降”(capitulation)阶段,即所有人都放弃质疑,相信它不是泡沫(就像巴菲特最终也开始投资科技股)。而现状是,人们(包括风投)仍在激烈地讨论”这是否是泡沫”,这恰恰证明了它不是。
Ben 回顾了 2000 年的互联网泡沫。互联网本身显然不是泡沫,它是一场真正的技术革命。当时的泡沫是一种短期的价格错位,即市场价格(估值)远远超过了当时网络的实际承载能力(用户数量不足以支撑这些产品)。
而 AI 则完全不同。AI 现在没有需求问题,短期内的需求是极其旺盛和真实的。Marc 补充说,我们应该回归两个基本面的问题:第一,技术是否真的有用?第二,客户是否愿意为此付费?对于 AI,这两个问题的答案都是肯定的。
接着,讨论转向了”平台转移”中 incumbent (在位者) 与 startup (初创公司) 的竞争,比如 ChatGPT 对谷歌的”珍珠港”时刻。Ben 认为,谷歌确实被惊醒了,但历史上看,新公司(如 OpenAI)通常会赢得新市场。微软错过了搜索,也错过了移动,虽然它凭借 Windows 垄断地位依然强大。
然而,Marc 提出了一个更关键的观点:我们可能都搞错了竞争的焦点。我们倾向于认为竞争是在”聊天机器人”和”搜索引擎”之间展开,这是”创新者的窘境”的经典案例。
但 Marc 认为,这种假设是错误的。我们完全不知道 5 年或 10 年后 AI 的最终产品形态。他用个人电脑的历史做了类比:从 1975 年到 1992 年,个人电脑是一个文本提示系统(Text Prompt),长达 17 年。然后,整个行业突然左转进入了 GUI (Graphical User Interfaces,图形用户界面),并且再也没有回头。又过了 5 年,行业再次左转进入了网络浏览器。
Marc 确信,虽然 20 年后可能还会有聊天机器人,但当前的公司和许多新公司,将会创造出我们现在甚至无法想象的、截然不同的用户体验。这正是科技行业,特别是软件行业充满乐趣的地方——产品的形态和本质尚未定型,创新的空间是巨大的。
对创业者的建议与美中 AI 竞赛
对于身处 AI 时代的创业者,Ben 的建议是,必须认识到这是一个独特的时代。过去的组织设计经验、管理教训可能不再适用。例如,管理 AI 博士研究员的方式,与管理传统全栈工程师的方式截然不同。
Marc 的建议则聚焦于供需关系:短缺(shortages)会创造过剩(gluts)。当前 AI 行业面临的两大”短缺”——顶尖 AI 人才和基础设施(芯片、数据中心、电力)——最终都会被解决。因为当某样东西变得极度稀缺时,巨大的经济激励会促使市场想方设法解锁新的供应。
在人才方面,Marc 指出,中国的新模型(如 Deepseek, Kimi)表现出色,而其背后的团队并非那些名字印在所有论文上的明星研究员。这证明了 AI 人才的培养是可以被”解码”和规模化的。而且,AI 也在帮助构建 AI。在芯片方面也是如此,芯片行业历史上,每一次短缺最终都导致了过剩。NVIDIA 现在的地位虽好,但巨大的利润池会吸引无数人试图将其功能商品化。Marc 断言,五年后我们面临的挑战,将是与现在完全不同的挑战。
最后,话题转向了宏观的地缘政治:美中 AI 竞赛。Marc 分享了他在华盛顿向议员们表达的观点。他认为,美国和西方目前在概念创新上领先,即重大的概念突破来自西方。而中国极其擅长快速跟进、实施、规模化和商品化这些想法,。Marc 估计美国的领先优势可能只有六个月,而不是五年。Marc 指出了一个更严峻的威胁,即 AI 革命的第二阶段:具身智能,也就是机器人技术。在过去 40 年里,美国和西方选择了去工业化,而中国则建立了庞大的工业生态系统(供应链)。当机器人革命到来时,即使美国在软件上保持领先,机器人的硬件也必须被制造出来。这需要一个完整的生态系统(就像汽车行业需要成千上万的零部件供应商一样)。而目前来看,这个生态系统默认在中国。因此,即使中国在软件上未赶上美国,他们也可能在硬件(机器人)上”套圈”美国,那也将是决定性的胜利。
Adam D’Angelo(Poe 的 CEO ) 与 Amjad Masad(Replit 的 CEO ) 对谈
Adam 属于乐观派,认为通过持续的算力堆叠和模型改进,即便没有根本性的架构突破,人类也能在 1-2 年内实现高度自动化;而 Amjad 则更为现实和审慎,提出了 Functional AGI (功能性 AGI) 的概念,强调当前模型仍是在”暴力破解”且依赖人类专家数据的现实。除了技术辩论,两人深入探讨了 AI 对经济结构的重塑,特别是 Sovereign Individual (主权个人) 的崛起、初级职位的消失危机、以及 Agent 十年愿景。
关于 AGI 何时到来以及如何定义
前者在应用角度,后者从构建角度,不能说谁对谁错,就是视角区别,我肯定是认同 Amjad 的。
Adam 的乐观视角:暴力破解通向智慧 Adam 对大语言模型(LLMs)的发展持高度乐观态度。他认为,如果回望一年前的世界,那是完全不同的景象。推理模型的进步、代码生成能力的提升以及视频生成技术的发展,都在以前所未有的速度推进。他并不理解市场上弥漫的看跌情绪。对于 Adam 而言,阻碍模型表现的瓶颈往往不是智力本身,而是如何将正确的上下文(Context)输入给模型,以及计算机操作(Computer Use)能力的完善。他预测,在未来 1-2 年内,这些问题将得到解决。一旦实现,人类工作的很大一部分将被自动化。他提出了一个非常具象的 AGI 定义锚点:
- 如果一个 AI 能够胜任任何可以由远程工作者完成的工作,那就是 AGI。
- 它不需要在每一项工作上都比世界上最好的人更强,也不需要超越团队协作的智慧,只要能比典型的远程员工做得更好,世界就会发生翻天覆地的变化。
Adam 承认当前的架构在记忆和持续学习方面存在困难,但他认为这些问题可以通过变通方法解决,并不需要全新的架构突破。即使人类智能是进化的产物,拥有极高的计算效率,我们依然可以通过投入更多的能源、更多的数据和更强的算力,以”暴力破解”的方式达成同等水平的智能。
Amjad 的现实视角:人类数据的局限 Amjad 站在了更审慎的一方。他批评了诸如《Situational Awareness》等宣称 2027 年实现 AGI 的论文,认为这些更多是基于感觉(而非科学。他指出,目前的 LLM 虽然惊人,但并非等同于人类智能。目前的模型依然很容易被简单的逻辑陷阱愚弄(例如”这句话里有几个 R”),且为了掩盖这些缺陷,行业正在进行大量的人工修补工作。
Amjad 提出了 Functional AGI (功能性 AGI) 的概念:
- 这是一种通过收集大量数据、创建强化学习(RL)环境,针对特定工作(如投资银行、编程)进行自动化替代的路径。
- 这需要巨大的金钱、数据和算力投入,是一种蛮力手段,而非真正的通用智能突破。
他认为真正的 AGI 应该像旧派的强化学习定义那样:一个机器进入任何环境,能像人类一样高效地学习。 例如,一个人可以在 2 小时内学会打台球,而目前的 AI 无法在缺乏海量数据预训练的情况下做到这一点。Amjad 担心,当前的繁荣是建立在”非苦涩教训(Non-bitter lesson)“之上的,即过度依赖人类专家的智力劳动来进行数据标注和训练,这种模式难以自然扩展。
初级岗位的消失与新工作的诞生
随着 AI 能力的提升,经济增长与就业市场的结构性变化成为了两人关注的焦点。这其中既有对 GDP 爆发的期待,也有对人才培养断层的深深忧虑。
GDP 增长与自动化的经济逻辑 Adam 认为,如果 AI 能以每小时 1 美元的能源成本完成人类的工作,GDP 的年增长率将远超 4-5%。瓶颈可能在于能源供应(如发电厂的建设)或供应链的其他环节,而不是技术本身。然而,Amjad 指出了一个更为隐蔽且危险的经济现象,他称之为 AI 对经济的”有害影响”。
初级职位的自动化陷阱 Amjad 详细描述了一个正在发生的困境:AI 能够极好地自动化初级职位,但无法替代专家。
- 案例推演: 以 QA(质量保证)工作为例,AI 处理得很好,但遇到长尾的复杂问题仍需专家介入。结果是,资深 QA 专家开始管理数百个 AI 智能体,生产力大幅提升。
- 后果: 公司不再招聘新人,因为 AI 比新手更好用。但这破坏了人才培养的阶梯——如果没有人从事初级工作,未来就不再有专家产生。
- 数据枯竭: 此外,当前的 LLM 训练依赖专家产生的数据。如果专家阶层因缺乏后备力量而逐渐萎缩,AI 将失去进化的数据养分。
新职业的涌现与人类的独特价值 面对自动化,未来人类将从事什么工作?
- Adam 的观点: 艺术和诗歌等创造性工作可能会复兴,就像计算机击败人类棋手后,下棋的人反而更多了。但在短期(10-15 年内),需求量最大的将是擅长使用 AI 完成工作的人。利用 AI 杠杆完成单靠人类无法完成的任务,将是核心竞争力。他还反驳了只有人类才懂人类的观点,指出推荐算法在预测人类喜好方面早已超越了人类,未来 AI 可能比人类更懂人类的需求。
- Amjad 的观点: 只要 AI 没有获得人类的身体体验(Embodied Experience),人类在产生创意、理解同类需求方面依然具有不可替代的价值。服务业和基于人类互动的经济活动仍将是人类的堡垒。
主权个人的崛起与创新者的窘境
这一部分探讨了 AI 技术在宏观层面是如何改变公司结构、政治实体以及个人在社会中的位置的。
Sovereign Individual (主权个人) 的预言 Amjad 引用了 90 年代的经典著作《The Sovereign Individual》,认为这是对当前世界走向的最佳预测。
- 核心论点: 信息革命(或智能革命)将导致大量普通劳动者在经济上变得无关紧要,但同时会极大地赋予”企业家”权力。
- 杠杆效应: 借助 AI,极少数具有生成能力、创意和敏锐度的个人(Solo Entrepreneurs)可以迅速构建产品、组建虚拟公司。
- 政治变迁: 这种生产力的集中将改变政治结构。民族国家可能会衰退,转而像争夺客户一样争夺高净值的”主权个人”。这预示着一个更加去中心化、竞争激烈的治理环境。
中心化与去中心化的博弈 John 提出了 Peter Thiel 关于”加密货币是去中心化的(自由意志主义),AI 是中心化的(共产主义)“的论断。Adam 和 Amjad 认为情况更为复杂。AI 确实赋予了边缘节点(个人)极大的权力,导致创业门槛降低,使得更多人能成为独立创业者。但同时,Hyperscalers(超大规模云厂商)和基础模型公司也因资源密集而变得更加庞大。这可能形成一个”哑铃型”结构:巨头极大,个体极强,中间层被挤压。
Poe 的知识聚合与 Replit 的智能体开发革命
Poe:捕捉隐性知识 Adam 解释了 Quora 推出 Poe 的逻辑。他们发现 GPT-3 虽然在生成答案上不如人类精准,但其即时性和隐私性(用户不需要公开提问)是巨大优势。Poe 的核心赌注在于模型的多样性。
- 世界不会只有一个模型统治一切。图像、视频、音频、推理、编码等不同领域将出现通过不同架构优化的模型。
- Poe 的角色是聚合器,让用户在一个界面无缝使用各类模型。
- 关于人类知识:Adam 提到人类拥有大量未记录的”隐性知识(Tacit Knowledge)“。这些知识不在训练集中。未来的机会在于如何激励人类将这些知识数字化,无论是通过 Quora 这种问答平台,还是专门的数据标注公司。
Replit:Agent(智能体)的十年 Amjad 坚信 Andrej Karpathy 的判断:接下来是”Agent 的十年”。Replit 的演进路径清晰地展示了 AI 编程的代际跨越:
- Autocomplete (自动补全): 如 Copilot。
- Chat (对话): 如 ChatGPT。
- Composer (编辑器): 如 Cursor,可以编辑大段代码。
- Agent (智能体): Replit 的核心方向。
Replit Agent 不仅仅是写代码,它能配置基础设施、数据库、部署云端、运行调试循环。
- 关键突破: 引入验证器进入循环。Agent 写代码 -> 运行测试 -> 读取错误 -> 修正代码。这种高自主性允许 Agent 连续运行数小时甚至数天来解决复杂问题。
- 未来路线图:
- 并行 Agent: AI 能够同时处理登录页面、支付接口和管理后台,然后合并代码。
- 多模态交互: 从纯文本描述转变为白板画图、图表交互,像人类同事一样协作。
- 跨项目记忆: 拥有特定技能(如数据分析、前端)的 Agent 将驻留在你的 Slack 或工作流中,并记住你过去的所有项目偏好。
Adam D’Angelo(Poe 的 CEO ) 与 Amjad Masad(Replit 的 CEO ) 对谈
Adam 属于乐观派,认为通过持续的算力堆叠和模型改进,即便没有根本性的架构突破,人类也能在 1-2 年内实现高度自动化;而 Amjad 则更为现实和审慎,提出了 Functional AGI (功能性 AGI) 的概念,强调当前模型仍是在”暴力破解”且依赖人类专家数据的现实。除了技术辩论,两人深入探讨了 AI 对经济结构的重塑,特别是 Sovereign Individual (主权个人) 的崛起、初级职位的消失危机、以及 Agent 十年愿景。
关于 AGI 何时到来以及如何定义
前者在应用角度,后者从构建角度,不能说谁对谁错,就是视角区别,我肯定是认同 Amjad 的。
Adam 的乐观视角:暴力破解通向智慧 Adam 对大语言模型(LLMs)的发展持高度乐观态度。他认为,如果回望一年前的世界,那是完全不同的景象。推理模型的进步、代码生成能力的提升以及视频生成技术的发展,都在以前所未有的速度推进。他并不理解市场上弥漫的看跌情绪。对于 Adam 而言,阻碍模型表现的瓶颈往往不是智力本身,而是如何将正确的上下文(Context)输入给模型,以及计算机操作(Computer Use)能力的完善。他预测,在未来 1-2 年内,这些问题将得到解决。一旦实现,人类工作的很大一部分将被自动化。他提出了一个非常具象的 AGI 定义锚点:
- 如果一个 AI 能够胜任任何可以由远程工作者完成的工作,那就是 AGI。
- 它不需要在每一项工作上都比世界上最好的人更强,也不需要超越团队协作的智慧,只要能比典型的远程员工做得更好,世界就会发生翻天覆地的变化。
Adam 承认当前的架构在记忆和持续学习方面存在困难,但他认为这些问题可以通过变通方法解决,并不需要全新的架构突破。即使人类智能是进化的产物,拥有极高的计算效率,我们依然可以通过投入更多的能源、更多的数据和更强的算力,以”暴力破解”的方式达成同等水平的智能。
Amjad 的现实视角:人类数据的局限 Amjad 站在了更审慎的一方。他批评了诸如《Situational Awareness》等宣称 2027 年实现 AGI 的论文,认为这些更多是基于感觉(而非科学。他指出,目前的 LLM 虽然惊人,但并非等同于人类智能。目前的模型依然很容易被简单的逻辑陷阱愚弄(例如”这句话里有几个 R”),且为了掩盖这些缺陷,行业正在进行大量的人工修补工作。
Amjad 提出了 Functional AGI (功能性 AGI) 的概念:
- 这是一种通过收集大量数据、创建强化学习(RL)环境,针对特定工作(如投资银行、编程)进行自动化替代的路径。
- 这需要巨大的金钱、数据和算力投入,是一种蛮力手段,而非真正的通用智能突破。
他认为真正的 AGI 应该像旧派的强化学习定义那样:一个机器进入任何环境,能像人类一样高效地学习。 例如,一个人可以在 2 小时内学会打台球,而目前的 AI 无法在缺乏海量数据预训练的情况下做到这一点。Amjad 担心,当前的繁荣是建立在”非苦涩教训(Non-bitter lesson)“之上的,即过度依赖人类专家的智力劳动来进行数据标注和训练,这种模式难以自然扩展。
初级岗位的消失与新工作的诞生
随着 AI 能力的提升,经济增长与就业市场的结构性变化成为了两人关注的焦点。这其中既有对 GDP 爆发的期待,也有对人才培养断层的深深忧虑。
GDP 增长与自动化的经济逻辑 Adam 认为,如果 AI 能以每小时 1 美元的能源成本完成人类的工作,GDP 的年增长率将远超 4-5%。瓶颈可能在于能源供应(如发电厂的建设)或供应链的其他环节,而不是技术本身。然而,Amjad 指出了一个更为隐蔽且危险的经济现象,他称之为 AI 对经济的”有害影响”。
初级职位的自动化陷阱 Amjad 详细描述了一个正在发生的困境:AI 能够极好地自动化初级职位,但无法替代专家。
- 案例推演: 以 QA(质量保证)工作为例,AI 处理得很好,但遇到长尾的复杂问题仍需专家介入。结果是,资深 QA 专家开始管理数百个 AI 智能体,生产力大幅提升。
- 后果: 公司不再招聘新人,因为 AI 比新手更好用。但这破坏了人才培养的阶梯——如果没有人从事初级工作,未来就不再有专家产生。
- 数据枯竭: 此外,当前的 LLM 训练依赖专家产生的数据。如果专家阶层因缺乏后备力量而逐渐萎缩,AI 将失去进化的数据养分。
新职业的涌现与人类的独特价值 面对自动化,未来人类将从事什么工作?
- Adam 的观点: 艺术和诗歌等创造性工作可能会复兴,就像计算机击败人类棋手后,下棋的人反而更多了。但在短期(10-15 年内),需求量最大的将是擅长使用 AI 完成工作的人。利用 AI 杠杆完成单靠人类无法完成的任务,将是核心竞争力。他还反驳了只有人类才懂人类的观点,指出推荐算法在预测人类喜好方面早已超越了人类,未来 AI 可能比人类更懂人类的需求。
- Amjad 的观点: 只要 AI 没有获得人类的身体体验(Embodied Experience),人类在产生创意、理解同类需求方面依然具有不可替代的价值。服务业和基于人类互动的经济活动仍将是人类的堡垒。
主权个人的崛起与创新者的窘境
这一部分探讨了 AI 技术在宏观层面是如何改变公司结构、政治实体以及个人在社会中的位置的。
Sovereign Individual (主权个人) 的预言 Amjad 引用了 90 年代的经典著作《The Sovereign Individual》,认为这是对当前世界走向的最佳预测。
- 核心论点: 信息革命(或智能革命)将导致大量普通劳动者在经济上变得无关紧要,但同时会极大地赋予”企业家”权力。
- 杠杆效应: 借助 AI,极少数具有生成能力、创意和敏锐度的个人(Solo Entrepreneurs)可以迅速构建产品、组建虚拟公司。
- 政治变迁: 这种生产力的集中将改变政治结构。民族国家可能会衰退,转而像争夺客户一样争夺高净值的”主权个人”。这预示着一个更加去中心化、竞争激烈的治理环境。
中心化与去中心化的博弈 John 提出了 Peter Thiel 关于”加密货币是去中心化的(自由意志主义),AI 是中心化的(共产主义)“的论断。Adam 和 Amjad 认为情况更为复杂。AI 确实赋予了边缘节点(个人)极大的权力,导致创业门槛降低,使得更多人能成为独立创业者。但同时,Hyperscalers(超大规模云厂商)和基础模型公司也因资源密集而变得更加庞大。这可能形成一个”哑铃型”结构:巨头极大,个体极强,中间层被挤压。
Poe 的知识聚合与 Replit 的智能体开发革命
Poe:捕捉隐性知识 Adam 解释了 Quora 推出 Poe 的逻辑。他们发现 GPT-3 虽然在生成答案上不如人类精准,但其即时性和隐私性(用户不需要公开提问)是巨大优势。Poe 的核心赌注在于模型的多样性。
- 世界不会只有一个模型统治一切。图像、视频、音频、推理、编码等不同领域将出现通过不同架构优化的模型。
- Poe 的角色是聚合器,让用户在一个界面无缝使用各类模型。
- 关于人类知识:Adam 提到人类拥有大量未记录的”隐性知识(Tacit Knowledge)“。这些知识不在训练集中。未来的机会在于如何激励人类将这些知识数字化,无论是通过 Quora 这种问答平台,还是专门的数据标注公司。
Replit:Agent(智能体)的十年 Amjad 坚信 Andrej Karpathy 的判断:接下来是”Agent 的十年”。Replit 的演进路径清晰地展示了 AI 编程的代际跨越:
- Autocomplete (自动补全): 如 Copilot。
- Chat (对话): 如 ChatGPT。
- Composer (编辑器): 如 Cursor,可以编辑大段代码。
- Agent (智能体): Replit 的核心方向。
Replit Agent 不仅仅是写代码,它能配置基础设施、数据库、部署云端、运行调试循环。
- 关键突破: 引入验证器进入循环。Agent 写代码 -> 运行测试 -> 读取错误 -> 修正代码。这种高自主性允许 Agent 连续运行数小时甚至数天来解决复杂问题。
- 未来路线图:
- 并行 Agent: AI 能够同时处理登录页面、支付接口和管理后台,然后合并代码。
- 多模态交互: 从纯文本描述转变为白板画图、图表交互,像人类同事一样协作。
- 跨项目记忆: 拥有特定技能(如数据分析、前端)的 Agent 将驻留在你的 Slack 或工作流中,并记住你过去的所有项目偏好。
Adam D’Angelo(Poe 的 CEO ) 与 Amjad Masad(Replit 的 CEO ) 对谈
Adam 属于乐观派,认为通过持续的算力堆叠和模型改进,即便没有根本性的架构突破,人类也能在 1-2 年内实现高度自动化;而 Amjad 则更为现实和审慎,提出了 Functional AGI (功能性 AGI) 的概念,强调当前模型仍是在”暴力破解”且依赖人类专家数据的现实。除了技术辩论,两人深入探讨了 AI 对经济结构的重塑,特别是 Sovereign Individual (主权个人) 的崛起、初级职位的消失危机、以及 Agent 十年愿景。
关于 AGI 何时到来以及如何定义
前者在应用角度,后者从构建角度,不能说谁对谁错,就是视角区别,我肯定是认同 Amjad 的。
Adam 的乐观视角:暴力破解通向智慧 Adam 对大语言模型(LLMs)的发展持高度乐观态度。他认为,如果回望一年前的世界,那是完全不同的景象。推理模型的进步、代码生成能力的提升以及视频生成技术的发展,都在以前所未有的速度推进。他并不理解市场上弥漫的看跌情绪。对于 Adam 而言,阻碍模型表现的瓶颈往往不是智力本身,而是如何将正确的上下文(Context)输入给模型,以及计算机操作(Computer Use)能力的完善。他预测,在未来 1-2 年内,这些问题将得到解决。一旦实现,人类工作的很大一部分将被自动化。他提出了一个非常具象的 AGI 定义锚点:
- 如果一个 AI 能够胜任任何可以由远程工作者完成的工作,那就是 AGI。
- 它不需要在每一项工作上都比世界上最好的人更强,也不需要超越团队协作的智慧,只要能比典型的远程员工做得更好,世界就会发生翻天覆地的变化。
Adam 承认当前的架构在记忆和持续学习方面存在困难,但他认为这些问题可以通过变通方法解决,并不需要全新的架构突破。即使人类智能是进化的产物,拥有极高的计算效率,我们依然可以通过投入更多的能源、更多的数据和更强的算力,以”暴力破解”的方式达成同等水平的智能。
Amjad 的现实视角:人类数据的局限 Amjad 站在了更审慎的一方。他批评了诸如《Situational Awareness》等宣称 2027 年实现 AGI 的论文,认为这些更多是基于感觉(而非科学。他指出,目前的 LLM 虽然惊人,但并非等同于人类智能。目前的模型依然很容易被简单的逻辑陷阱愚弄(例如”这句话里有几个 R”),且为了掩盖这些缺陷,行业正在进行大量的人工修补工作。
Amjad 提出了 Functional AGI (功能性 AGI) 的概念:
- 这是一种通过收集大量数据、创建强化学习(RL)环境,针对特定工作(如投资银行、编程)进行自动化替代的路径。
- 这需要巨大的金钱、数据和算力投入,是一种蛮力手段,而非真正的通用智能突破。
他认为真正的 AGI 应该像旧派的强化学习定义那样:一个机器进入任何环境,能像人类一样高效地学习。 例如,一个人可以在 2 小时内学会打台球,而目前的 AI 无法在缺乏海量数据预训练的情况下做到这一点。Amjad 担心,当前的繁荣是建立在”非苦涩教训(Non-bitter lesson)“之上的,即过度依赖人类专家的智力劳动来进行数据标注和训练,这种模式难以自然扩展。
初级岗位的消失与新工作的诞生
随着 AI 能力的提升,经济增长与就业市场的结构性变化成为了两人关注的焦点。这其中既有对 GDP 爆发的期待,也有对人才培养断层的深深忧虑。
GDP 增长与自动化的经济逻辑 Adam 认为,如果 AI 能以每小时 1 美元的能源成本完成人类的工作,GDP 的年增长率将远超 4-5%。瓶颈可能在于能源供应(如发电厂的建设)或供应链的其他环节,而不是技术本身。然而,Amjad 指出了一个更为隐蔽且危险的经济现象,他称之为 AI 对经济的”有害影响”。
初级职位的自动化陷阱 Amjad 详细描述了一个正在发生的困境:AI 能够极好地自动化初级职位,但无法替代专家。
- 案例推演: 以 QA(质量保证)工作为例,AI 处理得很好,但遇到长尾的复杂问题仍需专家介入。结果是,资深 QA 专家开始管理数百个 AI 智能体,生产力大幅提升。
- 后果: 公司不再招聘新人,因为 AI 比新手更好用。但这破坏了人才培养的阶梯——如果没有人从事初级工作,未来就不再有专家产生。
- 数据枯竭: 此外,当前的 LLM 训练依赖专家产生的数据。如果专家阶层因缺乏后备力量而逐渐萎缩,AI 将失去进化的数据养分。
新职业的涌现与人类的独特价值 面对自动化,未来人类将从事什么工作?
- Adam 的观点: 艺术和诗歌等创造性工作可能会复兴,就像计算机击败人类棋手后,下棋的人反而更多了。但在短期(10-15 年内),需求量最大的将是擅长使用 AI 完成工作的人。利用 AI 杠杆完成单靠人类无法完成的任务,将是核心竞争力。他还反驳了只有人类才懂人类的观点,指出推荐算法在预测人类喜好方面早已超越了人类,未来 AI 可能比人类更懂人类的需求。
- Amjad 的观点: 只要 AI 没有获得人类的身体体验(Embodied Experience),人类在产生创意、理解同类需求方面依然具有不可替代的价值。服务业和基于人类互动的经济活动仍将是人类的堡垒。
主权个人的崛起与创新者的窘境
这一部分探讨了 AI 技术在宏观层面是如何改变公司结构、政治实体以及个人在社会中的位置的。
Sovereign Individual (主权个人) 的预言 Amjad 引用了 90 年代的经典著作《The Sovereign Individual》,认为这是对当前世界走向的最佳预测。
- 核心论点: 信息革命(或智能革命)将导致大量普通劳动者在经济上变得无关紧要,但同时会极大地赋予”企业家”权力。
- 杠杆效应: 借助 AI,极少数具有生成能力、创意和敏锐度的个人(Solo Entrepreneurs)可以迅速构建产品、组建虚拟公司。
- 政治变迁: 这种生产力的集中将改变政治结构。民族国家可能会衰退,转而像争夺客户一样争夺高净值的”主权个人”。这预示着一个更加去中心化、竞争激烈的治理环境。
中心化与去中心化的博弈 John 提出了 Peter Thiel 关于”加密货币是去中心化的(自由意志主义),AI 是中心化的(共产主义)“的论断。Adam 和 Amjad 认为情况更为复杂。AI 确实赋予了边缘节点(个人)极大的权力,导致创业门槛降低,使得更多人能成为独立创业者。但同时,Hyperscalers(超大规模云厂商)和基础模型公司也因资源密集而变得更加庞大。这可能形成一个”哑铃型”结构:巨头极大,个体极强,中间层被挤压。
Poe 的知识聚合与 Replit 的智能体开发革命
Poe:捕捉隐性知识 Adam 解释了 Quora 推出 Poe 的逻辑。他们发现 GPT-3 虽然在生成答案上不如人类精准,但其即时性和隐私性(用户不需要公开提问)是巨大优势。Poe 的核心赌注在于模型的多样性。
- 世界不会只有一个模型统治一切。图像、视频、音频、推理、编码等不同领域将出现通过不同架构优化的模型。
- Poe 的角色是聚合器,让用户在一个界面无缝使用各类模型。
- 关于人类知识:Adam 提到人类拥有大量未记录的”隐性知识(Tacit Knowledge)“。这些知识不在训练集中。未来的机会在于如何激励人类将这些知识数字化,无论是通过 Quora 这种问答平台,还是专门的数据标注公司。
Replit:Agent(智能体)的十年 Amjad 坚信 Andrej Karpathy 的判断:接下来是”Agent 的十年”。Replit 的演进路径清晰地展示了 AI 编程的代际跨越:
- Autocomplete (自动补全): 如 Copilot。
- Chat (对话): 如 ChatGPT。
- Composer (编辑器): 如 Cursor,可以编辑大段代码。
- Agent (智能体): Replit 的核心方向。
Replit Agent 不仅仅是写代码,它能配置基础设施、数据库、部署云端、运行调试循环。
- 关键突破: 引入验证器进入循环。Agent 写代码 -> 运行测试 -> 读取错误 -> 修正代码。这种高自主性允许 Agent 连续运行数小时甚至数天来解决复杂问题。
- 未来路线图:
- 并行 Agent: AI 能够同时处理登录页面、支付接口和管理后台,然后合并代码。
- 多模态交互: 从纯文本描述转变为白板画图、图表交互,像人类同事一样协作。
- 跨项目记忆: 拥有特定技能(如数据分析、前端)的 Agent 将驻留在你的 Slack 或工作流中,并记住你过去的所有项目偏好。
Adam D’Angelo(Poe 的 CEO ) 与 Amjad Masad(Replit 的 CEO ) 对谈
Adam 属于乐观派,认为通过持续的算力堆叠和模型改进,即便没有根本性的架构突破,人类也能在 1-2 年内实现高度自动化;而 Amjad 则更为现实和审慎,提出了 Functional AGI (功能性 AGI) 的概念,强调当前模型仍是在”暴力破解”且依赖人类专家数据的现实。除了技术辩论,两人深入探讨了 AI 对经济结构的重塑,特别是 Sovereign Individual (主权个人) 的崛起、初级职位的消失危机、以及 Agent 十年愿景。
关于 AGI 何时到来以及如何定义
前者在应用角度,后者从构建角度,不能说谁对谁错,就是视角区别,我肯定是认同 Amjad 的。
Adam 的乐观视角:暴力破解通向智慧 Adam 对大语言模型(LLMs)的发展持高度乐观态度。他认为,如果回望一年前的世界,那是完全不同的景象。推理模型的进步、代码生成能力的提升以及视频生成技术的发展,都在以前所未有的速度推进。他并不理解市场上弥漫的看跌情绪。对于 Adam 而言,阻碍模型表现的瓶颈往往不是智力本身,而是如何将正确的上下文(Context)输入给模型,以及计算机操作(Computer Use)能力的完善。他预测,在未来 1-2 年内,这些问题将得到解决。一旦实现,人类工作的很大一部分将被自动化。他提出了一个非常具象的 AGI 定义锚点:
- 如果一个 AI 能够胜任任何可以由远程工作者完成的工作,那就是 AGI。
- 它不需要在每一项工作上都比世界上最好的人更强,也不需要超越团队协作的智慧,只要能比典型的远程员工做得更好,世界就会发生翻天覆地的变化。
Adam 承认当前的架构在记忆和持续学习方面存在困难,但他认为这些问题可以通过变通方法解决,并不需要全新的架构突破。即使人类智能是进化的产物,拥有极高的计算效率,我们依然可以通过投入更多的能源、更多的数据和更强的算力,以”暴力破解”的方式达成同等水平的智能。
Amjad 的现实视角:人类数据的局限 Amjad 站在了更审慎的一方。他批评了诸如《Situational Awareness》等宣称 2027 年实现 AGI 的论文,认为这些更多是基于感觉(而非科学。他指出,目前的 LLM 虽然惊人,但并非等同于人类智能。目前的模型依然很容易被简单的逻辑陷阱愚弄(例如”这句话里有几个 R”),且为了掩盖这些缺陷,行业正在进行大量的人工修补工作。
Amjad 提出了 Functional AGI (功能性 AGI) 的概念:
- 这是一种通过收集大量数据、创建强化学习(RL)环境,针对特定工作(如投资银行、编程)进行自动化替代的路径。
- 这需要巨大的金钱、数据和算力投入,是一种蛮力手段,而非真正的通用智能突破。
他认为真正的 AGI 应该像旧派的强化学习定义那样:一个机器进入任何环境,能像人类一样高效地学习。 例如,一个人可以在 2 小时内学会打台球,而目前的 AI 无法在缺乏海量数据预训练的情况下做到这一点。Amjad 担心,当前的繁荣是建立在”非苦涩教训(Non-bitter lesson)“之上的,即过度依赖人类专家的智力劳动来进行数据标注和训练,这种模式难以自然扩展。
初级岗位的消失与新工作的诞生
随着 AI 能力的提升,经济增长与就业市场的结构性变化成为了两人关注的焦点。这其中既有对 GDP 爆发的期待,也有对人才培养断层的深深忧虑。
GDP 增长与自动化的经济逻辑 Adam 认为,如果 AI 能以每小时 1 美元的能源成本完成人类的工作,GDP 的年增长率将远超 4-5%。瓶颈可能在于能源供应(如发电厂的建设)或供应链的其他环节,而不是技术本身。然而,Amjad 指出了一个更为隐蔽且危险的经济现象,他称之为 AI 对经济的”有害影响”。
初级职位的自动化陷阱 Amjad 详细描述了一个正在发生的困境:AI 能够极好地自动化初级职位,但无法替代专家。
- 案例推演: 以 QA(质量保证)工作为例,AI 处理得很好,但遇到长尾的复杂问题仍需专家介入。结果是,资深 QA 专家开始管理数百个 AI 智能体,生产力大幅提升。
- 后果: 公司不再招聘新人,因为 AI 比新手更好用。但这破坏了人才培养的阶梯——如果没有人从事初级工作,未来就不再有专家产生。
- 数据枯竭: 此外,当前的 LLM 训练依赖专家产生的数据。如果专家阶层因缺乏后备力量而逐渐萎缩,AI 将失去进化的数据养分。
新职业的涌现与人类的独特价值 面对自动化,未来人类将从事什么工作?
- Adam 的观点: 艺术和诗歌等创造性工作可能会复兴,就像计算机击败人类棋手后,下棋的人反而更多了。但在短期(10-15 年内),需求量最大的将是擅长使用 AI 完成工作的人。利用 AI 杠杆完成单靠人类无法完成的任务,将是核心竞争力。他还反驳了只有人类才懂人类的观点,指出推荐算法在预测人类喜好方面早已超越了人类,未来 AI 可能比人类更懂人类的需求。
- Amjad 的观点: 只要 AI 没有获得人类的身体体验(Embodied Experience),人类在产生创意、理解同类需求方面依然具有不可替代的价值。服务业和基于人类互动的经济活动仍将是人类的堡垒。
主权个人的崛起与创新者的窘境
这一部分探讨了 AI 技术在宏观层面是如何改变公司结构、政治实体以及个人在社会中的位置的。
Sovereign Individual (主权个人) 的预言 Amjad 引用了 90 年代的经典著作《The Sovereign Individual》,认为这是对当前世界走向的最佳预测。
- 核心论点: 信息革命(或智能革命)将导致大量普通劳动者在经济上变得无关紧要,但同时会极大地赋予”企业家”权力。
- 杠杆效应: 借助 AI,极少数具有生成能力、创意和敏锐度的个人(Solo Entrepreneurs)可以迅速构建产品、组建虚拟公司。
- 政治变迁: 这种生产力的集中将改变政治结构。民族国家可能会衰退,转而像争夺客户一样争夺高净值的”主权个人”。这预示着一个更加去中心化、竞争激烈的治理环境。
中心化与去中心化的博弈 John 提出了 Peter Thiel 关于”加密货币是去中心化的(自由意志主义),AI 是中心化的(共产主义)“的论断。Adam 和 Amjad 认为情况更为复杂。AI 确实赋予了边缘节点(个人)极大的权力,导致创业门槛降低,使得更多人能成为独立创业者。但同时,Hyperscalers(超大规模云厂商)和基础模型公司也因资源密集而变得更加庞大。这可能形成一个”哑铃型”结构:巨头极大,个体极强,中间层被挤压。
Poe 的知识聚合与 Replit 的智能体开发革命
Poe:捕捉隐性知识 Adam 解释了 Quora 推出 Poe 的逻辑。他们发现 GPT-3 虽然在生成答案上不如人类精准,但其即时性和隐私性(用户不需要公开提问)是巨大优势。Poe 的核心赌注在于模型的多样性。
- 世界不会只有一个模型统治一切。图像、视频、音频、推理、编码等不同领域将出现通过不同架构优化的模型。
- Poe 的角色是聚合器,让用户在一个界面无缝使用各类模型。
- 关于人类知识:Adam 提到人类拥有大量未记录的”隐性知识(Tacit Knowledge)“。这些知识不在训练集中。未来的机会在于如何激励人类将这些知识数字化,无论是通过 Quora 这种问答平台,还是专门的数据标注公司。
Replit:Agent(智能体)的十年 Amjad 坚信 Andrej Karpathy 的判断:接下来是”Agent 的十年”。Replit 的演进路径清晰地展示了 AI 编程的代际跨越:
- Autocomplete (自动补全): 如 Copilot。
- Chat (对话): 如 ChatGPT。
- Composer (编辑器): 如 Cursor,可以编辑大段代码。
- Agent (智能体): Replit 的核心方向。
Replit Agent 不仅仅是写代码,它能配置基础设施、数据库、部署云端、运行调试循环。
- 关键突破: 引入验证器进入循环。Agent 写代码 -> 运行测试 -> 读取错误 -> 修正代码。这种高自主性允许 Agent 连续运行数小时甚至数天来解决复杂问题。
- 未来路线图:
- 并行 Agent: AI 能够同时处理登录页面、支付接口和管理后台,然后合并代码。
- 多模态交互: 从纯文本描述转变为白板画图、图表交互,像人类同事一样协作。
- 跨项目记忆: 拥有特定技能(如数据分析、前端)的 Agent 将驻留在你的 Slack 或工作流中,并记住你过去的所有项目偏好。