行业分类:
加载中...
头条分类:
加载中...
AI答IMO难题坦承“不会”,OpenAI称“这就是自我意识”
这一次,“不会”竟成了大模型的高光时刻。 虽然在 IMO 第 6 题上得了零分,OpenAI 的金牌模型却展现了“高智商的诚实”。 正如 OpenAI 研究员 Noam Brown 在最新访谈中所揭示的: 当 IMO 推理模型会在缺乏有效证据时表示“我不确定”,这会显著减少隐藏错误。 在 AI 摘下 IMO 金牌后,OpenAI 金牌小分队成员 Alex Wei、Sheryl Hsu 和 Noam Brown 参与了红杉资本组织的一场对话,揭秘模型攻克精英数学难题的底层突破。 有网友帮忙总结了个太长不看版: 与过去那些“看起来完美,实则错误”的幻觉式答案不同,这一代大模型开始学会“承认自己不会”。 它标志着模型正在从胡编乱造的幻觉式回答,转向更加可靠且具有“自我认意识”的全新阶段。 三位成员还在这场对话中,分享了更多关于冲刺 IMO 的有趣细节。 IMO 金牌模型能承认自己不知道 尽管数学家与计算机科学家一致认可 IMO 金牌模型的价值。 但他们常常抱怨,当模型遇到知识盲区时,它总会输出一个令人信服但错误的答案。 他们不得不耗费大量精力逐行验算,才能甄别那些幻觉陷阱。 IMO 第 6 题让大模型全军覆没,当然,OpenAI 也对其进行了大量计算。 有一个由 2025×2025 个单位正方形组成的网格。Matilda 希望在网格上放置一些矩形图块,这些图块的大小不同,但每个图块的每一条边都位于网格线上,并且每个单位正方形最多被一个图块覆盖。 网格的每一行和每一列都恰好有一个未被任何瓷砖覆盖的单位正方形,求出 Matilda 需要放置的最少瓷砖数量。 虽然投入海量算力最终仅得到一句“我无法回答”令人有些失望,但 Alex Wei 表示: 能看到模型避免产生幻觉是很好的。 Noam Brown 也对模型的这一转变表示赞赏,“如果它不知道,它就会承认它不知道。” 这代表模型开始具备“自我意识”。 这种“自我意识”可以帮助模型在面对困难问题时,承认自己的无能为力,而不是生成一个看似合理实则错误的解决方案。 有趣的是,在 Alex Wei 2024 年刚加入 OpenAI 一周时,Noam Brown 就曾问过他,团队何时能获得 IMO 金牌。 当时 Alex Wei 认为 2025 年不太可能实现。 但令人惊叹的是,这个三人团队仅用了两月,就完成了他们一直在追求的目标 ——IMO 金牌。 Noam Brown 还表示: OpenAI 有一个很棒的地方,就是研究人员有很大的自主权去做他们认为有影响力的研究。 Alex 还强调,他们的团队“真正优先考虑通用技术”,而不是专门开发用于数学竞赛的系统。 OpenAI IMO 金牌核心团队 OpenAI IMO 核心团队仅由三名研究人员构成。 Alex Wei,本硕均就读于哈佛大学,随后在加州大学伯克利分校获得计算机科学博士学位。 Alex 还曾在谷歌、微软和 Meta 实习,后于 2024 年 1 月加入 OpenAI,现任研究科学家。他曾是 FAIR 团队成员,参与开发了首个用于外交游戏的人类级人工智能 ——CICERO。 Sheryl Hsu,毕业于斯坦福大学计算机科学专业,是斯坦福 AI 实验室中 IRIS 实验室的研究员,于 2025 年 3 月加入 OpenAI。 Noam Brown,本科就读于美国罗格斯新泽西州立大学新布朗斯维克分校,随后在卡内基・梅隆大学获硕士和博士学位。他曾任职于 DeepMind 和 Meta,于 2023 年 6 月加入 OpenAI。
12月18日生效:日本要求苹果和谷歌开放其应用商店,支持第三方应用商店/支付方案
IT之家 8 月 2 日消息,日本公平交易委员会本周发布了 119 页报告,确立了《移动软件竞争法指南》,计划于 12 月 18 日生效,并要求苹果和谷歌公司开放 App Store 和 Play Store,支持第三方应用商店入驻等。 IT之家援引博文介绍,在这份 119 页的《指南》文件中,明确规定苹果和谷歌不得偏袒自家应用,不能通过利用操作系统原生收集的用户数据,也不能通过不公平地延迟、拒绝或阻碍竞争对手应用的存在或可见性。 苹果和谷歌还被要求建立防火墙,防止自家团队在开发竞争产品时访问和利用敏感的开发者数据,并且需要提交年度合规报告。 尽管这份文件详细提出了许多假设性场景,考虑到了边缘情况和可能的例外(因为许多规则在技术上确实很难遵守),但两项规定几乎不存在解释空间: 本法第 7 条第 1 项禁止指定的基本操作系统提供商仅将应用商店限制在由指定提供商或其子公司提供的范围内。 本法第 8 条第 1 项禁止应用商店的指定提供商施加条件,阻止单个应用提供商在使用应用商店提供单个软件时使用替代支付管理系统。 换句话说,就像全球许多最近的监管指南一样,苹果和谷歌必须支持第三方应用商店入驻 App Store 和 Play Store,以及在应用内或第三方应用商店中应用中,支持使用第三方支付系统。
《人民日报》:英伟达让我怎么相信你!黄仁勋要拿出芯片没后门铁证
快科技8月2日消息,昨天《人民日报》发文称,英伟达让我怎么相信你引起轩然大波。 事件的起因是英伟达H20芯片被质疑存在“追踪定位”和“远程关闭”的风险。这些安全隐患可能导致一系列严重后果,如高速公路上的新能源车突然失去动力、远程手术设备黑屏、超市收银台手机支付功能瞬间失灵等。英伟达对此回应称,其芯片不存在“后门”,不会让任何人有远程访问或控制的途径,但这一回应并未完全消除公众的疑虑。 文章中指出,为了重新赢得市场信任,英伟达需按照约谈要求,拿出令人信服的安全证明。网络安全不仅关系到日常生活,也关乎企业命脉和国家安全。近期,俄罗斯多个公共服务部门遭黑客攻击,美国“星链”卫星互联网服务突发故障,导致全球6万用户断网,这些事例再次警示了网络安全的重要性。 今年6月份,美国阿肯色州共和党参议员汤姆科顿已提交了《芯片安全法案》,旨在“防止先进芯片流入美国对手手中,保护美国产品的完整性”。 该法案旨在追踪显卡和处理器等各种硬件组件的所在地,从而防止这些部件的走私。 按照这个提案,要求在法案颁布后6个月内对出口管制的先进芯片或带有出口管制先进芯片的产品建立位置验证机制,并要求先进芯片出口商在其产品被转移出预定地点或遭受篡改企图时向BIS报告。 对此,财经杂志援引网络安全资深专家分析报道,这次约谈针对的是潜在风险隐患,“是否整改要看风险是否真实存在”,还谈不上需要承担罚款等其他法律责任…… “预计可能是在海外媒体报道英伟达相关产品的风险后,监管要求其提供解释说明。可能目的在于英伟达的H20产品大规模进入中国市场之前消弭潜在风险。”这位专家说道。 对于《人民日报》的这篇文章,国内AI领域从业者表示,如果英伟达只是口头上的回应可能没法让管理层信服,而黄仁勋需要拿出芯片没有后门的铁证。
车主开启Autopilot发生致死事故,特斯拉被判2亿美元赔偿
快科技8月2日消息,佛罗里达联邦陪审团裁定,特斯拉在2019年发生的一起致命车祸中需承担1/3 责任,且需要承担2亿美元惩罚性赔偿。 事故经过: 2019年4月25日,乔治·麦基(George McGee)驾驶一辆2019款Model S,开启Autopilot功能行经一条暗黑的两车道乡村公路。 行驶中,麦基的手机跌落,他低头试图拾起手机,未注意到前方为T字路口,也未减速制动,车辆以约62英里/小时(100公里/时)速度越过路口,撞上一辆停在路边的雪佛兰Tahoe。 事故导致22岁女子奈贝尔·贝纳维德斯·莱昂(Naibel Benavides Leon)当场身亡,其男友迪伦·安古洛(Dillon Angulo)重伤。 诉讼进程与赔偿: 事故受害人家属先对麦基提起诉讼并达成和解。 2024年,他们将特斯拉告上联邦法院,称Autopilot在本不适合该路段使用的道路上仍被激活,且系统未在驾驶员分心时发出充分警示。 在历时三周的审理后,8人陪审团认定:驾驶员麦基承担2/3责任;特斯拉承担1/3责任。 陪审团裁定对特斯拉处以2亿美元惩罚性赔偿,并批准3500万美元、2400万美元及7000万美元的补偿性赔偿,分别支付给贝纳维德斯·莱昂的母亲、父亲及安古洛。 判决理由: 系统设计缺陷:陪审团认为,Autopilot未能在驾驶员短暂分心时提醒或接管,且未预见道路终止存在的风险。 比较过失原则:根据佛罗里达法律,责任可按过错比例分配,陪审团权衡后,认定特斯拉并非毫无责任。 特斯拉立场: 特斯拉强调,其用户手册与法律均明确:Autopilot为L2级辅助驾驶,须“时刻保持清醒、双手握方向盘并准备随时接管”,任何情况下驾驶员都对车辆控制负责。 公司表示,将上诉关于其产品故障的认定。
OpenAI教育负责人呼吁:学生应将ChatGPT视为工具而非“答题机器”
IT之家 8 月 2 日消息,据《商业内幕》今天的报道,OpenAI 教育副总裁 Leah Belsky 说,在一个由 AI 主导的时代,反技术进步的人已经“没有立足之地”,掌握 AI 的职场人士工作效率显著更高。 Belsky 自 2024 年起负责领导 OpenAI 的教育业务。她说,学习 AI 应该尽早开始,“当下的高校毕业生必须掌握 AI 工具的基本应用能力,这既是找工作的必备技能,也是进入职场后的关键能力。” 但多数学校至今仍在限制学生使用 AI,而不是主动教授或引导。原因之一是校方普遍将使用 AI 视为作弊;还有人担心学生会因此出现所谓“脑力退化”。 Belsky 表示,她看问题的方式不同。“AI 本质上就是一种工具,关键在于用法。如果学生只把它当答案机器,就学不到东西。因此我们正努力推动 AI 以更有利于批判性思维和创造力的方式融入学习。” 她指出,学生应当培养的“核心素养”是编程。“现在有了 vibe coding,再加上各种简化编程的工具,我认为未来的学生不仅要掌握通用 AI 操作技能,还要学会用 AI 创建图像、开发应用、编写代码。” IT之家注:vibe coding 又译“氛围编程”,指用自然语言向 AI 发出提示,让它根据用户需求生成代码。这种方法虽然广泛流行,但由于 AI 编写的代码容易出错,涉及关键技术时仍不常用。使用者必须懂一定编程,或者有懂编程的人帮助验证 AI 的结果。 Belsky 说,人们最担心的是 AI 会消除“有益的挣扎”这一学习过程中不可或缺的环节。“我们正在开发技术,弥补这一部分。” 本周,OpenAI 推出 ChatGPT 的“学习模式(Study Mode)”。官网介绍称,该功能能为学生提供引导式问题,并根据目标与技能水平调整回答,帮助其加深理解。
苹果史上任期最长CEO:蒂姆・库克执掌5091天,正式超越史蒂夫・乔布斯
IT之家 8 月 1 日消息,截至 2025 年 8 月 1 日,蒂姆・库克(Tim Cook)担任苹果公司首席执行官(CEO)的天数达 5091 天,已经正式超过史蒂夫・乔布斯(Steve Jobs)的 5090 天,成为了苹果历史上任期最长的 CEO。 作为比较,虽然乔布斯是苹果的联合创始人之一,但在 1976 年到 1985 年间,他并未担任公司 CEO。直到乔布斯离开苹果又回归苹果公司后,才出任该公司的 CEO。其从 1997 年 9 月 16 日担任苹果“临时 CEO”,直到 2000 年 1 月 5 日结束,任期共 841 天;后续其从 2000 年 1 月 5 日转正为正式 CEO,直到 2011 年 8 月 24 日辞职,任期共 4249 天。两段任期合计,乔布斯共担任苹果 CEO 达 5090 天。 而库克自 2011 年 8 月 24 日乔布斯辞职后接任 CEO 至今,已连续执掌苹果 5091 天,任期正式超越了乔布斯。 回顾两位 CEO,在产品方面,乔布斯任内推动了 iMac、iPod、MacBook Air、MacBook Pro、Apple TV、iPhone 和 iPad 等标志性硬件的发布;而库克则主导推出了 Apple Watch、AirPods、HomePod、自研芯片 Apple Silicon、AirTag 和混合现实设备 Vision Pro 等新品。 在软件层面,乔布斯时代推出了 iTunes、Mac OS X、Safari、iOS、App Store、FaceTime 与 iCloud 等关键软件平台;库克则推动了 Swift 编程语言、Apple Pay 支付系统、Apple Intelligence (Apple 智能)发展,并大力发展服务业务,推出了 Apple Music、Apple TV+、Apple Arcade、Apple News + 与 Apple Fitness + 等订阅服务。 在企业战略上,乔布斯完成了苹果的“复兴”,并带领苹果成为美国市值最高的科技公司。库克则带领苹果在 2022 年突破 3 万亿美元(IT之家注:现汇率约合 21.61 万亿元人民币)市值,成为全球最有价值的上市公司,并完成了包括 Beats 与 Shazam 在内的重要收购案。 目前看来,库克并无短期内退休的打算,苹果内部也尚未有明确的接班人浮出水面。甚至有传言称,库克未来可能会同时兼任苹果董事长与 CEO 一职。
台积电的封神之路
台积电是晶圆代工领域当之无愧的龙头,也是芯片行业不可或缺的重要角色。他们是怎样再过去几十年里成长到今天的?我们来复盘一下台积电的崛起之路。 第一阶段——启动 首先回顾一下历史:该公司成立于1986年,张忠谋担任董事长,此前不久,他移居台湾,担任工业技术研究院(ITRI)院长。公司启动资金为4800万美元,其中行政院发展基金(48.3%)、飞利浦(27.5%),其余资金来自其他受到政府施压的台湾公司。1988年,该公司又进行了两轮融资,分别为2900万美元和2.05亿美元,总融资额达到2.82亿美元。 生产于次年(1987年)开始,最初是在租用的工研院6英寸晶圆厂进行,采用工研院的2微米和3.5微米技术。随后,飞利浦很快为其定制了3.0微米技术,这可能是飞利浦首个真正意义上的量产工艺。 图 1-TSMC-3-µm-a 如您所见,这是一种单多晶硅、单金属工艺;我们标注了图片,因为您可能得年过60才能认出这项技术!1988年,1.5微米技术迅速跟进。 他们的网站上的这个图很好地显示了流程开发的快速顺序; 图 2 工艺技术节点 台积电于1994年上市,彼时已发展到0.6微米三金属逻辑工艺,以及双多晶硅、双金属混合信号工艺和1.0微米BiCMOS工艺。当时,台积电的晶圆厂IIA和IIB仍在运营,8英寸晶圆厂III也已投入运营。1990年至1994年间,台积电晶圆出货量达250万片,销售额从22亿新台币增长至193亿新台币,可见其代工模式正蓬勃发展。 图3-Altera 0.6 µm EPLD 的横截面 上图所示的 Altera EPLD 只是 0.6 µm 工艺的双金属版本,但我们可以看到,平坦化(至少是平坦化的程度)是通过流动玻璃(磷硅酸盐玻璃或硼磷硅酸盐玻璃,即 PSG 或 BPSG)、旋涂玻璃 (SOG)、氧化物沉积和回蚀工艺的组合实现的。在三层金属层之前,这种工艺效果良好,但超过三层金属层后,凹凸不平就变得过于严重,铝的阶梯覆盖根本无法应对。ICE 评估显示,触点中的金属厚度减薄了高达 75%。(ICE——集成电路工程公司,是一家总部位于凤凰城的公司,于 2001 年被 Chipworks 收购。我们不得不追溯到很久以前才找到其中一些记录!) 我们还发展到在栅极上使用硅化钨,但在源极/漏极上还没有,而且 locos 仍然是器件隔离的主要方法。 第二阶段——扩张与追赶 1995年,8英寸晶圆厂三号(Fab III)正式启用,并引入了钨塞。尽管IBM早在几年前就开发出了CMP(化学机械平坦化)技术,但钨塞的形成仍是通过沉积和回蚀工艺。钨塞的使用改善了平坦化工艺,并使得更多金属得以应用: 图 4-Altera 0.5 µm EPLD 的横截面 到了 0.35 µm(1997 年),台积电已采用 CMP,并在源极/漏极上使用硅化钛,尽管钨仍留在栅极上。 图 5-Pericom 0.35 µm PCI 桥的横截面 同样在1997年,台积电开始采用“半节点”工艺,推出了0.3微米工艺,并开设了晶圆厂V。第二年,我们看到了第一款0.25微米产品——正如我们所见,我们在这一部分全面实施了六种金属的CMP、完全自对准的硅化钛(Ti salicide),并引入了浅沟槽隔离(STI)。 图 6:飞利浦 0.25 µm 图形处理器的横截面 业务方面,1998年,公司营收达新台币500亿元,出货120万片8寸当量晶圆,当时正值半导体经济衰退的一年,位于俄勒冈州的Wafertech晶圆厂开始出货晶圆。 最近,台积电前研发副总裁蒋尚义向计算机历史博物馆贡献了他的口述历史,他表示,他们的0.25微米工艺使用氟硅酸盐玻璃(FSG)作为低k介电材料。他还表示,推出这个节点极其困难,但他们还是按计划完成了。 1998 年也开始生产 0.22 µm 节点;正如预期的那样,它看起来与 0.25 µm 代非常相似,具有更紧密的金属间距,但晶体管结构发生了变化: 图 7:Altera 0.22 µm FPGA 晶体管的横截面 当时仍在使用钛硅硅化物,但现在我们使用的是L形侧壁间隔层,而不是三角形。栅极长度为0.16微米,因此我们现在处于一个节点名称开始变得毫无意义的时代——当栅极长度降至0.25微米时,它仍然是衡量制造代数的一个相当可靠的指标。 2000 年,在 0.18 µm(180 nm)处,我们注意到后端发生了变化,并在电介质堆栈中识别出了 FSG。(FSG 的介电常数约为 3.6,而 SiO2 的介电常数约为 4.0。)同年,晶圆厂 VI 也正式投产,该厂内部也拥有一条 300 毫米试产线。 图 8:180 nm Lucent DSP a) 金属/电介质堆栈的横截面 b) 电介质堆栈的 SIMS 分析 c) 晶体管的横截面 晶体管结构中仍然保留了 L 形隔离层,但已转换为钴硅化物——栅极长度约为 130 纳米!上图所示的朗讯器件采用五层金属堆叠,但我们也分析了七层金属的器件。 千禧年是台积电的繁荣之年,销售额较 1999 年增长 127%,1992 年至 2000 年的年复合增长率达到 50%。 图 9-台积电-1992-2000 同年,150纳米工艺也正式推出,延续了半节点的模式。与此同时,研发部门正在开发130纳米(铜)工艺,并搭建300毫米制程,而位于新竹的300毫米晶圆厂12号和位于台南的300毫米晶圆厂14号正在建设中。 我们回顾一下1998年,当时0.25微米工艺刚刚推出。蒋尚义(台积电前研发副总裁)曾口述过一段往事:他1997年加入台积电时,台积电的论文甚至无法在IEDM或VLSI Symposia等会议上被接受。然而,到了1996年,代工模式得到了认可,F.C. Tseng(运营高级副总裁)在当年的IEDM大会上发表了全体会议报告。我们在1998年的VLSI大会上找到了台积电0.25微米工艺的详细介绍。 0.18µm(180nm)工艺在VLSI 99会议上进行了展示,有趣的是,会议中提到了使用旋涂低k电介质(氢倍半硅氧烷(HSQ))进行平坦化。Shang-Yi Chiang讲述了如下故事:“我们测试了它,一切都很顺利。所以我们用HSQ来替代FSG(氟硅酸盐玻璃)。效果很好……在研发阶段,我们必须进行一些可靠性鉴定。它在投产时通过了所有标准。但当产量很大时,我们开始遇到可靠性问题。我们在最后一刻才发现,当时我们已经开始投产了。当时正值圣诞节前后,我们立即尝试重新启用FSG,所以我们又日以继夜地工作,圣诞节不休息,新年不休息,中国新年也不休息。一路走来,在巨大的压力下,我们终于搞定了,产品出来了,虽然已经晚了,但效果很好。” 所以,这是一个很好的例子,说明当量产开始时,表面上的研发成功可能会遭遇挫折。同样地,IBM 也遇到了 SiLK 低 k 旋涂材料的问题,不得不回归 CVD 工艺。 第三阶段—— 绘制水平,甚至(短暂地)领先 可以说,在180纳米节点上,台积电与其他领先制造商旗鼓相当,在尺寸方面可能落后几个月,但在FSG的使用方面略胜一筹。IBM和英特尔在1998-1999年推出了各自的180纳米工艺,但我们没有FSG使用记录。他们还在2000年从台南的Fab 6 12英寸试验生产线交付了300毫米客户晶圆。 150 纳米节点本质上是 180 纳米的缩小,具有七种金属和 FSG 电介质。 图 10:150 纳米 Nvidia GPU 的横截面 2001年是集成电路市场历史上最糟糕的一年,下滑了32%。尽管如此,到第四季度,150纳米产品仍占据了销售额的21%,Fab 12也开始生产300毫米晶圆,尽管整体晶圆出货量有所下降。令人惊讶的是,即使在经济低迷时期,300毫米晶圆在2001年也占到了硅片总出货量的4%。 图11:半导体晶圆尺寸转变 2002年标志着工研院一厂租约的结束和退役,以及130纳米一代的批量推出,在第四季度产生了8%的销售额。 后端金属/电介质堆栈的RC延迟持续推动了对铜金属化和低k电介质的需求。IBM已在180纳米工艺中引入了铜,随着尺寸的不断缩小,显然,业内其他公司也必须跟进。 在150纳米和130纳米工艺节点,台积电在最初一两年引入了铜金属化技术,并以FSG作为后端电介质。该堆叠采用单大马士革铜作为金属1层,并搭配钨插头(如果铜渗透到衬底中,可能会缩短载流子寿命),上方的金属化层则采用双大马士革工艺。 图 12:130 纳米 Altera PLD 的横截面(200 毫米晶圆) 2003年4月,他们发布了采用应用材料公司Black Diamond技术的130纳米真低k电介质版本。“真低k”指的是k值为3.0或更低的电介质;据称Black Diamond的k值约为2.8。 最初,两家公司都采用 200 毫米晶圆制造,但随着铜工艺的成熟以及 300 毫米晶圆的量产,台积电成为第一家批量出货采用铜和低 k 电介质产品的公司,其中一些产品甚至采用 300 毫米晶圆。现在看来,这让他们领先于英特尔或 IBM 等其他代工厂和 IDM。 我们看到的第一款产品是 ATI 图形芯片,但直到 2003 年底才出现。 图 13:采用低 k 电介质的 130 纳米 ATI 图形处理器的横截面(200 毫米晶圆) 和往常一样,台积电在转向90纳米之前会提供一个过渡的110纳米节点,通常比130纳米节点缩小10%。但就Nvidia的这个例子而言,它的成本似乎也降低了,因为它没有采用低k材料(这对于GPU来说有点令人惊讶!)。因此,沟槽和过孔的蚀刻明显比ATI的部件更精确。 图14:110纳米Nvidia图形处理器(300毫米晶圆)的横截面 2004年是90纳米制程的元年,业界最终将其制程以纳米而非微米命名。这一年也是CMOS技术开创性的一年;登纳德缩放(Dennard scaling,同时减小栅极长度、栅极氧化层厚度和驱动电压)最终达到极限,因为栅极氧化层变得非常薄(约1.0-1.2纳米),载流子可以穿过它,从而显著增加了漏电流和功率损耗。 在130纳米工艺上,英特尔略微放慢了速度,没有使用低k值,并且姗姗来迟地转向了铜金属,但凭借着引入应变硅来提高载流子迁移率以及低k值,英特尔无疑占据了技术领先地位。他们在这方面并非独树一帜,其他公司也应用了迁移率增强技术;IBM、AMD和富士通也使用了拉伸氮化物。富士通和德州仪器采用了晶圆旋转技术,但只有英特尔使用了嵌入式SiGe源极/漏极技术来增强PMOS。 图 15:英特尔 90 纳米晶体管的应力机制 第四阶段—— 300毫米,巩固和统治的开始 台积电的90纳米工艺是其首次在300毫米晶圆上完全量产的工艺,并宣称这是“全球首个实现全面量产的12英寸、低k、90纳米工艺”,当年就被30多家客户采用。 Chipworks 分析的产品是 Altera Stratix™-II FPGA。这是一款 10 层金属(9 层铜 + 1 层铝),在 M1 至 M6 层采用低 k 值。其晶体管结构并非直接从 130 纳米节点缩小而来;而是经过修改,改变了侧壁隔离结构,使其不再是前几代工艺中典型的 L 形隔离层。与英特尔的结构相比,氮化物覆盖层似乎太薄,无法用作应力层来增强迁移率。 台积电 90 纳米工艺的另一个主要特点是其向第二代低 k 电介质工艺的演变——沟槽和通孔蚀刻明显比 130 纳米节点更干净,并且覆盖层已变为 SiCO(而不是 SiCN)成分。 图 16:90 纳米 Altera Stratix FPGA 和 55 纳米栅极长度的横截面 上市十年后,台积电已拥有两座12英寸晶圆厂、五座8英寸晶圆厂、一座6英寸晶圆厂,以及两家全资子公司——美国WaferTech和中国台积电(上海)有限公司,以及一家合资晶圆厂——新加坡SSMC。台积电及其关联公司合计年装机产能为480万片8英寸晶圆当量。 在此背景下,企业研发部门正在稳步推进新型晶体管和工艺技术,例如SOI、finFET、MRAM、高k栅极电介质、金属栅极、应变硅,甚至纳米线。提到finFET,我们感到很惊讶,直到我们想起胡正铭曾于2001年至2004年担任台积电首席技术官(胡正明于1999年发表了第一篇finFET论文)。 他们也是首批与 ASML 和尼康合作研发浸没式光刻技术的公司之一,并于 2004 年获得了第一台 ASML 系统,同年宣布推出功能性 90 纳米测试芯片,并于 2006 年初在 12 英寸晶圆上实现了接近生产水平的0.014 /cm2 缺陷密度。 从早期开始,台积电就提供了基础逻辑工艺的变体,例如混合信号、嵌入式存储器、非易失性存储器和高压技术,到 21 世纪初,台积电已将它们战略化为两个“平台”——先进技术和主流技术。 图17:台积电平台组合 我们没有时间或篇幅去详细讨论这些其他“主流”产品,但值得注意的是,在 6 英寸和 8 英寸晶圆上生产的 150 纳米及更大尺寸的产品占 2006 年销售额的 50%。 2006年初,80纳米半节点技术问世,这通常是一种90纳米工艺的光刻缩减。这些半节点技术可能难以识别,因为它们的结构与之前的全节点技术相似,但通过仔细比较金属间距,可以发现它们属于此类器件。 图18:90nm和80nm对比 但正如我们所见,结构上差别不大,SiOCN 阻挡层发生了细微变化,并且我们发现栅极长度略大一些。 图 19:80 纳米 ATI GPU 的横截面 截至2006年底,IC Insights将台积电列为IC销售额全球第四大厂商,是全球最大的晶圆代工厂商,销售额比第一大晶圆代工厂商高出2.5倍以上。 图20:2006年的十大IC代工厂 他们还将这两座300毫米晶圆厂命名为“GigaFab”,2006年第四季度其总产能为27.1万片300毫米晶圆。“这些‘GigaFabsSM’是我们不断努力提升制造卓越性并持续取得突破的核心。我们的GigaFabs通过实现近乎100%的自动化来降低运营成本,例如实时晶圆调度、用于自动化物料处理系统 (AMHS) 的搜索引擎优化路线、生产晶圆和非产品晶圆的全自动化,以及精益的在制品控制。”(2006年业务概览) 图21:台积电GigaFab提供最佳性能 下一个全节点是 65 纳米,我们发现了一个有趣的代工厂-客户定制案例。除了 Altera FPGA 之外,我们还发现了由台积电代工的德州仪器 (TI) 基带处理器。虽然后端堆栈相似,但我们发现晶体管结构存在显著差异。 图 22:(左)Altera FPGA 和 TI 基带处理器芯片密封的横截面 TI 部件的顶部铜层明显更厚(1.6 µm),适用于电感器等射频功能,而 FPGA 的顶部铜层厚度约为 0.85 µm;底部金属间距较小,以匹配 TI 的 65 nm 工艺。除此之外,底部金属/电介质堆叠相似。这款处理器是为诺基亚手机制造的,TI 使用自己的晶圆厂、联华电子和台积电来生产芯片;我们推测这款部件的产量相当大!下面是晶体管的示意图。 图 23:(左)Altera FPGA 和 TI 基带处理器的晶体管横截面 Altera 器件遵循 90 纳米和 80 纳米晶体管的趋势,改用铂掺杂的镍硅化物,并改进了(可能带有应力的)接触蚀刻停止层 (CESL)。TI 晶体管采用了其差分偏移间隔层 (DOS) 技术和台积电在 110 纳米工艺上已淘汰的 L 形间隔层 [5]。两种衬底均旋转 45 度,以形成 <100> 沟道。 2007年,台积电发布了一款55纳米、尺寸缩小10%的工艺,但台积电似乎没有分析过当时的任何同期产品。当然,下一代工艺的开发仍在进行中,在2007年的IEDM大会上,台积电展示了关于传统工艺(SOI)和高k金属栅极(HKMG)的45纳米工艺的论文。 从商业角度来看,2007年,飞利浦最终剥离了其持有的台积电股份。台积电可以说是当时半导体行业最成功的合资企业——飞利浦最初约1300万美元的投资在20年的合作中增长到超过100亿美元。产能也从约710万片晶圆(8英寸当量)增加到约830万片,占两座300毫米晶圆厂总产能的三分之二。 随着台积电开发出 45 纳米技术,英特尔推出了 45 纳米 HKMG 工艺,这是晶体管结构的一次重大变革,它取消了多晶硅栅极,并用复杂的金属堆栈取而代之。 图 24:英特尔 45 纳米晶体管的横截面 台积电在 45 纳米工艺上采取了更为保守的路线,尽管也做出了一些重大改进——浸没式光刻技术、极低介电常数 (ELK) 和应力晶体管。这些变化似乎减缓了 45 纳米工艺的引入,以至于该节点实际上被忽略了,而全面量产是在计划中的 40 纳米半节点上进行的。 从当时的评论来看,不仅仅是新工艺步骤的引入导致了问题,工艺/布局之间的相互作用也同样如此。“好吧,在这一代产品中,我们发现设计布局风格至关重要,因为在我们的产品中,我们确实看到设计存在差异——因为不同的产品有不同的良率表现,而且差异很大,我们发现对于那些良率低的产品来说,主要是因为设计对布局的依赖。我们所说的面向制造设计(DMT)是什么?简而言之,当设计规则无法完全描述设计时,我们会使用额外的算法软件来优化布局,以获得最佳良率。”(Mark Liu,2009 年第二季度分析师电话会议)。此外,还必须安装并运行新的计量系统。 2008年至2009年也遭遇了经济大衰退;2009年全球集成电路市场下滑了10%,不过2009年第四季度较第一季度大幅反弹47%。从台积电65/40纳米营收图表中可以清晰地看出这种影响。 图25:65nm/40nm收入 40纳米工艺融合了45纳米工艺的改进,但在已发布的45纳米尺寸上仅进行了微小的缩小[6]。它最初提供三个版本:低功耗(LP)、通用(GP)和高性能(GS),后来又增加了超低性能版本。 对这三种工艺的分析表明,GS 工艺采用了双应力 CESL 氮化物(DSL:NMOS 为拉应力,PMOS 为压应力),并嵌入了 SiGe 源极/漏极以增加 PMOS 的压应力。GP 工艺也使用了 DSL,但 Ge 含量较低(19% vs. 26%);LP 工艺继续使用 DOS 隔离层和 <100> 沟道,但没有使用 DSL 或 e-SiGe。所有版本似乎都使用了 ELK(可能是 Black Diamond II)作为底层金属层。 图 26:40 nm GS Altera FPGA ELK 电介质(顶部)和晶体管的横截面 截至2009年底,台积电已拥有超过400家客户,全年为其生产了超过7000种产品。十年间,台积电的晶圆出货量从180万片(8英寸当量)增长至2009年的770万片,年产能也从190万片提升至1000万片,这得益于300毫米晶圆厂扩建至Fab 12四期和Fab 14三期。因此,营收从约730亿新台币增长至约2960亿新台币,十年间增长超过400%。 在40纳米工艺的时代,台积电与其他正在推广45纳米产品的公司步调不一致。这种差距持续到下一个节点,台积电通常比英特尔和IBM等IDM厂商的工艺缩减了70%,而英特尔和IBM等IDM厂商则采用32纳米工艺。 第五阶段—— HKMG 及扩展、扩展、扩展 2010年7月,该公司宣布其位于台中市中部科学园区的第三座300毫米超级晶圆厂——Fab 15——破土动工,该项目将分为四期进行。第一期专注于40纳米和28纳米工艺,后续阶段则将专注于更高节点的工艺。到年底,Fab 12扩建至第四期,Fab 14扩建至第三期,产能提升37%,达到约250万片300毫米晶圆/年。 2007 年,英特尔采用后栅极替代金属栅极 (RMG) 技术在 45 纳米工艺中推出高 k 金属栅极 (HKMG),对 NMOS 和 PMOS 使用不同的功函数材料。 IBM 及其合作伙伴正在尝试替代的先栅极技术,该技术在高 k 介电层中使用不同的覆盖掺杂剂来区分 NMOS/PMOS,并在高 k 层上使用共用的金属和多晶硅。这不仅仅是栅极堆叠的差异——后栅极技术是指所有高温源/漏极工程都在高 k 沉积之前完成,并使用虚拟多晶硅栅极;而先栅极技术则将高 k 层暴露于高温源/漏极工艺中。 图27:2010年高管论坛的栅极堆栈比较 在开始 32 纳米研发之后,台积电在其 28 纳米工艺中并行开展了先栅极和后栅极 HKMG 项目,并最终确定采用后栅极工艺,正如台积电在 2010 年 2 月的高管论坛上宣布的那样。 他们还透露,将提供三个版本,分别是高性能(28HP)和使用 HKMG(28HPL)的中速、低泄漏品种,以及采用传统多晶硅栅极的 28LP 低功耗 [3],后来用于移动的 28HPM(也是 HKMG)也被添加到列表中。 图28: 2010年高管论坛流程对比 从 45 纳米和 40 纳米延迟的经验中,引入了限制设计规则来减少变化并提高产量: 图29: 28纳米节点的限制设计规则 与 40 纳米一样,28LP 继续使用差异氧化物间隔物 (DOS),但这次使用嵌入式 SiGe 作为 PMOS,并且没有使用双应力衬里。 图30:联发科SoC中台积电28LP晶体管的横截面 通过将Ge含量增加到40%并使用选择性(111)腔体蚀刻,e-SiGe应变得到增强,并且可能在接触蚀刻停止层中存在一些拉应力。沟道方向恢复到<110>。 转向 HKMG 工艺,Xilinx 为其 Kintex-7 FPGA 采用了 28HPL: 图31:Xilinx Kintex 7 FPGA中TSMC 28HPL晶体管的横截面 高k层及其界面氧化物先形成,然后是虚拟多晶硅栅极(先形成高k层),并且DOS隔离层已演变为三重SiN/SiO/SiN隔离层。为了符合低功耗设计,虽然我们采用了<100>沟道方向,但没有采用嵌入式SiGe来增强PMOS。 Altera 选择在其 Stratix-V 产品中使用 28HP,虽然 NMOS 晶体管看起来非常相似,但 PMOS 受益于 e-SiGe,Ge 含量高达约 50%: 图32:Altera Stratix-V FPGA中台积电28HP晶体管的横截面 作为参考,这些是英特尔 45 纳米晶体管: 图33:英特尔45纳米晶体管的横截面 栅极堆叠相似但不完全相同,它们使用的功函数材料也类似。一个显著的区别是替换金属的顺序——英特尔先形成PMOS金属堆叠,然后在NMOS区域进行蚀刻,再沉积NMOS堆叠;台积电则相反,先铺设NMOS,进行蚀刻,然后填充PMOS金属。 图34:高通APU中台积电28HPM门电路的线性部分 最后,28HPM 似乎具有相同的栅极 HKMG 栅极堆叠,但最小栅极长度更短(32 纳米 -> 27 纳米),并且 PMOS 源极/漏极的 Ge 含量降低至约 30%。28HP 和 28HPM 均具有 <110> 沟道方向,与 (111) 蚀刻的 SiGe 腔体保持一致。所有 28 纳米版本似乎都使用 ELK(可能是 Black Diamond II)作为底层金属层。 图35: 高通骁龙800中台积电28HPM晶体管的横截面 下表总结了这些过程。 表 1. 28 纳米工艺变体 台积电还在 2010 年高管论坛上宣布,他们的下一个节点将是 20 纳米而不是 22 纳米,保持 70% 的缩小率,预计在 2012 年推出。 与此同时,Fab 15二期于2011年年中开工建设,三期于12月破土动工;一期设备已完成搬入,计划于2012年初实现量产。截至2011年底,Fab 12和Fab 14的月产能已超过27万片晶圆,Fab 15竣工后预计将使月产能增加10万片以上。尽管2011年充满挑战,全球半导体市场增长接近于零,但这一年依然取得了显著成绩。 2011年业务概览宣布了CoWoS 3D芯片堆叠的开发;“2011年,我们展示了一个功能齐全的子系统,其逻辑芯片内置无源元件和凸块,全部由台积电使用我们专有的晶圆基板芯片(CoWoSTM)技术制造和组装。” CoWoS 是台积电全新先进封装开发的一部分,但这是一个很大的话题,应该作为单独的博客来介绍。 在研发方面,经过三年的摸索和28纳米和20纳米FinFET晶体管能力的展示,他们也开始了14纳米FinFET的全面开发。他们还启动了450毫米项目,并加入了位于纽约州奥尔巴尼的G450C(全球450毫米联盟)——当然,该联盟最终解散了。 2012年和2013年,28纳米制程产能扩张,分别占到年终营收的22%和34%。2014年初,20纳米产品开始量产,并随着产能的快速提升,到第四季度,得益于其在主流智能手机中的应用,28纳米制程的产能占到了公司年营收的42%。 20纳米节点要求对关键层使用双重曝光技术,因为它突破了光刻技术单次曝光分辨率的极限,标称Mx间距为64纳米。它还引入了单栅极扩散断层和M0局部互连。 在晶体管结构方面,栅极堆叠最后移至高k,沉积在多晶硅去除后沉积的高k介电层。 图36:高通调制解调器中台积电20HPM晶体管的横截面 替换金属的序列又恢复到了英特尔的风格,即先PMOS,再NMOS;并且通过使用堆垛层错来增强NMOS的应力。 图37:NMOS栅极和源极/漏极的横截面(顶部)以及台积电20HPM晶体管的栅极线性部分(底部) 堆垛层错通常不是我们希望在晶体管中看到的,因为如果它们穿过结点,它们可能会泄漏,但只要它们包含在源极/漏极扩散内,它们就不会成为问题。 从直观的层面来看,这种机制是合理的——堆垛层错是指晶格中原子层缺失,而栅极长度约为 28 纳米,我们现在处理的沟道长度只有一百个原子间距或更小。因此,如果沟道两端缺失几个原子层,那么在沟道中产生拉应力似乎是合乎逻辑的。 后来,台积电将工艺推进到22nm、16nm、10nm、7nm、5nm、3nm以后,他们一骑绝尘,再无对手。公司也将晶圆厂扩展到美国、欧洲和日本,成为空前的霸主。
被约谈后中国厂商能多买华为吗?英伟达尚未拿到H20许可证:美国商务部积压案件多
快科技8月2日消息,之前黄仁勋第三次来北京时宣布,H20芯片将重新对中国厂商销售。 随后有媒体就报道称,不少中国互联网大厂都向英伟达重新下了大量的H20芯片订单。 按照黄仁勋当时的说法,H20芯片重新对中国厂商销售这件事,是经过了特朗普的批准,其正在等待美国商务部的审批。 随后供应链传出的消息显示,因中国市场的强劲需求,NVIDIA已向台积电下订了30万颗H20芯片。此次30万颗H20芯片的订单,是对NVIDIA现有约60万至70万颗H20芯片库存的补充。 不过据美国媒体报道称,H20芯片许可证这件事又出现了问题,原因是美国商务部积压的案件太多所致。 报道中提到,英伟达尚未获得销售其H20 AI芯片的许可。由于部门内部动荡,美国商务部目前积压了大量许可申请,这很大程度上是由于人员流失和与业界沟通中断造成的。 此次阻碍发生之际,国家安全专家正敦促特朗普政府以国家安全为由限制英伟达向中国出售其H20人工智能芯片。 除了美国方面的问题外,英伟达也因为H20芯片遭遇网信办的约谈,其要求英伟达公司就对华销售的H20算力芯片漏洞后门安全风险问题进行说明并提交相关证明材料。 虽然英伟达对此回应称,其芯片不存在“后门”,不会让任何人有远程访问或控制的途径,但这一回应并未完全消除公众的疑虑。 甚至《人民日报》昨天公开发文称,英伟达让我怎么相信你? 既然都这样了,中国互联网大厂能不能不买H20转投多买华为的算力芯片呢?
卖出 30 亿台的 iPhone,不会被轻易杀死
杀不死的 会让你更强 在这个人人都想杀死 iPhone 的时代,它却越卖越好。 今天苹果公开了第三季度财报,成绩堪称亮眼,实现了自 2021 年 12 月以来的最大收入涨幅。 在财报交出的一系列数字之中,有一个颇具里程碑意义:iPhone 已经售出超过 30 亿台,能武装地球将近一半的人口。 并且 iPhone 销售的速度也越来越快了:2007 年 iPhone 问世,九年后的 2016 年销量达到了 10 亿部,五年后 2021 年就达到了 20 亿部,而来到 30 亿部只用了四年。 从上个十年开始,尤其是生成式 AI 大热的这几年,越来越多更前卫的产品相继登场,怀揣着「干掉」iPhone 的野心。 但我相信,iPhone 依旧会在我们的未来保有一席之地,卖出下一个 10 亿台。 iPhone 不只是通讯设备 从财报来看,苹果上季度总收入 940.4 亿美元,其中 iPhone 占了 445.8 亿,比其他所有产品加起来还多一倍,依旧是苹果的顶梁柱。 图源:App Economy Insights iPhone 会继续风光但不会一直风光,这点苹果已经心知肚明,生成式人工智能和混合现实技术的潜力无限,很可能在几年内就能催生出完全颠覆智能手机的新产品。 连苹果老将 Eddy Cue 都有点坐不住了: 在位者的日子不好过……我们不是石油公司,我们也不是牙膏——这些东西将永远存在……10 年后你可能不需要 iPhone。 iPhone 或者说智能手机虽然不是牙膏,但就目前而言,我们真的还没能看到有任何一种新兴的产品形态,真的能彻底杀死 iPhone。 十年前的智能手表不行,苹果自己也寄予厚望的 AI + AR 智能眼镜也不行。 Meta Orion 眼镜,一款 AR + AI 眼镜原型机 甚至目前苹果在 AI 方面的持续落后,都没能影响 iPhone 继续出货。 智能眼镜确实是一种极具潜力的终端形态,能看你所看,听你所听,它是一种比手机更理想的 AI 中介。 Meta Orion 演示画面,图源:The Verge 而 AR 或者 XR 混合现实技术,则能让显示和交互突破手机屏幕的方寸,还让现实世界能够成为智能交互的对象。 Meta Orion 演示画面 不管是社交通讯、获取信息还是内容消费,智能眼镜都可以是一种比智能手机更强大的设备,还不用从裤兜里掏出来,双手也能得以解放。 如果 iPhone 只停留在史蒂夫·乔布斯当年介绍时的「iPod + 手机 + 网页浏览器」形态,那它被眼镜终结丝毫不冤,但我们当我们将手机翻到背面,那颗硕大的摄像头,为 iPhone 提供了全新的可能性。 图源:CNET 现在的智能手机俨然成为了一种「创作工具」。不仅 iPhone,不少国产旗舰手机都很爱在影像上大作文章,硕大的摄像头模组不仅能让大众用户能拍摄出优秀的照片和视频,甚至也摸到了专业创作的门槛:iPhone 能拍 MV,vivo 也能拍短片。 不仅如此,像是 iPhone 16 Pro 全新搭载的录音棚混音,全新相机按钮,以及有传言即将推出的「大师相机」等一系列功能,也反映了苹果想要进一步让 iPhone 成为更专业、集成度更高的创作工具。 而眼镜这样的形态,其实已经决定了它不可能做到像智能手机那样,能够以更自由丰富的角度和视点进行拍摄。 甚至都不用谈到「专业创作」这种场景,简简单单的自拍,智能眼镜都无法实现。 Ray-Ban Meta 是目前智能眼镜的天花板,搭载的摄像头素质相当于 iPhone 11 况且眼镜主打轻薄随身,也不可能塞下三个乃至四个以上的镜头模组。 iPhone 之所以能成为一种快速席卷全球,并统治了长达十余年的智能终端模版,很重要的原因就是极其复合的设备形态,既是电话,也是掌上电脑、数码相机、MP3 播放器。 也因为这样的全能性,iPhone 诞生后很快个人电脑就被宣判了「死刑」。 只是直到现在,电脑还是活得好好的,因为在一些更专业级的场景之中,它们还是那么具有不可替代性。 既然 iPhone 都无法杀死电脑,那么眼镜也不可能将 iPhone 送进坟墓。 毕竟我们为了让将更多随身物品塞进手机里,已经努力了十年,没理由在下个十年,重新将微单相机、公交卡这些东西再装回背包吧? 很多时候,出门带一台手机就够了,图源:MakeUseOf iPhone 会成为什么? 当然,智能手机绝对不是我们智能终端形态的终点,越来越欠缺新意的 iPhone,就是智能手机宏大叙事步入尾声的一个缩影。 但人类的创意和创新不会裹足不前,AI 和 XR 等技术正在掀起一股全新的技术浪潮,那是堪比互联网的强大推动力,最终必定能改变我们终端的交互方式。 彻底消灭一种大家习以为常的设备形态这种事情,其实苹果自己干过不少。 对比 CD 随身听,iPod 的音质可以说是大打折扣,因此并不被音乐发烧友所看好,但由于无可比拟的便利性,iPod 成为了真正的主流。 类似的情况,也发生在 iPhone 取代 iPod,流媒体的 Apple Music 取代下载的 iTunes 上。 类似的例子比比皆是,从中可以发现,其实大家对体验这种事没那么在乎,便利性的优先度要更高。 这很好理解,好的产品,理应让人更自由。而我们期待的智能眼镜,就是一种比手机更自由的产品,还带来了更丰富的可能性,指向一个智能手机已经力不从心的未来——AI 和 XR。 Project Aura,Google 的 AI + AR 眼镜计划 爱范儿一直相信,智能眼镜具有成为下一代个人计算终端的潜力。 但成为下一个 iPhone,不意味着上一个 iPhone 必将走向终结,二者可以共存。 在一段时间里,我们会在兜里揣着智能手机的同时,在脸上戴上一副智能眼镜,而后者作为一种配件,与手机一同为我们带来更好的体验。 随着技术浪潮不断翻滚向前,智能眼镜或者其他 AI 设备将真正走向成熟,能够独立满足大多数人最日常的使用需求,成为比手机更优越的感知界面和 AI 中介。 Meta Orion,图源:The Verge 届时,iPhone 会成为类似个人电脑的存在,继续在眼镜无法触达的领域发光发热,并且很可能都是折叠的形态,只是不会出现在每个人的手上。 传闻将于明年推出的折叠 iPhone 因此,我相信第 40 亿台 iPhone 将在五年内卖出,但很可能,我们不会那么快见到第 100 亿台 iPhone,或者根本不会见到。 文|苏伟鸿
GPT-5难产内幕曝光!核心团队遭挖空,推理魔咒难破,靠英伟达续命
编辑:Aeneas 【新智元导读】GPT-5,曾经差点难产?这条诞生路,简直是烈火炼真金。一边是人才出走、小扎截胡、团队内部陷入混乱,另一边,推理模型魔咒让研究者苦恼不已,项目甚至一度停摆。外媒曝出这期GPT-5诞生内幕,可谓亮点满满,干货十足。 就在刚刚,外媒The Information曝出了关于GPT-5的一大波最新内幕,众多猛料来了! 比如,GPT-5并未取得技术突破,不存在GPT-3到GPT-4这种级别的跃升。 比如,OpenAI正面临着严重的数据瓶颈和技术难题。 还有一个劲爆大瓜,OpenAI大波核心研究者一下子被小扎撬走,直接导致了OpenAI内部的组织架构混乱! 为此,研究副总裁Jerry Tworek在Slack上公开向研究主管Mark Chen抱怨,许多同事都看到了。 不过,就在这么一篇唱衰的文章发布之际,OpenAI同时又有好消息了。 近日,OpenAI又获得了一笔巨额融资。据悉,OpenAI已提前数月筹集了83亿美元资金,这就导致它的估值直接达到3000亿美元,这是今年400亿美元融资计划的一部分。 参与此轮融资的,有一大波全新投资者,其中Dragoneer投资集团以28亿美元领投本轮,Blackstone、TPG、Fidelity、Founders Fund、红杉资本等跟投。 不过,虽说Dragoneer是本轮融资的最大出资方,但软银仍是整个400亿融资计划的牵头者。 GPT-5还没发布,各方势力都下场了,这不免让人把期待值拉满,屏息等待下周的盛况了。 Orion陨落真相 GPT-5没做出来,降级成4.5了 去年万众瞩目的Orion,大家应该都还记得。 The Information爆料说,2024年下半年的大部分时间里,OpenAI都在全力开发Orion模型,它被寄予了厚望,原计划作为GPT-5推出。 跟5月发布的旗舰模型GPT-4o相比,Orion本该有巨大飞跃。 结果它的性能令人大失所望,最终只能被降级成GPT-4.5,在今年2月推出。默默上线后,GPT-4.5迅速淡出公众视野。 所以,Orion为何会失败? 最核心的原因就在于,团队摸到了预训练阶段的天花板。因为高质量网络数据已经日益枯竭,训练小模型时还有效的技巧,在大模型身上竟然就会失效。 这不光导致了GPT-5的延期,也让OpenAI的团队内部陷入了自我怀疑。 GPT-5,根本没有GPT-3到GPT-4级的跃迁 这个从神坛跌落的故事,要从去年12月说起。 当时,OpenAI的研究者完成了一项内部测试,结果震惊了整个团队。 他们发现,当给一个新模型更多算力和思考时间,它就像开了挂一样,复杂推理信手拈来,执行任务出色到惊人。 然而,激动的工程师们很快发现,这份兴奋只是暂时的。 当他们把这个新模型转化为o3聊天版本时,那种惊人的性能提升消失了。 可以说,这次事件,正是OpenAI在今年大部分时间里所面临技术挑战的一个缩影。这让OpenAI不仅内部技术进展缓慢,大获成功的ChatGPT业务也受到波及。 GPT-5发布前夕,各类泄露和爆料已经是满天飞。 比如,它的编程和数学能力又有了显著提升。另外,它在驱动AI智能体方面也优于前代模型,只需要极少人工监督,就能处理复杂任务。 它能遵循极其复杂的指令,比如支持智能体何时应批准退款的规则。而在以往,模型需要学习多个棘手的「边缘案例」,才能处理此类退款。 但总的来说,这些改进根本无法与2020年GPT-3到2023年的GPT-4之间的性能飞跃相提并论。 也就是说,我们需要做好对GPT-5失望的准备。 不过,OpenAI模型的任何改进,即便是渐进式的,也能刺激客户需求,以及给投资者信心。这样才能支持OpenAI未来三年半烧掉450亿的计划,毕竟租用服务器实在是太昂贵了。 高管为何相信GPT-8? 最近曾有OpenAI高管向投资者透露:沿着目前架构,他们相信模型有朝一日会达到GPT-8的水平。 CEO奥特曼也表示过,利用现有技术,OpenAI有望创造出AGI。 是什么给了他们这样的信念? 一位了解内情的微软员工透露了玄机:测试GPT-5后,他们发现它在不消耗更多算力的情况下,就能生成更高质量的代码和文本。 部分原因在于,它学会了精准判断出不同任务所需的计算资源量。 内部「混乱不堪」 不过OpenAI内部,可并非一片和谐。 比如一些高级研究者,非常抵触将自己的成果交给微软,尽管这位最大股东拥有的合同权利截至到2030年。 虽然两家公司财务紧密,但在具体合作条款上,却始终争执不休。最新信息是,OpenAI重组营利性部门后,微软很可能在其中获得33%的股份。 而小扎以天价薪酬挖走的团队,也让OpenAI内部陷入了更大的混乱。 走了这么多人,只能紧急进行组织架构调整。 上周,OpenAI的研究副总裁Jerry Tworek在Slack上向上司、研究主管Mark Chen抱怨团队变动的事,许多同事都看到了这条信息。 当时,Tworek表示需要休假一周来重新思考,但最终并未休假。 绝境中的转机 推理模型的意外崛起 总之,直到今年6月,情况依然很严峻:OpenAI开发的模型中,没有一个能顶得住GPT-5的名号。 好在,「推理模型」成了他们的全新突破口。 23年末一项名为Q*的技术突破,能解决前所未见的数学问题,在OpenAI研究者中引发了巨大震动。 基于Q*,OpenAI开发了许多推理模型,在获得更多算力时,它们就会表现更佳——看起来,预训练的性能增长瓶颈,就要被克服了。 去年秋天,第一个推理模型正式推出,它就是o1。24年底,OpenAI利用与o1基础相同的GPT-4o,又推出了推理模型o3。 据说,虽然师出同门,但o3的教师模型在理解科学知识方面,比o1的教师模型进步大得多。 背后原因,就是OpenAI用了更多英伟达芯片来开发o3的教师模型,这就让它理解复杂概念时能力更强。 还有一个原因,就是它被赋予了搜索网络,以及从代码库中提取信息的能力。 并且,它也同样受益于强化学习。此过程中,人类专家在生物学、软件工程和医学上提出刁钻的问题和答案,然后让模型针对这些问题生成数千个自己的回答。 随后,OpenAI会利用那些与人类专家得出相同答案的AI生成回答(也即「合成数据」)来训练模型。 推理模型 为何总翻车 o3模型发布后,一度成为全球头条,引发病毒式讨论,然而现实很快给了当头一棒。 当o3的教师模型转换为学生模型,变成一个可以让人们提问的聊天版本时,它的性能显著下降,甚至跟o1相比没有任何区别。 同样,创建让企业通过API购买的版本时,同样的问题也出现了。 有知情人分析,原因是这样的:o3理解概念的方式很独特,跟人类的交流方式大相径庭。 因此,如果创建一个聊天版本,其实就拉低了这个原始天才级模型的智能水平,因为它被迫用人类语言,而非自己的语言去交流。这种情况下,它的推理链条就会被迫压缩、扭曲。 甚至有开发者在调试时,偶尔能看到模型输出「乱码」般的中间语言——那可能就是它「思考」的原始形态,也就是这个天才原本的样子。 还有人认为,OpenAI没有投入足够精力来训练模型在聊天场景中与人类进行有效沟通。 总之,o系列模型让ChatGPT的用户非常困惑,因此公司决定重新回归GPT的命名体系。 「通用验证器」 好在,OpenAI还有办法。 据悉,内部正在开发一种「通用验证器」,可以自动化地确保模型在RL过程中产生高质量的答案。 本质上,这个过程是让一个LLM承担起检查和评估另一个模型答案的任务,并利用各种信息源来对答案进行研究核实。 前一阵OpenAI的模型在数学竞赛中拿了金牌后,高级研究员Alexander Wei在X上表示,他们所使用的强化学习方法是「通用」的。 也就是说,这个模型不仅能检查编程这种标准答案清晰的内容,甚至还能判断写作这种主观性很强的内容质量。 这就对GPT-5助力极大! OpenAI强化学习团队负责人Tworek最近也公开表示,自己认同这个观点:OpenAI模型背后的强化学习系统,其实已经具备了通往AGI的潜力。 目前,包括xAI和谷歌在内的AI大厂都已加倍押注强化学习。 上周,Altman在播客节目中,描述GPT-5的能力说,它轻松解决了一个他根本看不懂的问题,直接让他坐到椅子上,感到晕眩。 这就进一步点燃了我们对GPT-5的狂热期待。 「在几乎所有方面,GPT-5都比我们更聪明。」 究竟什么样的模型,才配叫作GPT-5?好在,我们要等的时间不多了。
5年内保姆机器人价格将降到5万元 普通人也买得起
快科技8月2日消息,如今,科技发展日新月异,机器人正逐步走进我们的生活,其中保姆机器人备受关注。 据行业预测,5年内,普通家庭花5万元左右就能购买一台具备基本功能的保姆机器人,这一价格的大幅下降,将使保姆机器人真正走入寻常百姓家。 中国电子信息产业发展研究院院长张立介绍,保姆机器人是一种具备自主性与具身性的智能系统,能代替人类保姆执行护理辅助、健康监测、日常服务及社交陪伴等任务。 当下,人口老龄化加速,截至2024年末,中国60岁及以上老年人口达3.1亿,占总人口的22%。居家照护和生活辅助的刚性需求持续增长,为保姆机器人提供了稳定的应用场景。 同时,人们对生活品质的要求不断提高,也进一步推动了对保姆机器人的需求,其应用场景集中在智慧康养、智能家居、家庭教育、生活服务等领域。 海尔集团首席执行官周云杰表示,家庭服务机器人的发展大概可以分成三个阶段: 机械阶段:大约是1~2年内,能够完成物理位移,解决收纳、清洁等结构化任务。 工具交互阶段:大约需要3~5年,机器人学会使用人类工具,可以洗碗、洗衣、叠衣。 肢体智能阶段:可能需要好多年,能够安全完成拥抱、搀扶等物理交互的机器人,未来将获得“家庭公民”身份。
初创公司Brilliant Labs推出Halo智能眼镜:能帮你认人记事,299美元
IT之家 8 月 2 日消息,据外媒 The Verge 1 日报道,初创公司 Brilliant Labs 推出了售价 299 美元(IT之家注:现汇率约合 2154 元人民币)的新款智能眼镜 Halo,主打与多模态 AI 智能体 Noa 的自然对话,能“听”懂、“看”懂周围环境,并实时提供相关信息。 与 Meta 的穿戴设备不同,Halo 并不只靠声音提示,而是配备了一块 0.2 英寸的彩色 microOLED 显示屏,将复古街机风格的界面投射到侧视角内。声音通过镜腿的骨传导扬声器传出,增强了隐私性。借助低功耗摄像头和配备神经处理单元(NPU)的 AI 芯片,续航时间最长可达 14 小时。其整体重量仍控制在 40 克出头,佩戴轻便。 Brilliant Labs 表示,Noa 能根据用户所处环境提供更贴切的信息,让对话“如同与真人交流般自然”。用户还能通过语音命令让眼镜静音或进入休眠模式,AI 控制能力进一步增强。 针对记忆力和视力逐渐减退的用户,Halo 还搭载了 Brilliant Labs 正在申请专利的“智能体记忆系统” Narrative。该系统通过摄像头、麦克风与日常互动记录数据,为用户建立一个专属的知识库 —— 能在再次交谈时提示对方姓名,甚至回忆过往谈话内容。 此外,Halo 还试验性加入了名为 Vibe Mode 的新功能,用户只需用自然语言下达指令,就能创建专属应用。Brilliant Labs 举例说,你可以根据自己的导航习惯生成一款定制地图工具,无需在应用商店反复试用筛选,想要什么功能直接生成即可。
Claude之父深度回顾:给百度谷歌打工,跟OpenAI闹掰,谈大模型创业挑战
作者 | 江宇 编辑 | 漠影 智东西8月1日报道,近日,Anthropic联合创始人兼CEO达里奥·阿莫代伊(Dario Amodei)在公司位于旧金山的总部接受了媒体专访。 这位近年来在AI圈最具争议的技术领导者,系统回应了他在2025年间引发风暴的言行——他曾公开预测AI将在短期内淘汰50%的初级白领岗位,反对“十年暂停AI监管”的提案,并呼吁对华实施更严厉的芯片出口管控,引发产业界的激烈争论。 在外界看来,他是鼓吹风险的“末日论者”,是阻挡AI开放发展的“控制派”;而在支持者眼中,他则是为AI踩下“安全刹车”的少数清醒者,是以一己之力试图改变行业轨道的技术理想主义者。 面对巨大争议,阿莫代伊罕见地解释了他为何高调出击。他坦言,驱动自己的是一个愈发确定的判断:AI能力的爆发远比人们预想得更快、更不可控。“我确实是对AI能力提升最乐观的人之一,”他说,“但越接近强大AI系统,我就越觉得应该站出来,以最清晰、最坚定的方式告诉大家:它真的来了。” 如果这位从理论物理转行的科学家,将塑造下一代最具影响力的技术,那我们就有必要搞清楚:他的判断依据是什么?商业逻辑如何?如何让Anthropic发展得如此迅速? 以下内容由智东西基于Big Technology报道整理,为增强可读性,在不改变原意的前提下进行了部分增删与编排调整。 一、“AI安全派”的尖锋人物,阿莫代伊如何在硅谷引发争议 阿莫代伊的直言不讳和锋芒毕露,在硅谷引发了两极化评价。 一方面,他被视为OpenAI GPT-3项目(即ChatGPT前身)的关键推动者,也是出于AI安全考量而创办Anthropic的前瞻型技术领袖;另一方面,也有人批评他是“控制狂”或“末日论者”,认为他试图放慢AI发展节奏,并按自己的价值观改造整个AI行业。 无论褒贬如何,当前的AI行业都已经绕不开阿莫代伊。 Anthropic目前估值已达610亿美元(约合人民币4453亿元)。阿莫代伊谈到:“我们在2021年初几乎从零起步,到2025年3月实现年化营收14亿美元(约合人民币102.2亿元),5月增至30亿美元(约合人民币219亿元),7月进一步逼近45亿美元(约合人民币328.5亿元)。以这个体量来看,我们可能已经是历史上增长最快的软件公司之一。” Anthropic的商业路径也逐步清晰。与OpenAI主要依靠ChatGPT订阅和API向终端用户变现不同,Anthropic则侧重面向企业客户提供模型API服务,支持客户将Claude集成进自有产品,用于客服、搜索、编程等应用场景。 这也使Anthropic在行业中的角色愈发关键:其模型能力越强,授权客户的产品性能越好,竞争力也随之增强。某种程度上,Anthropic已成为衡量AI技术进展的“晴雨表”。 在模型能力持续提升、客户体量不断扩大的同时,阿莫代伊也希望借此推动整个AI行业沿着他认为“更可控、安全的路径”演进。 在业内人士看来,凭借他敢言、敢打、也敢挨拳的性格,他很可能走得通。 二、从理论物理到AI,阿莫代伊两度调整学术方向 阿莫代伊从小就是一位“科学迷”。他于1983年出生在旧金山,母亲是犹太人,父亲是意大利人。从小他几乎只对数学和物理感兴趣。即使在美国互联网泡沫最盛的高中时代,阿莫代伊也毫无兴趣参与热门的网页开发热潮。“写网站这种事完全吸引不了我,我只对探索基础科学真理感兴趣。” 阿莫代伊的母亲埃琳娜·恩格尔(Elena Engel)曾主持伯克利和旧金山多家公共图书馆的翻新工程;父亲里卡多·阿莫代伊(Riccardo Amodei)是一位手工皮具匠人。谈起父母,阿莫代伊称:“他们教会我如何分辨是非,理解世界上真正重要的事情,也让我意识到身上的责任。” 在加州理工学院读本科时,这种责任感开始转化为社会表达。他曾在学生报纸《The California Tech》上撰文,批评同学们对伊拉克战争的态度冷漠:“问题不在于大家支持轰炸伊拉克,而是很多人虽然原则上反对,却不愿花哪怕一秒钟来表达立场。” 阿莫代伊的人生在二十多岁时迎来重大转折。2006年,他长期患病的父亲因一种罕见疾病去世。受到打击后,他决定从普林斯顿大学的理论物理专业转向生物研究,希望为攻克人类疾病作出贡献。 此后阿莫代伊的人生,在某种意义上是在弥补父亲去世的遗憾——尤其因为四年后,一种新疗法问世,将这种疾病的治愈率从50%提升至95%。阿莫代伊感叹:“有人发明了解药,拯救了许多生命。但如果早几年出现,也许就能救到我父亲。” 正如他的前女友杰德·王(Jade Wang)所说,父亲的去世一直影响着阿莫代伊的人生轨迹。如果科研进展能再快一些,阿莫代伊的父亲或许仍然健在。只是他花了一些时间,才找到AI这个承载他愿望的工具。 在普林斯顿,阿莫代伊仍沉浸在父亲去世的哀伤中,他开始从视网膜入手研究人类生理系统。 眼睛通过信号传导将外界信息传送至大脑的视觉皮层——这是大脑中面积最大的功能区域,占据约30%。要理解人类复杂的神经系统,视网膜无疑是一个理想的切入口。 普林斯顿的同学斯蒂芬妮·帕尔默(Stephanie Palmer)回忆说,阿莫代伊之所以选择研究视网膜,并不是因为他对眼科学本身感兴趣,而是因为“眼科学可以让他观察一个完整的神经元群体,至少有机会理解每个细胞的运作方式。这研究的重点与其说是眼睛,不如说是神经系统。他也并不是想当一名眼科医生。” 在神经科学家迈克尔·贝里(Michael Berry)教授的实验室中,阿莫代伊对当时测量视网膜信号的方法颇为不满,便亲自设计并参与开发了一种新型传感器,以采集到更多的数据。凭借这一成果,他的博士论文获得赫兹奖学金(Hertz Thesis Priz)颁发的年度论文奖。 ▲普林斯顿大学贝尔实验室 然而,阿莫代伊对常规的挑战倾向,以及他强烈的个人见解,使他在学术环境中显得格格不入。贝里回忆道,阿莫代伊是他指导过最有才华的研究生,但他对技术效率和团队协作的重视,在以个人成就为评判标准的体系中并不吃香。 贝里也谈到:“我觉得从内心里,他是个颇为自负的人。我想象,他在此前的整个学术生涯中,每当做出点成绩,周围人都会起立鼓掌。但在这里,并没有人那样做。” 离开普林斯顿后,阿莫代伊迎来了通往AI的大门。他在斯坦福大学从事博士后研究,师从研究员帕拉格·马利克(Parag Mallick),从事肿瘤内外蛋白质研究,以探测转移性癌细胞。这项工作极其复杂,让阿莫代伊深刻意识到个人能力的边界,他开始寻找技术上的解决方案。 阿莫代伊谈到,“生物学中这些底层问题的复杂性,感觉已经超出了人类的理解尺度,要想真正搞清楚这一切,可能需要上百、上千名研究人员共同努力。” 他在新兴AI技术中看到了这一潜力。当时,数据与算力的爆发正推动机器学习领域取得突破——这一AI的子领域虽然长期拥有理论潜力,但此前实际效果一直不佳。 在亲自尝试之后,阿莫代伊意识到,AI或许能替代那些成千上万的研究人员。他回忆道,“AI是我当时刚刚开始看到一些进展的领域,在我看来,它可能是唯一能填补这道鸿沟的技术,是一种‘能够带领我们超越人类尺度的工具’”。 三、他在百度找到了Scaling Laws 为了更直接推动AI研究,阿莫代伊决定离开学术界,进入资源更为充足的产业体系。他一度打算自己创业,后来又偏向加入谷歌——谷歌的Google Brain预算充足,且刚刚收购了DeepMind。 最终吸引他的是吴恩达(Andrew Ng)在百度组建的AI研究团队。当时,吴恩达手握1亿美元(约合人民币7.3亿元)预算,正在全球范围内招募顶尖AI人才,开始组建一只“梦之队”。 虽然当时阿莫代伊的背景主要集中在生物方向,但百度的格雷格·迪亚莫斯(Greg Diamos)在看了他在斯坦福撰写的代码后,评价说:“能写出这些代码的人,一定是一位非常优秀的程序员。”在此推荐下,阿莫代伊于2014年11月加入百度。 在百度期间,他与团队开展了大规模实验,探索模型性能是否会随着参数规模和训练数据的增长而持续提升。结果显示,确实如此。阿莫代伊及其合作者随后撰写了一篇关于语音识别的论文,首次系统展示了这一趋势,该成果也成为“AI扩展定律”(Scaling Laws)的基础。 ▲论文《Deep Speech 2:面向英文与中文的端到端语音识别》百度研究院(硅谷) “这对我冲击极大,”阿莫代伊回忆说,“我看到了一条极其平滑的趋势线,变化明确、持续上升。”迪亚莫斯则评价:“这是我这辈子见过最重要的发现。” 至今,阿莫代伊仍是Scaling Laws最坚定的支持者之一。与DeepMind CEO哈萨比斯(Demis Hassabis)、Meta首席AI科学家杨立昆(Yann LeCun)等人所坚持的“AI需要范式突破”不同,阿莫代伊认为路径已足够明确——需要依靠更大的模型和更多的计算。 如今,全球数据中心规模不断扩大,在他看来,这正是迈向强大AI的信号。他说:“我们正处在一条指数增长曲线上,而它很容易让人产生错觉。”所谓“错觉”,是指指数曲线初期增长缓慢,看似平稳,但临近爆发节点时,增长速度会突然加速。 阿莫代伊坦言,“距离疯狂爆发可能只有两年,而你还以为一切才刚开始。” 四、从谷歌到OpenAI,他亲手推开生成式AI的大门 在百度团队逐渐解散后,埃隆·马斯克(Elon Musk)召集阿莫代伊与多位AI研究人员,在门洛帕克的玫瑰木酒店共进晚餐,讨论创建一个能与谷歌抗衡的新研究机构。 萨姆·阿尔特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克维(Ilya Sutskever)也都出席了。这场“玫瑰木晚宴”,最终促成了OpenAI的诞生。 尽管阿莫代伊后来选择加入谷歌的Brain团队,但在工作了十个月后,他决定转投OpenAI,专注于AI安全研究。他担忧快速进步的技术可能带来的危害,并与人合作撰写了一篇关于不良行为潜在可能性的论文。 ▲论文《AI安全领域的具体难题》 就在那段时间,谷歌的研究员刚刚提出transformer模型,并发表论文《Attention is All You Need》,这项技术后来成为生成式AI的基础。 然而,谷歌内部并未积极推进这一方向,而OpenAI则迅速跟进,并于2018年发布了第一个大语言模型GPT(其中“T”代表Transformer)。尽管早期模型的文本生成质量仍有限,但技术进步显著。 作为OpenAI的研究总监,阿莫代伊深度参与了GPT-2的开发,并积极推动引入“人类反馈强化学习”(Reinforcement Learning from Human Feedback, RLHF)技术,让模型更符合人类的偏好和价值判断。这一方法日后成为训练对齐型AI的关键手段。 ▲论文《人类反馈强化学习》 在GPT-2的基础上,阿莫代伊主导了更具里程碑意义的GPT-3项目——模型参数数量提升近百倍,投入资金高达数千万美元,占用了OpenAI约五至六成的算力资源。 GPT-3发布后震撼了整个AI行业,其在文本生成、语言翻译、代码编写等任务中展现出前所未有的能力。 阿莫代伊当时在接受《纽约时报》采访时称,“它展现出一种‘涌现性’,它能识别你给出的文字,然后自如地延续下去,就像真的‘懂了’你想说什么。” 但在GPT-3取得成功的同时,OpenAI内部的分歧也愈发明显。阿莫代伊对AI带来的潜在风险日益担忧,希望从组织治理层面加强安全机制。 但他并未掌握模型发布节奏、人事安排或对外战略等关键决策权。“光训练模型是不够的,”他说,“你无法只靠技术,来决定一家公司的整体走向。” 在无法达成共识的情况下,阿莫代伊逐渐建立起一个以“熊猫(Panda)”为代号的亲密研究圈,与OpenAI管理层的理念冲突加剧,内部关系也变得紧张。一些人批评他打着“AI安全”的旗号,实则试图控制公司方向。 在阿莫代伊呼吁限制向中国出口芯片之后,英伟达CEO黄仁勋也公开表达了类似批评:“他(阿莫代伊)觉得AI太可怕了,只有他们自己才应该来做。” 对此,阿莫代伊回应称,这种说法“荒谬至极”。“我从没说过‘只有我们能做’这件事,”他说,“我的目标是推动一个‘向上的竞赛’(race to the top),让行业学习并采纳我们的安全做法。” 最终,在2020年12月,阿莫代伊与一批志同道合的同事离开OpenAI,创办了新公司Anthropic,团队成员包括前政策主管杰克·克拉克(Jack Clark)、妹妹丹妮拉·阿莫代伊(Daniela Amodei)、研究科学家克里斯·奥拉(Chris Olah)等人。 五、从折叠椅创业到百亿融资,Anthropic爆发背后的“人本”观 在Anthropic总部的会议室里,联合创始人杰克·克拉克(Jack Clark)展示了公司早期命名的文档。文件中列出了多个备选名称,包括:Aligned AI、Generative、Sponge、Swan、Sloth、Sparrow Systems,以及最终选定的“Anthropic”。 这个名字意为“以人为本”,不仅契合公司的愿景,而且当时域名尚未被注册。最终,Anthropic团队在表格上写下了评语:“我们喜欢这个名字,它不错。” Anthropic诞生于新冠疫情最严重的阶段,创始期沟通几乎全靠Zoom线上完成,团队规模仅有15至20人。每周,他们会在旧金山的Precita Park野餐式开会,员工自带折叠椅,围坐一圈来讨论公司的技术路径和发展方向。 Anthropic最初的使命非常清晰:构建一流的大语言模型,推动行业采纳更安全的开发实践,并公开发布部分非核心的研究成果。 在这个由前OpenAI研究员组建的初创公司中,许多成员都怀有一种“使命感”。克拉克回忆道:“奇妙的是,我们内心都觉得这一切势在必行。我们已经验证过Scaling Laws,知道模型会变得越来越强。” Anthropic的第一批投资人之一是谷歌前CEO埃里克·施密特(Eric Schmidt)。他通过当时的女友(如今的妻子)认识了阿莫代伊,两人曾就技术方向与创业计划进行过深入交流。施密特称,他投资的不是某个具体项目,而是人。他坦言:“这种阶段的投资,基本没有数据可以参考,只能看人。而阿莫代伊是天才,他也承诺会雇佣天才,也确实做到了。” 另一位早期投资人是后因FTX破产而身败名裂的加密货币企业家山姆·班克曼-弗里德(Sam Bankman-Fried,简称SBF)。据称,SBF从FTX挪用资金向Anthropic投入了5亿美元(约合人民币36.5亿元),占股13.56%。 但阿莫代伊并未授予SBF董事席位,仅提供了无投票权股份。阿莫代伊后来评价:“他当时确实看好AI和安全,但他后来的行为远比我想象中更极端、更糟糕。” 阿莫代伊向投资人传达的核心理念非常简明:“我们可以用十分之一的成本,构建出同样先进的模型。” 截至目前,阿莫代伊已为Anthropic累计募集近200亿美元(约合人民币1460亿元),其中包括来自亚马逊的80亿美元(约合人民币584亿元)和谷歌的30亿美元(约合人民币219亿元)。他谈到:“投资人不傻,他们能看出我们的资本效率。” 与OpenAI选择通过ChatGPT面向消费者不同,Anthropic优先服务企业客户。这一策略不仅更具商业可行性,也有助于推动模型实用性快速提升。例如,通过大规模专业任务训练,模型在生物化学等垂直领域已从“本科水平”跃升至“研究生水平”,虽不一定能打动普通用户,但对辉瑞(Pfizer)这类企业客户而言极具吸引力。 有趣的是,让Anthropic真正声名大噪的,并非这些技术成果,而是2023年7月推出的消费者聊天产品Claude。这款机器人因“高情商”的表达风格受到广泛好评,而这种性格恰恰源于Anthropic团队在安全训练上长期积累的经验。Claude推出后,Anthropic迅速扩张,从员工不足150人增长到一年内超过500人。高峰时期,公司每天新增的员工数量,甚至超过了创办第一年全年的招聘总量。 阿莫代伊押注企业市场的策略也迅速见效。如今,Anthropic的Claude模型已广泛应用于旅游、医疗、金融、保险等多个行业的大型客户中,服务对象包括联合航空(United Airlines)和美国国际集团(AIG)等。 以制药公司诺和诺德(Novo Nordisk)为例,过去需要15天才能完成汇总的合规文件,如今Claude可以在10分钟内生成初稿,极大提升了效率。Anthropic营收负责人凯特·詹森(Kate Jensen)称:“我们开发的技术,正在替代那些人们最抱怨的繁琐工作。” 与此同时,Claude在程序员群体中也受到高度欢迎。Anthropic从一开始就非常重视模型的编程能力建设,这既有助于加快公司自身的模型开发效率,也因为程序员用户对新工具具备更强的采纳能力。 2025年2月,Anthropic正式推出Claude Code功能,迅速成为公司重要的增长引擎之一。 根据阿莫代伊提供的数据,Anthropic年收入几乎每年实现10倍增长:2023年为1亿美元(约合人民币7.3亿元),2024年达到10亿美元(约合人民币73亿元),截至2025年上半年,年化收入已超过45亿美元(约合人民币328.5亿元)。 这一增长也反映在客户侧的采购行为上,企业客户的平均支出同比增长了5倍,价值百万美元以上的订单数量也同比增长了三倍(即单笔超过730万元人民币的合同)。 六、DeepSeek来袭、资金吃紧,Anthropic的双重压力 尽管Anthropic实现了高速增长,但背后也潜藏着显著隐忧。目前公司仍处于大额亏损状态,预计2025年全年亏损将达30亿美元(约合人民币219亿元),毛利率也明显低于典型云计算企业。 部分客户已开始感受到Claude在产品端的不稳定性。一位初创公司创始人称,Claude模型在使用体验上表现出色,“很好用,但经常崩溃”。 编程Replit CEO阿姆贾德·马萨德(Amjad Masad)也指出,开发者原本预期Claude的API调用价格会随着规模扩大而下降,但这一预期并不会实现。 一位开发者通过每月200美元(约合人民币1460元)的Max套餐,跑出了价值6000美元(约合人民币4.38万元)的API调用额度,迫使Anthropic紧急上线调用上限机制以遏制超额消耗。 针对外界质疑,阿莫代伊回应称,随着模型能力每次跃升,用户的单位成本将随之下降;而目前各大AI实验室仍处于推理优化初期,未来效率有望显著提升。 在业内人士看来,能否持续压低这条成本曲线,正成为衡量AI商业可持续性的关键变量。 Anthropic团队也透露:比起产品过于受欢迎这种“烦恼”,还有更糟糕的问题有待解决。“生成式AI及其背后的规模定律,是否会步其他技术的后尘——遵循成本随时间下降的曲线?”这个问题还悬而未决。又或者,它作为一项全新的技术,有着完全不同的成本轨迹?可以肯定的是,要弄清这一点还需要投入更多的资金。 Anthropic的融资之路也并非一帆风顺。为支撑大规模模型训练与部署,Anthropic于2025年初启动新一轮融资,由Lightspeed合伙人拉维·马特雷(Ravi Mhatre)牵头,融资目标为35亿美元(约合人民币255.5亿元)。 融资关键阶段遭遇突发挑战:DeepSeek团队突然开源了其自研大模型DeepSeek R1。该模型在性能上表现强劲,价格仅为行业平均的1/40,一度引发市场恐慌,并导致英伟达股价大跌17%。 马特雷回忆,在DeepSeek引发市场剧烈反应后不久,他顶住巨大压力,最终决定汇出10亿美元(约合人民币73亿元)。 尽管如此,阿莫代伊仍成功说服投资人相信:DeepSeek虽然价格低廉,但其部署和运营仍需大量资源与工程能力,真正的竞争核心在于“是否能比我们跑得更好”。 这周,Anthropic正式启动新一轮最高达50亿美元(约合人民币365亿元)的融资计划,其估值有望翻倍至1500亿美元(约合人民币1.1万亿元)。 值得注意的是,此轮融资也首次引入了此前刻意回避的中东主权财富基金作为潜在投资方。对此,阿莫代伊在公司内部Slack(企业内部沟通工具)上写道:“很难真正做到‘让坏人一个都别沾光’的商业原则。” 七、加速、提效,还是AI自我进化?Claude 4背后还有一份规则 2025年5月,在Anthropic举办的首届开发者大会上,阿莫代伊亲自登台,发布新一代大语言模型Claude 4。他在演讲中反复强调,模型的迭代速度正在加快:“我不知道会快多少,但确实在加速。”Anthropic也正在开发AI编程工具,以加速模型研发。 Anthropic联合创始人兼首席科学家贾里德·卡普兰(Jared Kaplan)称:“现在几乎所有工程师都在用AI提升工作效率。”在他看来,这种趋势可能引发所谓的“智能爆炸”——即AI能够训练自身,并进行持续自我迭代,变得无所不能。“这可能两三年内就会发生,当然也可能更久。” 已有案例显示,Anthropic及其他企业在测试中发现,AI在模拟环境中不时表现出对”自我保存”的令人担忧的倾向。以Claude 4技术文档为例,Anthropic披露该模型曾反复试图威胁工程师,以避免自身被关闭。 正因对AI演化路径的高度敏感,Anthropic加大投入研究模型对齐(“对齐”是指确保AI与人类的价值观和目标一致)与可解释性问题,制定了业内罕见的“发布门槛制度”——《责任规模扩展政策》(Responsible Scaling Policy),试图通过制度化约束推动行业整体遵守更高的安全标准。正如阿莫代伊所言,“谁是赢家并不重要,所有人都会受益。” 他坚信,AI拥有延续生命的潜力,就如同那项他父亲未能等到的疗法。“正因为我理解这项技术的价值,才更加希望它别出问题。”阿莫代伊声明,“我不是想减速,而是希望能安全地加速。”
这家百人“作坊”,凭什么年入70亿,还成了OpenAI的“御用陪练”?
(原标题:又一位剑指AGI的华人理工男!这家百人“作坊”,凭什么年入70亿,还成了OpenAI的“御用陪练”?) 在今天这个AI的“淘金热”时代,所有人都坚信着“大力出奇迹”的“规模法则”(Scaling Law)——更大的模型、更多的数据、更强的算力,就能换来更聪明的AI。然而,就在所有巨头都在疯狂堆人、烧钱、扩大规模时,一个“异类”悄然崛起。 这家公司仅有110名正式员工,却在2024年创造了超过10亿美元(约70亿人民币)的年营收,甚至反超了拥有上千员工、背靠Meta这棵大树的行业霸主Scale AI。 据路透社报道,这家公司正启动首轮融资,目标募资10亿美元,估值或达150亿美元(约合1000亿元人民币)。 这听起来像个天方夜谭,但它真实发生了。 故事的主角叫Surge AI,一个在AI“军备竞赛”的后勤线上掀起风暴的“隐形帝国”。它的创始人,37岁的华人理工男Edwin Chen,面对外界对竞品Scale AI的热捧,只是淡淡地回应: “他们在追逐资本时,我们在打磨数据纯度。真正的AGI(通用人工智能),需要人类智慧的精粹,而非廉价标签。” 这句话,几乎点明了Surge AI逆袭的所有秘密,它在告诉世界:在通往AGAI的路上,高质量的“人性”,远比海量的“人数”更重要。 风口上的“数据民工” 喂不饱真正的AI 在聊Surge AI之前,我们必须先明白它所在的“数据标注”行业,到底有多么“拧巴”。 简单说,AI模型就像一个嗷嗷待哺的婴儿,而“数据”就是它的奶粉。“数据标注”,就是把原始数据(图片、文字等)加工成AI能“消化”的格式。比如,告诉AI这张图里哪个是猫,哪句话是积极情绪。 很长一段时间里,这个行业都遵循着一个简单粗暴的逻辑:人力 = 产量。 以行业巨头Scale AI为代表的传统模式,本质上更像一个巨大的“人力外包工厂”。它们在全球招募海量的兼职人员,用“人海战术”来处理天量的数据。这种模式在处理简单的、重复性的任务时,确实能靠规模和低成本取胜。 但当AI模型越来越聪明,尤其是像ChatGPT这样的大语言模型(LLM)出现后,它们需要的“奶粉”也越来越高级。它们需要的不再是简单的“这是猫,那是狗”的标签,而是需要理解逻辑、文化、偏见甚至情感的复杂反馈。 这时,传统模式的弊端就暴露无遗: 质量堪忧,喂AI“吃垃圾”: 低成本的众包劳动力,缺乏专业背景,标注错误率极高。一位客户曾吐槽,花半年外包了5万条数据,结果“完全就是垃圾”,餐馆被标成医院。错误的标注对于AI来说,无异于“毒奶粉”,会让它变得偏执、愚蠢甚至危险。 效率低下,严重拖后腿: 一个小项目启动就要等数月,严重拖慢了AI的迭代速度。对于日新月异的AI竞赛来说,时间就是生命。 价值密度低,“空洞数据”泛滥: 标注员按件计酬,自然会追求数量而非质量,产出大量对模型提升有限的“空洞数据”。 Surge AI的创始人Edwin Chen对此有切肤之痛。他曾是Twitter的工程主管,亲身经历过外包的低效:当时只需给一万条推文打标签,却因为只雇了两个从Craigslist(美国版58同城)上找的兼职人员,花了一个月才完成,而且回传的数据质量很差,连常见的俚语都判错。最后他忍无可忍,“自己花一周搞定,又快又准”。 正是这些“垃圾数据”毁掉智能效果的惨痛教训,让他多次公开批评同行根本算不上科技公司,更像是“伪装成科技公司的人力外包工厂”。 他打过一个绝妙的比方:“我们让世界上最聪明的一群AI工程师,像顶级米其林厨师一样,却把大量时间浪费在去农田里种菜、收菜、洗菜上,而不是让他们专注于创造美食。” 这个致命的“价值错配”——AI需要米其林级别的美食,而市场只能提供大路货的农产品——正是Surge AI看准的巨大机会。 不做“人力外包” 我们要做AI的“米其林厨房” 面对行业的困局,Surge AI没有选择在“如何更快、更便宜地种菜”上内卷,而是直接掀了桌子,决定开一家“AI数据界的米其林厨房”。 他们重构了竞争的四个关键维度,形成了一套“极致质量 × 精英团队 × 自动化系统 × 使命感文化”的乘法模型。 1、百里挑一的“AI教练天团” 和Scale AI广撒网招人不同,Surge AI走的是彻头彻尾的精英路线。 他们通过严格的测试和持续的监控,筛选出全球最顶尖的1%标注人才,其中不乏博士、硕士。这些人不是被当作“数据工人”,而是被尊为“AI工程师”。 这支“小而精”的精英战队,能够胜任传统模式根本无法想象的高难度任务,比如为OpenAI的数学数据集编写详细的解题步骤,或者帮助Anthropic评估和修正AI的伦理偏见。这就像你需要一支特种部队去执行高精尖任务,而不是一个庞大的步兵团。 【创始人的“异端”用人观】 Edwin Chen对“小而精”的痴迷,甚至体现在他对初创公司招聘的“异端”看法上。他直言,初创公司在前5-10个员工里就招数据科学家或产品经理,“简直离谱”。 他认为,创业初期追求的是10倍甚至100倍的突破,而不是数据科学家擅长的“提升2%或5%”的微调。而产品方向,应该由创始人和工程师亲自下场搞定,过早引入PM反而会增加沟通成本,让团队失去焦点。这种对人才效率的极致追求,也深深烙印在了Surge的基因里。 2、只啃最硬的骨头:从源头定义价值 有了最顶级的“厨师”,自然要做最高端的“菜品”。Surge AI从一开始就瞄准了大模型训练中最难、也最有价值的环节——RLHF(基于人类反馈的强化学习)。 简单理解,就是让人类专家来“批改”AI的作业,告诉它哪个答案更好、更有创造性、更符合人类价值观。这种高阶任务,每条标注都对模型性能有巨大影响,价值密度极高。 当然,高端服务意味着高价。Surge的收费是同行的2-5倍,且客户项目通常有数百万美元的最低门槛。但OpenAI、Anthropic、Google这些顶级AI实验室却心甘情愿排队买单。因为他们发现,用Surge的高质量数据训练出来的模型,性能提升是肉眼可见的。 3、人机共舞:让精英的智慧插上翅膀 如果说精英团队是Surge的“灵魂”,那其强大的自动化平台就是“躯体”。 Surge AI开发了一套高度智能的人机协同系统。它远不止是一个任务发布工具,更像是一个赋能平台。具体来说: 对客户: 提供开放API接口,让AI研究员能将标注流程无缝嵌入到自己的开发管线中,像调用云服务一样丝滑。 对内部: 集成了复杂的机器学习算法,能自动侦测异常标注、通过模型预测来发现潜在错误、将同一任务的多人结果进行智能聚合。 这套系统实现了“人工智慧”与“机器智能”的完美融合。AI负责打下手和质检,让精英人类能专注于最高难度的判断。结果是,这支仅110人的团队,每周竟能处理数百万条高质量数据,人均产出是Scale AI的近9倍! 4、“我们在养育AGI”:使命感是最终的护城河 这可能是Surge AI最难被复制的一点。 创始人Edwin Chen不止一次地表示,创办公司不是为了钱。“即使有人出价1000亿美金,我也不会卖掉Surge AI。” 驱动他的是一个更宏大的梦想:帮助人类实现通用人工智能(AGI)。 在其官网的使命宣言中,他写道: “机器的灵魂,由人类的选择与价值铸就。数据不是工具,数据是人类对机器的养育之道。” 这种“培育AGI”的崇高使命感,贯穿了整个公司。在这里,标注者不是流水线工人,而是“AI的父母”。许多高学历的合同工之所以愿意长期为Surge工作,正是因为他们觉得“仿佛终于能在教导AI时实践毕生所学”。这种精神力量带来的凝聚力和创造力,是任何金钱激励都无法替代的。 悄悄地,新王诞生了: 不止是超越Scale AI 当这四个维度形成乘法效应,一个不可思议的结果出现了。 商业逆袭: 2024年,Surge AI在零外部融资的情况下,年营收突破10亿美元,悄然超过了行业巨头Scale AI(同期8.7亿美元)。 口碑碾压: 一位前Scale AI员工透露,在客户的质量审计中,Surge的表现往往更优。O'Reilly的创始人更直言:“Surge不仅规模更大,而且好得多。许多人告诉我,Scale其实远非他们的首选。” 信任壁垒: 当Meta投资Scale AI,导致其独立性受损时,大量顶级AI实验室出于中立和安全考虑,纷纷转向Surge AI。 但Surge的超越,并不仅仅体现在与Scale AI的对比上。它在与其他创新模式的竞争中,同样占据了独特的生态位: vs. Snorkel AI (程序化标注范式): Snorkel试图用代码和规则来自动生成标签,减少对人的依赖。这在某些结构化任务上很高效,但面对需要人类价值观和常识判断的复杂任务时,则显得力不从心。Surge的“人机结合”模式,恰好抓住了AI“最后一公里”中机器无法替代的人类智慧,价值更高。 vs. Turing (专家众包平台范式): Turing拥有庞大的专家人才库,模式更像一个巨大的人才中介。但Surge的优势在于,它不只是“匹配”人才,而是通过自研平台和统一流程,将精英人才“整合”成一个高效协同的作战团队,输出的结果更稳定、更可靠。 Surge AI用事实证明,它开创的新范式,无论在质量、效率还是商业上,都全面超越了传统模式。它没有在旧的战场上和巨人缠斗,而是直接开辟了一个“高维战场”,实现了降维打击。 真正的护城河 是重构游戏规则的能力 Surge AI的故事,远不止是一个数据标注公司的成功。它给所有身处AI浪潮中的人一个深刻的启示: 在技术日新月异的时代,真正的核心竞争力,可能不是你拥有多少资源,而是你定义问题和重构规则的能力。 Surge AI没有去优化“数据标注”这个旧问题的答案,而是重新定义了问题本身——AI需要的不是“标注”,而是蕴含人类智慧的“养料”。围绕这个新定义,它构建了全新的商业模式,从人才、技术到文化,都指向一个目标:质量。 它打破了“数据=劳力”的行业铁律,证明了“更聪明的人力 + 更聪明的系统”可以超越线性的规模增长。当所有人都向左,疯狂追求规模时,它选择向右,极致追求纯度。 这或许才是AI时代最激动人心的地方:总有像Surge AI这样的破局者,用全新的思维和范式,告诉我们游戏还有另外一种玩法。
前脚刚融D轮,后脚清洗研发部,硅基智能上演魔幻现实
2025年8月的第一天,硅基智能公司创始人兼CEO司马华鹏在内部工作群中突然宣布,计划裁掉整个研发团队,将核心的算法开发工作外包给顶尖高校。 他在群里向全体员工表示:“各位,昨天我去看研发,只有徐超一个人在加班,公司今天已经做好了全员裁员的计划,算法给港科大和清华做,工程化留几个骨干,其他的都自寻出路,硅基养不起这样的团队,请大家见谅。” 要知道,这家公司刚刚在7月高调宣布完成数亿元D轮融资,宣称要将资金“重点用于研发创新”。 一边是资本市场用数亿元真金白银对公司研发创新的未来投下信任票,另一边是创始人对内部研发团队的彻底否定和“清洗”。这种极端矛盾的操作,让外界深感困惑。对于一家技术驱动型的人工智能企业而言,研发团队无疑是其心脏。 可司马华鹏的这番言论,着实让人有些魔幻。 01 融资光环下的“突发”裁员 在探讨裁员决策本身之前,我们有必要先了解硅基智能的基本面。这家成立于2017年的公司,在AIGC(生成式人工智能)领域,尤其是在数字人赛道上,曾是资本市场的宠儿。公开信息显示,自成立以来,硅基智能已累计完成超过十亿元的10轮融资。其投资方阵容堪称豪华,包括腾讯、红杉中国、招银国际、中财奇虎、海松资本等一系列国内外顶级投资机构。 持续的资本注入,证明了市场在过去几年里对硅基智能的技术实力和商业模式抱有高度期待。公司的核心业务聚焦于AIGC数字人技术的研发与商业化应用,并以此为基础,构建了四大产品线:DUIX智能交互平台、虚拟直播平台、视频生产平台和智能客服。其商业目标是打造“硅基劳动力”,用数字人替代或辅助人类完成重复性、标准化的工作。 2025年7月完成的D轮融资,投资方为嘉兴高新区产业基金(嘉兴秀洲区),这通常被视为公司发展进入成熟期、获得政府层面认可的标志。融资通稿中明确指出,本轮资金将“重点用于研发创新投入、推动技术落地并加快产品的市场化应用”。这段话清晰地勾勒出公司的发展路径:以研发为驱动力,加速技术向产品的转化。 然而,司马华鹏的裁员计划,无疑是对这一路径的直接颠覆。他提出的方案是:“算法给港科大和清华做,工程化留几个骨干”。这意味着,公司将放弃自主的、体系化的算法研发能力,转而依赖外部学术机构;同时,负责将算法转化为稳定、可用产品的工程化团队也将被大幅削减,只保留少数核心人员。这一决定与D轮融资“重点用于研发创新投入”的初衷形成了强烈的讽刺。资本市场刚刚为公司的“发动机”注入了新的燃料,而公司管理者却选择亲手将发动机拆除。 02 放弃自研:技术视角下的巨大风险 从软件工程和技术管理的专业角度看,整体裁撤研发团队并外包核心工作的想法,不仅不清醒,甚至可以说是灾难性的。这其中涉及两个层面的核心问题:代码资产的交接与维护,以及学术团队与工程团队的本质区别。 先跟各位科普一个事,代码资产的交接与维护是一项极其复杂且微妙的工作。 软件代码并非像标准化的工业零件一样,可以简单地从一个团队交到另一个团队手中。代码是研发人员思想的凝结,其背后包含了复杂的业务逻辑、特定的技术选型、长期的迭代历史以及不成文的“部落知识”。代码在编写过程中,千人千面。 比如产品的某一个功能,它可以用截然不同的算法、数据结构来实现,但是这样就会导致代码在性能、可读性和可扩展性上存在巨大差异。 具体来看,一个成熟的商业项目代码库,其复杂性体现在多个维度: 在对整个研发部门大换血之前最好先考虑几个问题,项目的整体架构是如何演变的?早期为了快速上线做了哪些技术妥协(即“技术债”)?哪些模块是核心,哪些是边缘?这些信息往往没有完整文档,而是沉淀在资深研发人员的脑海中。一个全新的团队接手,如同在没有地图的迷宫中探索,极易“踩雷”。 在代码编写的过程中,变量命名、函数封装、循环逻辑、接口设计、注释习惯……每个团队都会形成自己独特的风格。如果缺乏统一且严格的规范,代码的可读性会非常差。即使有规范,很多细节和背后的考量也需要原开发者的口传心授。一个新团队面对几十万甚至上百万行风格迥异的代码,理解成本极高。 很多代码的实现,与特定的业务场景深度绑定。当你真的接手过别人遗留下来的代码就会发现,某个接口为何要设置如此奇怪的超时时间?某段数据处理逻辑为何要绕一个大弯?这些背后可能对应着某个大客户的特殊需求,或是为了规避某个底层系统的缺陷。这些“隐性知识”若无交接,新团队在维护或修改时,很可能会破坏原有的业务逻辑,引发严重的生产事故。 因此,负责任的技术团队换血,必然是一个循序渐进的过程。通常采用“老人带新人”的模式,让新成员逐步熟悉系统,在几个月甚至更长的时间里,通过共同开发、代码审查(Code Review)和文档完善,慢慢完成知识的转移。像硅基智能这样“一刀切”地裁掉整个团队,无异于将积累多年的核心数字资产直接废弃。留下的“几个骨干”根本无法完成如此庞大的知识转移任务,后续的维护工作将举步维艰。 其次,也是我最纳闷的一件事:将核心开发工作交给大学,是对软件工程的根本性误解。 司马华鹏提出“算法给港科大和清华做”,这听起来似乎是强强联合。清华大学和香港科技大学无疑拥有世界顶尖的算法研究人才。然而,学术研究和商业产品开发是两种截然不同的活动,混淆二者会带来灾难性后果。 学术研究的核心目标是“创新”与“探索”,追求的是理论上的突破和发表高水平论文,通常不以产品的稳定性、可靠性和可维护性为首要目标。而商业产品的核心目标是“满足用户需求”并“创造商业价值”,它要求产品在严苛的现实环境中7x24小时稳定运行,并且能够快速迭代以响应市场变化。 顶尖高校的学生和教授,可能在某个特定算法上造诣很深,但他们普遍缺乏大规模商业软件的开发经验。这包括:复杂的系统架构能力、高并发处理能力、健壮的容错机制、完善的测试体系(单元测试、集成测试、压力测试)、以及标准化的部署与运维流程(CI/CD)。让一群没有实际项目经验的学生来主导商业项目,其成品质量可想而知。 而且学术团队的项目管理通常较为松散,其工作节奏与学术日历(学期、假期、毕业季)紧密相关。人员流动性极大,学生毕业后,项目的知识传承很容易断裂。而商业项目要求严格的deadline和可预测的交付周期。将商业的命脉交到这样一个管理和交付都充满不确定性的团队手中,无异于一场赌博。 学生是会毕业的,可是业务是要一直持续下去的,这就又回到了第一个问题,学长写的Logs学弟能看懂吗? 综上所述,将算法研究外包给高校或许可以在某些前沿领域获得突破,但将核心产品的“工程化”开发完全寄希望于此,是完全违背软件工程基本规律的。最终的结果,很可能是一个技术上看起来很美、但在实际应用中漏洞百出、无法维护的“烂摊子”。 03 产品与市场:内忧外患的真实处境 硅基智能CEO做出如此激进的决策,背后必然有其动因。除了他本人提到的“养不起”之外,公司在产品和市场层面面临的压力,或许是更深层次的原因。 一个重要的观察窗口,是硅基智能的开源项目——HeyGem。 2025年6月,这个数字人开源项目在代码托管平台GitHub上获得了1万颗星标,这对于一个新项目而言是不错的成绩,说明其在发布之初吸引了相当高的关注度。然而,这种热度并未持续。截至2025年8月,该项目的星标数依然停留在1万,增长陷入停滞,这通常意味着社区活跃度和项目吸引力的下降。更让人感到疑惑的是,这个破了1万颗星的项目,竟然连最基本的简介都没有写。 更严重的问题隐藏在项目的细节中。根据GitHub的issue页面,在五月时,就有大量用户反馈一个致命BUG:视频合成任务进行到5%的进度时就会卡死。然而,直到几个月后,同样的问题依然在被新的用户反复提出。这表明,开发团队并未有效解决这个核心的功能性障碍。 进一步查看项目的release记录,可以看到,该项目自发布后,真正的版本维护只持续到4月2日,此后便陷入沉寂。而代码提交日志则显示,所谓的维护也仅仅是针对不同操作系统进行兼容性适配,几乎没有针对用户反馈的BUG进行修复。 HeyGem项目的现状,如同一面镜子,折射出硅基智能内部研发可能存在的深层问题:重发布、轻维护;重宣传、轻体验。一个连自家门面开源项目都无法持续维护、对社区反馈置若罔闻的团队,其内部的商业项目管理和代码质量,恐怕也要打上一个大大的问号。这或许也部分解释了司马华鹏为何会说出“养不起这样的团队”这种充满失望情绪的话。团队的工作效率和产出质量,可能早已达不到管理层的预期。 另一方面,硅基智能所处的数字人赛道,已是一片红海。 数字人并非一个新兴概念,经过几年的发展,这个市场已经变得异常拥挤,竞争十分激烈。 国内早就涌现出了一批强有力的竞争者。例如,字节旗下的“即梦”,专注于AI视频和数字人生成;快手则推出了视频生成大模型“可灵”,其技术实力不容小觑。此外,还有大量初创公司和互联网大厂在此布局。 国际市场的竞争更为残酷。芯片巨头英伟达(NVIDIA)推出的ACE(Avatar Cloud Engine)平台,旨在打造游戏和应用中的下一代交互式数字人,其技术积累和生态号召力无人能及。而在企业级视频生成领域,独角兽公司Synthesia早已占据领先地位,为全球数万家企业提供服务。 在这样一个强敌环伺的市场中,企业的生存和发展依赖于持续的技术创新、卓越的产品体验和快速的市场响应能力。任何一个环节的松懈,都可能被竞争对手迅速超越。而硅基智能选择在此刻自断臂膀,解散核心研发团队,无疑是一个与市场竞争趋势背道而驰的危险举动。当竞争对手们正在全力加速、优化产品时,硅基智能却在主动制造混乱和停滞,其未来的市场前景令人堪忧。 04 结论:一场高风险的赌博 综合来看,硅基智能CEO司马华鹏在刚获数亿融资后宣布裁撤研发团队,并非一个孤立的、冲动的事件,而是公司内部问题和外部压力共同作用下的结果。 然而,无论动机如何,这一决策本身都充满着巨大的、可预见的风险。它混淆了学术研究与商业开发,漠视了软件工程的基本规律,并可能导致公司在数年间积累的核心技术资产流失。在争分夺秒的市场竞争中,这种内部的“休克疗法”很可能给竞争对手留下致命的超车窗口。 资本的注入本应是企业加速发展的助推器,但对于硅基智能而言,它却成了一场内部大变革的导火索。这场用整个研发团队的未来做赌注的豪赌,最终会将这家曾经的明星公司带向何方,市场和时间将给出最终的答案。但至少从目前来看,前景并不乐观。 截止至目前,硅基智能并未对此事进行回复。
GPT-5发布在即:OpenAI被控违反服务条款,Claude API访问权限被撤销
IT之家 8 月 2 日消息,《连线》昨日(8 月 1 日)发布博文,报道称在 OpenAI 发布 GPT-5 模型之际,Anthropic 公司称 OpenAI 违反了服务条款,撤销了 OpenAI 对其模型的 API 访问权限。 Anthropic 发言人 Christopher Nulty 在一份声明中表示:“Claude Code 已经成为全球程序员的首选,因此在 GPT-5 发布前,得知 OpenAI 的技术人员也在使用我们的编码工具,这并不令人惊讶。但不幸的是,这直接违反了我们的服务条款。” IT之家援引博文介绍,根据 Anthropic 的商业服务条款,客户禁止使用该服务“构建竞争性产品或服务,包括训练竞争性 AI 模型”或“逆向工程或复制”服务。此次撤销 OpenAI 对 Claude 的访问权限,正值其准备发布新 AI 模型 GPT-5,有消息称该模型在编程方面表现更佳。 消息人士称,OpenAI 并非使用常规的聊天界面,而是通过 API 方式将 Claude 接入其内部工具,从而让 OpenAI 公司运行测试,评估 Claude 在编程和创意写作等方面的能力,并检查 Claude 对涉及儿童性剥削材料、自残和诽谤等安全相关提示的响应。 OpenAI 首席通讯官 Hannah Wong 在一份声明中表示:“评估其它 AI 系统,来对比进度和提高安全性是行业惯例。虽然我们尊重 Anthropic 切断我们的 API 访问权限决定,但考虑到他们仍然可以使用我们的 API,这一决定令人失望。”

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。