行业分类:
加载中...
头条分类:
加载中...
刚发布的这台国产手机,提前预定年度最香
虽然咱们每天不离手的爱机,硬件配置是越来越卷了,但再怎么卷,归根结底还是作用在人类的五感上。 高素质大屏幕,对应视觉的享受。 大体积扬声器,对应震撼的听感。 更丝滑的机身弧度、拳拳到肉的震动马达,则是对应细腻真实的触感。 这会儿估计有机友会想了。 都是在人体五感上做文章,其他三感都快卷飞了,但嗅觉和味觉这俩难兄难弟,咋还一直没有受到手机厂商青睐呢。 都不奢望能舔屏了。 好歹,整点香味来闻闻吧? 诶,你别说,你还真别说。 辣个最会整活的国产厂商,这两天就双叒带着它的骚操作来了。 喏,传音最近预告了新款手机「Note 50s 5G+」,乍一看平平无奇。 但后盖,用上了独特香气技术,能散发淡淡的香气。 根据 Infinix 印度 CEO 的采访内容,传音这款 Note 50s,是一款外观和香气都很迷人的手机。 有多迷人? 不知道,毕竟机哥也还没闻到过。 总之官方形容是“非常好的海洋”味儿… 非常好海洋,爱来自传音。 「海洋」这种香型吧,已经是业界很成熟的自然香味风格了,有大把大把的前辈可以模仿,再差也不会差到哪里去。 如果,我是说如果嗷。 要是你家中,恰好有一块,盈通的亚特兰蒂斯。 那你可以把它从海景房里请出来,闻一下它身上的「海洋系」香氛模块,机哥估计大概就这个味儿。 当然啊,对于香水来说,好不好闻是一方面。 另一方面,是这玩意到底能留香多久。 毕竟上面的显卡,香氛模块用完了还能换一块接着用。 但手机上,可没地方给你塞香片。 据传音印度 CEO 所说。 Infinix Note 50s 5G+ 的后盖,用上了极为先进的「Energizing Scent-Tech」(活力香气技术)技术。 具体呢,就是把香气分子封进微小胶囊中,然后将其注入手机的素皮后盖,使手机能够随着使用时间的推移,慢慢释放出香气。 听不懂也没关系。 大伙把这玩意,当成布洛芬缓释胶囊就行。 布洛芬可以维持 12 小时止痛。 Infinix Note 50s 的后盖,也能坚持留香长达 6 个月。 时间 Hin 长,不过终归还是一次性的。 突然想到,手机本体也就卖 20000 印度卢比不到,大概 1700 RMB 的样子。 不知道后续传音会不会出一个,「替换香氛后盖」服务。 机哥觉得这玩意比卖手机更有市场。 说起来,在那个没有硕大激凸影像模组,机圈百花齐放的年代。 也有其他手机厂商搞过带香味的手机。 甚至因为机身结构没现在这么紧凑,真塞个香片进去,也不是没可能。 比如,索尼爱立信 S0703i。 看上去,只是一台平平无奇的翻盖功能机。 但亮点,在可更换的外壳上。 S0703i 有 9 种不同的“Style-Up”面板可以选配,每款面板,都有独特的芳香片。 虽说香味只能持续短短三天。 但好在,换起来也 Hin 方便。 这两年的话,机哥印象中还在气味上做文章的。 好像就只剩下 moto 和小米了吧。 像是 2023 年底的,小米 Civi 3 草莓熊联名版,配件上就有股淡淡的草莓味。 以及去年五月份发布的 moto X50 Ultra。 和香氛公司合作整了个木质香调,和主推的木质后盖相得益彰。 只不过,香味不是融进木头后盖里,而是做在了包装盒内。 主打开箱仪式感拉满。 毕竟,在手机本体上做香味,还要留香持久。 确实,也不是件容易事儿。 以前,业界也出现过很多实验性的「外挂」方案,虽说要多出来一坨硬件设备。 但好处是,做起来方便,香味选择也更多。 甚至可以自由组合,或是用到手机之外的地方。 比如… 在游戏里角色放屁的时候,能让你闻到屁味的 VR 外挂设备「Nosolus Rift」。 这玩意,还能让你闻到放了五个星期的冰沙、已经变成固态的牛奶、腐坏的水果和肉类、大猩猩粪便、机场洗手间、发霉的湿衣服…… 只能说,人在无语的时候是真的会笑一下。 甚至啊,现在还能用 AI“打印”气味了。 配合气味发生器,说不定以后微信不止能发文字、发语音、发图片、发视频。 还能发气味。 试想一下,网恋三年的女朋友害怕线下见面却是个抠脚大汉,但如果你拥有高贵的气味发生器,就能随时随地闻到对方身上的气息。 如果传来的。 是整理发丝后指尖残留的护发素味,是尼罗河花园的葡萄柚清香… 那你担心的恐怖场景,大概率不会发生。 但如果不是… 咳咳,那懂的都懂。 当然,现在说什么「气味传送」「气味打印」…对于你们地球人来说,可能还是有点太超前了。 退一万步讲,不搞这些花里胡哨的。 单纯出个可替换、可定制香味的「香氛后盖」,或者跟香水厂联名,整个「香氛手机壳」、「香味磁吸支架」。 给小米的 Civi 啊、蓝厂的 S 系列、OPPO 的 Reno 系列啥的。 好像… 也都算是不错的卖点呢。 图片来自网络
特朗普关税阴影下 美国人恐慌性抢购iPhone
美国人抢购iPhone 凤凰网科技讯 北京时间4月8日,据彭博社报道,特朗普政府的新关税威胁导致苹果公司股价大跌,但是它也带来了一个短期利好:顾客纷纷涌入零售店抢购iPhone。 美国各地不同苹果门店的员工表示,过去的这个周末,店内挤满了顾客。这些顾客担心,一旦美国新关税生效,苹果手机价格将大幅上涨。目前,苹果的大多数iPhone都是在中国制造。 一位员工表示,他们的门店被抢购手机的顾客挤爆了:“几乎每一位顾客都在问我价格是不是很快就会涨。” 虽然苹果门店并未出现类似iPhone发布时那种排长队的场景,但是员工表示,现场氛围就像繁忙的假日购物季。“人们急匆匆地冲入店里,满怀焦虑地询问各种问题。”一位员工称。他还补充说,苹果尚未向门店提供如何应对此类询问的指导。 这股抢购热潮也带动了销量的增长。一位知情人士透露,至少在一些主要城市,苹果美国零售店在刚刚过去的这个周末的销售额高于往年同期。苹果发言人拒绝就此置评。 苹果将于5月1日公布第二财季业绩,这将为CEO蒂姆·库克(Tim Cook)和CFO凯文·帕雷克(Kevan Parekh)提供一个机会,讨论预期关税的影响。在去年假日季度的财报电话会上,库克曾表示公司正在评估影响,但没有进一步置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
芯片法案,美国难如愿?
《芯片与科学法案》于 2022 年签署成为法律,这是美国联邦政府为提高国家制造半导体和开展相关研究的能力而做出的尝试。除了减税外,该法案还要求向公司提供 390 亿美元的联邦补贴,以在美国国内生产更多芯片,并另外提供 110 亿美元用于先进研发。 两年多后,政府承诺给芯片公司的资金开始流出。今天,我们将看看这些资金究竟流向何处以及我们可能产生的影响。 《芯片法案》的起源 1990 年,绝大多数芯片制造都在美国、日本和欧洲各国进行。仅美国就占全球半导体产量的约 40%,但随着中国大陆、中国台湾和韩国崛起成为新的芯片制造大国(或地区),美国在全球芯片中的份额近年来已降至约 10%-14%。 尽管世界发达经济体大多被视为后工业化经济体,但出于经济和国家安全原因,芯片制造业已成为国内制造业的重中之重。新冠疫情期间的芯片短缺问题部分是供应链中断的结果,而芯片运往海外带来的物流问题和成本增加,以及中美贸易冲突阻碍了中国企业向美国市场出口芯片的能力,使供应链中断问题更加严重。 当然,导致大面积封锁的疫情以及随后远程办公的兴起只会加剧这一问题;尽管居家令已成为记忆,但 2023 年的一项研究表明,如今远程办公的普及程度仍然比新冠疫情爆发之前高出近十倍。 除了新冠疫情带来的供需教训外,美国政府还担心进口如此多芯片对国家安全的影响,但支持美国制造芯片的理由并不完全取决于这种欺诈行为是否真的发生。美国认为,中国公司在旧节点上生产大量芯片,而这些节点仍广泛用于嵌入式应用。这可能会夺走包括美国在内的其他国家芯片制造商的传统芯片收入,阻止他们将这笔钱重新投资于尖端产品。 即使台积电在美国的长期盟友中国台湾的托管下,但台湾的风险也让美国寝食难安。 尽管美国政坛两极分化,但这些担忧足以让 CHIPS 法案获得一定程度的两党支持。尽管几乎所有参议院民主党人都投票支持该法案,但参议院约三分之一的共和党人也加入了他们的行列4;在众议院,也有24名共和党人突破党派界限,投票支持该法案的最终版本。具有讽刺意味的是,该法案既有保护主义的主题,也有自由市场的主题,而且有人指责该计划将成为又一个不良的“企业福利”例子,尽管如此,该法案遭到反对,最终也没能阻止其成为法律。 每个阴影六边形代表众议院的“赞成”票。民主党为蓝色,共和党为红色 然而,反对者提出的一个特别担忧——缺乏保证《CHIPS 法案》资金确实会用于国内——在法案通过后,商务部对此进行了部分解决。商务部于 2023 年发布了一项规定,禁止《CHIPS 法案》受益人在获得资金奖励后的十年内投资于“受关注的外国”的芯片制造——不出所料,这一标签既适用于中国,也适用于俄罗斯。该规定还禁止《CHIPS 法案》受益人使用这些资金在美国以外的任何地方建造或改造制造工厂。由于亚洲是建造和运营晶圆厂成本明显较低的地点,联邦政府希望《CHIPS法案》能够成为一条有价值的激励措施。 英特尔,最大受益者 《芯片法案》的支持者将相对高昂的数字作为对国内芯片制造业进行充分投资的指标。拜登总统则希望到 2030 年,20% 的尖端芯片将由美国制造。时任英特尔首席执行官帕特·基辛格 (Pat Gelsinger) 在 2021 年的一次采访中表示,他希望全球 30% 的芯片供应来自美国,他将此称为“登月计划”。 英特尔目前是 CHIPS 法案资金的最大受益者,该公司于 2024 年 11 月获得高达 78.6 亿美元的奖励,用于亚利桑那州、新墨西哥州、俄亥俄州和俄勒冈州的晶圆厂。该奖励还将包括高达 250 亿美元的税收抵免;英特尔可以通过在这些晶圆厂投资 1000 亿美元来最大限度地获得这一金额。尽管该合同最初的金额为 85 亿美元,但由于该公司还获得了一份价值 30 亿美元的巨额军用半导体国防合同,因此金额有所缩减。 英特尔在美国拥有多座现有工厂,但俄亥俄州工厂将建成两座全新的代工厂,这象征着英特尔目前所处的十字路口。 尽管英特尔尚未对此发表任何声明,但有猜测称该公司正考虑剥离部分代工业务,以削减成本——类似于其子公司 Mobileye 和 Altera 的部分 IPO。虽然直观地看,生产大量极其复杂的微芯片的工厂的建造和运营成本很高,但可能不太明显的是,英特尔为何难以剥离制造业务——当然,假设这确实是他们想要做的事情。 分拆的主要困难在于,众所周知,英特尔的代工厂与外部芯片设计公司隔绝。与台积电或 GlobalFoundries 等专门的合同制造商不同,英特尔工厂没有使用行业标准的 EDA 软件,该软件允许第三方设计可在英特尔设备上制造的芯片。虽然这种情况随着英特尔最新技术的出现而改变,但其大部分 14nm/10nm/7 nm 工艺节点的代工厂仍然使用英特尔内部的软件工具进行芯片设计。这意味着,从外部来看,这些工厂目前在合同制造中没有任何价值。 2024 年初,英特尔宣布与台湾芯片制造商联华电子合作设计“12nm”工具包来缓解这一问题,并允许英特尔作为合同制造商,使用其传统的英特尔 14nm/10nm/7 nm 代工生产。这似乎使英特尔能够部分上市其代工业务,事实上,有猜测称英特尔一直计划剥离目前仍在建设中的俄亥俄州新工厂。 然而,尽管《CHIPS法案》为英特尔的俄亥俄州项目提供了资金,但讽刺的是,该法案也成为英特尔实施该项目的障碍。英特尔与美国政府的协议对英特尔可以剥离多少新代工业务进行了限制。具体数额取决于新实体是否公开交易,但无论如何,英特尔必须保持控股权,否则将面临因《CHIPS法案》而蒙受损失的风险。 当然,还有一个问题,推动英特尔实现制造能力现代化的 Gelsinger 于 2024 年 12 月辞去了公司首席执行官一职。新任首席执行官 Lip-Bu Tan 领导下的新政权是否愿意承诺长期继续运营晶圆厂,还是希望引导英特尔走向类似于竞争对手 AMD 和 Nvidia 的以产品为中心的无晶圆厂模式,这仍是一个悬而未决的问题;临时董事长 Frank Yeary 最近关于优先考虑产品的言论引发了人们对英特尔未来道路的猜测。 试图完全剥离代工业务无疑意味着失去《CHIPS法案》的资金——但对美国政府的打击更大,因为目前没有其他国内芯片制造商能够大规模生产尖端硅片。华盛顿的担忧不仅仅是经济问题,因为英特尔还获得了 30 亿美元的“安全飞地”项目资金。不要将英特尔的安全飞地与苹果的硬件加密解决方案混淆,英特尔的安全飞地是一个即将建造的设施,用于为美国军方安全制造芯片。 尽管英特尔不太可能在下一代 18A 芯片发布前及时实现如此巨大的转变,但该公司最终可能会决定放弃昂贵的制造设施,甚至放弃联邦补贴,这并非不可能。 台积电,被迫投资美国? CHIPS 法案资金的第二大受益者甚至不是一家美国公司,而是台积电,该公司从该计划中获得高达 66 亿美元的资金。台积电还将获得另外 50 亿美元的贷款。 尽管美国政府认为英特尔对于其接近技术主权的努力至关重要,但扩大台积电在美国本土的业务可能同样重要,因为这家台湾企业目前生产了全球约 90% 的尖端(7 纳米及以下)芯片。 台积电自 1996 年起就在华盛顿州拥有一家以 WaferTech 品牌运营的工厂,但该工厂仅生产 160 纳米及更大节点的芯片。台积电的大部分尖端生产都在台湾,但《CHIPS法案》旨在帮助台积电在美国建立类似的代工厂,其中第一家是位于凤凰城的晶圆厂,预计每月可生产约 20,000 片晶圆。 该工厂自 2020 年以来一直在筹备中,但由于成本大幅上涨、难以找到合格工人以及复杂的法律和官僚要求,工厂建设一直处于延误状态。不过,该工厂目前有望在 2025 年上半年全面投入 4 纳米节点生产,并且已经在为苹果生产 A16 SoC——可能是用于新款 iPhone SE 或 iPad。 台积电最初宣布在其亚利桑那州工厂总共投资超过 650 亿美元,该公司计划再建造两座晶圆厂:一座用于生产2纳米和3纳米芯片,计划于 2028 年开始生产;一座用于生产2纳米或更小工艺的芯片,计划于 2030 年底开始生产。2025 年第一季度,台积电在新工厂举行了一次发布会,宣布在美国再投资 1000 亿美元,包括新建设施和研发中心,尽管没有确定这项投资的时间表。至关重要的是,没有关于封装设施建设的消息,这是台积电知识产权的关键部分,目前仅在台湾提供。 除了直接补贴建设成本外,台积电还计划利用《CHIPS法案》的部分奖励来解决劳工问题。亚利桑那州工厂目前大约一半的劳动力是由来自台湾的临时工组成的——至少部分原因是美国工人的专业知识不如台湾工人,但也有指控称,该工厂远远不符合美国的工作场所安全标准。 随着有关台积电偏袒台湾签证持有者而歧视当地工人的指控不断出现,以及有报道称台积电希望聘用美国工程专业毕业生担任技术人员(导致其中一些人到其他地方寻求更高级别的工作),台积电已向联邦政府做出多项承诺,以获得 CHIPS 法案资金,包括支持当地学徒计划、与几所美国主要大学的工程系建立合作伙伴关系,并确认遵守劳动法。该公司声称将创造 6,000 个本地就业岗位,台积电迫切需要雇用和留住美国公民,尤其是因为“制造工厂运营中工人技能的不匹配和流失”是美国商务部特别希望通过《CHIPS法案》解决的一个国内问题。 三星的经济学 另一家获得大量 CHIPS 法案资金的非美国公司是三星。他们获得的高达 47.45 亿美元的资金主要用于德克萨斯州泰勒的一家工厂。这家位于奥斯汀郊外的工厂于 2022 年破土动工,原计划于 2024 年投入量产。 然而,该奖项最近从最初的 64 亿美元缩减,虽然原因尚不完全清楚,但可能与三星在较小工艺节点上的良率问题有关。尽管商务部尚未详细说明三星 CHIPS 法案奖项的附加条件,但所有奖项的资金都取决于获奖者能否在其代工项目中实现某些里程碑。 泰勒工厂旨在生产 4 纳米及以下节点的芯片,但良率问题在三星的其他工厂中凸显出来, BusinessKorea的一份报告指出,该公司在 2 纳米和 3 纳米生产方面都遇到了困难。 这似乎迫使三星将泰勒工厂的量产推迟到 2026 年(同一工厂的第二家晶圆厂预计将于 2027 年投产),据报道,三星环栅晶体管的良率低于 20%。由于量产延迟,三星还大幅削减了该工厂的员工数量,目前只有少量精干人员在泰勒工厂工作。 三星环栅晶体管示意图 2024 年 10 月的一份报告显示,三星从 ASML(仍然是全球唯一一家生产下一代芯片所需 EUV 设备的制造商)接收 EUV 机器的交付也出现延迟,因为三星尚未获得足够的客户来完成购买这些机器的订单,这些机器每台售价约为 1.5 亿至 2 亿美元。其他类型设备的订单也同样被推迟。 存储重点之一:美光 到目前为止,我们讨论过的这些公司主要因生产先进逻辑芯片而获得了《CHIPS 法案》的资助,但这并不意味着国会山已经忘记了内存。美光公司获得了 61 亿美元的资助,使其成为唯一一家获得联邦政府数十亿美元支票的私营公司。 这项拨款将用于两个工厂:一个位于纽约州克莱,就在锡拉丘兹郊外;另一个位于爱达荷州博伊西。大部分资金(46 亿美元)将用于克莱工厂,因为计划建造两座全新的晶圆厂,最终将达到四座,用于生产尖端的 DRAM 和 HBM。在博伊西,美光将在现有的尖端研发基地上再建一座与纽约晶圆厂规模相当的晶圆厂。 此外,美光公司还将从《CHIPS法案》中获得额外的2.75亿美元,用于扩建其位于弗吉尼亚州马纳萨斯(华盛顿特区郊外)的工厂,使其在该工厂的总投资达到21.7亿美元。三十到 2030 年,美光对美国芯片生产的总投资计划将达到 500 亿美元左右。 尽管内存不像逻辑芯片那样引人注目,但尖端内存正迅速成为人工智能竞赛中的关键一环。通过人工智能服务器进行训练模型和生成数据的数据量意味着内存的容量和带宽需求都是一个关键考虑因素。 HBM(高带宽内存)通常用于高端 AI 硬件部署,这是美光希望赶上 SK 海力士和三星等其他内存市场领导者的关键领域。这两家韩国巨头占据了 HBM 领域约 90% 的市场份额,而美光则占据了剩余的份额。 虽然韩国和台湾一样,都是西方的重要战略盟友,但美光作为唯一一家总部位于美国的内存制造商,使其成为《CHIPS法案》资助的极具吸引力的候选者,这可能有助于该公司在与韩国公司的竞争中增强竞争力。 美光的困境并非来自制造问题,而是进入 HBM 领域较晚。尽管美光控制着整个 DRAM 市场的五分之一到四分之一,但该公司直到 2018 年才开始生产 HBM,比 SK 海力士晚了几年。美光还决定不生产 HBM3(在当前一代 AI 部署中很常见),而是专注于该技术的较新版本 HBM3e。HBM3e 技术最初用于 Nvidia 的数据中心新 Blackwell 产品,以及 AMD 最新一代 MI300X 和 MI325X 加速器。然而,目前,我们认为只有 SK 海力士与 Nvidia 签订了合同,而 AMD 则从 SK 和美光多方采购。 美光在 HBM 市场份额方面远远落后于竞争对手,但希望迎头赶上 美光对自己在 HBM 市场迅速赶上的能力充满信心;该公司相信,其份额可以在 2025 年底之前达到与 DRAM 市场份额持平的水平,尤其是考虑到美光的 HBM 到今年年底已经售罄。 毫无疑问,美光预计,得益于人工智能,对尖端内存的需求将继续增长。美光博伊西的新工厂预计将于 2025 年底完工,内存生产将于明年年初开始,而纽约的工厂预计将于 2025 年 11 月破土动工,以便当局评估环境影响。马纳萨斯工厂的扩建应该在未来几年内进行,其中包括美光的 1-Alpha 工艺;尽管美光此后开发了更新的工艺,但 1-Alpha 预计将使马纳萨斯工厂“显着”提高其晶圆产量。 德州仪器,从中受益 德州仪器没有像前面提到的公司那样获得巨额资金,但他们仍然获得了高达 16 亿美元的资金来支持三座新工厂的建设。不出所料,其中两座工厂将位于德克萨斯州,第三座工厂将位于犹他州。 与 PC 爱好者中更为知名的品牌不同,德州仪器并不专注于尖端硅片。相反,德州仪器生产的嵌入式芯片不需要最新的工艺节点来制造。事实上,德州仪器使用的节点可能看起来非常古老——想想 40 纳米到 130 纳米。作为参考,早在 2001 年,当时的台式机 CPU 就已开始使用 130 nm 工艺。 然而,绝大多数产品仍然需要基于这些工艺的芯片,用于高端逻辑以外的应用。这些芯片中有许多用于汽车、家电和外围设备;其中一些是模拟处理器,充当某些环境变量和数字处理器之间的纽带。温度传感器、电源控制器和音频设备中的模拟/数字转换器都是 TI 晶圆厂推出的常见产品的例子。作为参考,现代智能手机通常只有 30% 是前沿技术,而其他 70% 的硅片都是在诸如此类的传统节点上制造的。 德州仪器获得的《CHIPS 法案》拨款数额相对较大,反映出美国不仅关心确保尖端硅片的可靠供应,还关心现代电子产品所需的其他芯片。在疫情期间,广为人知的芯片短缺问题部分是由于模拟芯片和其他基于传统节点构建的芯片的供应链问题造成的;例如,汽车并没有使用高端 Ryzen 9 或 Core 9 CPU 来驱动其信息娱乐系统,但德州仪器生产的低功率芯片的短缺又导致汽车和其他常见产品的库存减少,更不用说实际的 PC 和手机了。 此外,像 TI 这样的公司生产的 IC 往往是成套的:这是行业术语,表示组装特定产品所需的特定 IC 包。这给芯片制造商带来了额外的压力,要求他们有足够的产能来满足需求。 《CHIPS 法案》的拨款将是 TI 计划在 2029 年前投入其制造业务的超过 180 亿美元的总投资的一部分,其首席执行官表示,他们预计到 2030 年制造能力将提高近一倍。 GlobalFoundries,没被遗忘 最后一家获得超过 10 亿美元 CHIPS 法案资助的公司是 GlobalFoundries,该公司在 2009 年被剥离之前曾是 AMD 晶圆厂部门的一部分。尽管 GlobalFoundries 一直与 AMD 保持着多种产品的合作关系,但 GloFo 已经退出了尖端业务。与德州仪器类似,GlobalFoundries 现在专注于嵌入式芯片的节点,他们称之为“基本节点”;该公司目前在 12 纳米节点及更高节点上生产产品。 GloFo 获得的合同金额高达 15 亿美元,将用于支持在纽约州马耳他(奥尔巴尼北部)建造一座全新的晶圆厂,该晶圆厂将专注于数据中心 AI、航空航天、国防和汽车行业的芯片。这笔资金还将用于扩建同一地点的现有晶圆厂,同样主要用于生产本土汽车芯片。 除了纽约工厂外,该合同还将用于升级佛蒙特州埃塞克斯交界处(伯灵顿郊外)的另一家现有工厂,以批量生产氮化镓半导体。氮化镓因晶体管尺寸更小、效率更高而为我们提供更小的手机和笔记本电脑充电器而闻名;事实上,佛蒙特州工厂似乎确实将生产有助于电力输送的芯片。三十八 未来十年,GloFo 计划向这两个工厂投资超过 120 亿美元。讽刺的是,该公司最近因向一家被列入黑名单的中国半导体制造公司运送产品而与联邦政府陷入困境,最终不得不支付 50 万美元的罚款。因此看来,美国商务部仍然相信 GloFo 不会在遵守旨在防止芯片落入美国对手手中的计划规则方面存在任何问题。 Wolfspeed,是祸是福? 另一项大规模的《CHIPS 法案》拨款给了一家你可能从未听说过的公司——北卡罗来纳州达勒姆市的 Wolfspeed 。该公司获得了 7.5 亿美元的拨款,用于推动美国本土电动汽车芯片的开发。 Wolfspeed 专门生产碳化硅芯片,这种芯片与氮化镓一样,正在成为硅的替代品,用于需要高功率水平的应用,例如电动汽车电池和动力系统。例如,特斯拉使用碳化硅逆变器将直流电转换为交流电,为其电动机供电。Wolfspeed 还希望为可再生能源行业、AI 数据中心部署和其他工业电力应用提供更多 SiC 芯片。 事实上,碳化硅作为半导体已经存在了一个多世纪,但电动汽车等应用对更节能材料的需求重新引起了人们对它的兴趣——众所周知,基于碳化硅的产品历来难以制造。 Wolfspeed 当然也未能幸免——该公司近十年来一直没有盈利,而且受到碳化硅晶圆短缺的困扰。电动汽车需求的下滑也无济于事。Wolfspeed 的股价在 2021 年 11 月创下约 140 美元的高点,但在 1 月中旬,其股价低于每股 5 美元。 《CHIPS 法案》的资金应该会为该公司提供一些急需的帮助;这笔资金将用于在北卡罗来纳州格林斯博罗东南部的西勒城新建一座占地 200 万平方英尺的工厂,以及扩建位于纽约州尤蒂卡郊外马西的现有工厂。考虑到该公司不稳定的财务状况,商务部协议要求 Wolfspeed“采取额外措施加强其资产负债表”,这并不令人意外。北卡罗来纳州和纽约州的项目是扩建计划的一部分,预计耗资约 60 亿美元;西勒城的生产计划于今年开始,完工日期为 2030 年。 与此同时,Wolfspeed 计划关闭其位于达勒姆的现有工厂,该工厂采用成本更高的 150 纳米工艺节点,并着眼于将生产转移到马西工厂,尽管该公司仍将保留其位于布尔城的总部和其他设施。北卡罗来纳州的新工厂将为纽约工厂提供 Wolfspeed 实施新制造战略所需的 200 毫米晶圆。 向海力士兑现承诺 韩国存储器制造商 SK Hynix 最初似乎对《CHIPS 法案》不太热衷,其副董事长在 2023 年表示,申请流程“过于苛刻”。具体来说,韩国政府对华盛顿要求提供有关申请人技术和财务状况的详细信息提出了异议四十五;但不出所料,一家公司要拒绝免费资金需要付出很大代价,而 SK Hynix 确实申请了 CHIPS 法案的资助,并获得了高达 4.58 亿美元的奖励。 与美光类似,SK 海力士也打算利用这笔资金专注于 HBM 的生产,特别是 HBM4 和/或 4e,主要用于人工智能应用。这将需要在印第安纳州西拉斐特的普渡大学校园内建立一个新工厂,该校专注于应用科学。该工厂的总投资预计将达到 38.7 亿美元,预计将于 2028 年底开始量产。 NSTC 美国政府也为自己保留了一部分《CHIPS法案》的资金,高达 63 亿美元的资金被提供给 Natcast,Natcast 是根据《CHIPS法案》设立的混合型公私实体,专门用于运营国家半导体技术中心 (NSTC)。与许多其他《CHIPS法案》获奖者不同,NSTC 专注于研发,而不是大规模芯片生产。 NSTC 的旗舰地点将位于加利福尼亚州桑尼维尔——也是 AMD 总部所在地——并将专注于设计自动化、安全性和芯片设计的研究,主要目标是为公司提供工具和流程,帮助他们更快、更低成本地设计芯片。 与此同时,位于纽约州奥尔巴尼的另一个工厂(位于现有的奥尔巴尼纳米技术综合大楼内)将专注于 EUV 光刻技术,其目标之一是到 2026 年实现高数值孔径 EUV 技术的应用。(该工厂已经拥有一台传统的 EUV 机器。)四十八该站点是 IBM、纽约州和纽约州立大学之间的公私合作伙伴关系。 第三个工厂位于亚利桑那州坦佩市亚利桑那州立大学校园内,将设有一个封装设施。该设施并非为全面生产而设计,而是用于测试尚未准备好推向市场的新设备和封装技术。 其余项目 我们尚未讨论的 CHIPS 法案拨款金额要小得多,仅向大约 20 家公司提供。其中一些奖项的目的与较大拨款的目的非常相似。博世(您可能更熟悉其家用电器系列)将获得 2.25 亿美元用于碳化硅制造,以补充 Wolfspeed 的努力。与此同时,恰如其名的 ADI 公司将获得 1.05 亿美元用于制造传感器——类似于德州仪器的拨款,但重点是国防、太空和其他商业应用。 然而,其他补助金则针对更小众的制造业,这些制造业对整个美国科技行业来说仍然很重要: Akash Systems 将获得高达 1820 万美元的投资,用于建设一座专注于在各种高性能集成电路的散热器中使用合成金刚石的工厂。 Coherent 因磷化铟基光电子器件而获得高达 1.12 亿美元的融资,该器件用于医疗设备、智能汽车和人工智能数据中心的高速连接。 康宁在消费科技领域以智能手机中常用的大猩猩玻璃而闻名,该公司因 EUV 机器内的光掩模和镜子中使用的玻璃而获得高达 3200 万美元的补贴。 爱德华真空公司 (Edwards Vacuum) 获得高达 1800 万美元的资金,用于制造可去除半导体制造过程中产生的有毒气体的真空泵。 Rocket Lab 将获得高达 2390 万美元的资金,用于制造火箭和卫星的太阳能电池。 由前面提到的奥尔巴尼纳米技术公司 (Albany NanoTech) 牵头的研发联盟将获得高达 4000 万美元的资金,用于建立致力于芯片制造劳动力开发的区域中心。 Sumika 获得了高达 5210 万美元的化学品生产拨款,尤其是高纯度异丙醇。与药店中也贴有外用酒精标签的异丙醇不同,用于芯片制造的半导体级异丙醇必须是超纯的:例如,用于冲洗和干燥晶圆等用途的纯度必须达到 99.9% 或更高。 这些额外的、较小规模的补助符合美国商务部的目标,即不仅要与外国芯片制造企业进行更有效的竞争,而且还要尽可能地确保制造和供应链的安全。 国际上的做法 当然,美国远非唯一一个希望减少对外国芯片依赖的国家。欧盟已经通过了自己的《芯片法案》(是的,名称实际上是相同的,只是“CHIPS”是首字母缩写),该法案价值 470 亿美元(430 亿欧元),明确致力于在发生重大供应中断时使欧盟自给自足,以及使欧盟占据全球芯片市场份额的 20%——这与美国在其《CHIPS 法案》中设定的比例相同。投资策略也与美国类似,资金重点放在制造设施、技能开发和产品设计工具上。 与此同时,中国台湾当局修改了《产业创新条例》,规定对研发投资减免 25% 的税收,对购买先进芯片制造设备再减免 5%。虽然与台湾政府关系密切的台积电将成为主要受益者,但联发科、瑞昱、台达电子和群联等其他公司也将从中受益。 韩国也通过了类似的税收优惠政策;对半导体制造和其他被视为战略性的技术的投资将为中小企业带来高达 35% 的税收减免,而大型企业可获得高达 25% 的税收抵免。预计 2024 年的总节省额将达到近 30 亿美元53但韩国还通过了另外 190 亿美元的支持计划,以支持包括三星和 SK 海力士在内的国内芯片制造商。该国至少在逻辑芯片方面的目标是将其全球市场份额从目前的 2% 提高到 10%。 房间里的大象 随着特朗普第二届政府的上台,人们对 CHIPS 法案是否会按计划实施产生了担忧。特朗普的盟友、共和党众议院议长迈克·约翰逊 (Mike Johnson) 于 11 月初表示,共和党“可能”会试图废除 CHIPS 法案,但很快又收回了这一声明。另一名共和党人布兰登·威廉姆斯 (Brandon Williams) 声称约翰逊听错了有关该法案的问题。威廉姆斯后来被特朗普提名为主管核安全的能源部副部长。) 然而,鉴于约翰逊后来声称该法案应该“精简”,以“取消其昂贵的监管”,人们仍然担心新政府可能不会把《CHIPS法案》资金的发放作为特别优先的任务,尤其是特朗普本人表示不喜欢补贴芯片制造商的想法,而是倾向于采取对外国制造的芯片征收关税的方式来鼓励企业将制造设施迁回美国。 然而,该法案的支持者是否担心该计划会受到严重削弱?特朗普挑选的商务部负责人霍华德·卢特尼克 (Howard Lutnick) 已公开承诺支持 CHIPS 法案。此外,85% 的拨款已经通过联邦政府和私人受益人之间的约束性合同进行了分配。特朗普政府不能单方面决定不发放这笔钱。 当然,这并不意味着一切顺利。资金的实际发放取决于公司是否达到某些里程碑,这意味着,如果受惠公司违反了合同中的一项小条款,那么之后发放的资金可能会成为争论的焦点。 共和党总统候选人维韦克·拉马斯瓦米 (Vivek Ramaswamy) 最初被任命为埃隆·马斯克 (Elon Musk) 支持的非官方“政府效率部” (DOGE) 的负责人,他称 CHIPS 法案的货币奖励是“浪费的补贴”和“最后一刻的策略”,“DOGE”将对其进行审查,后一句评论指的是拜登政府在拜登任期结束前推动敲定 CHIPS 法案协议。(拉马斯瓦米最终在特朗普上任后离开了“DOGE”。) 然而,国会似乎无意改变 CHIPS 法案的核心内容,尽管其劳工和环境条款——共和党的共同目标——可能会在某些时候被重新审视。 尽管多年来,企业补贴一直受到严厉批评,但关税手段的弱点似乎已经让华盛顿足够多的人相信《芯片法案》应该继续生效。除了人们普遍担心受到关税打击的企业会将额外成本转嫁给消费者之外,芯片制造业是一个资本和资源密集型行业,关税可能不足以吸引外国芯片制造商进入美国。当然,芯片制造业远非唯一一个启动和运营成本高的行业,但鉴于半导体制造业至关重要的经济和战略重要性,《芯片法案》似乎对美国当权者来说足够容易接受,甚至对特朗普的许多盟友也是如此。事实上,欧盟也采取了类似的《欧洲芯片法案》做法,如前所述,该法案也提供补贴,而不是依赖关税。 如果美国能够克服芯片制造所需的熟练劳动力短缺问题(该法案旨在至少部分解决这一问题),该法案很可能在很大程度上实现改善美国供应链、国家安全和整体经济状况的目标。该国是否能够大幅减少芯片进口,或者是否能实现拜登在 2020 年前制造 20% 尖端芯片的具体目标,这些都还是个未知数。 根据现任政府宣布的关税,似乎虽然半导体可能不受影响,但任何用半导体制造或包含半导体的产品都将被征收关税。不仅如此,使用美国以外零部件制造半导体的机器(所以是全部)也将被征收关税,这意味着任何美国工厂的建设或扩建都将产生额外成本。
美滥施关税遭反噬!中国“11箭齐发”反制 一起来看专家预测
  央视网消息:美国总统特朗普上周宣布所谓“对等关税”政策,引发国际社会一致批评。美股指期货交易继续延续大跌走势;美国暴发特朗普上台以来最大规模集体抗议。如何看待美国内的强烈反应?中国“11箭齐发”反制,中美贸易未来会如何发展?一起来看专家解读。    如何看待美国内的一系列反应?   商务部研究院研究员 周密:美国政府所实施的一系列政策不符合民心。其实包括加州在内的很多参与国际贸易比较紧密的州,非常希望保持全球的自由贸易。这些州生产的产品也是通过国际贸易获得了巨大的、稳定的收益。对于很多想努力发展的制造业州也是同样的道理,它们需要通过进口相对成熟、质量比较可靠、稳定的中间品和零部件,保持制造业的稳定发展和竞争优势。   现在这样的环境受到了直接损害。所以,想要通过这样的方式使企业把它们的生产环节放到美国,这个想法可能是很难实现的。因为在国际贸易、国际分工迅速发展的今天,破坏了供应链就意味着所有东西都要从头自己来做。而目前美国很难做到这样的自给自足。虽然美国政府强调让美国民众多一些耐心。   专家认为,即便美国政府采取补贴的方式给予受损害的人一些支持,相关企业和产业链也很难继续恢复原来的竞争状态。相关的商誉、融资一系列问题都会面临更大的挑战。这对全球供应链和产业链的重构,在美国企业能够参与的范围上,都是有所影响的。   法律法规完善,反应迅速、理性合规   此次中国反制 “速度之快、力度之强”可以说前所未有,我们为什么能做到?这样的速度和力度说明了什么?   商务部研究院研究员 周密:中国坚定维护多边主义的基本规则和秩序。我们作为WTO的成员,按照多边承诺完善我们的法律法规和制度建设。包括出口管制法,还有对外贸易法,这种完善也给政府相应的授权,使我们在面对其他国家非公平的贸易行为时,能采取更强的力度,更迅速反应。这些反应是理性的,而且是合规的。   力度很大,也是因为我们对美国这次采取的单边的、这么高的关税,明显违背WTO多边承诺的单边主义做法,表示了非常强烈的不满。应该看到在当前环境下,美国虽是全球最大的经济体,但它不能为所欲为,不能随意破坏多边规则和体系。   专家表示,希望能够通过这样的做法,对相关的政策出台者提一个醒:需要有相应的契约精神,对国际规则的尊重。也希望更好促进多边规则的有效使用,避免全球经贸失去信任。   美产业链供应链将受较明显影响    那么,中国反制措施会给美国带来什么影响?中美贸易未来又如何发展?   商务部研究院研究员 周密:在这样的一种冲击下,美国的一些产业链和供应链都会受到比较明显的影响。在中美双边贸易关系中,其实两国产业的互补性还是很强的。   专家分析,这种影响对于希望开拓中国市场的美国农业生产者,尤其是一些农场主来讲,可能会有比较大的忧虑。中美在第一阶段贸易争端的情况下,美国大豆对华出口,已经从中国第一大的大豆来源国降到了第三位,甚至还在下降。这些影响对于美国相关的利益方是非常值得关注的。   相反,最近从制造业采购经理人指数和其他一系列指标来看,中国经济保持相对稳健。而且这种发展是基于可持续的,不是基于贸易保护主义的做法。   专家认为,按照这样的逻辑,如果我们继续扩大市场开放,给全球带来更多机会,中国市场在经济资源要素的重组上、在有效提供机会上,比美国市场会有更大的吸引力。这也是尊重多边规则的结果。我们能为经济贸易发展提供稳定环境,也能为相关创新带来更多发展机会。
香港引进办宣布新一批重点企业落户 蚂蚁数科入选
凤凰网科技讯 (作者/董雨晴)4月8日,香港特区政府引进重点企业办公室(引进办)举办第四批重点企业伙伴签约仪式。在香港特别行政区财政司司长陈茂波见证下,蚂蚁数科(Ant Digital Technologies)正式成为香港特区政府“重点企业伙伴”并宣布其海外总部落户香港。此次合作标志着香港政府对蚂蚁数科在AI大模型、Web3技术及跨境数字基建领域创新能力的认可,亦为香港巩固国际金融与科创中心地位注入新动能。 香港特区财政司司长陈茂波表示:“重点企业为香港带来投资、就业机会和科技,同时也带来能够改变生活方式和激发创新的产品和方案,这些都是香港所重视的。重点企业在香港落户,支持香港成为国际创科中心。” 蚂蚁数科CEO赵闻飙表示:“香港是蚂蚁数科全球化布局的桥头堡,海外总部落户香港,标志着我们深耕AI与Web3 产业的决心。过去两年,我们持续加大AI大模型研发投入,打造了可信智能体等核心能力;在Web3领域,构建“两链一桥”ESG资产通证化平台,推动绿色资产与国际资本的高效链接。未来,我们将以香港为枢纽,与本地高校共建联合实验室;同时依托香港金融生态,夯实 Web3合规技术底座,助力数字资产高效流通。” 此次蚂蚁数科在香港设立全球海外总部,得益于香港的政策包容、生态驱动和国际化定位,与蚂蚁数科的技术积累和产业经验形成互补。目前,蚂蚁数科在粤港澳地区已实现技术规模化落地:AI研发工具帮助传统企业数字化转型;AI风控系统助力机构提升数字安全防御能力;深度参与香港金管局Ensemble项目,RWA跨境融资项目成为全球实体资产通证化标杆。 据了解,蚂蚁数科为蚂蚁集团旗下数字科技公司,在互联网技术、区块链技术和数字资产服务等领域较为领先。区块链、隐私计算市场位居市场份额第一,AI 技术入选 Forrester亚太区企业反欺诈服务市场领导者。截至目前,蚂蚁数科在全球联合300多个合作伙伴,服务了超过1万家企业客户。
中国十大处理器公司:华为海思高居第一、龙芯居然没上榜
快科技4月8日消息,市调机构AspenCore近日发布了2024年度的China Fabless 100排行榜,对国内无晶圆芯片设计企业分门别类进行排行,涵盖处理器、AI芯片、微控制器、存储器、电源管理芯片、传感器、无线芯片、模拟芯片、功率器件、射频与通信芯片等十大领域。 本次排行统计的企业总部位于中国大陆和港澳境内,不包括中国台湾省企业,而且仅限Fabless公司,拥有晶圆厂的IDM企业不在筛选范围之内。 入选企业需要有自主研发设计的芯片产品,并已量产、已商用或进入主流OEM厂商供应链,还要拥有拥有多项发明技术专利,并具有较强的芯片研发和应用设计能力。 处理器领域包括CPU、FPGA、多媒体SoC等类别,华为旗下的海思半导体高居第一,之后是上海兆芯、紫光国芯、海光信息、国科微,还有瑞芯微、全志科技等。 兆芯、海光都是基于x86架构的路线,而自主架构的龙芯没有上榜。 其中,海思未上市,兆芯去年刚启动IPO流程。 AI芯片领域,寒武纪名列第一,壁仞科技排第八。 存储器领域,兆芯创新拿下第一,君正第二,江波龙第四。 长江存储和长鑫存储因为都有自己的晶圆厂,所以不在统计范围内。 EDA领域,入选的都在具体业务上各有所长,不仅有模拟、数字工具,还有封装制造类工具等。华大九天毫无意外技压群雄。
李飞飞实验室2025 AI报告出炉:AI推理成本降低至1/280,中美AI模型差距更小了
中美AI模型差距正在缩小。 由李飞飞联合领导,斯坦福大学以人为本人工智能研究所(HAI)最新发布了2025 AI Index,用整整456页追踪了2024年全球AI行业的发展趋势,并得出了这样的结论。 至今,HAI已发布了8份(含本次)AI年度报告,不过今年的这份却尤为特殊。 这是我们迄今为止最全面的版本,人工智能对社会的影响从未如此明显。 虽然报告信息量爆炸,但手快的网友已经提前为大家划了重点: AI推理成本降低了280倍 开源模型正在迎头赶上 AI基准测试成绩飙升 …… 话不多说,下面我们详细展开报告中提到的一些重要结论。 中美AI模型差距正在缩小 从官网消息来看,鉴于报告内容较多,HAI直接为大家挑出了其中最重要的12个结论。 我们先来看与国内最相关的部分。 中美AI模型差距正在缩小 首先就是AI模型方面,中国模型虽然数量不及美国,但质量方面已迅速缩小差距。 报告显示,2024年美国机构一共开发了40个值得关注的AI模型,远高于中国开发的15个和欧洲的3个。 不过,中美模型之间的性能差异正在快速缩小。具体表现为,在MMLU和HumanEval等主要基准测试上,二者的性能差异由2023年的两位数缩小到2024年的接近相等。 同时,从中美模型过去一年在大模型竞技场中的表现也能看出这一追赶趋势: 当然,这一性能差距正在缩小的趋势也不局限于中美之间。 报告提到,排名第一和第十的模型之间的得分差距在一年内从11.9%降至5.4%,排名前两位的差距现在仅为 0.7%。 也就是说,顶尖模型之间的竞争越来越激烈。 顺带一提,国内在发表AI论文和推出AI专利方面继续保持领先地位。 中国是对AI最乐观的国家 其次是在对AI的态度方面,中国始终是全球主要国家和地区中最乐观的。 报告显示,2024年中国有83%的人认为AI产品和服务利大于弊,排在后面的是印度尼西亚(80%)和泰国(77%)。 相比之下,美国(39%)、加拿大(40%)等的乐观情绪远低于国内。 不过从整体趋势来看,自2022年以来,几个之前对AI持怀疑态度的国家乐观情绪增长显著,比如美国(+4%)、加拿大(+8%)、法国(+10%)等等。 除了以上两点,还有一些AI整体趋势变化也值得关注。 AI基准测试成绩飙升,表现逐渐接近人类 一个比较符合大家日常感受的结论是:AI模型在各大基准测试上的得分越来越高了。 报告显示,研究人员在2023年引入了一些如今大家已耳熟能详的基准——MMMU、GPQA和SWE-bench,以此测试更高级AI模型的能力极限。 然而仅仅一年之后,从测试得分来看,其性能呈现大幅提升趋势,分别在MMMU、GPQA和SWE-bench上提高了18.8、48.9和67.3个百分点。 从整体趋势来看,AI各大能力表现逐渐接近人类,甚至在某些场景下,智能体能在限时编程任务中超越人类。 推理成本下降了280倍,开源模型正在迎头赶上 另一个符合大家印象的趋势是:AI正变得更加高效、经济实惠和易于获取。 过去两年间,追求更具性价比的小模型逐渐成为一股潮流。 比如报告中提到的,在MMLU中得分超过60%的小模型: 数据显示,由越来越强大的小模型驱动,对于性能达到GPT-3.5水平的系统的推理成本,在2022年11月到2024年10月间下降了280倍。 遗憾的是,复杂推理仍然面临挑战。 截至目前,AI模型在国际数学奥林匹克竞赛问题等任务中表现出色,但仍无法很好应对PlanBench等复杂推理基准测试。 不过与此同时,开源模型也在缩小与闭源模型的差距。 报告中特意提到,在某些基准测试中,它们一年内的性能差异就从8%减少到仅1.7%。 另外在硬件层面,成本每年下降30%,而能效每年提高40%。 以上趋势共同降低了人们获取高级AI的门槛。 AI正在融入日常生活,企业投资增长强劲 正是由于AI获取门槛降低,我们的日常生活也逐渐被AI改写。 报告显示,从医疗保健到交通运输,AI正迅速从实验室走向日常生活。 比如2023年,美国FDA批准了223种AI医疗设备,而2015年仅为6种。 另外在自动驾驶方面,美国最大的运营商之一Waymo每周提供超过15万次自动驾驶出行,而百度的经济型“萝卜快跑” (Apollo Go)自动驾驶出租车车队现在已在中国多个城市提供服务。 整体而言,AI的应用落地正在加速。 2024年,有78%的组织报告自己正在使用AI,这比前一年增长了55%。 当然,以上服务也离不开企业对AI的大力投资。 报告显示,2024年美国对AI的投资为1091亿美元,这几乎是中国(93亿美元)的12倍和英国(45亿美元)的24倍。 其中生成式AI尤其强劲,吸引了全球私营投资339亿美元,这一数字比2023年增长了18.7%。 BTW,除了上述主要结论,报告还提到了: 各国政府正在加强对AI的监管和投资; 负责任的AI生态系统正在不断发展,但不均衡; 目前有2/3的国家提供或计划提供K-12计算机科学教育(数量是2019年的两倍),其中非洲和拉丁美洲的进步最大; 2024年近90%的知名AI模型来自工业界,高于前一年的60%。 — 完 —
“是我创造了第一个LLM”!Kaggle前首席科学家一句话引发AI学术圈考古行动
论如何在技术圈争论中一句话噎到对方: 哥们,是我创造了第一个大语言模型。 发言者Jeremy Howard为澳大利亚昆士兰大学名誉教授、曾任Kaggle创始总裁和首席科学家,现answer.ai与fast.ai创始人,。 事情的起因是有人质疑他最近的项目llms.txt在帮助大模型爬取互联网信息上并没太大作用,从而引发了这段争论,迅速引起众人围观。 闻讯而来的“赛博考古学家们”一番考据之后,发现第一个大语言模型这个说法还真有理有据: 2018年初,Jeremy Howard发表的论文ULMFiT,使用非监督预训练-微调范式达到当时NLP领域的SOTA。 甚至GPT-1的一作Alec Radford,在发表GPT-1时也公开承认过ULMFiT是灵感来源之一。 有人搬出综述论文,指出从“遗传学”视角看,ULMFiT是所有现代大模型“最后的共同祖先”。 还有好事者软件工程师Jonathon Belotti,专门写了一篇完整考据《谁才是第一个大语言模型》 大语言模型起源考据 首先来介绍一下ULMFiT这篇论文,入选ACL 2018: 提出有效迁移学习方法,可应用于NLP领域的任何任务,并介绍了微调语言模型的关键技术,在六个文本分类任务上的表现明显优于当时的SOTA方法,在大多数数据集上将错误率降低了18-24%。此外,仅使用100个带标签的示例,它的性能就与在100倍以上数据上从头开始训练的模型性能相当。 那么ULMFit算不算第一个大语言模型呢?Jonathon Belotti考据遵循这样的思路: 首先找一个大家都公认肯定算大语言模型的成果,GPT-1肯定符合这个标准。 再从GPT-1和后续GPT-2、GPT-3中提取一个模型成为成为大语言模型的标准: 首先要是一个语言模型,根据输入预测人类书面语言的组成部分,不一定是单词,而是token 核心方法是自监督训练,数据集是未标记的文本,与此前特定于任务的数据集有很大不同 模型的行为是预测下一个token 能适应新的任务:不需要架构修改,就有few-shot甚至one-shot能力 通用性:可以先进的性能执行各种文本任务,包括分类、问答、解析等 接下来分析GPT-1引用的几个重要模型:原版Transformer,CoVe,ELMo和ULMFiT。 Transformer虽然是现代主流大模型的架构基础,但原版只用于机器翻译任务,还不够通用。同时非Transformer架构如LSTM、Mamba甚至Diffusion也可被视作大型语言模型。 CoVE提出了语境化词向量,是迁移学习领域的一项重要创新,但它通过监督学习训练(英语翻译德语)创建向量,不符合自监督学习的条件。 ELMo使用了自监督预训练和监督微调范式,但在few-shot能力上还差点意思。 总之在作者Jonathon Belotti看来,CoVE和ELMo都还没达到大语言模型的门槛。 最后再来看ULMFiT,其名字代表在文本分类任务微调的通用语言模型(Universal Language Model Fine-tuning for Text Classification)。 它是一个在WikiText数据上自监督训练的LSTM模型,能够以低成本适应新任务,无需更改架构即可执行大量文本分类任务,且达到当时的SOTA性能。 与GPT-1相比,只差在微调不够方便,以及应用任务的广度。 GPT-1论文原文中,也指出“最接近我们工作的”就是ULMFiT与谷歌的半监督序列学习(Semi-supervised Sequence Learning)了。 GPT-1论文还声称,把LSTM换成Transformer后能拓展预训练模型的预测能力,比ULMFit任务适应性更高。 考据者Jonathon Belotti最后总结到: 成为第一重要么?我认为有一点重要。软件行业和学术界尊重其创始人,我们都是开源社区中构建开拓智域文化(homesteads the noosphere)的一部分。 而Jeremy Howard本人对此的后续回应是我们创造了第一个“通用语言模型”,但后续论文没有沿用,反而创造了“大型语言模型”这个新术语。 苹果工程师Nathan Lawrence认为,虽然今天大家对谁是第一个LLM可能存在争议,但最终大家都会把ULMFiT视为一个转折点。 当时即使我这样的怀疑论者,也快开始意识到大规模通用训练将成为NLP的未来。 也有人建议Jeremy Howard以后说ULMFit是第一个“通用预训练模型”。 “我发明了ChatGPT中的GP”,这句话说起来也很酷,一点也不夸张。 ULMFit https://arxiv.org/abs/1801.06146 GPT-1 https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf 参考链接: [1]https://x.com/jeremyphoward/status/1905763446840607164 [2]https://thundergolfer.com/blog/the-first-llm
清北天才扎堆的机器人赛道,杀出一个大专生
如今具身智能的行业明星王兴兴,曾是众擎机器人创始人赵同阳最想拉拢的合伙人。 业内流传着一段关于两人相识于微末的往事。2016年,准备投身机器人创业的赵同阳,在一个名为“阿莫”的电子技术论坛广发英雄帖招兵买马,硕士毕业的王兴兴跟了帖,两人一来二去聊得火热。 赵同阳有意拉王兴兴入伙,但因为技术方向不同——赵同阳执着于双足机器人,王兴兴则意在四足机器人,两人最终没能同行。 当初没能同行的两个人,如今却在精英云集的人形机器人赛道,共同上演着一场草根逆袭的故事。 赵同阳和王兴兴有着太多相同点,都在机器人赛道未成熟的2016年率先入局,都没有名校光环和大厂背景:赵同阳只有大专学历,上海大学研究生毕业的王兴兴曾被投资人评价为“背景屌丝”,一度因为学历自卑。 执着于技术路径更艰险的双足人形机器人,赵同阳先后两次因资金链断裂导致创业失败,不得不委身小鹏汽车;王兴兴同样因为融资不顺险些倒闭,自掏腰包给员工发工资,才勉强渡过难关。 直到2023年,人形机器人在经历过数年的低谷后,蹭着大模型东风,终于再一次站在了时代风口之上。 两人最终踏入同一条河流,在双足机器人赛道相遇。只是这一次,曾因学历被资本轻视的王兴兴,成了被VC争抢的对象;而赵同阳的众擎机器人也在短短一年半累计完成多轮融资,融资总额近4亿元。 近日,众擎机器人宣布完成新一轮 Pre-A 轮融资,融资总额近 2 亿元人民币,本轮融资由 Stone Venture 领投,商汤国香资本、弘晖基金、浔商创投、包河创投等一众老股东跟投。 赵同阳或许也未曾料到,这个当初拒绝与他同行的年轻人,会在七年后站上行业之巅。 蛇年春晚,宇树机器人一“扭”成名,在民营经济座谈会上,与任正非、马云、王传福、马化腾等大佬同台,更是让王兴兴成为全民皆知的年轻企业家。 十年前,两个人曾站在同一起跑线上,十年后,王兴兴成了赵同阳追赶的对象。 01 寒门开局,技术论坛结缘 与机器人赛道动辄名校光环、大厂背景和海归精英的创业者们相比,赵同阳和王兴兴都算得上是背景“草根”。 毕业于株洲师范学院的赵同阳只有大专学历,而王兴兴也并非传统意义上的学霸,因为偏科严重,高中三年,英语只及格了三次,19岁考入普通一本浙江理工大学,考研时又因为英语成绩欠佳被调剂到上海大学。 尽管起点不高,但对机器人的热爱,却使得他们早早踏入这条赛道。 赵同阳的机器人梦始于2012年,大学毕业的赵同阳遭遇了一场失去亲人的重大变故,萌发了做机器人探索永生的想法。 但受限于人形机器人的技术成熟度与自身资金,赵同阳决定“曲线救国”。赵同阳毕业后先创办了一家名为“安信可科技”的物联网公司,4年营收破亿,为圆梦机器人积累资金。 而此时尚在校园的王兴兴,也越来越靠近自己的机器人梦想。 大学时候就“手搓”出一台双足人形机器人的王兴兴,在研究生期间,研发出四足机器人XDog,所采取的电驱方案,则开创了低成本、高性能四足机器人技术方案的先河。“我想到这个方案的时候,觉得价值很大,就想要不要辍学创业。” 但创业需要考虑包括市场环境、资金支持、团队组建等诸多因素。直到临近毕业,XDog也没能为王兴兴成功吸引到投资,不过却让他顺利拿到大疆的offer。 在王兴兴在大疆“等风来”的时候,赵同阳转让掉物联网公司的股权,拿着这笔启动资金准备圆机器人的梦。 机缘巧合下,两人在一个名为“阿莫”的电子技术论坛相遇了。为招兵买马组建机器人团队,赵同阳在论坛上发英雄帖。当时刚硕士毕业的王兴兴跟了贴,两人一来二去聊得火热。 赵同阳有意拉他入伙,但王兴兴的兴趣在四足机器人,而赵同阳执着于双足机器人,最终两人各奔前程。 尽管路径各异,但也正是在2016年,两人双双踏入机器人赛道。 在大疆实习两个月后,王兴兴上传到优酷平台的XDog测试视频,被转载到海外网站之后爆火。在国内外媒体轮番报道之后,王兴兴在机器人圈中崭露头角,买家和投资人陆续出现。 2016年8月,拿到200万元的个人投资的王兴兴创办了宇树科技。王兴兴透露,这笔钱是一个北京的个人投的,“他主动找的我,给的条款很宽泛,打钱的时候都没签协议。” 同年,赵同阳也正式踏入机器人行业,创办深圳市终极进化科技有限公司。 领先市场半步或许是先驱,但领先一步就很可能变成先烈。 彼时,国内机器人公司尚处于起步阶段,两名草根创业者开始了黑暗中的艰难摸索。 不同于押注物联网的精准时机,赵同阳先后于2016年和2018年创办的两家机器人公司,都因为一上来就押注双足人形机器人的决策,导致研发投入过大,最终在技术路径与市场需求错位中耗尽资金。 同样为资金苦恼的还有王兴兴,学历的短板成了王兴兴融资的阻碍。不到两年时间,200万很快花光,王兴兴不得不自掏腰包给员工发工资。 不是没有投资人注意到王兴兴。2017年,初心资本管理合伙人田江川就曾接触过王兴兴。但在行业充满不确定性的早期,投资者面临极高的风险,创始人履历是投资人重要的筛选参照。 见完王兴兴后,田江川在内部纪要写下四个字:背景屌丝。 7年后宇树爆火,田江川写了一封公开信,复盘了为何错过宇树的更早期融资:“问题主要出在了我‘精英主义的傲慢’:兴兴毕业于上海大学,而我认为机器人行业需要顶尖学府背景。认定这样的背景不匹配行业需求和基金偏好——这无疑是巨大的误判。” 02 风口竞速,踏入同一条河流 转机发生在2018年,麻省理工开源四足机器人方案的发布,使得商业化落地一时变得触手可及。国内外的各式“机器狗”如雨后春笋般出现,华为、大疆等国内大厂也纷纷涉足这一产业,一时间“机器狗圈”热闹非凡,吸引了大量资本的关注。 吸取了此前创业失败的教训,2019年11月,赵同阳创办了第三家机器人公司 Dogotix(多够机器人),这次他不再执着于双足机器人,而是选择和王兴兴踏入同一条河流——四足机器人。 有了此前两家公司的技术积累,新公司成立仅一个月,赵同阳团队就研发出单价1.8万元、“售价不及波士顿动力机器狗十分之一”的第一代机器狗 Dogotix。 彼时,赵同阳的团队只有8个人,被媒体称为“中国最草根机器狗团队”。 “第一个‘思密达’客户居然是三星,我们会做出让全球兴奋的产品,但是居然穷得没官网……”2020年11月,赵同阳的一条朋友圈印证了这家公司的“穷困潦倒”。 不过也正是这款产品,让赵同阳进入了小鹏汽车创始人何小鹏的视线。 2020年秋天,小鹏P7刚发布没多久,何小鹏专门开着新车从广州到了深圳固戍,与时任小鹏汽车顾问的刘江峰等人拜访了赵同阳,并提出收购意向:“你现在只是小作坊,能赚点钱,但干不大。要不要考虑放弃小作坊、搞大事?” 一个月后,小鹏汽车完成了对多够机器人管理层的收购,何小鹏、小鹏汽车、赵同阳合资成立了鹏行智能,赵同阳担任总经理。 就在同年10月,春晚编导联系上王兴兴,邀请他带着四足机器人参加2021年央视牛年春晚。王兴兴开发的四足机器人化身机器牛“奔奔”登上央视春晚舞台,春晚后台,31岁的王兴兴接受了央视主持人王冰冰的采访。 如果说2018年的机器狗大火,让赵同阳和王兴兴在寒冬中看到了火光,那么2022年,人形机器人终于迎来了春天。 2022年10月,马斯克在特斯拉AI Day上,正式介绍了特斯拉首款人形机器人“擎天柱”。之后两个月不到,OpenAI发布了ChatGPT,为人形机器人的发展注入了新的活力,行业热情被彻底点燃。 背靠小鹏的赵同阳虽然不用再为钱和资源发愁,但也逐渐意识到,机器人与互联网、汽车并不是一套方法论。 在其主导研发的双足机器人PX5亮相2023年小鹏科技日后,赵同阳离开了小鹏,开启了机器人领域的第四次创业,成立了众擎机器人科技有限公司。 一年多的时间内,赵同阳接连推出了面向科研场景的 SA01、面向工业场景的SE01 以及轻量级的 PM01 三款人形机器人产品。 曾一度坚称不做双足的王兴兴也顺势而为做起了人形机器人,2022年底,王兴兴宣布宇树要做人形机器人,仅用了半年多的时间,王兴兴就让机器狗站了起来。 2023年8月,宇树科技迅速推出首款通用人形机器人H1,售价9万美元。2024年5月,宇树科技又推出了第二代人形机器人G1,以9.9万元的定价被行业称为“价格屠夫”,预售首日即斩获超三千台订单。 带着机器人把秧歌扭上春晚的王兴兴无疑是最幸运的一个。虽然涉足双足机器人的时间晚,但春晚和民营经济座谈会让王兴兴名声大噪,成为全民关注的对象。 赵同阳也顺利拿到融资。2024年7月,赵同阳带领众擎机器人获得了商汤国香资本、合肥滨湖金融投资集团的天使轮融资;8月份又获得了弘晖基金、浔商资本以及合肥滨湖金融投资集团的天使+轮融资,两轮融资额度累计近1亿元。 03 逆袭未竟,人才博弈定终局 无论是曾被贴上“背景屌丝”的王兴兴,还是“学渣”赵同阳,他们都靠着前期的坚持和摸索,各自上演了一出人生逆袭的故事。 “这个行业需要沉淀和积累,任何新技术新产品都不是突然出现的。”赵同阳自称是西游记里的唐僧,论技术,可能不是行业最顶尖的,但却擅长聚拢像“孙悟空、沙僧”这样的人才伙伴,懂得激发团队优势,将个人“长板”发挥到极致。“当众多长板拼在一起,就能筑起高高的壁垒”。 作为大专生的赵同阳,虽然凭借10年深耕完成了逆袭,但机器人说到底是资金和人才密集的赛道。即便是顶着“天才少年”名头的稚晖君,近日也挖来前谷歌学者罗剑岚出任智元机器人首席科学家,足见这场人才军备竞赛的激烈程度。 更遑论为弥补自身短板,一心广纳贤才的赵同阳。凭借对人才的重视,赵同阳打造了一支实力强劲的核心团队。 联合创始人李海雷曾任职于优必选北研所、鹏行智能、国家地方共建具身智能创新中心等单位;联合创始人徐喆科毕业于北京理工大学机械工程专业,师从高峻峣教授,并曾在美国卡内基梅隆大学进行联合培养,专注于双足机器人步态规划研究;联创兼市场营销负责人姚淇元曾担任优必选市场部经理。 但赵同阳依然求贤若渴。“在我们这里,薪酬没有上限,为的是把全球顶级的优秀人才吸引过来。只要有本事,我们没有年龄限制,也不设其他门槛。”3月16日,赵同阳在“百万英才汇南粤”的春季大型招聘会现场的一番发言,被媒体贴上“粤圈霸总”的标签。 显然,这场“草根”逆袭的故事还远没到终局。 在被称作人形机器人创业元年的2023年,众多高校教授纷纷下场创业,如逐际动力的张巍、加速进化的程昊;大厂也纷纷布局,成立相关分支;还有不少从优必选、腾讯等行业头部公司离职创业的精英,如谢铮、来杰等人,无一例外都不想错过这场人形机器人的创业浪潮。 放眼海内外,特斯拉、小米、华为、三星、谷歌、小鹏、科大讯飞等科技公司也纷纷入局,抢占市场份额。据高盛最新调研报告预测,到 2035 年,仿人机器人的市场规模将达到 1540 亿美元。 新老混战,硝烟四起,面对越来越激烈的市场竞争环境,如何从同质化的产品中脱颖而出,成为王兴兴和赵同阳共同面临的难题。 与上一代创业者侧重于模型驱动的运动操控以及机械架构搭建不同,新一轮创业者则将重心放在强化学习上,立志以AI技术重塑机器人产业。 但两位在人形机器人赛道摸爬滚打多年的“老炮儿”却不约而同地选择“先做头脑简单、四肢发达的事”。 在这场方兴未艾的人形机器人革命中,赵同阳和王兴兴凭借过往积累的经验与技术,已然占据先机。 未来,他们能否在智能化浪潮与激烈竞争中开辟出独属于自己的航道,时间自会给出答案。毕竟,在漫长的逐梦岁月里,他们早已深谙如何与时间同行。
全球首个人形机器人半马4月13日在亦庄举行,机器人在北京街头开启首次路测
IT之家 4月8日消息,据央视报道,全球首个人形机器人半程马拉松赛将于4月13日在北京亦庄举行。随着比赛临近,相应参赛机器人于3月28日晚在跑道上进行了首次路测。 ▲ 图源央视新闻(下同) 据悉,有6家机器人队伍参与本次路测,占到了所有参赛队伍的近四分之一,包含北京人形机器人创新中心的天工机器人、来自北京昌平的松延人形机器人等。 据央视网介绍,要完成21公里的半马,基本上每个机器人都要在途中进行几次换电操作。每支队伍都有自己的保障团队进行保障。 IT之家获悉,本次人形机器人半程马拉松赛赛事起点位于南海子公园一期南广场,终点位于通明湖国家信创园,采取机器人和运动员“同步报名、同一赛道、同时起跑”的原则。人形机器人将与运动员在起点同时鸣枪起跑,共跑同一路线,但拥有单独赛道,全程采用铁马隔离或绿化带隔离的方式保障人机安全。 根据研判,本次赛事将机器人的关门时间设置为3小时30分钟左右。在比赛过程中,机器人可更换电池,也可通过更换机器人以接力形式参加全程比赛。依据比赛过程中完赛时间、机器人更换次数进行综合评价,比赛过程中更换机器人每次罚时10分钟。 本次赛事设置了冠、亚、季军,奖金分别为5000元、4000元、3000元,还设置了完赛奖、最优耐力奖、最佳人气奖、最佳步态奖、最佳形态创意奖等系列奖项,同时还为人形机器人研发团队准备了奖励,以表达对创新研发团队辛勤付出的认可与鼓励。
谷歌AI模式新增多模态搜索,支持图像提问功能
IT之家 4月8日消息,谷歌正在为其谷歌搜索实验项目“AI模式”引入多模态搜索功能。AI模式允许用户提出复杂且包含多个部分的问题,并通过追问深入探索相关主题。如今,拥有AI模式访问权限的用户可以点击该功能,针对他们上传的照片或使用相机拍摄的照片提出问题。 IT之家注意到,谷歌在本周一的博客文章中表示,AI模式中的新图像分析功能由Google Lens的多模态能力提供支持。据谷歌介绍,AI模式能够理解图像中的整个场景,包括物体之间的相互关系,以及它们的材质、颜色、形状和排列方式。通过采用“query fan-out”技术,AI模式会针对图像本身以及图像中展示的物体提出多个问题,从而提供比传统谷歌搜索更详细的信息。 例如,用户可以拍摄自己书架的照片,并输入问题:“如果我喜爱这些书,有哪些类似且评价很高的书呢?”AI模式将识别每本书,并提供一份推荐书籍的列表,并带有链接,可供用户进一步了解或购买。 此外,AI模式还允许用户提出后续问题以缩小搜索范围,例如:“我在寻找一本快速阅读的书,这些推荐中哪一本最短?” 谷歌表示将向数百万参与实验室计划的用户开放AI模式,实验室是谷歌用于实验性功能和产品的平台。此前,AI模式仅对谷歌One AI高级订阅用户开放。 谷歌搜索AI模式于上个月推出,旨在与Perplexity和OpenAI的ChatGPT搜索等流行服务展开竞争。谷歌曾表示,计划持续优化该功能的用户体验并拓展其功能。
斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔
新智元报道 编辑:编辑部 【新智元导读】2025年斯坦福HAI报告重磅发布,456页深度剖析全球AI领域的最新趋势:中美顶级模型性能差距缩至0.3%,以DeepSeek为代表的模型强势崛起,逼近闭源巨头;推理成本暴降,小模型性能飙升,AI正变得更高效、更普惠。 就在刚刚,每年都备受瞩目的斯坦福AI指数报告,重磅发布了! 这份报告由斯坦福大学以人为本AI研究员发布,代表着每年AI领域最核心和前沿的动向总结。 今年,这份报告长达456页,抛出不少惊人观点。 比如,如今在2025年,中美顶级AI模型的性能差距已经缩小到了0.3%(2023年,这一数字还是20%),中国模型正在快速追赶美国的领先地位! 而DeepSeek领衔的开放权重模型,更是以1.7%之差,逼宫各大闭源巨头。前者和后者的差距,已经由2024年的8%,缩小至2025年的1.7%。 当然,目前从行业主导企业来看,美国仍然领先于中国。在2024年,90%的知名AI模型来自企业,美国以40个模型领先,中国有15个。 更明显的一个趋势,就是如今大模型的性能已经趋同!在2024年,TOP1和TOP10的模型的差距能有12%,但如今,它们的差距已经越来越小,锐减至5%。 十二大亮点 最新的斯坦福HAI两篇博文中,浓缩了2025年AI指数报告的十二大亮点。 1. AI性能再攀高峰,从基准测试到视频生成全面突破 2023年,研究人员推出了MMMU、GPQA和SWE-bench等新基准来测试先进AI系统的极限。 仅一年后,性能便大幅提升:AI在三项基准得分分别飙升18.8%、48.9%和67.3%。 不仅如此,AI在生成高质量视频方面取得重大突破,甚至,在某些场景下AI智能体甚至超越人类表现。 · 更有用智能体崛起 2024年发布的RE-Bench基准测试,为评估AI智能体复杂任务能力设立了严苛标准。 数据显示:在短期任务(2小时内)场景下,顶级AI系统的表现可达人类专家的4倍;但当任务时限延长至32小时,人类则以2:1的优势反超。 值得注意的是,AI已在特定领域,如编写特定类型代码,展现出与人类相当的专业水平,且执行效率更胜一筹。 2. 美国领跑顶尖模型研发,但中国与之差距逐渐缩小 2024年,美国产出40个重要AI模型,远超中国的15个和欧洲的3个。 然而,中国模型在性能上的差距正加速缩小:MMLU等基准测试中,中美AI差异从两位数缩小至近乎持平。 同时,中国在AI学术论文和专利申请量上持续领跑,中东、拉美和东南亚地区也涌现出具有竞争力的模型。 3. AI正变得高效且普惠,推理成本暴降280倍 随着小模型性能提升,达到GPT-3.5水平的推理成本在两年间下降280倍,硬件成本以每年30%的速度递减,能效年提升率达40%。 更令人振奋的是,开源模型性能突飞猛进,部分基准测试中与闭源模型的差距从8%缩至1.7%。 · 大模型使用成本持续走低,年降幅最高900倍 在MMLU基准测试中达到GPT-3.5水平(MMLU准确率64.8%)的AI模型调用成本,已从2022年11月的20美元/每百万token,骤降至2024年10月的0.07美元/每百万token(谷歌DeepMind的Gemini-1.5-Flash-8B模型),18个月内AI成本下降280倍。 视具体任务需求,LLM推理服务价格的年降幅可达9-900倍不等。 · 小模型性能显著提升,参数暴减142倍 2022年,在大规模多任务语言理解(MMLU)基准测试中,得分超60%的最小模型是 PaLM,参数量为5400亿。 到了2024年,微软Phi-3-mini仅用38亿参数,就取得了同样的实力。 这代表,两年多的时间里模型参数减少了142倍。 4. 科技巨头称霸AI前沿,但竞争白热化 2024年,近90%的重要模型源自企业,学术界则保持基础研究优势。 模型规模呈指数增长:训练算力每5个月翻番,数据集每8个月扩容一倍。 值得注意的是,头部模型性能差距显著缩小,榜首与第十名得分差已从11.9%降至5.4%。 5. AI逻辑短板,推理能力仍是瓶颈 采用符号推理方法的AI系统,能较好解决IMO问题(虽未达人类顶尖水平),但LLM在MMMU等复杂推理任务中表现欠佳,尤其不擅长算术推导和规划类强逻辑性任务。 这一局限影响了其在医疗诊断等高风险场景的应用可靠性。 6. 大厂ALL in AI,投资与采用率创双纪录 科技大厂们,正全力押注AI。 2024年,美国私营AI投资达1091亿美元,约为中国(93亿)的12倍、英国(45亿)的24倍。 生成式AI势头尤猛,全球私募投资达339亿美元(同比增18.7%)。 与此同时,企业AI采用率从55%升至78%。研究证实,AI不仅能提升生产力,多数情况下还可缩小劳动力技能差距。 更引人注目的是,将生成式AI应用于至少一项业务职能的企业数量激增——从2023年的33%跃升至去年的71%,增幅超一倍。 7. AI荣膺科学界最高荣誉,摘诺奖桂冠 2024年,两项诺贝尔奖分别授予深度学习理论基础(物理学)和蛋白质折叠预测(化学)研究,图灵奖则花落强化学习领域。 8. AI教育普及加速,但资源差距仍存 全球2/3国家已或计划开展K-12计算机科学教育,但非洲地区受限于电力等基础设施,推进缓慢。 美国81%的计算机教师认为AI应纳入基础课程,但仅47%具备相应教学能力。 9. AI正深度融入日常生活 从医疗到交通,AI正快速从实验室走向现实。 1995年,FDA批准了第一款AI赋能的医疗器械。 截至2024年8月,FDA已批准950款AI医疗设备——较2015年的6款和2023年的221款,增长迅猛。 而在自动驾驶领域,汽车已脱离实验阶段:美国头部运营商Waymo每周提供超15万次无人驾驶服务。 10. 全球AI乐观情绪上升,但地区差异显著 中国(83%)、印尼(80%)和泰国(77%)民众对AI持积极态度,而加拿大(40%)、美国(39%)等发达国家则相对保守。 值得关注的是,德国(+10%)、法国(+10%)等原怀疑论国家态度明显转变。 11. 负责任AI生态发展不均 虽然AI安全事件激增,但主流模型开发商仍缺乏标准化评估体系。 HELM Safety、AIR-Bench和FACTS等新基准为事实性与安全性评估提供工具。 企业普遍存在「认知与行动脱节」,而各国政府加速协作:2024年,经合组织、欧盟等国际机构相继发布聚焦透明度、可信度的治理框架。 · 问题AI数量跃升 根据权威AI危害追踪数据库「AI事件库」(AI Incidents Database)统计,2024年全球AI相关危害事件激增至233起,创下历史新高,较2023年暴涨56.4%。 其中既包括深度伪造私密图像案件,也涉及聊天机器人疑似导致青少年自杀等恶性事件。 尽管该统计未能涵盖全部案例,但已清晰揭示AI技术滥用正在呈现惊人增长态势。 12. 全球监管力度持续加强 2024年美国联邦机构颁布59项AI法规,涉及部门数量翻倍。 75个国家立法机构提及AI频次同比增长21.3%,较2016年增长九倍。 投资方面:加拿大承诺24亿美元,中国设立475亿美元半导体基金,法国投入1090亿欧元,印度拨款12.5亿美元,沙特启动千亿美元级的「超越计划」。 详细亮点解读 下面,我们将摘出报告中的亮点内容,提供更详细的解读。 中美差距仅剩0.3% 翻开502页的报告,最吸睛的部分,莫过于中美AI差异这部分了。 报告中强调,虽然2024年,美国在顶尖AI模型的研发上依然领先,但中美模型之间的性能差距,正在迅速缩小! 为了衡量AI领域过去一年演变的全球格局,HAI特意用AI指数,列出了具有代表性的模型所属国家,美国依然居首。 数据显示,在2024年,美国机构以拥有40个知名模型领先,远远超过中国的15个和欧洲的3个。 总体来说,模型发布总量已经下降,可能是多个因素共同导致的,比如训练规模日益庞大、AI技术日益复杂,开发新模型方法的难度也在增加。 AI模型已成为算力巨兽 · 参数趋势 简单的说,参数就是AI模型通过训练学到的一些数字,这些数字决定了模型如何理解输入和怎样输出。 AI的参数越多需要的训练数据也越多,但同时性能也更厉害。 从2010年代初开始,模型的参数量就蹭蹭往上涨,这背后是因为模型设计得越来越复杂、数据更容易获取、硬件算力也更强了。 更重要的是,大模型确实效果好。 下图用了对数刻度,方便大家看清楚AI模型参数和算力近年来的爆炸式增长。 随着模型参数数量的增加,训练所需的数据量也在暴涨。 2017年发布的Transformer模型,掀起了大型语言模型的热潮,当时它用了大约20亿个token来训练。 到了2020年,GPT-3 175B模型的训练数据已经飙到了约3740亿个token。 而Meta在2024年夏天发布的模型Llama 3.3,更是用了大约15万亿个token来训练。 根据Epoch AI的数据,大型语言模型的训练数据集规模大约每八个月翻一倍。 训练数据集越来越大,导致的训练时间也变得越来越长。 像Llama 3.1-405B这样的模型,训练大概需要90天,这在如今已经算是「正常」的了。 谷歌在2023年底发布的Gemini 1.0 Ultra,训练时间大约是100天。 相比之下,2012年的AlexNet就显得快多了,训练只花了五六天,而且AlexNet当时用的硬件还远没有现在的先进。 · 算力趋势 「算力」指的是训练和运行AI模型所需的计算资源。 最近,知名AI模型的算力消耗呈指数级增长。据Epoch AI估计,知名AI模型的训练算力大约每五个月翻一番。 这种趋势在过去五年尤为明显。 去年12月,DeepSeek V3一经推出就引发了广泛关注,主要就是因为它在性能上极其出色,但用的计算资源却比许多顶尖大型语言模型少得多。 下图1.3.17比较了中国和美国知名AI模型的训练算力,揭示了一个重要趋势:美国的顶级AI模型通常比中国模型需要多得多的计算资源。 · 推理成本 推理成本,指的是对一个已训练模型进行查询所需的费用,通常以「每百万tokens的美元价格」来衡量。 这份报告中AI token的价格数据,来源于Artificial Analysis和Epoch AI的API定价专有数据库,而价格是根据输入与输出token的价格按3:1的权重平均计算得出的。 可以看出,单位性能的AI成本正在显著下降。 而Epoch AI估计,根据不同任务类型,大型语言模型的推理成本每年下降幅度可达9倍至900倍不等。 虽然如此,想要获得来自OpenAI、Meta和Anthropic的模型,仍需支付不小的溢价。 · 训练成本 虽然很少有AI公司披露具体的训练成本,但这个数字普遍已达到数百位美元。 OpenAI CEO奥特曼曾表示,训练GPT-4的训练成本超过了1亿美元。 Anthropic的CEO Dario Amodei指出,目前正在训练的模型,成本约为10亿美元。 DeepSeek-V3的600万美元,则打破了新低。 图1.3.24展示了基于云计算租赁价格的部分AI模型的训练成本估算。 图1.3.25展示了AI指数所估算的所有AI模型的训练成本。 在2024年,Epoch能估算的少数模型之一,就是Llama 3.1-405B,训练成本约为1.7亿美元。 另外,AI模型的训练成本与其计算需求之间存在直接的关联。如图1.3.26所示,计算需求更大的模型训练成本显著更高。
斯坦福456页AI报告划重点:中美AI竞争格局变了
编译 | 陈骏达 程茜 编辑 | Panken 智东西4月8日报道,今天,斯坦福大学以人为本AI研究院(HAI)发布长达456页的《AI指数报告2025》,全面介绍了中美AI竞争态势、开源模型、模型技术性能、大模型投融资、AI for Science等领域的最新数据和进展,其中DeepSeek被提及45次。 《AI指数报告2025》中写道:“美国在顶尖AI模型产出上仍保持领先——但中国正快速缩小性能差距。” 报告以DeepSeek-V3为典型代表,论证了大模型推理、训练成本的骤降;来自清华大学、北京智源研究院的数十篇科研成果被纳入全球Top100;来自阿里、字节、DeepSeek、腾讯、智谱等企业的15款模型被选为过去一年中的重要AI模型。 整体而言,中国大陆的AI研究论文在全球总发表量中占比23.2%,被引量占全球总量的22.6%。不过,美国在研究成果在影响力上更胜一筹,且依旧是重要AI模型的主要来源地。2024年,美国机构开发了40个重要AI模型,远超中国大陆的15个和欧洲的3个。过去十年美国开发的机器学习模型数量居全球之首。 算力作为驱动AI发展的重要因素,也在迅速变化。以16位浮点运算为基准,2008-2024年间机器学习硬件性能年均增长约43%(每1.9年翻番),固定性能水平的硬件成本正以每年30%的幅度下降。 AI正对经济产生深刻影响。在麦肯锡的调研中,已有至多49%的企业称AI为企业实现了降本,其中,中国大陆企业在AI采用率上提升迅速,已达75%,与北美地区差距缩小到7%。 2024年,全球AI投资达到2523亿美元,其中私人投资增长44.5%,生成式AI领域的投资达到339亿美元,2024年美国AI投资额达到1091亿美元,几乎是中国大陆投资额93亿美元(折合人民币约682亿元)的12倍。 我们还首次见证了AI研究获得2项诺贝尔奖,并在生物医药领域展现出巨大的应用潜力。 一、产业界主导大模型开发,中国AI专利量全球领先 全球AI领域呈现出多维度的快速发展态势。AI已成为计算机科学中的主要研究领域,产业界在AI大模型开发中扮演着关键角色,学界则在高被引论文上表现突出。过去1年,重要AI模型的数量虽有所减少,但产业界开发的模型占比显著上升。 硬件成本的持续下降为AI的发展提供了有力的支持。同时,AI学术会议参会人数的增长也反映出学界、业界对AI研究的热情高涨,整个行业正处于蓬勃发展的关键时期。 1、中美AI科研影响力持续提升 总体来看,AI研究论文的总量持续增长,并已主导计算机科学领域。2013-2023年间,AI研究论文的数量从10.2万篇增至24.2万篇,在计算机科学论文中的占比从21.6%升至41.8%。学术界贡献了更多的高被引研究。 从地区来看,中国大陆AI论文发表总量领先,2023年,中国大陆机构的AI论文在全球总发表量中占比23.2%,被引量占22.6%。 美国则发表了更多高影响力研究。2021年-2023年,美国分别贡献了AI领域Top100高被引论文中的64篇、59篇与50篇,中国大陆分别贡献了33篇、34篇与34篇。 按机构来看,在2021年-2023年的Top100高被引论文中,谷歌、清华大学、卡耐基梅隆大学、微软、北京智源人工智能研究院、香港科技大学、上海人工智能实验室、中国科学院、Meta、英伟达的表现较为抢眼。 2、重要AI模型(Notable AI models)由产业界主导 AI指数数据提供商Epoch AI根据是否为最新技术进步、是否具有历史意义或引用率等标准,定义了一个囊括900余个重要AI模型的数据库。 过去数年来,重要AI模型的参数规模、数据集大小、训练时长等数据都呈现增长态势。产业界正持续加大AI投入,并主导了重要模型的开发工作,2024年,由产业界开发的重要模型占比达90%(2023年为60%)。 重要AI大模型的数量出现了明显减少,由2023年的105个减少至2024年的61个。同时,有越来越多的大模型选择了API、托管获取权限等非开源方式进行发布。 美国仍是重要AI模型的主要来源地。2024年,美国机构开发了40个重要AI模型,远超中国大陆的15个和欧洲的3个。过去十年美国开发的机器学习模型数量居全球之首。 2024年,几乎所有重要AI模型都来自产业界,其中谷歌和OpenAI凭借7款重要模型位列榜首,阿里凭借6款模型位居第三。字节、DeepSeek、腾讯、智谱AI分别凭借2款模型上榜。 回顾2014年-2024年的数据,谷歌贡献了最多的重要AI模型,其次是Meta、微软、OpenAI等企业。多所美国计算机强校登上这一榜单,清华大学和阿里分别贡献了22个与14个重要AI模型。 美国顶级AI模型的算力需求普遍远超中国大陆模型。根据Epoch AI数据,自2021年底以来,中国大陆训练算力排名前十的语言模型年均增长约3倍,显著低于2018年以来全球其他地区年均5倍的增速。 3、开源AI项目数量陡增 自2011年以来,代码托管平台GitHub上的开源AI项目数量持续增长,从2011年的1549个激增至2024年的约430万个。特别值得注意的是,仅过去一年内,GitHub AI项目总量就实现了40.3%的陡增。 截至2024年,美国贡献GitHub中23.4%的AI项目,占据最大份额;印度以19.9%的占比位居第二;欧洲紧随其后,贡献了19.5%的项目。美国开发者和中国大陆开发者在GitHub开源AI项目中的占比都出现不同比例的下降。 4、硬件成本每年下降30% 报告强调,硬件进步是推动人工智能发展的核心驱动力。尽管模型规模扩大和海量数据训练带来了显著性能提升,但这些突破本质上都依赖于硬件技术的革新——尤其是更强大、更高效的图形处理器(GPU)的发展。 根据Epoch AI测算,以16位浮点运算为基准,2008-2024年间机器学习硬件性能年均增长约43%(每1.9年翻番)。这一进步主要源于晶体管数量持续增加、半导体制造工艺革新和专用AI计算硬件的演进。 固定性能水平的硬件成本正以每年30%的幅度下降。以2022年3月发布的H100为例,其每美元可实现220亿次浮点运算,性价比较2020年6月发布的A100提升1.7倍,较2016年4月的P100更是提升16.9倍。 5、中国大陆AI专利授权量领先 过去10余年,AI专利申请量激增。2010-2023年AI专利从3833件增至122511件,年增幅29.6%。中国大陆以69.7%的授权量领先,韩国和卢森堡人均专利产出最高。 6、AI学术会议参会人数增长 自2014年以来,全球主要AI学术会议的参会人数增加了6万多人,AI研究热情不断增长。数据显示,NeurIPS仍然是参会人数最多的AI学术会议,2024年吸引了近2万名参与者。在主要的AI学术会议中,NeurIPS、CVPR、ICML、ICRA、ICLR、IROS和AAAI在过去一年中参会人数都有所增加。 二、开源模型迎头赶上,中美大模型质量差距缩小到0.3% 2024年,AI模型的性能实现诸多突破。AI在多项基准测试中表现优异,超越人类或与人类差距迅速缩小,并攻克了2023年新提出的多项基准测试。 开源模型在2024年迎头赶上,顶尖开源模型与顶尖闭源模型的差距大幅缩小,前沿AI模型的性能分布趋于收敛,小模型的能力也在不断增强。此外,AI Agent等新技术展现出初步潜力。 1、2024年AI领域重要发布 以下是报告中列举的2024年最具代表性的模型、数据集和功能发布,由业内专家组成的AI指数指导委员会选出。来自阿里的Qwen2、Qwen2.5和来自DeepSeek的DeepSeek-V3上榜,Cohere、北京智源人工智能研究院等发布的提示词数据集也被认为具有重要意义。 2、AI在多项基准测试中领先人类 截至2024年,人类能力超过AI的任务类型已经非常少,即使在这些任务上,AI与人类之间的表现差距也在迅速缩小。 例如,在MATH(竞赛级别数学的基准测试)上,最先进的AI系统现在已经领先人类表现7.9%,而2024年时这一差距仅为0.3%。同样,在MMMU(复杂、多学科、专家级问题的基准测试)上,2024年表现最佳的模型o1得分为78.2%,仅比人类基准的82.6%低4.4%。 2023年,AI研究人员引入了几项具有挑战性的新基准测试,包括MMMU、GPQA和SWE-bench,旨在测试日益AI模型的极限。 到2024年,AI模型在这些基准测试中的表现取得了显著进步,分别在MMMU和GPQA上实现了18.8%和48.9%的提升。在SWE-bench上,AI模型在2023年只能解决4.4%的编程问题,而这一比例在2024年跃升至71.7%。 4、开放权重模型迎头赶上 去年的AI指数报告揭示,领先的开放权重模型远远落后于其封闭权重的同类产品。到2024年,这一差距几乎消失。 2024年1月初,领先的封闭权重模型在聊天机器人竞技场排行榜上比顶级开放权重模型高出8.0%。到2025年2月,这一差距缩小至1.7%。 5、中美模型差距缩小 2023年,领先的美国模型显著优于其中国大陆同类产品——这种优势已不复存在。2023年底,在MMLU、MMMU、MATH和HumanEval等基准测试中,性能差距分别为17.5%、13.5%、24.3%和31.6%。到2024年底,这些差距大幅缩小至0.3%、8.1%、1.6%和3.7%。在大模型竞技场上,中美大模型的差距缩小至30分以内。 6、AI模型性能在前沿领域趋于收敛 根据去年的AI指数报告,聊天机器人竞技场排行榜上前十名模型与排名第一的模型之间的Elo评分差距为11.9%。到2025年初,这一差距缩小至5.4%。同样,排名前两名的模型之间的差距从2023年的4.9%缩小到2024年的0.7%。人工智能领域的竞争日益激烈,越来越多的开发者提供了高质量的模型。 7、小模型能力日益增长 2022年,在MMLU上得分超过60%的最小AI模型是PaLM,拥有5400亿个参数。到2024年,微软的Phi-3-mini仅拥有38亿个参数,就达到了相同的阈值,后者的参数量仅为前者的0.7%。 8、AI Agent展现出初步潜力 2024年推出的RE-Bench可用于评估AI Agent在复杂任务上的能力,测试标准较为严格。 在短时间(2小时)内,顶级AI系统的得分是人类专家的4倍,但随着时间的增加,人类的表现超过了AI。 例如,在32小时的时间范畴上,人类的得分是AI的2倍。AI Agent已经在某些特定任务(如编写Triton内核)上与人类专家相匹配,同时能够更快地交付结果且成本更低。 三、全球投资热蔓延,中国大陆工业机器人部署全球第一 2024年,AI领域的投资和应用迎来诸多变化,但存在明显区域差异。全球企业AI投资创下历史新高,美国投资规模一骑绝尘,北美地区AI采用率领先全球,但中国的采用铝也迅速提升。 AI正给企业带来一定的经济效益,尽管大多数受访者的成本节省不到10%,但这一趋势仍具有重要意义。 1、全球AI投资创历史新高 2024年企业AI投资达到2523亿美元,其中私人投资增长44.5%,这是自2021年以来首次同比增长。 2024年生成式AI领域的投资达到339亿美元,比2023年增长18.7%,是2022年水平的8.5倍以上。该领域如今占所有AI相关私人投资的20%以上。 2、美国在全球AI投资中的领先优势扩大 2024年美国AI投资额达到1091亿美元,几乎是中国大陆投资额93亿美元(折合人民币约682亿元)的12倍。在生成式AI领域,美国的投资超过了中国大陆、欧盟和英国的254亿美元(折合人民币约1864亿元)总和。 3、AI采用率水平前所未有 2024年,该报告提到,其关于使用AI的调查受访者比例从2023年的55%跃升至78%。同样,受访者在至少一项业务职能中使用生成式AI的数量翻了一倍多,从2023年的33%升至去年的71%。 4、AI开始降本增效 49%的受访者称使用AI进行服务运营为其节省了成本,其次是43%受访者将AI用于供应链管理和41%受访者用于软件工程,此外大多数受访者的成本节省不到10%。 5、中国AI采用率迎头赶上 按地区来看,AI的采用率出现明显变化,中国迎头赶上。尽管北美的组织和企业在AI采用率方面仍保持领先地位,但中国具有最显著的年度增长率,组织使用AI的比例增加了27%。欧洲紧随其后,增加了23%。 6、中国大陆在工业机器人领域的主导地位延续 中国大陆安装工业机器人的数量超过世界其他国家的总和。2023年中国大陆安装了276300台工业机器人,是日本的6倍、美国的7.3倍。自2013年超过日本以来,中国大陆在全球安装量中的占比已从20.8%上升到51.1%。 四、更精准蛋白质测序模型亮相,AI临床表现优于医生 2024年,AI在生物医学领域取得了重大突破,推动了科学研究和临床应用的快速发展。模型的规模、准确性不断提升,应用领域从实验室扩展到临床。AI研究更是在2024年斩获两项诺贝尔奖,获得学界认可。 1、更大、更好的蛋白质测序模型出现 2024年出现了包括SM3、AlphaFold 3等在内的几种大规模、高性能蛋白质测序模型。随着时间推移,这些模型规模显著增大,蛋白质预测准确率不断提升。 其中ESM3集成了多模态输入(序列、结构和交互数据),再加上其参数规模更大,提高了模型预测的代表性和准确性。随着ESM系列规模的扩大,蛋白质预测性能也得到了提高,2o04年发布的较新的模型ESM C在结构预测关键评估(CASP15)挑战中对蛋白质结构的预测准确性更高。 2、AI在科学进步中的作用不断扩大 2022年、2023年是AI驱动科技进步突破的早期阶段,但2024年AI应用在学术研究中获得了显著的关注,包括为生物任务训练Agent的Aviary和显著增强野火预测的FireSat。 3、AI临床应用增加 MedQA基准测试中,OpenAI o1得分达到96.0%的最高水平,比2023年的最高分数高出5.8个百分点,相比2022年底成绩提高了28.4个百分点。MedQA是评估临床知识的关键基准。 4、AI在关键临床任务上的表现优于医生 一项新研究发现,GPT-4本身在诊断复杂临床病例方面的表现优于医生。其他近期研究表明,AI在癌症检测和识别高死亡风险患者方面超越了医生。 5、合成数据在医学领域显示出巨大前景 2024年发布的研究表明,AI生成的合成数据可以帮助模型更好地识别健康的社会决定因素,增强隐私保护的临床风险预测,并促进新药物化合物的发现。 6、基础模型进入医学领域 2024年,一波大规模医学基础模型发布,从Med-Gemini等通用多模态模型到用于超声心脏病学的 EchoCLIP和用于放射学的ChexAgent等专用模型。 7、AI研究获得两项诺贝尔奖 谷歌DeepMind的Demis Hassabis和John Jumper因其使用AlphaFold在蛋白质折叠方面的开创性工作而获得诺贝尔化学奖。约翰·霍普菲尔德和杰弗里·辛顿因其对神经网络的奠基性贡献而获得诺贝尔物理学奖。 五、30%国家将计算机科学教育列为必修课 2024年,全球约有2/3的国家提供或计划提供计算机科学教育,30%的国家将计算机科学教育列为小学和/或中学的必修课程,其中欧洲是此类国家最多的地区。 2023年美国获得AI硕士学位的学生数量急剧增加,毕业生数量翻番。 2023年AI专业毕业生人数最多的美国高等院校中,卡内基梅隆大学数量最多。 结语:中国大陆民众整体对AI持乐观态度 AI正以前所未有的速度渗透到千行百业之中,调查显示,全球约2/3的人认为,AI驱动的产品和服务将在未来三到五年内显著改变日常生活。全球60%的受访者认为AI将在五年内改变工作方式,但仅36%担心其岗位会被取代。 绝大多数中国大陆民众(83%)认为,AI技术利大于弊,而在加拿大(40%)、美国(39%)和荷兰(36%),持此观点者仍占少数,但比例有所上升。
曝阿里前高管已入职英伟达,原公司的主要业务是出租英伟达GPU服务器
作者 | 程茜 编辑 | Panken 芯东西4月8日报道,据The Information援引知情人士称,英伟达已经完成了对AI大牛、阿里前副总裁贾扬清创企Lepton AI的收购,这笔交易价值数亿美元。 目前,Lepton大约有20名员工。知情人士透露,Lepton的联合创始人贾扬清和白俊杰都已加入英伟达。 Lepton成立于2023年,是贾扬清在离开阿里之后创办的AI Infra公司,主要业务是出租英伟达GPU服务器,开发软件帮助创企在云中构建和管理自己的应用。该公司于2023年5月完成了1100万美元(折合人民币约7900万元)天使轮融资。 此举或许是英伟达试图进军云和企业软件市场的新动向。英伟达本身也向云客户出租自己的GPU,但相比微软、谷歌等主要云服务商,英伟达这部分业务体量很小。而AWS、谷歌云等作为英伟达的最大客户,目前正试图以低价开发和出租替代芯片来削弱英伟达。 英伟达发言人拒绝置评,贾扬清没有回复寻求置评的电子邮件。 一、主要角色是“GPU经销商”,AI推理延迟低于10毫秒 Lepton的命名来自于一种基本的物质粒子轻子,主要业务是出租英伟达GPU服务器,被称为GPU经销商。该公司自己不管理数据中心或服务器,而是从云供应商处租用后再转租给其他客户。 该公司的云平台可以简化AI训练和模型部署,其针对推理任务进行了优化,每秒能够以低延迟处理超过600个token,延迟低于10毫秒。 Lepton的直接竞争对手是创企Together AI等,这些公司会开发软件以帮助其他创企在云中构建和管理自己的AI应用。据投资者人透露,Together的年化收入已经超过1.5亿美元,每月达到1250万美元。不过与Together相比,Lepton的规模较小,可能不会产生太多收入。 Lepton在博客中曾透露,其客户包括游戏初创公司Latitude.io和科学研究初创公司SciSpace,它使用Lepton的平台为每月数十万活跃用户使用的服务运行AI模型。 Lepton的联合创始人是贾扬清、白俊杰、李响,其中贾扬清与白俊杰被曝已加入英伟达。 贾扬清毕业于清华大学,而后取得加州大学伯克利分校计算机科学博士学位。在2013年读博期间,贾扬清开发了深度学习框架Caffe,成为全球最受欢迎的开源深度学习框架之一。凭借出色成果,贾扬清毕业后进入谷歌大脑实习,参与了TensorFlow框架的开发。 2016年2月,贾扬清加盟Facebook担任研究员,而后担任AI架构总监,负责前沿AI平台开发及人工智能研究。2019年3月,贾扬清担任阿里巴巴技术副总裁,之后在阿里云担任智能计算平台事业部总裁,主要负责大数据计算和人工智能平台。2023年3月,贾扬清离开阿里云创立Lepton。 另一位联创白俊杰与贾扬清相似的是,都曾在Meta、阿里云任职。贾扬清曾和白俊杰在Meta担任AI研究员,共同开发了PyTorch框架。 在阿里云,白俊杰曾任阿里云前AI平台总监,领导过全栈AI工程团队,他是开放式神经网络交换标准ONNX的共同创始人以及Caffe2的核心开发者。 第三位联创李响同样是阿里云智能资深技术专家,曾负责阿里巴巴大规模集群调度与管理系统。他是Kubernetes生态中底层核心数据库etcd的创始人。 二、英伟达云业务发展受挫,连番收购4家AI创企巩固竞争优势 英伟达收购Lepton的意向,或许与其云和软件业务发展有关。 英伟达的云和软件业务处于起步阶段,其目前的主要业务包括将由英伟达GPU提供支持的服务器直接出租给企业、提供软件帮助公司开发AI模型和应用程序,提供管理训练AI的图形处理单元集群。 虽然其在GPU市场处于领先地位,但它面临着来自其他科技巨头的竞争,这些巨头也在构建强大的AI基础设施平台。如谷歌云、微软、AWS都在AI和云计算方面进行了大量投资。 因此,英伟达面临的挑战是如何在云巨头进一步扩展自己能力的同时,保持自身的竞争优势。 近日,英伟达被曝收购了多家创企以巩固其在数据中心、合成数据和AI基础设施管理方面的地位。包括以色列GPU创企Run:ai、以色列AI创企Deci、西雅图AI创企OctoAI,这些创企的业务均为降低开发或运行由英伟达芯片提供支持的AI模型的成本,以及美国合成数据公司Gretel,该公司帮助客户创建和使用AI生成的数据来开发和测试AI应用程序。 通过收购Lepton AI,英伟达使得客户可以按需租用GPU资源来扩展其AI工作负载。 英伟达此前曾告诉投资人,从长远来看,英伟达将从云服务和软件业务中获得1500亿美元的收入,比英伟达、AWS目前的年收入还要多。不过,在上个月最后一次英伟达的季度财报电话会议上,其发言人完全回避了这个话题。 三个月前,英伟达披露其软件、服务和支持收入的年化收入为15亿美元(折合人民币约109亿元),这意味着每月收入为1.25亿美元(折合人民币约9亿元),但该公司此前预计,这一数字能攀升至20亿美元(折合人民币约145亿元)。相比之下,英伟达的AI芯片业务在截至1月26日的财季创造了356亿美元(折合人民币约2586亿元)的收入。 过去几年,云服务厂商已经购买了英伟达大约一半的AI服务器芯片。但英伟达CEO黄仁勋认为,随着时间的推移,他预计其他类型企业购买芯片的销售额将远大于云服务厂商的销售额。 结语:英伟达加码云服务布局 不过,将Lepton AI的云平台与英伟达的现有基础设施合并可能具有挑战性,该集成必须确保英伟达的GPU和Lepton的云服务之间实现无缝协作。 此前,英伟达的芯片此前因价格昂贵、需求量大让诸多企业苦不堪言,这导致很多企业难以用较低的价值开发AI应用程序。而随着AI的不断发展,英伟达将GPU与基于云的解决方案集成的战略对于保持其竞争优势可能有更多助力。
5000亿美元豪赌遇阻?甲骨文数据中心延期或引发OpenAI合作危机
OpenAI CEO奥特曼以及甲骨文董事长埃里森 凤凰网科技讯 4月8日,The information报道,甲骨文正在得克萨斯州阿比林市为OpenAI建造一座数据中心,其规模相当于17个足球场大小。目前,这座数据中心尚未完工,非常“空旷”。 据两位参与该项目的人士透露,如果这种未完工的状态持续太久,OpenAI可能会终止合作协议,这可能会让甲骨文损失数十亿美元。 尽管如果甲骨文及其施工合作伙伴不能尽快完成项目,OpenAI也不太可能退出,但压力正与日俱增。 据两位相关人士透露,在最近的会议上,像负责甲骨文数据中心业务的马欣德・蒂亚加拉扬这样的甲骨文高管,已经对那些建筑承包商们大声斥责。此次赶工涉及到能源输送系统,目标是在今年春天晚些时候让该设施能够准备好安装配备AI芯片的新服务器机架。 这些人士表示,蒂亚加拉扬传达的信息是:承包商们必须不惜一切代价遵守工期安排,即使这意味着要增加更多工人,并且花费超出原计划的资金。 这一意外状况表明,当像OpenAI这样的客户,要求建设越来越大的设施来开发人工智能时,甲骨文等云服务提供商实际上是在涉足一个陌生的领域。甲骨文和其他人工智能数据中心开发商在这样做的过程中承担着前所未有的风险,并且在此过程中消耗着他们的现金流。 长期以来,甲骨文一直以数据库软件领域的先驱而闻名,如今它几乎是偶然地闯入了人工智能数据中心热潮的中心。甲骨文董事长拉里・埃里森现在正将公司的未来押注在向大型人工智能开发者出租被称为超级计算机的专业服务器集群上。 阿比林数据中心的拖延可能会危及甲骨文参与星际之门项目。星际之门是甲骨文与OpenAI及其他公司的合资项目,计划在未来几年内建设价值高达5000亿美元、令人瞠目结舌的人工智能数据中心。 埃里森在上个月的财报电话会议上表示,他预计甲骨文将“很快”签署首份大型星际之门合同。 尽管如此,几位参与OpenAI和软银谈判的人士表示,除了建设阿比林的数据中心之外,甲骨文可能不会在星际之门中发挥太大作用。这些人士称,OpenAI也在与甲骨文的竞争对手分别进行潜在的星际之门合作谈判。 蒂亚加拉扬曾私下表示,特朗普上周决定在全球范围内征收关税,这可能会使甲骨文用于新设施的服务器和其他材料变得昂贵得多。 自2022年末ChatGPT推出以来,甲骨文的股价上涨了77%,在上周关税政策出台后,涨幅收窄至54%,投资者预期甲骨文能够赢得越来越大的人工智能相关合同。(作者/陈俊熹) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
斯坦福最新AI研究报告出炉 中美模型质量差距缩小至0.3%
凤凰网科技讯 4月8日,nature发文,斯坦福大学以人为本人工智能研究所发布的《2025年人工智能指数报告》显示,人工智能领域的竞争日益激烈:中国高性能AI模型的数量和质量不断提升,对美国的领先地位构成挑战,顶级模型之间的性能差距正在缩小。 美国此前在模型质量方面的领先优势已经消失。中国是人工智能出版物和专利产出最多的国家,如今其开发的模型在性能上已经与美国的竞争对手不相上下。2023年,在大规模多任务语言理解测试(MMLU)中,中国领先的模型落后于美国顶级模型近20个百分点。然而,到2024年底,美国的领先优势缩小到了0.3个百分点。 世界各顶级AI模型之间性能已无太大差距 该报告强调,随着人工智能的快速持续发展,没有一家公司能够脱颖而出。在聊天机器人竞技场排行榜上,2024年初排名第一的模型比排名第十的模型得分高出约12%,但到2025年初,这一差距缩小到了5%。报告称:“前沿领域的竞争越来越激烈,也越来越拥挤。” 该指数显示,通过使用更多决策变量、更强的计算能力和更大的训练数据集,生成式人工智能模型平均而言仍在变得更“大”。但开发人员也在证明,更小、更精简的模型也能有出色的表现。由于算法的改进,如今的模型性能与两年前规模大100倍的模型性能齐平。该指数称:“2024年是小型人工智能模型的突破之年。” 纽约伊萨卡康奈尔大学的计算机科学家巴特・塞尔曼表示,很高兴看到像中国的DeepSeek这样相对小型、低成本的研究成果证明了自己的竞争力。他说:“我预计我们会看到一些由五人甚至两人组成的独立团队,他们会提出一些新的算法想法,从而改变现状。这很好。我们不希望世界只由一些大公司掌控。” 报告显示,如今绝大多数强大的人工智能模型是由工业界而非学术界开发的:这与21世纪初神经网络和生成式人工智能尚未兴起情况正好相反。报告称,2006年之前,工业界开发的著名人工智能模型不到20%,2023年这一比例为60%,2024年则接近90%。 美国仍然是强大模型的最大生产国,2024年发布了40个模型,中国发布了15个,欧洲发布了3个。但许多其他地区也在加入这场竞赛,包括中东、拉丁美洲和东南亚。 塞尔曼说:“2015年左右,中国走上了成为人工智能领域顶尖参与者的道路,他们通过教育投资实现了这一目标。我们看到这开始有了回报。” AI领域还出现了“开放权重”模型在数量和性能上的惊人增长,如DeepSeek和Meta的LLaMa。用户可以自由查看这些模型在训练过程中学习到的并用于预测的参数,不过其他细节,如训练代码,可能仍保密。最初,不公开这些因素的封闭系统明显更优越,但到2024年初,这些类别中顶级竞争者之间的性能差距缩小到了8%,到2025年初则缩小到了1.7%。 加利福尼亚州门洛帕克的非营利性研究机构SRI的计算机科学家、该报告的联合主任雷・佩罗特说:“这对任何无力从头构建模型的人来说肯定是好事,包括许多小公司和学者。”OpenAI计划在未来几个月内发布一个开放权重模型。 2022 年ChatGPT公开推出后,开发人员将大部分精力投入到通过扩大模型规模来提升系统性能上。该指数报告称,这一趋势仍在继续:训练一个典型的领先人工智能模型所消耗的能源目前每年翻一番;每个模型使用的计算资源每五个月翻一番;训练数据集的规模每八个月翻一番。 然而,各公司也在发布性能非常出色的小型模型。例如,2022年在MMLU上得分超过60%的最小模型使用了5400亿个参数;到2024年,一个模型仅用38亿个参数就达到了相同的分数。小型模型比大型模型训练速度更快、回答问题更迅速,且能耗更低。佩罗特说:“这对各方面都有帮助。” 塞尔曼说,一些小型模型可以模仿大型模型的行为,或者利用比旧系统更好的算法和硬件。该指数报告称,人工智能系统使用的硬件的平均能源效率每年提高约40%。由于这些进步,在MMLU上得分超过60%的成本大幅下降,从2022年11月的每百万个token约20美元降至 2024年10月的每百万个token约7美分。 尽管在几项常见的基准测试中取得了显著进步,但该指数强调,生成式人工智能仍然存在一些问题,如隐性偏见和“幻觉”倾向,即吐出虚假信息。塞尔曼说:“它们在很多方面给我留下了深刻印象,但在其他方面也让我感到恐惧。它们在犯一些非常基本的错误方面让我感到惊讶。”(作者/陈俊熹) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。