行业分类:
加载中...
头条分类:
加载中...
部分车型获准入许可 L3级自动驾驶大规模落地还有多远?
自动驾驶是汽车产业发展、国际科技竞争的重要方向。近日,我国两款L3级自动驾驶车型获附条件准入许可,引发广泛讨论。 随着L3大幕拉开,产业充满热情,社会充满期待。距离真正的大规模商业化落地还有多远?当前还有哪些问题需要厘清?记者18日采访了专家。 ■问题一:获得产品准入许可是否等于L3“量产在即”? 不能画等号。 “根据工业和信息化部、公安部等四部门共同确定的方案,试点工作包括产品准入试点与上路通行试点两个阶段。”工业和信息化部装备工业发展中心副主任刘法旺告诉记者,车辆获得准入许可,表明其在自愿申报、初步审核和择优遴选的基础上,已通过四部门联合组织开展的方案确认、安全测评及专家评审等环节,具备一定的安全保障水平,可进入上路通行试点阶段,获得申领普通车辆号牌资格。 刘法旺强调,由于自动驾驶系统及其应用场景的复杂性,以及面临安全风险的复杂多变性,参考国际经验,为切实保障试点车辆驾乘人员及周边交通参与者的安全,当前试点采取的是“小范围起步、附条件实施”的推进方式,获得准入许可并不意味着自动驾驶可以立即“全面推广”或“大规模量产”。 “L3级自动驾驶的普及并非单一技术的突破,而是政策、技术、产业生态的系统性协同成果。具体的时间需要结合法律法规进展、技术能力进步和用户接受程度等因素综合考虑。”中国汽车标准化研究院总工程师孙航说,两款车型的准入将为标准制定提供宝贵实践经验,但距离L3大规模商业化落地还有很长的路要走。 ■问题二:测试示范与准入试点有什么区别? 两者在定位与目标上存在较大差异。 近些年,很多地方都在积极推动智能网联汽车道路测试与示范应用工作,不少车企也都拿到了L3级自动驾驶“路测牌照”。这和近日工业和信息化部许可的两款产品准入申请有何区别? 刘法旺说,道路测试与示范应用的主体较为多元,既可以是汽车生产企业,也包括科研院所、科技企业、零部件公司等相关单位,车辆使用测试牌照,核心目标是“以测促研”,推动相关功能与性能的持续完善,属于研发测试阶段。 而准入试点则是在前期大规模道路测试与示范应用的基础上,推动自动驾驶从“技术验证”向“量产应用”过渡的关键一步,准入试点的申请主体限定为汽车生产企业。 刘法旺说,如果做一个比喻,道路测试与示范应用相当于“企业自主命题、自主考核”,重在持续提升产品能力;而准入试点则类似于“行业部门统一命题、择优选拔开展管理探索”,目的是在保障安全的前提下,着力探索完善准入管理相关制度、流程、法规与标准,为未来规模化应用打下坚实基础。 2025年3月11日,配备有安全员的自动驾驶示范运营专线出租车行驶在广州塔附近道路上。新华社记者 邓华 摄 ■问题三:为什么会提出限速50km/h? 安全为要,稳妥有序推进。 从公布的条件看,这次准入许可对L3级使用场景划定了明确边界:限定路段、限定车型、限定速度,并明确由特定使用主体组织开展试点运行。例如,其中一款纯电动轿车,可以实现在交通拥堵环境下高速公路和城市快速路单车道内的自动驾驶功能(最高车速50km/h),目前该功能仅限在重庆市内环快速路等路段开启。 孙航告诉记者,将允许开启自动驾驶功能的路段限定在高速公路和城市快速路等相对简单的场景,同时规定了较低风险的时速,体现了对“安全优先”这一核心原则的遵循。 根据《汽车驾驶自动化分级》标准,L3级属于有条件自动驾驶,即在设定的运行条件下,自动驾驶系统可持续执行转向、加速、制动等动态驾驶任务,驾驶员无需持续监控行驶环境,但需要在系统发出接管请求时及时响应。 刘法旺指出,这里的“运行条件”或“有条件”,主要指汽车生产企业必须明确自动驾驶功能适用的道路类型、气象环境、驾驶员状态、车辆工况等限制,其中最高车速是一项关键指标。 “对自动驾驶车辆而言,车速越高,运行安全风险相应增加,对驾驶自动化系统的性能和安全性要求也更为严苛。”刘法旺表示,此举旨在以“小切口”稳妥起步,通过限定场景下的实践突破,逐步推动技术优化与迭代,积累行业实证经验,最终实现自动驾驶技术安全、有序、扎实的落地应用。 ■问题四:个人车主能买到、能开上吗? 目前还不行。 刘法旺告诉记者,试点车辆由试点使用主体组织开展上路通行试点,目前不能直接面向消费者销售,公众可通过网约车等指定方式体验自动驾驶功能。 安全、舒适、高效的出行方式,始终是人类不断追求的共同目标。当前,越来越多的企业投身于自动驾驶相关技术研发、产品测试与创新实践。 “优先在风险相对可控的区域开展小规模道路测试,待安全性和运行可控性得到充分验证后,再逐步拓展应用场景。”刘法旺说,随着自动驾驶技术持续迭代、试点工作扎实推进,以及社会各界对其安全规律认识的不断深化,在试点动态评估与调整机制的引导下,相关限制性条款有望在保障安全的前提下逐步有序放宽,从而更加积极、稳妥地推动自动驾驶技术的规模化应用落地。(记者唐诗凝) 责任编辑:杨瑞
零跑揭晓豪华旗舰SUV D19部分配置:4处静奢壁灯
IT之家 12 月 19 日消息,今天下午,零跑汽车公布了旗下豪华旗舰 SUV D19 的部分配置信息,包括 4 处柔光漫射的静奢壁灯、360 度旋转调节的航空阅读灯,以及 3 种定制香型并支持 3 档浓度可调的智能定制香氛。据IT之家了解,官方将于 12 月 22 日揭晓该车内饰的全貌。 今天早些时候,零跑 D19 内饰设计概念首度公开,采用双层叠环绕座舱、超椭圆数字曲面。 零跑 D19 此前已经开启盲订,新车定位全尺寸 SUV,搭载高通骁龙双 8797 芯片,提供纯电及增程两种动力,其中增程版纯电续航 500km。据了解,零跑 D19 将于 2026 年上半年上市交付。 零跑 D19 长度超 5.2 米、宽度近 2 米、轴距超 3.1 米,也是该品牌目前尺寸最大的车型。配色上,零跑 D19 将提供松谷绿、光电白、液态银、天幕灰、金属黑五种车漆选择。 动力方面,D19 提供纯电、增程两种版本,纯电版电池容量 115kWh,续航可达 720km。该车型基于 1000V 高压平台打造,充电 15 分钟补充 350km 续航,最大功率 540kW。 增程版采用发动机 + 双电机的布局,发电机既可发电也可驱动。得益于驱动、发电一体机,新车整体动力系统相较传统增程系统减重 60 公斤以上,综合续航提升 5%,综合功率为 540kW。新车搭载 80.3kWh 大电池,纯电续航 500km,辅以 40L 油箱。 新车支持 800V 快充,标配宁德时代全新“超混体系电池”,号称全球首次实现把磷酸铁锂和三元锂装入同一个电芯。
凤凰网获2025年度最具新质精神雇主奖,人机共生时代如何定义人才?
2025年的AI赛道掀起了一股从“说”到“做”的风潮。 调研显示,高达78.2%的职场人每周都会借助AI开展工作,超三成每天都会使用。从撰写文案到分析数据,从编辑校对到专业知识查询,AI工具已深度嵌入工作全流程,熟练掌握AI技能也因此成为一项基础竞争力。 智联招聘最新发布的《2025雇佣关系趋势报告》揭示,AI的普及不仅是效率的革命,更是一面镜子,照见了个体对自主权的强烈渴望,并倒逼企业开启一场深刻的管理进化。 当AI越来越多进入职场,人机共生时代,雇佣关系会发生怎样的改变? “现在的岗位需求正在发生多元变化,具备快速学习、跨界整合的复合型人才更适应现阶段岗位需求。”凤凰网人力资源部高级总监表示,这也是当前年轻人进入职场面临的挑战之一。 12月19日,在2025中国年度最佳雇主颁奖盛典上,凤凰网再度入选“最具新质精神雇主TOP30”榜单。 在AI技术快速渗透各行各业的当下,凤凰网如何定义不可取代的人才? 01 AI不会取代人,但会重新定义“基础工作” “当你用好AI、具备人机合作的意识和学习能力,你的综合价值被AI取代的可能性就会大幅度降低” AI时代,创作模式被彻底重构,但优质内容的价值却更加突显,通过优质内容供给的投喂,大模型也会形成正向循环,“所以能不能从大量内容中,眼尖地挑选出值得报道的,这种能力在当前的AI场景下会非常突出。”信息辨别与价值判断正成为内容从业者的核心壁垒。 因此,在AI浪潮里,凤凰网也采用辩证的思维踩中了这股潮流。 对外,在招聘环节,凤凰网已开始系统性地将AI应用经验纳入评价体系。对内,在HR体系的工作流程里,AI工具已深入第一环节——简历筛选。 “以前,HR每天初期的工作就是蹲守后台,用人脑识别简历,判断是否来自对标企业、职级是否匹配。现在AI先筛选一次,极大的提升精准度和效率。” 在员工服务领域,AI也早已成熟落地。“随着AI自主学习能力增强,SSC客服机器人回答更精准、更具共情力。“不过,它仍然不是真人,无法像员工关系专员那样深入理解复杂、个性化的需求。” 一个明显的趋势是,岗位职责正从单一执行向复合能力整合,这也是当前年轻人进入职场面临的挑战之一。 《2025中国年度最佳雇主评选报告》同样显示,企业对人才技能的需求前五位分别是:创新思维与能力、跨领域学习能力、系统思维、自我管理、团队协作能力。这一需求变化表明,在人工智能时代,创新成为企业突破技术瓶颈、打造差异化竞争力的关键。人才需要具备不断学习新知识、新技能的能力,快速适应新环境,打破知识壁垒,开启无限可能。 这实质上是岗位模型的重构。“企业将岗位模型进行拆分,判断哪部分可由AI工具解决,哪部分需要人重新学习和驾驭。” 02 AI时代人才培养的新命题 在2025年之前,人们谈论AI大多还停留在“辅助工具”的层面。但报告显示,如今风向已经改变。采用人工智能与大数据已跃升为企业推动新质生产力发展的第一大方式,从2024年的第三位直接冲到了2025年的榜首。 企业的人工智能应用率大幅提高,51%的获奖企业已实现大规模应用。这意味着AI不再是可选项,而是很多企业战略布局的“核心引擎”。 然而当初级工作大量由AI承担,是否会导致人才断层?在凤凰网的视角中,这更像是一场工作方式的进化,而非岗位的彻底消失。 不少职业领域从业者都认为,未来的基础教育必将包含AI工具应用。“现在发展太快,相应的教学系统还在完善中,企业便需要承担培训责任。未来,从中小学就开始接触AI应用场景的孩子就业时,已自然具备相关能力。” 不同代际员工对AI的态度存在差异,一部分人已率先拥抱AI。“00后价值观不同,他们更关注工作对自身的价值,自我意识很强。而80、90一代是‘被卷大’的一代,自驱力强,需要他人认可。”在袁娜看来,无论个体还是组织,“拥抱变化”是唯一出路。“无论是黑天鹅事件,还是AI技术浪潮,外部环境变化始终是飞快的。” 在技术冲击与市场变化的背景下,凤凰网连续7年荣获“最佳雇主”奖项,连续2年获得“最具新质精神雇主”奖项。这份成绩或归因于长期坚守的文化价值观——“中华情怀,全球视野,包容开放,进步力量”,以及对人才素质的严苛要求,始终未变,这让凤凰网在招聘方、猎头及人才库中积累了良好口碑。 据了解,中国年度最佳雇主评选活动由‌智联招聘‌联合‌北京大学社会调查研究中心‌、‌北京大学国家发展研究院‌等多家专业机构共同发起和组织评审。评选活动始终以独立客观的立场,从多元化维度对企业进行评估审视,发现企业管理和人力资源管理的行业趋势,洞察求职者的需求变化,为企业制定雇主品牌战略提供数据支持。该活动作为中国人力资源领域的权威指南与风向标,不仅为求职者提供了寻找“优秀雇主”和“理想工作”的重要参考,同时也是雇主与雇员之间增进理解、实现共赢的桥梁。 活动当晚,人力资源和社会保障部原副部长、中国人才研究会会长何宪为活动致辞,世界就业联盟主席史白庭(Bettina Schaller),北京大学国家发展研究院副院长、南南合作与发展学院副院长黄卓作为2025中国年度最佳雇主评委会联席主席出席盛典并为获奖企业颁奖,北京大学社会学系教授、博导、北京大学社会调查研究中心主任刘爱玉,北京大学社会学系副主任、副教授、博导、北京大学社会调查研究中心副主任王迪,中国人才研究会副会长、中国人民大学中国就业研究所所长、教育部“长江学者”特聘教授曾湘泉,中国人民大学劳动人事学院院长、教授赵忠,中国人才交流协会秘书长丁国杰,中国对外服务工作行业协会秘书长华天虹,中国中小企业协会副秘书长周晟安,著名经济学家任泽平等担任颁奖嘉宾为观众揭晓各大奖项。智联招聘集团CEO康雁参与会议并发表致辞,洞察人机协同如何持续深化、雇佣关系如何实现“质”的跃迁,开启雇佣关系新纪元。 除最具新质精神雇主TOP30外,现场还揭幕了中国年度最佳雇主TOP30、最受女性关注雇主TOP10、最受大学生关注雇主TOP10、最具社会责任雇主TOP10、最具发展潜力雇主TOP30等奖项。 在AI不断重新定义工作边界的今天,企业对人才的期待愈发清晰:工具可以被替代,但人的判断力、价值观、跨领域整合能力与快速学习意愿,始终是组织最宝贵的资产。而如何让人与AI协同共生,而非彼此对立,将成为未来企业管理与人才发展的核心命题。
国产GPU四小龙IPO齐活!最后一个刚刚公布
三年半收入超13亿元,通用GPU出货量达53000片。 作者 | ZeR0 编辑 | 漠影 芯东西12月19日报道,今日,港交所官网显示,上海GPU龙头天数智芯已通过港交所聆讯,并披露招股书。 就在本周三,上海GPU龙头壁仞科技通过港交所聆讯。 这为港股“国产GPU第一股”花落谁家,增加了悬念。 上交所官网显示,国产AI芯片公司已然霸榜科创板市值前四:12月18日,寒武纪、海光信息、摩尔线程、沐曦股份的市值分别为5427亿元、4711亿元、3317亿元、3149亿元。其中寒武纪做的是ASIC专用芯片,后三家的主营产品都是GPU。 天数智芯成立于2015年12月,2018年正式启动通用GPU设计,2021年推出中国首款通用GPU产品第一代训练系列天垓Gen 1并实现量产交付,2022年推出第一及第二代推理系列智铠Gen 1及智铠Gen 1X,2023年推出第二代训练系列天垓Gen 2并实现量产,2024年推出第三代训练系列天垓Gen 3(预计2026年第一季度开始量产)。 招股书显示,根据弗若斯特沙利文的资料,在中国芯片设计公司中,天数智芯是是首家实现推理通用GPU芯片量产的公司、首家实现训练通用GPU芯片量产的公司、首家采用先进7nm工艺技术达成该等里程碑的公司。 根据弗若斯特沙利文报告,2024年,按收入计,包括天数智芯在内的三家中国公司已跻身中国通用GPU市场五大参与者之列,其中天数智芯排名第5,市占率达到0.3%。 按附注推演,公司A、B、C、D分别是英伟达、AMD、海光信息、沐曦股份。 2024年中国训练型通用GPU市场五大参与者中,4名参与者为中国公司,天数智芯排名第4。 按附注推演,公司E是壁仞科技。 2024年中国推理型通用GPU市场参与者按出货量的排名如下,天数智芯排名第4。 随着壁仞科技、天数智芯相继奔赴港交所,这意味着,无论是按上市进度还是通用GPU收入计,“国产GPU四小龙”第一梯队正式成形,包括摩尔线程、沐曦股份、壁仞科技、天数智芯,其中两家已经成功登陆科创板,两家将赴港上市。(海光信息不算只做GPU的公司。) 注:有些媒体报道误将燧原科技列为GPU企业,燧原科技AI芯片产品属于ASIC专用芯片类别,并非通用GPU。 01. 去年收入超5亿, 研发团队超480人 2022年、2023年、2024年、2025年1-6月,天数智芯收入分别为1.89亿元、2.89亿元、5.40亿元、3.24亿元,净利润分别为-5.54亿元、-8.17亿元、-8.92亿元、-6.09亿元,研发费用分别为4.57亿元、6.16亿元、7.73亿元、4.51亿元。 ▲2022年~2025年1-6月天数智芯营收、净利润、研发支出变化(智东西制图) 近三年半,其超过一半的收入均来自训练系列通用GPU产品。 同期综合毛利率分别为59.4%、49.5%、49.1%、50.1%。 截至2025年6月30日,天数智芯的研发团队由484名员工组成,其中超过1/3具备十年以上芯片设计及软件开发经验;在中国和海外拥有65项授权专利,其中包括56项发明相关专利和207项商标,还拥有113项版权。 其综合财务表概要如下: 现金流如下: 02. 两条通用GPU产品线并行, GPU出货量超5万片 天数智芯的产品组合主要包括通用GPU芯片及加速卡,以及定制AI算力解决方案(包括通用GPU服务器及集群),将硬件与专有的软件栈结合,以满足客户在训练及推理场景中的特定需求。 其通用GPU产品有两条产品线,共同实现AI计算领域的全面覆盖,支持从复杂模型开发到高效生产部署的各种应用。 天垓系列为其旗舰训练专用产品线及中国国内首款量产的通用GPU产品,专为AI模型训练而设计,拥有先进的计算核心及优化的多卡集群架构。 智铠系列是国内首款专为推理而设计的通用GPU产品,专注于推理应用,具有增强的整数计算单元及高效的数据通路,针对部署场景进行优化。 天数智芯已实现量产及销售两款天垓系列产品(天垓Gen 1及天垓Gen 2)、两款智铠系列产品(智铠Gen 1及智铠Gen 1X),并已发布第三款产品天垓Gen 3。 2022年、2023年、2024年、2025年1-6月,天数智芯通用GPU产品出货量分别为7800片、12700片、16800片、15700片,合计53000片。 同期,训练系列的出货量分别为7700片、7000片、7000片、6200片,平均售价分别为24400元、31800、38600元、30400元。 推理系列的出货量分别为38片、5700片、9800片、9500片,平均售价分别为11400元、8000元、10200元、9200元。 天数智芯AI算力解决方案整合一定数量的通用GPU的综合计算能力,使其能够作为统一系统进行协同运作,包括提供通用GPU服务器和通用GPU算力集群。 2023年、2024年、2025年1-6月,其AI算力解决方案的项目数目分别为6个、26个、10个,平均售价分别为260万元、640万元、430万元。 其主要战略项目详情如下: 03. 已服务超过290名客户, 近三年前五大客户集中度高 天数智芯的客户总数由2022年的22名增至2023年的65名,并于2024年进一步增至181名,在2025年上半年有106名。 截至2025年6月30日,该公司已服务超过290名来自不同行业的客户,交付超过52000片通用GPU产品。 其产品与解决方案已在包括金融服务、医疗保健及运输等重要领域实现超过900次部署与应用,同时支持从制造业到零售业之工业数字化转型,以及基础研究及教育计算应用。 在往绩记录期间,天数智芯的主要客户主要包括云计算服务供应商、AI模型开发商、研究机构以及电子、半导体、制造及消费互联网等领域的企业。 2022年、2023年、2024年、2025年1-6月,来自前五大客户的收入分别占其总收入的94.2%、73.3%、73.4%、38.6%。 天数智芯的主要供应商主要包括内存组件、晶圆制造、印刷电路板加工服务、IP核及设计软件的供应商。 同期,该公司向前五大供应商的采购额分别占总采购额的58.2%、56.2%、44.6%、67.2%。 客户K、客户C亦是天数智芯的供应商。客户K专注于提供计算能力解决方案。客户C是一家全球领先的光电混合计算供应商,天数智芯向客户C采购光互连产品,以用于交付若干项目的计算解决方案。 04. 研发高管有英伟达、AMD、 英特尔、联发科、三星背景 招股书文件显示,天数智芯有9位副总裁。 天数智芯董事会主席兼CEO盖鲁江今年44岁,本科毕业于中央财经大学,在2020年7月加入天数智芯前拥有约17年的财务及投资经验。 副总裁孙怡乐今年45岁,负责芯片研发,本硕均毕业于清华大学,加入天数智芯前曾担任远弘科技(上海)有限公司工程师、亚鼎视频科技(上海)有限公司担任工程师、AMD附属公司超威半导体(上海)有限公司的高级经理。 副总裁吕坚平今年62岁,负责管理天数研究院,本硕毕业于国立台湾大学,博士毕业于美国耶鲁大学,加入天数智芯前曾担任英伟达高级架构师兼经理、MediaTek USA高级总监、Intel Corporation高级经理、NOVUMIND工程副总裁、Samsung Advanced Computing Labs研发及运营副总裁、NOVUMIND首席技术官。 副总裁刘圆今年44岁,负责芯片量产实现,本硕均毕业于复旦大学,加入天数智芯前曾担任超威半导体(上海)有限公司PMTS ASIC/版图设计工程师。 副总裁石加圣今年41岁,负责软件研发,本科毕业于复旦大学,硕士毕业于美国罗切斯特大学,加入天数智芯前曾担任慧国(上海)软件科技有限公司软件工程师、超威半导体(上海)有限公司高级软件工程师,并曾任职于上海拆名晃资讯科技有限公司。 副总裁邹翾今年44岁,负责产品线及供应链管理,硕士毕业于哈尔滨工业大学,加入天数智芯前曾任职于格罗方德半导体科技(上海)有限公司、国际商业机器(中国)有限公司中国芯片设计中心。 其他四位副总裁中:郭为今年48岁,负责解决方案开发及信息技术支持;宋煜今年46岁,负责客户及技术支持部门;梁斌今年58岁,负责技术合作与开发;丁娜今年45岁,负责人力资源与行政事务。 05. 单一最大股东集团持股23.61% 天数智芯成立于2015年12月,在2018年完成A轮融资,2019年完成超3.5亿元B轮融资,2021年完成8.2亿元C轮融资,2022年完成超9亿元C+、C++轮融资,2025年完成约20.5亿元D轮融资,投前估值达120亿元。 经过一系列股权变动,截至最后可行日期,单一最大股东集团合共持有天数智芯已发行股本总额约23.61%。 与典型的创始人主导公司不同,自往绩记录期间开始以来,天数智芯所有权一直由其雇员通过多个特殊目的实体以及多元化的被动财务投资者持有。 其截至本文件日期的股东持股情况如下: 天数智芯各董事、监事及主要行政人员2024年、2025年1-6月薪酬载列如下: 其中蔡全根、郑金山、林小钦已提呈辞任董事,自2025年1月13日起生效;刁石京已提呈辞任董事,自2025年5月20日起生效。 06. 结语:多家GPU及AI芯片企业正冲刺IPO 根据弗若斯特沙利文的资料,中国通用GPU市场快速扩张,2024年的出货量达到160万片,2022年至2024年的复合年增长率为72.8%。预计市场将维持强劲增长,2025年至2029年,出货量预计以33.0%的复合年增长率增长。 随著中国通用GPU公司出货量的增长速度超越国际竞争对手,国内市场占有率持续攀升。国产通用GPU产品占比由2022年的8.3%提升至2024年的17.4%,预计到2029年将超过50%。 国内通用GPU公司们正积极把握不断扩大的市场机遇。本月北京GPU龙头摩尔线程、上海GPU龙头沐曦科技均已在科创板上市,还有多家国内GPU及AI芯片公司正在向IPO发起冲刺。
美国丰田卖回日本,特朗普产业回流仍“病入膏肓”
撰文 | 张霖郁 编辑 | 黄大路 设计 | 甄尤美 据当地时间2025年12月19日路透社报道,丰田将把在美国生产的三款车型——凯美瑞、汉兰达和坦途(Tundra)反向出口到日本。 丰田的目的是为了改善日美贸易关系,并顺应特朗普(Donald Trump)对缩减逆差的要求。 这一决定具有象征意义:日本逆向进口曾是美国多年的关注点,通过将美国制造的车型引回本土销售,意味着日本汽车产业的主动示好。 丰田公司高层也表示,虽然并未明确承诺额外10亿美元投资,但将继续扩大在美生产和用工。 日本政府在特朗普第二任期初期宣布了对美新增制造业投资的系列举措。 2025年,日本公布了一份约550亿美元规模的对美潜在投资项目清单,涵盖能源、半导体、材料、汽车、机器人等行业。此外,多家日本大企业纷纷表态要加码美国产能。 软银、西屋电气、东芝等日本企业也列入名单,计划在美国开展包括核电和半导体在内的重磅项目。 汽车业回流 特朗普政府新一轮产业政策推动下,美国汽车制造业出现多方扩产、投资和调整的现象。 外资车企方面,丰田此前宣布将在北卡罗来纳州启动13亿美元电池工厂,并确认未来5年将继续在美投资100亿美元;同时,丰田“美产出口日本”计划还说明其正在重新优化全球生产布局。 同属日系的本田也对美国产能加码。 据外媒报道,本田计划将目前在加拿大和墨西哥生产的CR-V和思域等主力车型迁回美国制造,力争在两到三年内将美国市场上90%的本田车改为本地生产。 日产于2025年第一季度表示,计划减少日本福冈工厂的生产并将部分美销Rogue车型移至田纳西州工厂,这一举措将确保田纳西工厂维持两班制生产。 美国本土企业方面,在特朗普相关政策的鼓励下,产业投资和产能扩张持续进行。 通用在2025年宣布未来两年将在密歇根、堪萨斯和田纳西的3座工厂再投约40亿美元,用于扩充产能。 该计划将使通用在美国的整车总生产能力提高至超过每年200万辆。 这一系列投资不仅增加了美国国内汽车产出,也将原本出口自墨西哥的Equinox和Blazer部分生产线迁回美国。 美国白宫对通用的举措给予积极评价,认为关税政策推动了国内就业。 福特在电动化计划上也作出调整,宣布暂停部分电动车项目、增聘数千工人专注混动和燃油车型生产。 外资企业中,Stellantis于2025年10月宣布了总额130亿美元的美国投资计划,这是该公司历史上最大规模的投资。 该计划将在未来四年内带来5款新车型和5000个新工作岗位,涵盖密歇根、伊利诺伊、俄亥俄、印第安纳等中西部工厂。 值得注意的是,Stellantis将重新启动2023年关闭的伊利诺伊Belvidere工厂,预计于2027年投产Jeep车型,新增约3300个就业机会。 美国汽车工人联合会(UAW)对这些投资表示欢迎,称被关税政策带回了数千个工会岗位。 特斯拉也在2025年持续扩产:公司表示将在总部德州奥斯汀工厂于2025年下半年投产新一代廉价电动轿车(代号“Redwood”),其计划产能超过每周1万辆(约年产52万辆)。 另外,特斯拉在内华达州的超级工厂已计划于2025年底开始量产Semi电动卡车,届时产能可达每年5万辆。 外媒分析,美国汽车行业的回流进展已有“硬件”基础:多家厂商宣布或在建产线、扩充产能,新工厂和改造项目不断涌现。 丰田和本田等日系车企增加美国产能以规避关税,日本赴美投资积极;而通用、福特等美系品牌则响应政策导向,在本土市场增加重机型产出。 此外,包括韩国现代集团与起亚在内的外资车企,也借助与特朗普政府的白宫会谈承诺扩张产能。 半导体回流 讲到制造业回流,不能不提的行业是半导体。 在特朗普政策压力下,国际芯片巨头宣布或启动了在美扩产计划。台积电是其中最引人瞩目的案例。 2025年初,美国商务部批准了对台积电亚利桑那州工厂的66亿美元补贴,台积电随即开始生产先进的4纳米制程芯片。这标志着美国历史上首次实现如此先进节点芯片的本土化制造。 台积电此后又宣布将把在美投资规模从原计划的400多亿美元增加到650亿美元,并将在2030年前增设第三座亚利桑那工厂。 2025年3月,台积电CEO魏哲家在白宫会见特朗普时还公布了一项最新计划:在美国再投资1000亿美元,新建3座晶圆厂、2座封装厂和一个研发中心。 这一宏大蓝图若顺利实施,将在未来数年内为美国吸引数万名建筑和制造业岗位。 三星电子方面,在美已拥有得克萨斯州奥斯汀的大型晶圆厂,2025年尚未宣布类似规模的扩产计划。 美国半导体补贴项目也将重点资金投入了其他厂商:英特尔公司在2025年8月修改了与商务部的《芯片法案》协议,提前获得约57亿美元资金,并换取美国政府持有其约9.9%股权。 截至目前,英特尔已累计获得政府补贴约111亿美元。 英特尔同时在亚利桑那和俄亥俄等地建设新晶圆厂,不过首批投入量产尚待几年后。 存储芯片龙头美光科技(Micron)也大幅加码美国市场。 2025年6月,美光宣布其在美国的投资计划扩大300亿美元,总额将达2000亿美元。美国商务部此前已批准美光在纽约和爱达荷州工厂近62亿美元的补贴,帮助其生产DRAM和闪存芯片。 值得一提的是,芯片产业转移还得益于美国政策推动。 2022年美国国会通过了总额527亿美元的《芯片与科学法案》,鼓励企业在美建厂。 通过这项法案,台积电和美光分别获得了66亿美元和62亿美元补贴,德州Amkor封装厂也获40.7亿美元支持。 不过特朗普政府对拜登(Joe Biden)时期的补贴政策持怀疑态度,甚至威胁削减《芯片法案》资助,商务部长卢特尼克(Howard Lutnick)表示正重新谈判部分补贴协议。 在此背景下,产业界反映劳动力和技术挑战仍然严峻:台积电魏哲家曾指出,亚利桑那州工厂建设进度比台湾慢了一倍,主要原因是美国难以招聘到足够的熟练工程师和配套供应链。 据报道,美国政府正与台湾商谈,可能要求台厂向美国输送技术人才,帮助培训本土半导体工人。 这种“劳动力训练协议”反映出即使有充足资金和意愿,美国在芯片制造人才储备上仍存在缺口。 效果如何? 从以上公布的各项数据来看,2025年,特朗普政府通过高关税和优惠补贴等手段确实引导了部分制造业回流迹象。 然而,从公布的数据来看,这些承诺与成果之间仍存在显著差距。 官方统计数据nam.org显示,截至2025年9月,美国制造业产值按年化计算约为2.905万亿美元,比第一季度仅略有增长;同期制造业就业约为1270.6万,几乎与疫情前水平持平。 美国商务部公布的贸易数据显示,2025年前三季度货物和服务贸易逆差较2024年同期反而扩大了1126亿美元,,同比反而增幅17.2%,并未明显缩小贸易赤字。 行业调查也反映出困境:供应管理协会(ISM,Institute for Supply Management)11月PMI(采购经理指数,Purchasing Managers’Index)降至48.2,再次进入收缩区间,不少制造商将裁员归咎于关税干扰。 美国分析人士指出,短期内并未出现制造业爆发式增长,产业回流进程仍“病入膏肓”。 特朗普政府的制造业振兴政策在高端层面制造了诸多大手笔和目标,但实际效果需要更多时间检验。 据外媒分体,拜登政府时期遗留的产业链结构性问题并非单靠加关税和补贴即可迅速扭转,美国在劳动力、供应链、安全标准等方面面临的难题依旧存在。 美国学术机构与研究者普遍认为,真正“回流”产量的增加需要企业完成厂房建设和调试后方能体现,目前的回流成效仍多在规划层面,而与美国消费者直接相关的汽车和芯片供给尚未真正释放。 未来几年的观察重点,将在于这些新建和扩建工厂能否按计划投产,以及生产成本、技术等因素能否有效控制。 美国政府和产业协会的最新统计数据和分析指出,现在的实际进展仍未达到早期承诺的规模,制造业仍需通过多方面改革和协同才能实现根本复兴。
孙正义投资OpenAI遭遇资金压力:欲套现滴滴持股、抵押ARM股票
孙正义 凤凰网科技讯 北京时间12月20日,据路透社报道,知情人士称,软银集团正争分夺秒,力争在年底前落实对OpenAI高达225亿美元的投资承诺。该公司正通过多种方案筹集现金,其中包括出售部分投资。此外,软银还可能动用尚未提取的保证金贷款,这些贷款以旗下芯片公司ARM的高价值持股作为抵押。 软银此次豪赌OpenAI,是孙正义迄今最大规模的投资之一。目前,这位日本亿万富翁正寻求提升公司在AI竞赛中的地位。为了筹集资金,孙正义已经出售了软银所持有AI芯片领头羊英伟达的全部58亿美元股份,抛售了48亿美元的T-Mobile美国股份,并进行了裁员。 知情人士称,软银还想要将部分滴滴出行的持股进行套现,后者正寻求在中国香港上市。软银愿景基金的投资经理正被引导将工作重点转向OpenAI这笔交易。 孙正义已大幅放缓软银愿景基金的其他多数交易进程,目前任何超过5000万美元的交易都需要他本人的明确批准。软银匆忙筹集资金的举动,揭示了一个现实:即便是全球顶尖的投资机构,在为耗资数千亿美元的雄心勃勃的AI数据中心项目融资时,也面临着巨大压力。 截至发稿,软银不予置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
中国人形机器人“跳”进演唱会,马斯克点赞称“印象深刻”
凤凰网科技讯(作者/于雷)12月20日,特斯拉CEO埃隆·马斯克在社交平台转发一段中国演唱会视频,并配文评价“令人印象深刻!”,相关画面迅速引发海外科技圈关注。视频内容显示,在18日王力宏“最好的地方”巡回演唱会成都站现场,多台人形机器人登台与歌手及舞者同台表演,完成了整齐度和难度兼具的舞蹈动作。 据现场信息,当晚演唱会中,6台宇树科技G1人形机器人在歌曲《火力全开》中亮相。伴随电子节奏响起,机器人与人类舞者保持高度同步,完成挥臂、踢腿、转身等连续舞蹈动作,并在高潮段落集体完成空翻,落地稳定,成为演唱会最受关注的瞬间之一。 自动播放 从技术层面看,宇树人形机器人G1具备17个以上自由度,动作响应速度达到毫秒级,并通过动态平衡控制系统支撑高强度舞台动作。在多机协同方面,团队通过多智能体控制技术,实现多台机器人在舞台环境下的同步表演。同时,机器人具备基础环境感知能力,可在复杂灯光和人员密集场景中规避碰撞风险。 知情人士透露,为完成此次演出,技术团队与演出方进行了较长周期的排练和调试,对舞蹈动作、节奏匹配及舞台安全进行了反复验证。这也使得人形机器人首次以“群体舞蹈”的形式,完整融入商业演唱会流程,而非单点展示。 演出结束后,“机器人伴舞”“宇树G1”等话题迅速在社交平台发酵。马斯克的转发进一步放大了事件影响力,被业内视为中国人形机器人从技术展示走向实际应用场景的一次标志性案例。在娱乐演出之外,这种高动态、多机协同的能力,也被认为对未来机器人进入服务、工业及公共空间具有参考意义。
平均每个月亏3亿!从智谱招股书,我看到了大模型竞争的残酷现实
国内大模型第一股终于来了! 12月19日,港交所官网显示,北京大模型企业智谱已通过港交所聆讯,并披露招股书文件,正式冲刺港股“大模型第一股”。 作为国外大模型领域最炙手可热的公司,智谱的商业化堪称“神速”。过去三年,公司收入分别为0.57亿元、1.25亿元、3.12亿元。 按收入计算,截至2024年,智谱是中国最大型的独立通用大模型开发商、中国第二大整体通用大模型开发商。 但收入光鲜背后,也隐藏着大模型竞争最残酷的一面: 过去三年,公司经调整净亏损分别为0.97亿、6.21亿以及24.66亿元,增长了20多倍。到了2025年,仅上半年智谱的亏损就高达17.52亿元。算下来,平均每个月要亏接近3个亿。 而截至2025年6月,智谱的现金及现金等价物只剩下了25.52亿元。按每个月亏损接近3亿来算,智谱的现金流只能支撑9个月左右。这或许也是智谱急着上市的原因。 某种程度上说,智谱的招股书并不只是一次融资材料的披露,更像是一份行业切片,第一次将中国大模型公司最真实的处境展现在了我们面前。 / 01 / 收入全国第二,过去两年复合增长130%, 从收入增长看,智谱的商业化进度不可谓不快。 2022年收入,智谱还只有0.57亿元。到 2024 年,已经增长到3.1亿元,复合年增长率超过130%。2025 年上半年更是狂飙,短短6个月就入账 1.9 亿元,同比增长325%。 别小看这个数据,根据智谱招股书的说法,这个规模已经是国内第二大的模型厂商,市场占有率达到6.6%。 结合招股书中以字母代称的可比公司信息,硅基君可以较为明确地判断,A 至 D 分别对应科大讯飞、阿里、商汤和百度,也就是说,智谱在收入规模上仅次于科大讯飞。 支撑这一增长的,是一套以MaaS 为核心的商业模式。 与其说智谱在“卖模型”,不如说它在交付一整套工程化的大模型能力体系。其核心逻辑不在模型参数本身,而在于如何让模型能力稳定地进入真实业务环境。 在模型层面,智谱提供了覆盖语言、多模态、智能体和代码等方向的模型矩阵。 根据招股书披露,其模型能力不仅涵盖语言和多模态视频,还延伸至代码模型、GUI 智能体和计算机应用层面,覆盖广度明显高于其他竞争对手。 值得一提的是,这里E、F公司分别指的是OpenAI和谷歌,这也从侧面说明了智谱试图对标的能力边界。 这些不同规模、不同能力侧重点的模型,被统一纳入同一平台。客户和开发者无需从零判断技术路线,而是可以直接根据业务需求,在现有模型组合中选择合适方案。 在应用层面,智谱并未把模型当作孤立的API 来售卖,而是围绕真实业务流程进行设计。 具体来说,平台内置的智能体工作区,提供了面向具体场景的模板和解决方案,客户可以根据具体需求通过模型微调、增量训练和提示工程,对智能体进行快速定制,而无需搭建完整的开发体系。 在基础设施层面,智谱与算力合作伙伴共同设计和适配底层架构,使平台在计算、网络、训练通信和推理加速等环节形成统一能力。 这套架构支持从约15 亿到 2300 亿参数规模的模型运行,并能够实现跨云、跨芯片的大规模实时部署。同时,这些模型能力还支持配手机、电脑等个人设备。 如果用一句话概括,智谱做的无非就两件事: 一方面负责“造大脑”,另一方面提供让大脑在现实系统中运行的“脚手架”,也就是智能体与工程体系。 在商业交付上,智谱主要通过两种方式变现:本地化部署和云端服务。其中,“本地化部署”是智谱最重要的收入来源,收入占比超过80%。 本地化部署本质上是一种高度定制化的交付模式。 什么意思呢?中国的银行、央企、大型制造工厂,往往对数据安全极其敏感,不愿意把核心数据传到公有云上。智谱AI 就把大模型“打包”,直接部署到客户自己的服务器里,帮他们在其内部环境中构建私有的AI大脑和AI工具。 这种模式虽然“重”,但客户付费能力强。 2024年,虽然本地化部署的客户只有123家,远远低于云端部署的5457家,但其收入却占到了公司总收入的84.5%。 在合作开展前,智谱会先从数据基础和应用场景两方面评估客户需求,包括模型微调与增量训练所需的数据条件,以及数据安全与合规要求,并据此明确模型将落地于单一或多场景应用,确定相应的模型规模和复杂度。 在此基础上,智谱会制定定制化服务方案,选择云端或本地化部署路径,并通过模型微调、增量训练和提示工程完成模型定制。模型上线后,公司再根据客户反馈,不断优化模型性能。 总的来说,智谱试图在B端构建了一套可落地和规模化复制的商业逻辑: 通过真实业务场景的持续使用,形成模型优化与应用扩展相互推动的正向循环,从而逐步强化MaaS 平台的竞争力。 / 02 / 平均一个月烧3亿,竞争压力大 如果说收入增长展示的是智谱的“速度”,那在招股书里更刺眼的,其实是另一条曲线——亏损。 虽然智谱的收入增长足够快,但还是架不住亏损比增长跑得更快。 2022年,公司经调整净亏损只有0.97亿,还不到1个亿。到了2023年,经调整净亏损迅速增长到了6.21亿元,涨了500%多。 更夸张的是,到了去年这一数字干脆增长到了24.66亿元。 也就是说,在两年时间里,智谱的亏损幅度从不到1个亿,增长到了24.66亿元,增长了超过20倍。 到了2025年,仅上半年智谱的亏损就高达17.52亿元。算下来,平均每个月要亏接近3个亿。 这无疑大大消耗了智谱的现金流。要知道,截至2025年6月,智谱的现金及现金等价物只剩下了25.52亿元。 按每个月亏损接近3亿来算,智谱的现金流只能支撑9个月左右。 这下大家明白智谱为什么要急着上市了吧。 大模型竞争的惨烈以及强度之高,即使是在一级市场已经拿了16轮融资钱的智谱也抗不住了。 而这大幅增加的亏损,最主要的来源就是研发费用。 2022年,公司的研发费用为0.84亿元,到了2023和2024年,这一数字迅速增长到5.29亿元和21.95亿元。 拆解开来看,这个21.95亿的支出绝大部分都用于支付算力了。其中,算力花了15.53亿元,占了总研发支出的70%。 对于研发费用的增长,智谱在招股书里给出的解释是: “主要由于我们自2024年初起战略性加大研发投入,用于加速新一代旗舰级基座模型及多模态智能体的开发与迭代,相应带动计算服务费用上升。” 在硅基君看来,更接近现实的背景是,竞争环境的急剧变化。 2025 年初,DeepSeek R1 的快速崛起,对整个模型行业形成了明显冲击。几乎所有主流模型厂商都被迫提速迭代。在 R1 发布不到三个月的时间里,智谱一口气开源了6款核心模型。 如此高密度的模型发布,本质上意味着算力、数据和工程资源的集中投入,而这些成本几乎都会直接反映在研发支出中。 除了研发支出,智谱在营销费用上也花了不少钱。 2022-2024年,公司的营销费用从1514万增长到了3.87亿元,其中用于广告和营销开支的费用就高达2.37亿。 如果抛开竞争压力的话,智谱的毛利率其实并不算低。 2022-2024年,智谱的毛利率分别为54.6%、64.6%和56.3%。这在项目制为收入大头的公司里并不多见,尤其还在如此激烈的竞争之下。 公司也在尝试通过定价策略来改善结构: 一方面,根据使用量、性能需求和高级功能,优化分层定价,引入更具弹性的方案,以扩大客户基础,并对高资源消耗模型设置使用限制,引导高需求客户选择高价值方案; 另一方面,与高价值客户协商定制化定价,使价格更好地反映客户获得的业务价值和服务成本。 但相比定价本身,更根本的问题在于,智谱的商业模式隐含了一个前提:模型能力必须长期维持在行业第一梯队。 而这个前提的成本,正在以远快于收入增长的速度上升。 在大模型竞争中,能力领先不再是一次性投入,而是一场持续消耗算力、资本和组织能力的长期战役。对一家仍处于商业化早期的公司而言,这样的门槛,已经明显超出了传统创业公司的承受区间。 这也是当前大模型赛道最残酷的现实之一。 / 03 / 中国AI落地真实切口: token 消耗猛增,付费答案在B端 当然,除了具体的业务数据,智谱的招股书里还透露出几条更值得关注的行业信号。 第一,AI 的真实价值正在被使用量验证。 一个直接的指标是token 消耗量的变化。2022 年、2023 年、2024 年 12 月以及 2025 年 6 月,智谱平台的日均 token 消耗量分别达到 5 亿、21 亿、0.2 万亿和 4.6 万亿。 短短两年多时间里,这一指标几乎以数量级的速度攀升。无论商业模式如何演进,持续放大的真实调用本身,已经说明大模型正在被大量嵌入具体工作和业务流程之中。 第二,中国AI 的付费重心仍然在企业端。 招股书数据显示,2024 年中国大语言模型市场规模约为人民币 53 亿元,其中机构客户贡献 47 亿元,个人客户仅 6 亿元。 展望 2030 年,整体市场预计增长至 1011 亿元,其中企业级市场规模将达到 904 亿元。 这一结构与美国市场形成了鲜明对比。 以OpenAI 为例,其当前收入中约 75% 来自消费者订阅。这背后反映的并不仅是产品形态差异,而是中美两地在AI商业化路径上的分化:中国市场更强调组织级效率提升,美国市场则更容易从个人工具切入。 第三,智谱再次系统性地披露了其对AGI 演进路径的理解。 智谱认为,AGI分为以下5个阶段: 1)在预训练阶段,模型学习理解、生成并使用人类语言进行基本交流。 2)在对齐与推理阶段,模型进一步与人类意图对齐,具备推理与规划能力,同时提升安全性、降低幻觉,并实现语言能力与图像、视频、语音及行动能力的协同。 3)在自主学习阶段,模型通过自我评估、自我反思与沉思机制,从自身的推理过程和行为结果中持续改进能力。 4)在自我认知阶段,模型在较少或无需人工监督的情况下,通过对自身行为和推理结果的持续观察与分析,逐步形成稳定的内部表征和决策偏好。 5)在意识智能阶段,模型能够对自身内部状态及外部环境进行更系统的感知与建模,表现出更高层次的环境理解与自我调节能力。 目前,智谱推出的具备反思能力的智能体AutoGLM-Rumination,已经进入其定义的“自主学习阶段”。 / 04 / 总结 回到整体来看,智谱的招股书并不只是一次融资材料的披露,更像是一份行业切片。 一方面,它展示了大模型商业化正在加速落地,真实使用量和企业付费意愿都在持续放大;另一方面,它也清晰地暴露出这一赛道的残酷现实——能力领先需要持续、重资本投入,而竞争强度正在迅速抬高门槛。 在这样的环境下,智谱既是受益者,也是承压者。这或许正是当前中国大模型公司最真实的处境。
CMU教授万字反思:西方式AGI永远到不了
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI “不是AGI还没到,而是永远到不了。” CMU(卡内基梅隆大学)教授、艾伦人工智能实验室研究员Tim Dettmers从硬件瓶颈、资源成本、现实应用三重维度论证: 为什么AGI从一开始,就是个违背物理规律的幻想工程? 一篇长文,指出GPU性能峰值停在2018年,机架级优化2027年耗尽潜力,AI每提升1%的能力,资源消耗要翻好几倍…… 核心观点 AGI的讨论都在回避“计算的物理枷锁” 智能不是飘在天上的想法,而是得靠电脑、芯片这些实实在在的东西算出来,而这些东西都得遵守物理规律。 计算从不是抽象概念,所有智能都要扎根物理现实。 这也是Dettmers反驳AGI的核心,很多人在聊到AGI时总把它当成抽象的哲学概念,但很多人忽略了硬件实现,而硬件必然受到物理规律限制。 第一个是信息移动成本。 比如有效计算需要平衡全局信息传到局部和局部信息整合,可信息移动的成本会随距离呈平方级上升;芯片缓存也能说明问题,L2、L3缓存比L1 大,但却因物理位置更远而速度更慢。 现在芯片里的晶体管越做越小,虽然能降低计算成本,但内存反而越来越贵,现在芯片上几乎所有空间都给了内存,计算单元占比微乎其微。 就算是现在的主流AI架构Transformer,看似是算法层面的突破,本质上也是对硬件信息处理效率的物理优化,且也已经接近物理最优。 第二个是线性进步需要指数级资源。 想让系统更精准、高效,每多一分改进,需要的资源都会呈指数级增长。 物理层面,资源聚集会因空间、时间限制变慢;理论层面,相关联的想法会导致收益递减,就算是创新,也多是对现有思路的微调,难有突破性效果。 物理学就是典型例子,过去个人能取得理论突破,现在却很难。 实验物理更甚,像大型强子对撞机这样耗资数十亿的设备,也没能解开暗能量、暗物质的谜团。 AI领域同理,想靠堆资源实现AGI的通用能,早晚会超出实际承受范围。 GPU熄火了 而且,支撑AI快速发展的燃料GPU,也进入了熄火阶段。 可能很多人会默认GPU会连续迭代,为AGI提供算力支撑,但Dettmers抛出一组数据: GPU的性价比在2018年就到了峰值,之后的16位精度、张量核心、HBM内存等改进,都是一次性功能,潜力很快会耗尽。 现在行业寄希望的机架级优化,比如更高效地调度AI需要的键值缓存,但这种优化的思路很简单,本质上只有一种最优设计方式。虽然实现起来要花时间做工程,但整体设计没什么新意。 像OpenAI这样的公司吹自己的基础设施多厉害,但其实大家的差距很小;唯一能拉开点距离的,就是机架或数据中心级别的小优化,但这些优势也撑不了多久,大概2026-2027年就会耗尽。 也就是说,GPU这条算力增长线,已经快走到头了。 有人说把模型规模做大还能提升AI性能,Dettmers并不否认这种规模法则的作用,但问题在于—— 过去GPU的指数级进步,能抵消规模扩张的资源消耗,花一块钱就有一块钱的效果;现在GPU不进步了,想再获线性提升,就得投入指数级成本,花几块钱才有一块钱的效果,这在物理上很快会不可行。 结论:AGI是幻觉 AGI的通用,意味着要能处理物理世界的复杂任务。 但物理世界数据的收集成本太高。举个最简单的例子,工厂的机器人要应对零件磨损、天气变化这些突发情况,需要海量数据训练,还得花大价钱做实验。 再看超级智能,它假设AI能自己越变越聪明,但现实是,变聪明需要资源…… 想让AI自己优化,刚开始调调参数或许还能进步,但到达一定水平之后,想要多进步1%,可嫩好多花10倍的钱和算力,那么问题来了: AI又不能凭空造资源,怎么做到无限变强呢? 所以,Dettmers认为AGI不会实现,超级智能也是幻想。 不过呢,在他看来,AI的未来不是超越人类,而是在物理约束内渐进式的改进,靠经济扩散和实际应用创造价值。 比如让算法更省算力、让更多人能用得上开源AI模型,把AI用到看病、种地、造东西这些实处,一点点帮人提高效率。 Dettmers指出,美国那边总想着“赢者通吃”,巨头们砸钱搞超级智能,一门心思想做个啥都会的AGI,却不管这东西到底现不现实,能不能用在实处。 而在这一点上,中国更聚焦落地实用,看的是AI能不能提升生产力,还用补贴推动AI融入各行业,这样就更贴合现实。
罗永浩质疑大金中央空调售后:一年维护费1.5万元是否合理?
凤凰网科技讯 12月20日 昨日,罗永浩在社交媒体发文,公开质疑大金中央空调的售后维护价格体系及服务态度。据罗永浩透露,其在上海租住的房屋面积约为两百多平米,共安装了7台大金空调内机。他在换季申请官方清洗服务时获悉,该品牌滤网设计寿命仅为一年且“不可清洗只能更换”,算上清洗费与耗材更换,每年的维护成本高达15000元左右。面对这一报价,罗永浩直言即便以其经济实力也感到颇有压力。 除了高昂的年度维护总价,具体的单项收费标准也引发了争议。罗永浩详细描述了与售后人员的沟通过程:当他询问滤网更换流程时,客服人员现场演示了极为简单的“一抠一推”操作,但仅这一动作的单次安装费即报价283元。 此外,该品牌客服人员在沟通过程中表现出的服务态度也遭到诟病,据称在面对消费者关于费用过高及“如何用得起”的质疑时,工作人员多次出现不耐烦的“翻白眼”行为,并回应称“可以不清洗不换滤网”。罗永浩对此类高端家电的售后定价逻辑表示不解,并向行业内人士公开求证此类服务收费是否属于行业常态。 大金工业株式会社1924年在日本创立,是全球唯一集空调、冷媒、压缩机研发生产销售为一体的跨国企业。公司在全球175个国家和地区开展业务,产品种类达5000余种。1995 年大金正式进入中国市场,在苏州建立生产基地。在中国中央空调市场,大金家装零售和多联机市场占有率双超20%,位居首位。
谷歌把AI大模型能力“压缩”进手机,以后玩游戏全靠“吼”
IT之家 12 月 20 日消息,谷歌于 12 月 18 日发布公告,宣布推出 FunctionGemma,是基于 Gemma 3 270M 微调的专用模型,目的是将强大的函数调用(Function Calling)能力引入手机等边缘设备。 谷歌表示,随着行业从单纯的对话式接口转向主动式智能体(Agent),开发者对模型本地执行任务的需求日益迫切。 FunctionGemma 正是为此而生,它不仅继承了 Gemma 系列的轻量化优势,更通过专项微调,让边缘设备(如智能手机和嵌入式系统)无需依赖云端算力,能够精准理解用户指令并调用相应功能。 与通用大模型不同,FunctionGemma 专为“定制化”设计。它既能与人类自然对话,也能生成结构化的函数调用代码来指挥计算机。 在 Google 进行的“移动操作”(Mobile Actions)测试中,该模型展现了惊人的可塑性:未经微调的基础版本准确率为 58%,而经过针对性微调后,其执行复杂指令(如“明天约午饭并添加到日历”、“帮我把昨天拍的美食发给老妈”)的准确率跃升至 85%。 为了在算力和电池受限的边缘设备上流畅运行,FunctionGemma 采用了极致的轻量化设计。它利用 Gemma 的 256k 词表高效处理 JSON 数据和多语言输入,大幅降低了延迟。 该模型目前已适配 NVIDIA Jetson Nano 等开发板及主流移动设备,甚至能作为“交通指挥官”,处理简单任务并将复杂逻辑路由至更大的 Gemma 3 27B 模型。 为了降低开发门槛,谷歌为 FunctionGemma 构建了广泛的生态支持。开发者现在即可通过 Hugging Face、Kaggle 下载模型,并利用 Unsloth、Keras 或 NVIDIA NeMo 进行微调。 在部署方面,该模型全面支持 LiteRT-LM、vLLM、Llama.cpp 和 Ollama 等工具。谷歌还同步发布了 TinyGarden 游戏演示和“移动操作”微调指南,展示了如何用自然语言控制虚拟农场或手机系统设置,帮助开发者快速构建属于自己的私有化、低延迟端侧智能体。IT之家附上演示视频如下: 无论是“为明天的午餐创建一个日历事件”、“将 John 添加到我的联系人”还是“打开手电筒”,该模型都能解析自然语言并识别正确的操作系统工具来执行命令。 在这个互动小游戏中,玩家使用语音指令来管理一块虚拟土地。例如,你可以说“在最上面一排种向日葵并浇水”,模型会将指令分解为具体的应用程序功能,例如针对特定网格坐标的“种植作物”或“浇水作物”。 使用自然语言解决有趣的物理模拟谜题,款游戏完全在用户浏览器中本地运行,由 FunctionGemma 和 Transformers.js 提供支持。
OpenAI估值冲击8300亿美元!奥特曼背水一战:我们无路可退
新智元报道 编辑:元宇 【新智元导读】表面是8300亿估值的风光无限,实则是被算力军备竞赛绑架的生死时速,OpenAI正在用一场万亿规模的豪赌,换取通往AGI的唯一门票。 OpenAI又双叒要融资了! 据知情人士透露,OpenAI正在与亚马逊等投资者接触,计划筹集1000亿美元资金。 如果能够筹得目标金额,OpenAI的投后估值可能升至约8300亿美元。 这个数字,是它2026年预计营收的32倍! 这轮目标1000亿美元的融资,或许也是开启OpenAI万亿美元估值IPO的前奏。 《Big Technology Podcast》主持人Alex Kantrowitz(左)与OpenAI联合创始人兼CEO奥特曼(右) 在19日的《Big Technology Podcast》节目中,奥特曼暗示OpenAI将进行IPO,因为它的规模需要巨额资金,但他本人对于成为一个上市公司的CEO「零兴趣」。 OpenAI缺钱吗?这似乎是一个悖论。 8亿周活用户,100万家企业用户,这些让OpenAI引以为傲的用户增长数字,也意味着巨大的算力和基础设施投入。 此外,AI军备竞赛,也是一场根本停不下来的巨额烧钱游戏。 OpenAI总裁(President)Greg Brockman 正如OpenAI总裁(President)Greg Brockman所言,「算力支持了我们首次图像生成功能的上线……我们还有更多功能即将推出……也需要更多的算力」。 产品需要算力,算力需要资本。 模型训练、推理和全球部署,这些都会带来指数级攀升的算力和基础设施投入。 2025年,几乎每个月OpenAI都会签署一笔价值数十亿美元的数据中心协议。 奥特曼在11月提到OpenAI与合作伙伴关于数据中心建设与租赁的长期合同时表示,「我们正在规划未来8年约1.4万亿美元的投资承诺」。 这些投资承诺,叠加其自身的全球数据中心扩张,以及AI芯片和定制硬件等巨额资本支出,使得OpenAI近一年来频繁出现在各种融资交易之中。 据路透社报道,孙正义正在全力押注OpenAI,通过清仓英伟达58亿美元股份,减持48亿美元T-Mobile股份,以及大幅裁员力保年底可以履行为OpenAI输血225亿美元的承诺。 「年度公司」光环之重 当选2025「雅虎财经年度公司」,这是资本、市场与产业对OpenAI投出的信任票。 此时距离ChatGPT 3.5发布已有3年。 雅虎财经执行主编Brian Sozzi(左)与OpenAI首席财务官Sarah Friar(右) 这一奖项自2014年开始设立,旨在表彰在当年对市场表现、行业发展与投资者关注度具有显著影响的公司。 雅虎财经认为,OpenAI是今年对投资叙事影响最为深远的公司,因此将这一荣誉授予它。 OpenAI首席财务官Sarah Friar在接受雅虎财经执行主编Brian Sozzi的采访时称,「整个生态系统开始明显向我们靠拢,和我们一起共建这个未来。」 2025年的科技头条,几乎处处可见OpenAI的身影,这一年来它接连与微软、甲骨文、AMD、英伟达等巨头达成重量级合作协议。 在这一系列的交易中,凡是传出与OpenAI合作的公司股价,大都出现了上涨。 7月22日,甲骨文宣布与OpenAI达成合作协议后,其股价在接下来的两个月里累计上涨了38%。 10月6日,AMD宣布与OpenAI达成合作协议后,其股价在单日内暴涨24%。 CoreWeave的股价在3月至10月期间上涨逾两倍,期间该公司先后宣布了三项为OpenAI提供算力的合作。 正如RBC资本市场董事总经理Rishi Jaluria所言,押注AI主线仍是资本市场这轮回调的重要因素,其中OpenAI对整个股票市场的影响非常显著。 而OpenAI在10月份在完成了公益型公司(Public Benefit Corporation)重组之后,也透露了上市的计划,估值更是不断攀升。 在资本市场的影响力和亮眼表现,为OpenAI赢得了雅虎财经「年度公司」的荣誉,但光环之下更多的却是压力。 一方面,ChatGPT用户规模、企业客户与收入高速增长,它的周活跃用户已经达到8亿,企业客户超过100万家。 如果盈利能力跟不上,这些增长就会变成负担。 另一方面,是在AI军备竞赛中万亿美元规模的投入。 前面提到,OpenAI已做出高达约1.4万亿美元的基础设施相关承诺,同时加速推进自建数据中心和硬件产品的宏大计划。 公司内部预计,2025和2026年的现金投入将达到260亿美元左右;未来四年在服务器和高端人才上的投入将超过1000亿美元。 2025年,OpenAI的营收预计约为130亿美元,放在千亿级美元的投入面前根本入不敷出。 更让OpenAI紧张的是竞争对手的表现。 谷歌发布Gemini 3,并迅速获得开发者高度评价,奥特曼不得不向内部发出「红色警戒」信号,放缓商业化节奏,将一切资源集中在ChatGPT的产品研发上。 投入不能减,扩张不能停,商业化步子还不能太快,这些都是OpenAI维持领先地位所必须付出的筹码。 在通往万亿市值的道路上,OpenAI已经美没有退路。它必须跑得比谷歌快,比开源模型快。 在激烈的AI竞赛中,第二名通常意味着被市场遗忘。 微软不再是唯一 过去很长时间,OpenAI一直与微软深度绑定。 从2019年起,微软累计向OpenAI投入超过130亿美元,提供算力、资金和商业化通道。 2023年,在旧金山举行的OpenAI开发者日活动上,奥特曼向微软CEO纳德拉致意 这种深度绑定,在早期为OpenAI提供了保护,但同时也意味着束缚。 OpenAI的算力优先权、模型销售权,都牢牢掌握在微软手中。 今年9月,OpenAI与微软签署了一份非约束性谅解备忘录(MOU),标志着双方进入新的合作阶段: 微软保持作为主要投资者与云服务供应商的角色,同时OpenAI获得更大自由探索架构与合作伙伴,支持其组织重组与业务扩展。 微软依然重要,但不再拥有优先拒绝权。 去微软化让OpenAI获得了更大的融资和合作自由,但也意味着它必须为自己的选择承担全部后果。 11月3日OpenAI与AWS签下了一份高达380亿美元的算力合同。 协议期为7年,OpenAI将通过AWS获取大规模云算力资源以支撑其人工智能训练与运行需求。 这次合作释放的信号非常明确。 它标志着OpenAI与微软的备忘录开始生效,它不再仅依赖微软Azure,而是扩大与AWS的合作,不再把所有筹码押在单一云厂商身上。 百亿美元背后 OpenAI更想要什么 与AWS之间380亿美元的合作,也推动了OpenAI与亚马逊的合作。 据《The Information》披露,亚马逊正在与OpenAI洽谈一笔可能达到或超过100亿美元的投资。 但这场谈判的重点,并不只是资金规模。 一方面,该交易可能将有助于OpenAI履行刚刚与AWS达成的380亿美元服务器租赁合同,另一方面也将加速AWS的Trainium芯片商业化进程。 据知情人士透露,作为这笔交易内容之一,OpenAI将计划在部分场景中使用AWS的Trainium芯片。 此外,亚马逊还可能与OpenAI讨论电商层面的合作机会。 过去几个月,OpenAI希望将ChatGPT打造成一个「购物入口」,并考虑通过向零售商导流来收取费用。 作为顶级企业大客户,OpenAI还希望向亚马逊出售企业版ChatGPT。 目前,相关谈判仍在推进中,具体条款仍可能发生变化。 这次融资交易,也可能引发更大规模的后续募资,吸引更多投资者参与。 若此项交易达成,亚马逊将与英伟达等多家大型科技公司一样,成为公开投资OpenAI的「开发商企业」之一。 对于OpenAI来说,采用AWS的Trainium芯片,意味着削弱对英伟达单一芯片供应的依赖。 在此之前,OpenAI还曾与AMD、博通达成合作,并在今年6月份开始租用谷歌的TPU(Tensor Processing Units)芯片来为ChatGPT等产品提供算力支持。 这些举措并不是要替代英伟达,而是让OpenAI在算力供应链上重新获得谈判空间。 循环式交易 和没有退路的未来 过去一年,OpenAI频繁出现在许多被媒体称为「循环式交易」的融资事件中。 7月22日,甲骨文宣布与OpenAI签署一项价值3000亿美元的数据中心协议。这标志着OpenAI在超大规模基础设施层面的长期绑定。 10月6日,OpenAI宣布与AMD达成一项数十亿美元的合作协议。AMD首席执行官Lisa Su表示,OpenAI将为AI世界奠定「基础」。 3月至10月,CoreWeave先后宣布了三项为OpenAI提供算力的合作。 在这一系列的交易中,投资CoreWeave,将上游芯片产能回流为算力;入股AMD,绑定GPU供应;再到AWS,资本与基础设施彼此强化。 它们一边消化OpenAI的巨额支出,一边将OpenAI推到AI产业的中心,这也是为什么市场会认真讨论其7500亿美元估值,甚至万亿美元IPO的原因。 那么,从长期看,OpenAI这台引擎还能持续高速运转吗? 据汇丰银行预计,到2030年,大模型的消费级市场年收入将达到1290亿美元,而企业级大语言模型市场规模有望攀升至3860亿美元。 目前,OpenAI拥有8亿周活跃用户、100万企业客户,并在2025年实现了130亿美元的营收。 据OpenAI内部预测,公司收入到2030年有望达到2000亿美元。 OpenAI已通过股权融资筹集超过450亿美元,并在近期一轮私募股份交易中获得了5000亿美元的估值。 如果其估值能够达到约8300亿美元,约相当于其2026年营收的32倍(根据《The Information》披露的信息显示,OpenAI预计2026年营收约256亿美元)。 路透社报道称,OpenAI最早可能在2026年底以1万亿美元估值上市。 在这场万亿美元的AI豪赌中,OpenAI已无退路,既不能慢,也不能错。
摩尔线程张建中:智算集群将做到50万卡、100万卡规模
科创板上市后,“国产GPU第一股”摩尔线程(688795.SH)12月20日召开了首届MUSA开发者大会,公布了新的GPU架构和基于该架构的三款芯片。 摩尔线程被认为是国内GPU公司中最像英伟达的一家,其产品结构与英伟达有一定相似度。与英伟达的迭代节奏类似,2022年至2024年,摩尔线程每年迭代一个GPU架构。2022年的春晓架构,代表产品包括第一代面向云计算的AI智算板卡S3000,2023年推出的曲院架构,对应第一代训推一体智算板卡S4000。2024年发布平湖架构并推出基于该架构的板卡S5000。 此次推出的新架构花港,其算力密度比前一代提升50%,支持从FP4到FP64的全精度计算,支持十万卡以上规模智算集群扩展,并内置AI生成式渲染架构。此次推出的三款新芯片是华山、庐山和长江,分别是AI训推一体芯片、图形渲染芯片和SoC(系统级芯片)。 业界正通过支持低精度、进行混合精度计算来提升计算效率。摩尔线程AI智算板卡支持的计算精度范围也有所扩大。摩尔线程上一代板卡S5000开始支持FP8精度,新一代的华山则开始支持FP4。英伟达目前出货的主力芯片Blackwell也支持FP4精度计算。 从算力看,摩尔线程此前公开了一些AI智算板卡的性能数据。其中S4000板卡在FP32、TF32、FP16、INT8精度下的算力分别为25 TFLOPS、49 TFLOPS、98 TFLOPS、196 TOPS,最大功耗450W。对比2020年英伟达推出的A100 80GB PCle(80GB),A100在上述精度下的算力分别为19.5TFLOPS、156TFLOPS、312TFLOPS、624TOPS,最大功耗300W。相比之下,S4000在一些精度下的算力表现和功耗表现不及A100。 上一代板卡S5000此前未公开具体性能,此次开发者大会上,摩尔线程创始人、董事长兼CEO张建中则透露了一些信息。他表示,在DeepSeek-R1全量模型分布式推理场景中,S5000的Prefill Only、Decode单卡吞吐量,分别是H20等常见芯片产品的约2.5倍、1.3倍。新一代华山的浮点计算能力则介于英伟达Blackwell和Hopper之间,华山的访存带宽与Blackwell接近,高速互联带宽在Hopper和Blackwell之间。 AI智算板卡支持的集群规模也在提升。此次摩尔线程推出了万卡智算集群。张建中表示,2024年摩尔线程推出第一代千卡集群,今年达到1万卡,接下来还要做10万卡、50万卡、100万卡。 张建中表示,万卡智算集群的工程难度来源于超大集群供电及液冷散热、超大规模互联组网及通信、集群训练有效算力、训练稳定性与可用性、模型训练精度与效果测评等方面。大模型训练的发展趋势则包括模型走向万亿参数、训练集群规模迈向10万卡、训练精度从FP16走向FP8和FP4,未来需要解决一系列挑战,包括实现高效并行训练、实现FP8和FP4低精度训练、实现高性能通信等。 摩尔线程此次还推出了具身智能仿真训练平台和AI算力笔记本MTT AIBOOK。 摩尔线程12月5日在科创板上市,发行价114.28元/股,随后股价波动颇大。12月11日该股收盘价超900元/股,随后股价有所回调,12月19日收盘价664.1元/股。摩尔线程尚未盈利,截至今年6月底,公司累计未弥补亏损16亿元。该公司预计2027年可实现合并报表盈利,但相关前瞻性信息具有不确定性。
摩尔线程发布新一代GPU架构,打造MUSA生态对标英伟达CUDA
图片由AI生成 登陆A股科创板引发国产芯片股狂欢后,市场对这家公司后续的研发、产品、经营愈发关注。 GPU行业的竞争,本质上也是开发者生态的竞争。为此,摩尔线程在12月20日-21日举办首届MUSA(MUSA Developer Conference)开发者大会。 在今天(12月20日)上午的发布会上,摩尔线程创始人、董事长兼CEO张建中发布了新一代GPU架构“花港”,AI训推一体新GPU“华山”,游戏领域专业图形GPU“庐山”、智能SoC“芯片”长江等产品,以及KUAE万卡智算集群。 根据发布会现场的介绍,即将于2026年量产的相关产品较上一代性能大幅提升。而这背后,继续对标、追赶甚至挑战以英伟达为代表的国际领先芯片产品、架构及生态,成为了发布会的隐含主题。 截图来自MUSA开发者大会现场直播视频 加入英伟达,对标英伟达,挑战英伟达 身着纯白半袖T恤登台作主题演讲的张建中,虽然与一贯穿着黑色皮夹克的英伟达CEO黄仁勋风格迥异,但在国产GPU厂商中,普遍认为,他和他的摩尔线程可能是最理解英伟达的。 该公司董事、高管及员工团队中不少都是英伟达中国的旧部,张建中本人更是2006年就加入了英伟达,曾任公司全球副总裁、大中华区总经理,直到2020年9月摩尔线程正式运营前一个月才离职。 摩尔线程在经营模式、产品体系和发展方向上,也一直对标着英伟达,尤其是在生态和基础算力设施构建、对物理AI的布局、高毛利率等方面,相比于“国产GPU四小龙”中刚刚上市的沐曦股份,以及宣布赴港IPO的壁仞科技等公司来说。 不过,摩尔线程也正在尝试超越英伟达。其高调宣扬的“全功能GPU”,是尝试在一颗GPU芯片上集成支撑AI计算、图形渲染和音视频解码等核心功能,相对来说更注重平衡性、性价比和便捷性。 不过在性能上,包括摩尔线程在内的国产GPU,仍与以英伟达所有的、代表的产业顶尖水准的产品间有不小差距。无论这些美国公司的先进芯片,未来是否可以全面参与中国市场的竞争,对于国产GPU公司来说,弥补其中差距都至关重要。 有意思的是,在首届全功能GPU发布会上,张建中介绍核心产品的更新时,也加入与英伟达产品的对比的内容。 摩尔线程此次发布的核心是花港新一代GPU架构。 从2022年到2025年,摩尔线程保持着每年一迭代的节奏,推出并量产了四款GPU架构。根据张建中的介绍,2026年将量产第五代花港,其算力密度将提升50%,能效提升10倍,能支持十万卡以上规模智算集群。 而他称,基于该架构推出的AI训推一体芯片华山,在浮点算力、访存带宽、访存容量、高速互联带宽方面已全面超越英伟达的Hopper系列芯片。 锁定国产算力替代的窗口期 当前正值AI算力需求爆发和国产化替代的关键窗口期。 此前,在受美国出口禁令影响前,中国市场中主流的AI芯片正是英伟达经“阉割”后特供中国的H20。直到今年12月,特朗普才宣布更先进的英伟达H200获准出口中国,但相关产品目前并未真正“重返战场”,黄仁勋也表示“现在已不知道中国是否会接受H200”。 目前从MUSA发布会上披露的信息来看,摩尔线程的新产品或许会对英伟芯片未来在华的出货前景造成一定的压力。 相对于英伟达目前在美国市场主流发货的Blackwell系列芯片,摩尔线程方面的数据显示,华山芯片在访存容量上已实现超越,访存带宽处于同一水平线,但是,在浮点算力和高速互联带宽方面还有不小差距。当然,英伟达已经预计明年也将量产下一代超级芯片Rubin。 截图来自MUSA开发者大会现场直播视频 张建中在发布会上明确表示,在新的AI芯片性能和KUAE万卡智算集群提供的软硬件协同优化后,同数据量摩尔线程在DeepSeek-V3和R1等主流大模型训练的下游任务测评分数已经高于英伟达的Hopper芯片。 “过去,大部分大模型开发者不敢用国内的卡训练,怕训练的结果不好,但我们现在可以很有信心地跟大家说,如果你以前是在Hopper上做训练,你今天用我们的新产品去训练你的大语言模型,效果只会比它好,不会比它差。”张建中说。 在国产替代的诉求之下,在中国本土市场,国内推理芯片已经大量取代外国产品。在摩尔线程等公司的推动下,信创、智算中心芯片国产化率大幅提升,但互联网数据中心,尤其是大模型训练场景,仍对英伟达H系列芯片需求度较高。 从单点突破转向平台与生态构建 想要真正赶超英伟达,除了芯片性能,生态构建上的挑战更为迫切。在我们看来,摩尔线程这场大会很重要的一个目标是,建立类似英伟达CUDA的,以MUSA架构为核心的开发者生态护城河。 发布会上,中国工程院院士、清华大学计算机教授郑纬民称,在全球经贸变局之下,“主权AI”已变成各国必须应对的现实问题。 在构建“主权AI”方面,算力自主、算法自强和生态自立是核心支撑。其中生态问题显得尤为重要,因为“不是你有芯片能跑一个软件就可以了,关键是要让开发者愿意用这个芯片”。 但对此,张建中也颇为乐观。他表示,只要以摩尔线程MUSA为代表的国产英伟达CUDA生态替代栈做得足够好,就能让足够多的开发者愿意长期在这套栈上写代码,解决生态自立的问题。 截图来自MUSA开发者大会现场直播视频 张建中也在发布会上宣布公司的Musa5.0全面升级,能够支持目前全功能GPU中包括国内、国外的所有生态。他还表示,生态构建需要更多开发者加盟,呼吁“用自己的生态来开发自己的应用”,让整个国产计算集群能够得到更广泛的应用。 此前,摩尔线程的IPO招股说明书中也承认,英伟达CUDA生态在行业生态内处于垄断地位,公司未来拓展业务将面临GPU芯片研发难度高及计算生态壁垒构建困难的挑战。 可见后续,生态构建会是摩尔线程未来发力的重点,这也将成为其公司从技术发布迈向生态构建的关键一步。(作者|胡珈萌,编辑|李程程)
奥特曼凡尔赛自曝:我不想当上市公司CEO!砸1.4万亿豪赌AGI
编辑:Aeneas 【新智元导读】奥特曼的新播客一上线,就曝出了大金句:「我一点都不想当上市公司CEO!」然而,他却苦恼自己躲不掉。如今,OpenAI正豪赌1.4万亿算力,押注AI需求将碾压人类极限。奥特曼直言:亏多少都不怕! 最近,OpenAI CEO奥特曼又上了一个播客。 在这个名为《Big Technology Podcast》的播客中,奥特曼曝出不少金句。 比如,「对于当上市公司CEO,我一点都不兴奋」。听起来是不是有点耳熟? 果然,播客一放出没几个小时,这条金句立刻被外媒发现,火速发成文章。 并且,访谈中奥特曼还直面了许多犀利的问题。 比如,OpenAI的收入如何与1.4万亿美元的算力投入承诺相匹配? 公司的债务状况是不是很糟? 有人评论说,这次采访给人的最大收获,就是奥特曼终于讲清了OpenAI的财务模式到底是怎么运作的。 看完之后的感受是,「他们的资本规划流程比我之前想象的更有逻辑。」 如果假设,他们在最后一轮私募融资中筹集750亿美元(给传闻中的1000亿美元打个75折),随后通过IPO再筹集750亿美元,那么很有可能—— OpenAI将拥有足够的资本,支撑自身走到实现正向现金流的那一刻。 所以,播客中还有哪些亮点?让我们来一一盘点。 奥特曼:我一点都不想当上市公司CEO 当被主持人问道「你想不想成为一家上市公司的CEO」时,奥特曼非常坦率地回答:「一点都不想。」 不过紧接着,他又补充了一句:「不想上市,但可能不得不上市。」 奥特曼直言,作为一家仍然需要巨额资本投入的公司,OpenAI迟早会触及股东人数、融资结构这些现实问题。 从这个意义上说,上市不是情绪选择,而是结构性的结果。 对于上市,他的态度非常复杂。 好的一面,是能让更多普通人参与价值创造;然而糟糕的一面,就是短期主义、季度压力和舆论噪音。 「这会很烦,但也许是必须经历的阶段。」 而真正让他警惕的,不是资本,而是「被低估的影响力」。 有趣的是,整场访谈中,奥特曼反复表现出一种罕见的克制——他比大多数人,都更害怕AI的成功。 原因很简单:当今的AI模型已经足够强,但社会却远没准备好,使用方式、制度、伦理,都是全面滞后的。 GPT-5.2是AGI吗? 主持人抛出了一个尖锐的问题:「GPT-5.2已经在几乎所有方面比人类更聪明,这难道不就是AGI吗?」 奥特曼表示,AGI的问题,不是「到了没有」,而是「从没被定义清楚」。因为,AGI的定义没有统一指标。 GPT-5.2到底缺了什么?奥特曼表示,它缺少一个关键能力——意识到「我不会」,并主动去学习如何变得会。 但紧接着,奥特曼话锋一转,说了一句非常耐人寻味的话:即便停在现在这个水平,世界仍然远远没有「用完」这些模型的价值。 从AGI到「超智能」,也许才是真正的分界线 然后,奥特曼提出了一个大胆的新视角:与其纠结AGI,不如直接讨论「超智能」。 当一个系统能比任何人类更好地担任总统、CEO、科研机构负责人,且不需要人类辅助,那才是真正意义上的Super intelligence。 他还提到,在国际象棋早期,是人类+AI>单独AI。 再往后,就是纯AI>人类+AI。 在有些智能层级,人类只会成为干扰项。 谷歌和DeepSeek,让我们拉响红色警报 奥特曼承认:当Gemini3 发布、当DeepSeek出现、当竞争对手在某个维度突然追近,OpenA 内部就会进入一种「战时状态」应急模式。 红色警报,在OpenAI内部早已是常态:通常持续6–8周,集中修补产品短板,加速发布关键更新,然后恢复到正常节奏。 竞争,逼着OpenAI变得更好。 ChatGPT的周活用户已经逼近9亿,而奥特曼的判断是:这个领先优势不会缩小,反而会继续扩大。 这是因为,AI的竞争早就不是「哪个模型参数更多」这么简单了,用户真正依赖的,是一个稳定、熟悉、能持续积累价值的平台。 OpenAI真正害怕的,从来不是「别人追上模型」,而是错过下一次平台级跃迁的窗口。 1.4万亿算力赌局,OpenAI在押什么 接下来,是采访中最硬核的部分——1.4万亿美元算力赌局,OpenAI到底在押什么? 在未来多年,OpenAI计划在算力和基础设施上总体投入1.4万亿! 这个数字,立马引发了整个市场的集体不安。 对于这个反应,奥特曼十分清楚。他反复强调:这不是一笔「短期豪赌」,而是一条被需求反复验证过的长期曲线。 算力不是「成本」,而是生命线? 奥特曼言简意赅地总结:算力,是限制一切可能性的瓶颈! 他的话很直白:「如果人们真的知道我们能用更多算力做什么,他们只会想要更多。」 这个判断,是基于一个反复出现的事实铁律:每当模型更强一点,每当延迟更低一点,每当成本再降一点,需求就会立刻成倍放大。 为了帮大家理解,奥特曼做了一个类比。 假设今天顶级AI公司每天输出10万亿级别的token,假设全球80亿人类,每人每天「输出」2万token的思考量,那么我们就会发现一个很可怕的趋势。 AI输出的「智力劳动规模」,正在逼近,甚至未来会远超全人类的总和! 所以,投入1.4万亿美元的算力,并不夸张。 算力真正要买的,是「还没被发明的未来」 当被追问「这么多算力到底要干什么」时,奥特曼给出的答案,并不是更多聊天机器人。 最令他兴奋的方向只有一个——科学发现,比如新材料、新药物、疾病机理、基础物理与数学问题等。 在奥特曼看来,科学进步是推动世界整体变好的最高阶变量,而AI刚刚开始触碰门槛。 奥特曼表示,算力不是一次性投入,而是「提前十年的工程」。 一个外界经常忽略的现实是:算力建设的节奏,永远落后于模型需求。 比如数据中心建设周期极长,芯片、能源、网络都需要提前规划。 奥特曼直言,他们现在做的每一个基础设施决策,都是在为一个尚不存在、但高度确定会到来的需求做准备。 这就是为什么,即便知道风险存在,他们仍然选择继续扩张。 所以,OpenAI会不会过度建设了?奥特曼给出一个十分硬核的回答。 到目前为止,我们从未遇到过算力无法被变现的情况。 在他看来,真正的风险从来不是「算力太多」,而是算力不够,限制了可能性。 所以,1.4万亿美元买的不是服务器,而是一个前提假设:人类对智能的需求,远未接近上限。 OpenAI,可能要亏上千亿美元 当1.4万亿美元的算力计划被摆到台面上,质疑声越来越大——钱,从哪来?该怎么赚回来? 问题极其严峻,但奥特曼在访谈中的态度,反而出奇的冷静。 外界流传说,OpenAI在未来几年可能累计亏损上千亿美元,直到2028~2029年左右才接近盈利。 奥特曼并不否认这一判断,但他立刻补充了一个前提: 如果我们停止扩大训练规模,现在就可以盈利。 也就是说,OpenAI的亏损并不是商业模式失效,而是主动选择把钱继续投进训练和算力。 在OpenAI的账本里,存在一个关键拐点—— 在早期,训练成本会占绝对的大头,每一次新模型都是巨额投入。 而在后期,推理会成为主要支出,不过,推理是直接产生收入的。 奥特曼的判断是:随着模型成熟,推理收入会逐步「淹没」训练成本。 指数级增长,是人类最难直觉理解的东西 当被问到「20亿、200亿收入,怎么撑得起万亿级投入」时,Sam 把话题拉回了一个更根本的问题:人类天生不擅长理解指数增长。 如果你用线性思维去看算力投入,它永远显得「过于激进」;但如果你把算力、模型能力、使用频率、收入增长放在同一条指数曲线上,逻辑就会完全不同。 接下来,奥特曼承认了一个残酷事实:OpenAI,从来没有算力富余过。 算力不足,就导致产品受限,然后收入增长被压制,会导致更难扩建算力。这就是一条反向锁死的链条。 而现在,OpenAI正在做的,就是一次性跳出这个约束区间。 为什么OpenAI的债务并不疯狂? 市场对「债务」最恐慌的点在于:AI是一个新行业,需求是否稳定,没人能100%确定。 但奥特曼的看法非常务实:没有人怀疑AI基础设施「有没有价值」。真正的不确定性,只在于谁来用、什么时候用、用多快。 在他看来,为数据中心融资、为长期基础设施引入债务,本质上和历史上修铁路、建电网、铺互联网没有本质区别。 当然,他也并不否认:过程中一定会出现波动、泡沫、甚至清算。但是,这并不会改变长期方向。 总之,OpenAI不是在赌「不会亏钱」,而是在赌——智能需求的增长速度,会跑赢所有保守预期! 一段正在展开、无法暂停的历史 总之,如果要用一句话总结奥特曼的世界观,那就是—— 不要赌人类会停下来,也不要赌智能会停下来。 AI并不是一项普通技术,它更像电力、互联网、印刷术——一旦出现,就不会再被「收回」。 而OpenAI所做的,不过是试图在这条不可逆的曲线上,尽量跑在前面,也尽量不失控。
字节全员涨薪底气曝光:2025年利润500亿美元,跟Meta一个水平了
一凡 发自 凹非寺 量子位 | 公众号 QbitAI 1天净赚9.6亿,字节火速给全员涨薪。 字节今年的核心财务数据被曝光了,相比去年大幅增长,直逼Meta。 丰富的弹药,给字节提供了AI人才大战的底气,直接就是一波全员涨薪。 谁羡慕了我不说。 涨薪肯定是咱们打工人喜闻乐见的事情。不过奇怪的是,这一波却还有一些人比较忐忑,因为伴随着涨薪到来的,还有职级体系的变革,虽然变前职级是10档,变后还是10档。但却并不一定会一一对应。 到底咋回事儿? 1天净赚9.6亿,字节核心财务数据曝光 据彭博社报道,今年前三个季度字节跳动利润已突破400亿美元,目前已提前完成了内部设定的利润目标,预计今年字节利润将达到500亿美元,约合人民币3520.8亿元,简单计算一下,平均每天净赚9.64亿元,1秒赚1.11万元。 根据此前消息,字节今年营收预计将达到1860亿美元,相比去年增长了20%。结合营收和净利润数据,可进一步算出今年字节的净利润率将达到26.9%。预计营收和利润都接近了Meta。 字节业绩增长带动自身估值水涨船高。今年9月,字节跳动被曝以3300亿美元的估值,内部回购了部分员工股票。 2个月后,有报道称多家投资机构参与了字节跳动的部分股权竞拍,最初这笔股权定价约为2亿美元,对应的估值为3600亿美元。最终成交价上升至3亿美元,对应的估值为4800亿美元。 几乎在业绩被曝大涨的同一时间,字节发布了一封全员信,引发了更多热议。 字节最新全员信:全员涨薪和职级变革 字节发布的最新全员信,核心涉及两项调整: 员工收入和公司职级。 员工收入方面,全员信透露在今年绩效评估周期中,字节调薪投入将上涨1.5倍,用于提高员工薪资总包。 薪资又分为现金和期权,其中发放的现金占比将提高,总包类期权将从1次发4年(20%-25%-25%-30%),调整为1次发3年(30%-30%-40%)。 绩效激励也同步提升,公司总体的奖金投入将比上个周期上涨35%,通过增加绩效M及以上的年终奖月数体现。激励月数在3个月以内的,仍然是发现金。超过3个月的,原来都是发绩效期权,现在调整为25%发现金,75%发绩效期权。 从2026年1月起,新给的绩效期权,其中有55%可以在拿到后立即参与回购,剩余部分可在3年内逐步参与回购,每年15%。 总结一下就是,员工直接能拿到的钱更多了,薪资总包的底薪和上限都提高了。 与此同时,字节的职级体系也变了,新体系明年1月启用。 大家都听说过,以前字节的职级命名和其他大厂的P级、T级看上去不一样,都是“3-1或者2-2”这种形式,分为5级10档。 以后字节的职级将调整为L1-L10,全员信特别指出,“目前‘1-1’实际使用率很低”,将和1-2整合为新职级中的L1。 这也表明,虽然看上去还是10个等级,但不可能直接对应。字节将视目前职级、薪酬总包、能力和绩效情况,明年给员工划分新的职级。 字节在全员信中透露,新职级体系能给员工提供更大的涨薪空间。 所以职级体系的改革,仍然是指向了涨薪。 为什么此时此刻要涨薪?字节内部信的官方解释是: 我们所处的行业正面临新的机遇和挑战,公司希望更好地吸引,激励和保留优秀人才。 这里“新的机遇和挑战”,显然缘起大模型。而众所周知,大模型浪潮崛起后,大厂抢人其实并不是一件新鲜事,但这种争夺,过去一般围绕顶尖人才展开。 就在年终岁末的此时此刻,有玩家率先把抢人/留人大战的战火,从金字塔尖烧向全体员工。这体现出新一轮的AI竞争,既需要坐镇指挥的大将,也要有敢拼敢闯的千军万马。 毕竟如今底座成熟,智能涌现,赋能应用,全面落地开花,需要全方位的团队保障。 字节的最新动作,也向行业抛出了一个问题: 跟吗? 以下为全员信原文: 大家好,我们所处的行业正面临新的机遇和挑战,公司希望更好地吸引,激励和保留优秀人才,鼓励大家和公司业务一起,再上一个比过去更大的台阶。 为此,2026年,公司将继续加大人才投入,提高薪酬和激励回报的天花板,确保员工薪酬竞争力和激励回报在各个市场都领先于头部水平。基于此,公司将更新薪酬和激励政策,具体包括以下要点: 提高薪酬竞争力,加大调薪投入。 提高所有职级薪酬总包区间的上限和下限为更多同学提供更大的涨薪空间,也提高招聘场景的薪酬竞争力。 2025全年绩效评估周期,公司调薪投入将比上个周期上涨1.5倍,用于提高员工薪酬。 与此同时,薪酬发放将提高现金占比,减少期权/RSU占比,总包类期权/RSU发放将从1次发4年(每年归属节奏为20%-25%-25%-30%),改为1次发3年(每年归属节奏为30%-30%-40%)。提升绩效激励,加大奖金投入2025全年绩效评估周期,公司奖金投入将比上个周期上涨35%,用于提升全年绩效M及以上的激励月数。 以薪酬总包中目标年终奖为3个月的情况为例:整体激励力度大幅提升。M激励月数下限不变,上限增加1.5个月;M+激励月数下限增加1.5个月,上限增加2.5个月;E激励月数下限增加3.5个月,上限增加3个月。 对于激励月数在3个月以内的部分,仍以现金形式发放。对于激励月数超过3个月的部分,发放形式将从100%发绩效期权/RSU改为25%发现金,75%发绩效期权/RSU(归属节奏不变,两者均按月匀速归属)。 从2026半年绩效评估周期起,半年激励(半年绩效E及以上的同学可获得)将加大激励力度,计算基数将从月薪调整为月总包(月薪+月期权/RSU)。 发放形式将从100%发现金,改为25%发现金,75%发绩效期权/RSU(两者均按月匀速归属)。 从2026年1月起,新授予的绩效期权/RSU,55%可在归属后立即参与回购,其余部分可在3年内逐步参与回购(每年15%)。 以上政策适用于正式员工。公司也将同步提升实习生薪酬标准,相关标准将于2026年1月1日生效。 与此同时,公司将应用新职级体系: 从”L1”到”L10”,共十级。目前职级体系中”1-1”实际使用率很低,将与”1-2”整合为新职级”L1”。 新职级与旧职级并非一一对应,而是以更高的标准重新定义了各职级能力要求,同时提高了所有职级薪酬总包区间上限和下限。在新职级体系下,更多同学有更大的涨薪空间。 新职级体系将在2026年1月1日启用,2025全年绩效评估将在2026年1月15日启动。因此,2025全年绩效评估周期将包含两个事项: 一是根据每位同学在2025年的职级和产出,评定全年绩效和激励;二是根据每位同学目前职级,薪酬总包,能力和绩效情况匹配到新职级。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。