行业分类:
加载中...
头条分类:
加载中...
美媒:AI当道,苹果正丧失供应链霸主地位
AI削弱了苹果的供应链控制力 凤凰网科技讯 北京时间1月17日,据《商业内幕》报道,十多年来,苹果公司一直占据着科技供应链的核心位置,庞大的体量使其能够引导各类供应商的研发路线,从芯片、内存到基板和封装。 然而,这个时代正在终结。 “苹果不再是硬件宇宙的引力中心。”Circular Technology研究与市场情报全球主管布拉德·加斯特沃斯(Brad Gastwirth)表示。Circular一直在追踪科技行业供应链。 加斯特沃斯指出,苹果出货量依然巨大,品牌实力也无与伦比,但该公司已不再是晶圆厂、基板制造商或关键部件供应商的核心客户。这是一个根本性的转变。 话语权转向AI巨头 这一点至关重要,因为掌控供应链的科技企业更有可能在竞争中胜出。当你能够订购份额最多的关键零部件时,就能获得更优的定价和更稳定的供货。这使得你的产品不仅能更快上市,价格也更具有竞争力。如今,这种主导力量正转向AI巨头,包括英伟达以及亚马逊、微软和谷歌等云计算巨头。 一个最明显的迹象出现在全球最大芯片制造商台积电身上。该公司以生产最先进的iPhone芯片而闻名,曾让苹果在与其他消费硬件厂商的竞争中占据巨大优势。 然而,当台积电本周发布财报时,智能手机业务已明显不再是其最重要的板块。台积电高性能计算业务主要为英伟达和大规模云服务提供商制造AI芯片,现在约占台积电收入的58%,远超智能手机处理器业务的29%。 高性能计算占台积电收入的58% 台积电为英伟达的AI服务器制造芯片,这些芯片正被云计算巨头大量抢购。他们将这类设备部署在庞大的数据中心中,用于训练和运行AI模型,从而驱动ChatGPT等新型服务。 那么,这比制造iPhone芯片更赚钱吗?台积电CEO魏哲家给出了答案。他近期频繁与这些AI巨头沟通,在本周的财报电话会议中他这样说道: “他们向我展示了切实证据,证明AI确实推动了业务增长。这些企业不仅成功拓展业务,更获得了财务回报。我也亲自核查过他们的财务状况,确实资金实力雄厚。” 供应商始终追随资本流向。如今,他们的“大金主”逐渐变为AI和云计算巨头,而非苹果。 内存因AI涨价 这种转变正在整个供应链中产生连锁反应。内存芯片制造商正在将产能从手机和电脑转向满足AI数据中心对DRAM芯片的巨大需求。DRAM是一种常见的内存芯片,既用于AI服务器,也用于iPhone。 近期内存价格飙升,这或将推高智能手机成本并可能挤压企业的利润率。英伟达已锁定长期内存供应,使得智能手机制造商的议价能力被削弱。 AI需求导致内存涨价 “过去15年,苹果凭借体量优势能够主导零部件供应、定价和研发路线。但当供应商从AI客户那里获得比智能手机更高的利润率和更快的增长时,这种影响力就会减弱。”Circular公司的加斯特沃斯表示。 意外瓶颈 供应链中也出现了一些意想不到的瓶颈。高端玻璃布是芯片基板的重要原料,它的供应紧张正促使供应商优先服务那些预先付款并签订多年合同的AI客户。 据《日经亚洲》本周报道,苹果几乎全线产品都使用这类基板,如今正与AI芯片制造商争夺有限供应,甚至派遣工程师协助小型供应商认证替代材料。 富士康转型 制造伙伴也在重新调整业务重心。曾经与iPhone组装划等号的富士康,如今来自AI服务器的收入已超过消费电子业务,其增长最快的客户是超大规模云服务商和英伟达,而非苹果。 这一切并不意味着苹果不再重要。该公司仍是全球最大的零部件采购商之一。然而,在一个日益被AI重塑的供应链中,定价权、产能分配和长期规划的主导权已转移他处。苹果正在适应“只是另一个超大客户”的处境。 “2010年代,苹果引领了供应链的发展,”加斯特沃斯说,“而在2020年代后期,英伟达、超大规模云服务商和AI基础设施供应商正在主导定价权、产能分配和长期规划。” 截至发稿,苹果尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
夸爆小米SU7的福特CEO,要花300亿梭哈电车
福特又出来刷存在感了。 1 月 7 日,福特宣布将在 2028 年推出 L3 级别的辅助驾驶,届时驾驶员在美国高速上可以双手脱离方向盘,且不用紧盯路面。 这啥呀,这不我们中国玩剩下的吗? 你还真别说,福特看的很清楚,就算美国现在政策不稳定,但还是要跟着咱们跑。 因为他们现任 CEO Jim Farley(后称 Farley )一直提倡 “全盘东化”,嘴皮子都要说烂了。 今天咱们就借着这个机会,和大伙聊聊在国内的小透明福特,在电动化上的算盘。 说起 Farley,他最出名的言论就是:买了一台小米 SU7,开了 6 个月,完全不想换车。 这波自来水当时都被我们宣传爆了,赢,赢麻了。 但是,各大媒体都没报道的是,人家说这话可是有前提的。 Farley 当时正在跟美国人解释中国汽车产业的 “威胁”: 中国目前汽车年销量超过 3000 万台,但我们的产能全部拉满其实能高达 5800 万。 这意味着,在全球一年 9000 万的新车市场里,光中国就已经占了一半。如果没有出口限制,那中国汽车占领全球只是时间问题。 而咱们除了数量还有质量,于是 Farley 才提到了他们买了小米 SU7。 这番 “中国威胁论” 一出来就在国外引起了一定的讨论,然后去年知名汽车媒体 Carwow,数码顶流博主 MKBHD 都做了小米汽车的评测。 一个个大几百万播放,评论区听取 “哇” 声一片,真的是给外国人开眼界了。 大伙可能会疑惑,福特在中国都半死不活的,电马门店都撤光了,还搁这叽里咕噜当吹哨人呢? 其实人家心里跟明镜似的,电气化是必然趋势,只是目前公司船大难掉头,新能源汽车还是在做的。 在 Aspen 智库主办的同名论坛上,Farley 表示,过去三年福特纯电车的销量仅次于特斯拉,混动车销量也仅次于丰田和本田。 但他在论坛上也提到,中国新能源让他感到 “Humbling(令人折服)”,我们已经走在了世界的前面,福特他们要怎么追呢? 或许,从去年 8 月的福特纯电平台发布会中,我们可以窥见一二。 会上,他们宣称这个新平台的第一台车,会是美国人最喜欢的皮卡,价格会控制在 3 万多美元。 空间要达到丰田 RAV4 的水平,还要有前备箱,动力媲美野马,电池小三分之一而续航不变。。。。。。 总之,目标是造一台美国人都买得起的纯电皮卡。 当然,车子不是凭空吹出来的。首先,想造电车得有电池,但是美国把中国的关税加起飞了,电池相关的知识产权又在中国手上,怎么办呢? 福特想的办法是,技术绕不开那就买,制造自己来。 顶着美国政客的压力,福特在 2023 年投资了 30 亿美元,获得了宁德时代的技术授权,在密歇根州新建了一座年产能 20GWh 的磷酸铁锂电池工厂(产量大概够 23 万辆电车用的)。 宁德时代会直接派驻工程师进行技术指导,但福特是全资,这是美国第一座全属于自己的电池工厂,预计今年建成。 解决电池这个最基本的问题之后,然后就是新能源平台等相关技术了。 我们前面提到过,这种大公司船大难掉头,层层审批全是内耗。 所以,Farley 想的办法是和明朝的锦衣卫、清朝的军机处一样,2022 年,他特设了一个部门 Model E(致敬福特传奇 Model T),专搞新能源技术。 统管这个部门的是曾经缔造了特斯拉 Model 3,也开发过苹果 Mac 和苹果汽车的 Doug·Field (后称 Field)。 哥们的公开信息甚少,但根据当时 Model 3 在汽车域控制(集成化)、软件定义汽车的变化来看,他应该有着不小的贡献。 在发布会上,他也透露了 Model E 部门的一些细节。 先是工作流程上的,他们团队从更宏观的角度去看汽车开发,有点像特斯拉奉行的 “第一性原理”。 比如以前福特工程师如果在刹车设计上不小心超了 5 美元的预算,那可能会面临处罚。 但在他们团队里,如果这个刹车改进可以减少行驶阻力,那就行,因为这能优化整车能耗,在电池的成本优化回来。 还有他们的工作方式也更像一个硅谷的科技公司团队,而不是传统车企。 图注:演示视频里,他们团队的工程师都挺年轻的 他们每两周就会向 Field 和另一名负责电动化的高管 Alan Clarke (特斯拉前工程总监),甚至是直接向 Farley 汇报。 然后 Field 还分享了一点他们的成果,在集成化上,他们已经比以前第一代电车缩短了 4000 英尺(1.21公里)长的线束。 这些可以说都是特斯拉做过的事情,福特请了一堆特斯拉的前工程师,实现这些应该不是难事,应该也是能切切实实降本的。 图注:这哥们就是 Alan Clarke 那这不是没啥创新么,福特也觉得这还不够。 作为根正苗红的美利坚之子,福特要坚决贯彻 MAGA 的核心战略部署,以实业为底,创新兴邦,挺起合众国的工业脊梁。 他们真正想的是,要在新能源汽车上反超中国。 想反超,光靠模仿是没用的,福特选择了和 100 多年前亨利·福特改进流水线一样,变革汽车的生产方式。 说起来有点复杂,现代汽车的制造过程就是流水线嘛,步骤主要是 “冲压——焊接——涂装——总装”。 其中前三个步骤基本都实现了自动化,就总装最麻烦,自动化程度有限。 工人得从车里进进出出,方向盘、中控、地板啥的一个个弄上去,费时又费力。 哎呀,那么麻烦,就不能像拼乐高汽车一样,先把中控啥的安装好,最后再把车头车尾拼一起吗? 这就是福特想做的,他们把这叫做 “通用EV生产系统”(Universal EV Production System)。 具体来说,就是把汽车的组装分成三个大的模块,最后再三合一。 至于怎么分,福特一点细节没给,咱们看不出来。但根据他们会用到一体式大压铸,估摸着也是分成车身后地板、车头,与电池车身一体化三大块。 这种工艺,据福特所说,能减少四分之三的零部件,节省三分之二的焊点,极度简化生产流程,提升生产效率。 是不是有点熟悉,这种模块化的生产特斯拉在 2023 年提出过,但由于近两年销量下滑,马斯克还疲于应对 X 和政府效率部的事情,特斯拉便放弃了这条技术路线。 但福特不一样,本身新能源技术已经落后,此时不赌更待何时,直接朝着这条路线就是梭哈,50 亿美元砸了下去。 加上把车拆成这么几块之后,福特可以雇佣更多的工人来操作一块零件,既提升了工作效率,还顺带解决了当地老美的就业岗位问题。 这对于他们这种政企紧密合作的车企来说,这么做能为后续的政策摇摆增加筹码。 当然难点也是有的,先安装内饰再进行焊接,这样内饰的一些位置得预留出可供焊接的缺口,或者福特能研究出新的车身连接方式。 毫无疑问,这是个大工程,发布会的最后他们请了一些员工代表去参观样品,看得出来应该是多少有个雏形了。 总之,如果福特真搞出来了,那真的可以说是新时代的 “T 型车” 时刻。 但你要我下个判断,我觉得很难成。 最明显的就是环境不允许,就上个月,福特砍掉了他们 F-150 Lightning(纯电皮卡)的产线,准备转型做增程式 F-150,给出的理由是高端的纯电车销量不及预期。 其实销量只是果,本质是川普把登子 7500 美元的补贴撤了,还重新放宽环保限制。 这种反复横跳,研发周期动辄两三年的车企哪受得了,就差跪下来喊川普爸爸了,投资全都打水漂,这还玩啥。 除此之外,Farley 在此前的访谈中其实也点出了一些美国机制的问题,比如电池的原料,在美国开座矿山,审批、合规、环保一套组合拳下来,得花 20 年。。。 即使福特他们工厂建好了,想在美国想拥有产业链,那也是难上加难,这怎么跟老中竞争。 所以,Farley 也一直呼吁政府给他们车企开开绿灯,药不能停。像我们中国一样得有着十多年的政府扶持,他们的新能源产业才有熬出头的机会。 但,川普你懂的。。。 信他,不如信我是秦始皇,咱们在这也就只能祝福特 27 年新平台投产顺利了。
追觅科技CEO俞浩发声:怼人的员工早就提出离职,我有肚量,不会在意
红星资本局1月17日消息,1月17日上午,追觅科技创始人兼CEO俞浩发微博回应近期争议。他称,打造人类历史上第一个百万亿美金公司,确实是他的目标。他希望的是在未来实现目标,而不是在一年之内实现。 据悉,俞浩此前发朋友圈表示,目前全球市值最高的公司是英伟达,约4.5万亿美元,预计黄仁勋、马斯克这代企业家有望将最高市值推至8-10万亿美元,但他们已老了,作为更年轻一代,他的目标是把追觅生态做到一百万亿美金量级。 随后,话题#追觅员工怒怼CEO俞浩#登上微博热搜榜。有网传截图显示,有追觅科技的员工在工作群内抨击了俞浩提出的目标。 截图自@俞浩 微博账号 今日发布的微博中,俞浩称,无论是实现最高目标,还是目标只达成一半,对大家来说都是好事。“无论有没有实现这个目标,对所有人都是好事。对大家来说,多了一个观察的样本,这在今天的大环境下也是很难得的。如果我们成功了,赚到钱了,也会慷慨地回报社会。” 俞浩还透露称,他们没有烧过投资人的钱,这跟外界想象的不一样。“即使把我们探索这么多领域的钱算起来,我们成立至今累计也还是盈利的。这都是已经实现了的。成立至今,连续6年,每年100%的高速增长,且净利润率还不断提高。” 有网友在评论区追问公开提出反对意见的员工现状,俞浩回复称,该员工早就提出离职,当天(指在工作群发言当天)晚上十二点其飞书会失效。于是快到十二点的时候,该员工发了一条信息并截屏传播。“你问这个,可(能)是关心我会对提出不同意见的人怎么样?在我们内部,历史上有过不同意见的多了。我根本不会在意这些,这点肚量还是有的。” 截图自微博 公开资料显示,俞浩毕业于清华大学,现年38岁,于2017年创办追觅科技,起初为小米代工吸尘器、扫地机器人等产品,2019年开始建立自有品牌。近年来,追觅科技不断跨界,业务拓展至新能源车、冰洗空等大家电、无人机领域,开始布局“人-车-家-宇宙”生态。 红星新闻记者 杨佩雯 编辑 陶玥阳 审核 王光东
1340亿美元!马斯克要求OpenAI和微软赔偿金额曝光
马斯克 凤凰网科技讯 北京时间1月17日,据彭博社报道,埃隆·马斯克(Elon Musk)指控OpenAI欺骗了他,不但背弃了非营利初心、还与微软合作,他要求OpenAI和微软向他支付790亿美元至1340亿美元的赔偿金。 马斯克的律师在周五提交的一份法院文件中详细说明了这一赔偿请求。此前一天,一名美国联邦法官驳回了OpenAI和微软为避免4月底在加州奥克兰举行陪审团审判而提出的最后请求。 该文件援引了金融经济学家专家证人C·保罗·瓦赞(C. Paul Wazzan)的计算,认为在马斯克被欺诈而失去其在2015年协助创办OpenAI时捐出的3800万美元种子资金之后,他有权获得OpenAI目前5000亿美元估值中的一部分。 “正如创业公司的早期投资者可能实现比初始投资高出多个数量级的收益一样,OpenAI和微软所获得的不当收益,也就是马斯克先生现在有权追缴的,要远大于马斯克先生的初始出资。”马斯克的律师史蒂文·莫洛(Steven Molo)写道。 OpenAI在一份声明中表示:“马斯克先生的诉讼依然毫无事实依据,是其持续骚扰行为模式的一部分,我们期待在庭审中证明这一点。这项最新的、缺乏严肃性的索赔要求,唯一目的就是进一步推进这场骚扰行动。” 截至发稿,微软不予置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
半年亏掉80亿美元后,OpenAI终于给ChatGPT加了广告
在 AGI 的宏大叙事中,OpenAI 终于触碰了那个最古老但也最现实的课题——如何通过商业化活下去。 北京时间 2026 年 1 月 17 日凌晨,OpenAI 官方发布了一份重磅声明,正式揭开了 ChatGPT 商业化新篇章的序幕。与以往追求模型参数或多模态能力的更新不同,这一次 OpenAI 试图在「智能普惠」与「自我造血」之间,通过引入广告建立一种全新的平衡。 这标志着自 ChatGPT 诞生三年多以来,这个全球领先的 AI 门户开始尝试打破纯净对话的边界。 OpenAI 认为,AI 正在演变为每个人的「超级助理」,而谁能负担得起这种智能,将决定技术是在消除鸿沟还是在加深分歧。为了让更多人能在低成本甚至零成本的情况下使用顶级 AI,广告成为了那个绕不开的选项。 在宣布广告计划的同时,OpenAI 也调整了其产品矩阵的全球版图:此前已在 171 个国家推出的低成本订阅计划 ChatGPT Go 正式进入美国市场,定价为每月 8 美元。这款产品旨在填补免费版与 20 美元 Plus 版之间的空白,提供包括图像生成、文件上传和记忆功能在内的核心权益。 紧随其后的便是针对商业模式的试水。OpenAI 明确表示,计划在未来几周内开始在美区测试广告,主要覆盖免费版和 Go 版的已登录成年用户。这意味着,对于这部分用户而言,ChatGPT 不再仅仅是一个安静的对话框,而将成为一个具备商业分发能力的入口。 为了保证用户体验不被彻底割裂,Plus、Pro、Team 以及 Enterprise 等高端订阅用户将继续保持 100% 的无广告纯净环境。OpenAI 试图通过这种分层策略,在保障高端用户体验的同时,为更广泛的大众用户提供可持续的免费服务。 01 广告变成「对话节点」 ChatGPT 加广告这一天的到来,比外界预期的要早得多。这在某种程度上折射出 OpenAI 内部正面临着巨大的商业化压力——即如何有效地从其庞大的免费用户群体中榨取价值。 在公告评论区也呈现出明显的两极分化:很多人对这一前景表示悲观,但更多专业用户也对此表示理解:只要相关的算法足够透明,并且广告清晰标注,并非不能接受。 长期以来,OpenAI 的文化定位一直试图与硅谷大公司那种「广告驱动」的商业模式划清界限。这种转变不仅在外部引发了讨论,在 OpenAI 内部也极具争议性。对于很多早期员工而言,广告可能意味着某种程度的「屠龙者终成恶龙」。 但现实的经济账目显然已经摆在了 Sam Altman 的办公桌上。随着模型能力的指数级增长,背后支撑它们的 GPU 算力成本也达到了天文数字。如果这个尝试能够奏效,OpenAI 或许终于能为那几百万颗昂贵的英伟达芯片找到一个可持续的买单者,而不再单纯依赖投资人的输血。 不同于传统搜索引擎中密集的赞助链接,OpenAI 正在尝试一种更符合 AI 直觉的交互方式。在测试阶段,广告将以极其克制的形式出现在回答的底部,且只有在与当前对话高度相关时才会触发。 在 OpenAI 展示的一个典型场景中,当用户询问墨西哥晚餐的烹饪建议时,ChatGPT 在给出详细菜谱后,会在对话框底部展示一个来自赞助商的提示,询问用户是否需要一键购买所需的食材。这种「意图触发」的机制,试图让广告从一种干扰性的噪音,转变为一种能够直接解决问题的服务。 更具想象空间的是,未来的广告将具备交互性。用户将不再只是点击一个链接跳转网页,而是可以针对广告内容直接追问 AI 细节。这种「对话即应用」的逻辑,预示着广告正在从静态展示演变为一个有生命力的对话节点。 02 商业策略「分水岭」 回顾 OpenAI 对广告态度的演变,这几乎是一条从「绝对抵制」到「谨慎试探」再到「全面拥抱」的曲线。在 2024 年之前,Sam Altman 曾在多个场合表达过对传统搜索广告模式的厌恶,将其视为影响用户体验和 AI 中立性的「最后手段」。 然而,转折点出现在 2024 年 7 月,当时推出的 SearchGPT 原型虽然标榜纯净,但 OpenAI 已经在官方说明中留下了「探索商业化可能性」的伏笔。 进入 2025 年后,试探的脚步明显加快。 从 9 月开始,OpenAI 先后与 Shopify、Walmart 和 Target 达成合作,将零售商的商品接口嵌入到购物咨询场景中。这些早期的「商业插件」实际上就是今日对话广告的雏形,它们验证了 AI 能够在不破坏语境的情况下,精准地将用户意图与商业供给进行匹配。 这一系列尝试的加速,折射出 OpenAI 内部正面临着巨大的财务压力。尽管 ChatGPT 的月活用户已逼近 10 亿大关,但其中只有约 5% 的用户在支付每月 20 美元或更贵的订阅费用。面对 2025 年上半年就高达 80 亿美元的运营亏损,以及未来五年超过 1 万亿美元的算力建设投入,单纯依赖订阅制和投资人的输血显然已不足以支撑 AGI 的庞大野心。 引入广告,成为了 OpenAI 转化那 95% 免费用户价值、支付高额英伟达芯片账单的现实选择。 在 AGI 真正降临之前,2026 年的 AI 行业已经率先在商业化路径上分化出了截然不同的选择。OpenAI 此次转向混合模式,本质上是在复刻移动互联网时代的成长曲线,通过流量变现来对冲边际成本。 与之相对的是 Google Gemini 的「生态捆绑」策略。Google 并不急于在聊天窗口直接插播广告,而是将 Gemini 深度缝合进 Google One 订阅和 Workspace 套件中。 相比之下,以「老实人」形象示人的 Anthropic 则选择了更为克制的道路。Claude 至今依然维持着极高的订阅门槛,将其「安全性」和「无广告干扰」打包成了一种面向高价值行业的垂直溢价,试图在专业市场建立起基于信任的护城河。 与此同时,像 Perplexity 这样的新生代力量则在积极探索「赞助式追问」等原生广告形态。 这使得 2026 年的 AI 商业化图景呈现出一种有趣的对立:一方是以 OpenAI 和 Google 为代表的「规模派」,试图挖掘每一比特的商业价值;另一方则是以 Claude 为代表的「精品派」,在 AGI 的前夜死守工具的纯粹性。 03 结语 为了安抚用户的信任危机,OpenAI 此次抛出了极为严苛的广告原则,强调广告绝对不会影响回答的客观性,且承诺绝不会向广告商出售用户数据。 甚至在涉及健康、心理健康或政治等敏感领域,OpenAI 明确将其列入广告禁区。 这种「既要又要」的平衡术,反映了 OpenAI 极其微妙的处境。 接下来的挑战在于,OpenAI 能否在长达数月的测试中,证明这套系统能在不伤害用户信任的前提下,依然能产生足够高的商业价值。 毕竟,在 AI 的世界里,智能可以被买到,但信任无法被重塑。
NVIDIA辟谣RTX 50系列停产:全系正常供应!缺货是显存供应拖后腿
快科技1月17日消息,近日,关于NVIDIA GeForce RTX 5070 Ti等型号已停产的消息在网上传得沸沸扬扬,甚至有媒体援引华硕内部人士称相关产品已被列入EOL(生命周期结束)。 对此,权威媒体Wccftech联合多方信源调查后确认:RTX 50系列全线产品均未停产,也无任何型号被取消或降级计划。 所谓EOL实为误读,实际只是部分型号因初期排产较少,被个别渠道误判为退市。 真正导致RTX 50系列有价无市的原因是GDDR7显存的产能爬坡不及预期,GDDR7由三星、SK海力士和美光三家主力供应,但良率与量产规模仍处于爬坡阶段。 尤其RTX 5070 Ti、5060 Ti 16GB等中高端型号普遍采用16GB甚至32GB GDDR7配置,对显存需求远超上一代。 对于停产的消息,华硕官方已经迅速回应:“RTX 5070 Ti与RTX 5060 Ti 16GB并未停产,也无退市计划。当前供货延迟主要受DRAM供应限制影响,属于短期产能调配问题,非产品策略调整。” 知情人士透露,NVIDIA原计划在2025Q4至2026Q1大规模铺货RTX 50系列,但GDDR7的交付节奏拖了后腿。 部分AIC厂商甚至被迫推迟新品上市时间,或优先保障旗舰RTX 5090/5080的生产。 更值得关注的是,尽管近期显存价格大幅上涨,NVIDIA并未将全部成本转嫁给消费者或AIC厂商。 据供应链消息,GDDR7显存价格自2025年下半年起持续上涨,单张高端显卡的显存成本可能增加20–40美元。 按理说,这部分成本完全可以转嫁给消费者或AIC合作伙伴,但NVIDIA却选择了硬扛。 多位AIC高管证实,NVIDIA并未提高GPU报价,反而主动补贴部分成本,以维持建议零售价(MSRP)体系稳定,一定程度上保护了玩家利益。 另有一则流传甚广的说法称:“NVIDIA不再打包提供GPU+显存,改由AIC自行采购GDDR7。” 该说法也被证实为不实,目前合作模式未变,AIC仍会收到完整的GPU与配套显存组合,确保兼容性与性能一致性。 AIC可在此基础上进行散热、供电和外观定制,但核心组件仍由NVIDIA统一协调。 好消息是,三星与SK海力士已在韩国和中国西安扩产GDDR7产线,预计2026年第二季度产能将显著提升。 届时,RTX 5070 Ti、5060 Ti等“卡脖子”型号有望全面铺货,价格也将逐步回归理性。 总结就是一句话:RTX 50系列没停产、没砍配、没停供,都是显存供应不足闹的。
马斯克“脑机第一人”首爆!不开颅在线升级,永生代码已写入
新智元报道 编辑:桃子 【新智元导读】马斯克脑机第一人自曝,不用开颅大脑也能「在线升级」,一个版本迭代即可修复bug,堪比特斯拉OTA。如今,奥特曼也入局了。 简直比科幻还要科幻! 马斯克「脑机」第一人Noland Arbaugh亲口揭秘:不用手术,大脑也能「在线升级」了。 这么说吧,大脑芯片的升级,跟特斯拉OTA差不多。 目前,Noland的Neuralink装置,主要通过三种方式持续进化—— 「心灵感应」(Telepathy)应用 植入体固件的无线更新(OTA) 植入物本体的迭代 让人震撼的是,这是人类史上第一次,大脑可以像手机、汽车系统一样「无限迭代」。 有了bug,不用开颅修,一个版本更新,彻底修复! 性能纯靠「推送」提升,真·赛博格永生了? 不仅如此,如今就连奥特曼,也来抄马斯克的作业了...... 一家硅谷初创Merge Labs,低调组建数月曝光,一举拿下OpenAI等风投2.52亿美金种子轮融资。 奥特曼,正是创始人之一,还有Alex Blania等多位顶尖研究员共创。 首位赛博格自曝: 大脑在线升级,人类2.0版本 Noland Arbaugh,Neuralink首位人类受试者,也是第一代N1植入体拥有者。 这一次,他罕见发声,亲身讲述脑机接口的真实体验,令全网为之震撼。 是的,我的脑部芯片更新方式,和特斯拉很像。 这句话一出,直接把科幻拉进了现实。三种「硬核」方式,一键完成更新。 1.专属APP「心灵感应」 Neuralink团队开发了一款专属应用,即Telepathy,可以同时在手机和电脑上运行。 这其实,就是Noland用意念与世界交互的「控制中心」。 Telepathy会把采集到的神经信号,解码成电脑、手机可以理解的「控制指令」,然后让患者可以像触控板一样操控设备。 这个APP会像普通手机软件一样,定期接受来自云端的更新,不断优化界面、交互体验和数据的呈现方式。 2.植入体固件,真正的在线升级 接下来,最硬核的部分来了—— Noland的大脑里的芯片本身,运行着一套无线更新(OTA)的固件。 而且,完全不需要,第二次手术! Neuralink直接在后台推送更新,就能提升N1芯片的信号处理能力、系统稳定性,甚至是修复bug。 Noland自己就亲身经历了这一过程:2024年术后几周,植入的电极线85%的部分从大脑中脱离。 当时,很多人都觉得这个实验要凉,甚至Noland都做好了拆除芯片的心理准备。 意想不到的是,专家团队立即改进了「信号记录」算法,瞬间提升了剩余15%电极的灵敏度。 马斯克用软件强行给硬件「续命」后,问题就消失了。 3月一次固件更新后,BPS(每秒比特率)性能甚至超过所有电极完好的水平 Noland透露,这些更新让光标移动速度,大幅提升,且全程无线操作。 这种感觉,就和人们熟悉的特斯拉OTA更新,几乎是统一逻辑。 只不过,升级的对象变成了人类大脑。 看到特斯拉在线升级画面,有种瞬间get到了「大脑也OTA」的既视感 3.硬件迭代,纯物理更换 N1植入体,是Neuralink第一代产品。目前,更先进的版本也已经问世。 Noland表示,理论上,未来可以通过一次手术把旧芯片换成新芯片。 而且,他激动地表示,「我肯定还要再做一次」。 如果有机会升级到下一代芯片,或者「双芯植入」,Noland会毫不犹豫再次报名参与。 更夸张的是,在一个采访中,Noland又放出重磅细节,整个手术过程远没有人们想象中那么恐怖: 这个手术简直太轻松了。 Neuralink专家说,术后会观察我23个小时。 我就说,你们确定吗?我这不是刚做完脑部手术吗?你们不想让我多留超过一天吗? 他们说,不用,你没事,回家吧。 术后不到一天就出院,回家,连一片止疼片也没吃。 开颅插针如「眨眼」,下一代双芯 或许也不假,未来脑机接口手术,基本上可以做到术后一天痊愈。 上个月,Neuralink总裁DJ Seo在演讲中称,新型手术机器人可以将「开颅插针」,做到又快又准。 单根电极的插入时间,从17秒暴降至1.5秒,也就是眨眼一瞬间完成。 最关键的电极芯片的迭代。另一位英国BCI患者Jon L. Noble,介绍了自己和Noland植入物的一些差异。 顺便提一句,他们两人都是采用的N1,不同点在于: 早期植入物:64根超细线程、每根线程有16个电极、总计1,024个记录通道 新一代植入物:128根超细线程、每根线程只有8个电极、总通道数依然是1,024个 可以看到,通道总数没变,但分布方式彻底变智能了。 更多线程+更少电极,可以让大脑覆盖范围更大、冗余性更强、长期可靠性更高。 这意味着,即使某些线程未来出现问题,整个系统依然能保持高性能,就像给大脑加了更多「备用路线」。 由外科手术机器人将植入物电极线(左)插入大脑,每根细线的粗细仅为人类头发的十分之一 如今,已经有约20位患者完成了Neuralink的脑机手术。 而且,全球超一万人都在排着队,想要接入脑机接口。 双芯互联,脊髓再塞一枚芯片 比起第一代芯片的接入,下一代「双芯配置」才是真正的重头戏。 马斯克在社交媒体上亲口承认,Noland可能是第一个尝试「双芯片」的人选 。 既然是双芯,一个植入大脑,另一个芯片要放在哪里? 目前的方案是,在脑部植入一个「捕捉意图」,同时在脊髓损伤部位下方再塞一个芯片。 这种脑脊接入(BSI)的设计思路非常硬核:它要在受损的神经节段之间,搭起一座「数字桥梁」。 大脑发出「想走」的信号,芯片直接把指令无线传给脊髓,绕过直接断掉的「电缆」刺激肌肉群。 简单说,就是让大脑的「走路指令」重新绕过受损段,直接驱动双腿。 甚至,Noland Arbaugh本人兴奋地表示,大脑+脊髓,双向通路,才算是真正意义上的「闭环」恢复。 能让瘫痪的人,重新站起来,意义确实重大。甚至,马斯克确信,恢复全身功能也是可能的。 Neuralink的设想并不止于让人能动。 他们已经把这条路视为通向「功能恢复」、「语言恢复」、「感官重建」的长期目标。 公司内部将产品按用途分为「Telepathy」(运动/控制),「Blindsight」(视觉恢复),以及更深入的大脑刺激/调节系统。 最终愿景是,实现任何脑区域的读写,帮助治疗患者的认知障碍,甚至「增强人类认知」能力。 在官方看来,这并不是单一实验,而是一整套、面向未来的脑机系统。 对部分人而言,这将是真正恢复生活自主的机会。 意念夺舍,人类踏入「数字永生」前夜 在科幻电影《阿凡达》中,人类通过意念/神经信号去连接,并操控外部躯壳。 即便坐着一动不动,但Noland的意念已经「寄生」在了电脑、手机,甚至未来的人形机器人Optimus上。 他曾在X上连续直播72小时,在《文明6》和《马力欧卡丁车》里大杀四方,用意念和全世界玩家对线。 这种Telepathy(心灵感应),已经让他打破了肉身的禁锢。 Noland曾描述过一种奇妙的体验:最初他需要想象移动手部来控制光标,但现在他只要「想」光标移动,光标就动了。 可以说,这种数字维度的超级感官,更像是变种人觉醒了「念动力」。 渐冻症患者Nick手术后,还能用意念控制机械臂,自主进行,堪称「人类+机器人」plus版。 英国首位患者Paul接受了Neuralink植入手术后,数小时便能通过思维控制电脑打游戏。 那种「终于又能自己玩游戏了」的激动,隔着屏幕都能感受到。 OpenAI下场,火药味直冲马斯克 与Neuralink依赖电极植入不同,Merge Labs主张的是:用超声技术,深入探测脑内活动。 这家BCI实验室,背后站着的是奥特曼和OpenAI。 奥特曼用OpenAI的钱,把战火从「训练大模型」烧到「读写大脑」。 在新一轮融资中,拿下了2.52亿美元,投资方还包括Bain Capital、Gabe Newell等。 它把矛头,直接对准马斯克Neuralink—— 他们认为现有路线太「侵入式」、覆盖范围太小,离真正让大众愿意使用的「超级脑接口」还差得远。 因此,Merge Labs的野心是,做出一种更少手术、更大带宽、更大规模的脑机接口。 既能读取神经信号,也能调制大脑活动,并在未来覆盖更大范围的脑区。 他们抛出的第一条主线,是把超声与「增强信号的蛋白/分子报告器」结合起来: 用超声去「探测」神经元活动,再让特定蛋白帮助神经元产生更易被超声捕捉的信号,从而弥补「没有把电极贴在神经元旁边」带来的信号劣势。 联创Alex Blania直言,如果AI系统变得极其强大,人类也必须找到「把它变得对我们有意义」的方式。 一种能扩大人类体验与能力边界的脑接口,重要性可能不亚于AGI本身。 一直以来,赛博格、机械飞升,是科幻世界中历久弥新、令人着迷的核心主题。 它不仅是技术想象的延伸,更是对人类存在本质的深邃叩问—— 当肉体与机械的边界日益模糊,当意识可以上传、躯体能够再造,何为自我,何为生命? Noland在一次采访里,曾说过一句令人印象深刻的话: 我还是我,但现在的我......比以前拥有更多的身体。
我国移动网络IPv6流量占比突破70%,多项关键指标位居世界首位
IT之家 1 月 17 日消息,据“中国 IPv6 Plus”公众号,近日,国家 IPv6 发展监测平台最新统计数据显示,截至 2025 年 12 月底,我国移动网络 IPv6 流量占比达 70.85%,圆满完成《关于加快推进互联网协议第六版(IPv6)规模部署和应用工作的通知》(以下简称《通知》)明确的“十四五”期间移动网络 IPv6 流量占比达 70% 的核心目标,标志着我国下一代互联网发展已从“规模部署”迈入“深度应用”的新阶段。 IT之家从文中获悉,这一关键突破是我国 IPv6 发展全链条推进、多目标落地的系统性成果。同期监测数据表明,我国 IPv6 发展多项关键指标均超额完成预期目标:IPv6 活跃用户数达到 8.69 亿,达成 8 亿的既定目标;固定网络 IPv6 流量占比达到 32.38%,远超 20% 的目标要求,顺利宣告《通知》部署的“十四五”IPv6 规模部署任务全面收官。 值得注意的是,截至 2025 年末,根据国际、国内数据测算,我国 IPv6 网络规模、用户规模、流量规模均位居世界首位,全面实现 2017 年 11 月中共中央办公厅、国务院办公厅发布的《推进互联网协议第六版(IPv6)规模部署行动计划》提出的发展目标。 未来,我国 IPv6 将迈向更深层次、更高质量的新发展阶段,进一步聚焦“内生驱动力提升”与“价值挖掘”,持续深化行业应用落地,加快技术创新突破,推动 IPv6、“IPv6+”与人工智能、工业互联网、卫星互联网等新兴领域深度融合,同步健全安全防护体系,力争到 2035 年建成全球领先的 IPv6 创新生态,为网络强国和数字中国建设注入更为强劲的发展动能。
Transformer亲爹痛斥:当前AI陷死胡同,微调纯属浪费时间
新智元报道 编辑:KingHZ 【新智元导读】Transformer曾是AI革命的巅峰之作,但其发明者Llion Jones警告:它并非终点。就像RNN被取代一样,当前无数微调研究可能只是局部优化,而真正的AGI突破或藏在生物启发的全新架构中。 Transformer是AI的终点吗? 不是,绝对不是。 那Scaling是唯一通向AGI的路径吗? 在Transformer架构上研究最久的人,告诉你:不是。 Sakana AI的创始人、研究科学家Llion Jones,和其他7位合著者,一起发明了Transformer。 除了那七位共同作者,没有人比他在Transformer上的研究更久。 尽管如此,去年,他做出了一个重要决定:大幅减少自己在Transformer上的研究投入。 不是因为这个领域没有新鲜事,而是因为它已经被挤得水泄不通。 他直言,他成了自己成功的受害者: 我不认为Transformer就是终点,也不相信我们只需要继续无限扩大规模。 某一天,我们会再次迎来突破,然后回头发现,现在很多研究其实在白白浪费时间。 Transformer或重演RNN的悲剧 在Transformer出现之前,RNN是主流。 RNN的确是AI历史上的重大突破。 突然间,所有人都开始致力于改进RNN。 但结果总是对同一架构做些微调,比如把门控单元换个位置,将语言建模的性能提升到 1.26、1.25 比特每字符。 在Transformer出现后,当我们把非常深的仅解码器Transformer应用于同一任务时,立刻就达到了1.1 比特/字符。 于是,所有关于RNN的研究突然之间显得白费了。 而现在的论文,似乎又回到了老路子:在同一个架构上,做无数微小的改动——比如调整normalization层的位置,或略微改良训练方式。 2020年,时任谷歌DeepMind的研究员Sarah Hooker提出了「硬件彩票」: 通往AGI的道路不止一条, 深度神经网络刚好碰上了GPU这样的硬件彩票。 论文链接:https://hardwarelottery.github.io/ 「硬件彩票」这一术语,描述了某种研究思路之所以胜出,是因为它恰好契合现有的软件和硬件条件,而非因为该思路在所有备选研究方向中具有普遍优越性。 而Llion Jones则认为,Transformer是一种架构彩票,而业界恐怕重蹈RNN的覆辙。 哪怕已经有一些架构在论文中表现得比Transformer还好。但问题在于,新架构还不足够好到让整个行业放弃Transformer。 原因很现实:大家对Transformer的理解已经非常成熟,训练方法、微调方式、配套软件工具一应俱全。 你要大家从头换一套,除非新架构好到「碾压式胜出」,否则不可能。 Transformer取代RNN,是因为差距大到无法忽视。 深度学习的兴起也是一样。曾经大家还相信符号主义更靠谱,直到神经网络在图像识别上展现出压倒性的优势。 Llion Jones认为Transformer太成功了,反而让大家陷入了「陷阱」: 这就像有个巨大的「重力井」,所有尝试离开的新方法都会被拉回来。 哪怕你真的做出了一个效果更好的新架构,只要OpenAI再把Transformer扩大十倍,那你的成果就被比下去了。 现在的LLM并非通用智能 Llion Jones进一步指出,目前的大语言模型并非通用智能,呈现出「锯齿状智能」(jagged intelligence)的特性。 也就是说,它们能在某些任务上表现得像天才一样,但转眼就能犯出低级错误,让人出戏。 它刚才还解出了一个博士级的问题,下一秒却说出一个连小学生都不会错的答案,这种反差非常刺眼。 他认为,这其实揭示了当前架构中某种根本性的问题。 问题在于,它们太「万金油」了。 你可以让它们做任何事,只要训练足、调参准。 但正因为这样,我们反而忽视了关键问题──「有没有更好的方式来表示知识、思考问题」。 现在,大家把所有东西都往Transformer里堆,把它当成万用工具来用,缺什么功能,就往上面硬加模块。 我们明明知道要有不确定性建模、要有自适应计算能力,但我们却选择把这些特性外挂上去,而不是从架构本身去重新思考。 为了逃脱这个循环,Jones在2025年初大幅减少Transformer相关研究,转向更具探索性的方向。 他和Sakana AI的同事Luke Darlow等人,借鉴生物学和自然启发,设计了连续思维机(Continuous Thought Machines,CTM)。 传送门:https://sakana.ai/ctm/ 这不是天马行空的发明,而是对大脑运作的简化模拟。 大脑里的神经元不是静态的开关,而是通过同步振荡来传递信息。 CTM捕捉了这个精髓:它用神经动态作为核心表示,让模型在「内部思考维度」上逐步展开计算。 他说,「我们并没有追求完全生物学可行性,因为大脑并不是靠有线方式让所有神经元同步的。但这种思路带来了全新的研究可能。」 重要的是,他们在做这项研究时,并没有任何学术圈常见的「抢发压力」。 因为没人做这个方向。他们有充分的时间去打磨这篇论文,把研究做实,把对照实验做足。 他希望这项研究能成为一个「示范案例」,鼓励其他研究者去尝试那些看似风险高、但更可能通向下一个大突破的研究方向。 后人哀之而不鉴之 这是近期AI领域最坦诚的言论之一。 Llion Jones承认,当前多数研究可能只是在局部最优解上修修补补,而真正的突破或许在完全不同的方向。 他对此深有体会——毕竟他曾亲手让上一代研究者的成果黯然失色。 令人不安的是:如果他是对的,那么所有埋头改进Transformer变体的人都在浪费时间。 所有混合专家模型、所有架构微调、所有注意力机制变体——都可能在新范式出现时瞬间过时。 但陷阱在于:除非有人真正突破,否则你永远无法确定自己是否困在局部最优里。 身在局中时,一切看似都是进步。直到Transformer出现前,RNN的改进不也看起来势不可挡吗? 同样, Ilya近期也评论道,仅靠Scaling当前架构并不足以实现AGI: Scaling时代的一个后果是:Scaling吸走了房间里所有的氧气。 正因如此,所有人开始做同样的事。我们走到了今天这个局面——公司数量多于创新电子的世界。 那么该如何抉择? Llion Jones并未声称知道未来方向,只是坦言Transformer可能不是长期答案。这很诚实,却缺乏可操作性。 这个难题在于:每次范式转移,在事后看来都像是徒劳,但在当时却是必要的探索。我们无法跳过这个阶段,只能祈祷有人能更快找到出口。
追觅CEO俞浩回应“百万亿市值”争议:这是一个用20年去验证的目标
凤凰网科技讯(作者/于雷)1月17日 针对近期关于“万亿美金目标”引发的舆论热议,追觅科技创始人俞浩今日作出公开回应。他明确表示,打造人类历史上首个百万亿美金公司是基于未来二十年的长期奋斗目标,而非短期计划。俞浩认为,参考商业发展规律,每二十年全球最高市值公司的体量通常会提升一个数量级,追觅意在通过技术创新尝试冲击这一高度,致力于将人类生产力提高百倍。 在回应中,俞浩披露了追觅科技最新的经营状况与核心数据。他指出,公司目前拥有近4万名员工,其中研发及管理人员占比达到1.8万,已纳税涵盖一线工人在内的大量就业人口。在营收层面,追觅今年已实现几百亿收入规模。针对外界对其市场地位的讨论,俞浩强调,虽然出货量位居行业第三,但得益于高端化战略及对标苹果的市场定位,追觅今年的净利润预计将位居全行业第一。特别是在部分发达国家和地区,其市占率已达到40%至70%。 此外,俞浩对公司的技术壁垒及财务健康状况进行了补充说明。他透露,追觅已成功将高速电机转速提升至20万转,打破了戴森此前的技术垄断。在资金运作方面,俞浩否认了“烧钱换增长”的模式,表示公司自成立以来累计保持盈利状态,并未依赖投资人的资金维持运营,且连续6年保持100%的高速增长,净利润率持续攀升。对于外界关于团队心态膨胀的担忧,俞浩回应称团队状态稳健,并表示若成功实现目标,将持续回馈社会。 以下为俞浩回应全文:
2.3亿人用ChatGPT看病,张文宏为什么反对年轻医生用AI
2023 年,当 GPT-4 在美国执业医师资格考试(USMLE)中取得了惊人的高分时,不只是 OpenAI,硅谷都为此喝彩,AI 在医疗上的前景仿佛一片光明。 三年之后的今天,却有顶尖专家明确表示:反对 AI 接入医院病历系统。 有人反对 AI,有人反对反对 AI 提出反对声音的,是复旦大学附属华山医院感染科主任张文宏。近期在出席论坛中,作为在临床一线摸爬滚打多年的专家,他的担忧直指核心:年轻医生需要专业的训练,才能判断 AI 的对错。 图片来自:深圳卫视 他并不是反对使用 AI,事实上,他提到自己也用,短期内处理大量病历时他也会让 AI 过一遍。但是他可以做到「一眼看出」哪里有问题。而年轻医生跳过训练和积累,依靠 AI 就得出和资深专家一致的诊断,并不能真正理解到 AI 结果中的对和错。 这话有人不爱听了。正在医疗赛道上蓄势待发的百川智能,其创始人王小川就「反对张文宏的反对」。 图片来自:凤凰V现场 在他看来,AI 碰到的是医生的「蛋糕」,和医生的利益是相悖的。医生出于升职称的考虑,把教学和研究放在前面。相比之下,AI 才是服务于患者。 话里话外,隐隐约约在暗示:医生都是要赚你的钱,才不考虑病人的死活。但在医疗系统里,医生的效率和患者的利益往往是高度统编的。如果 AI 能够显著提高效率、减少误诊,那这不就是对患者利益最大的服务吗? 他额外强调医生们太忙了,没有时间用 AI,且 AI 不能帮到他们写论文评职称,得出的结论却是:AI 应该去服务患者——从 LLM 落地应用的第一天来,优化流程、辅助决策就是任务,这根本得不出 AI 应该服务患者的结论,更得不出「当 AI 足够强了,不要医生也挺好」的结论。 说张文宏屁股决定脑袋,作为 AI 公司的 CEO,王小川推崇 AI 直接服务个人,不也还是屁股决定脑袋。 AI 医疗是一块肥肉 AIx 医疗的的确确是一块肥肉,不止王小川一个人盯着,国外的巨头也反复试探。 上周 OpenAI 发布了 ChatGPT Health,通过整合 Apple 健康数据,个人医疗记录和其它健康 app 提供的数据,再让 AI 来提供分析和建议。(链接) 全球有超过 2.3 亿人用 ChatGPT 获得健康建议,这个数字反应了用户需求之所在。不过,OpenAI 很谨慎,不仅强调这不应该代替专业的诊疗建议,从产品规划来看,也是以提供日常保健的建议为主。 Claude 所属母公司 Anthropic 也宣布要拓展 Claude 在医疗方面的能力,从发出的 Opus 4.5 的表现来看,模型层面 Claude 的表现不错。 即便如此,Claude 的规划也不是直接面向患者的。推出 Claude For Healthcare,是一个连接器工作,可以帮助医生和医疗工作人员快速便捷地从行业标准系统和数据库中提取信息。对于个人用户而言,Claude 的作用在于总结用户的病史、解释检查结果和各项指标,并且为就诊准备问题,以此来提高患者于医生沟通的效率。 这两家 AI 巨头都下场了医疗赛道,但都没有冲着取代医生去。只有一家是这样做的:Grok。 Grok 的老板毕竟是马斯克,恨不得把人类都发射上天。他在许多采访中都表示,一个人类医生只能阅读有限的医学文献,只能记住有限的病例。而 AI 可以在几秒钟内阅读人类历史上所有的医学论文,掌握所有的最新治疗方案。在纯粹的诊断准确率上,人类无法与 AI 竞争。 他还把自己的 X 光片、验血报告扔给了 Grok,让它来识别问题,还说 Grok 的一些判断比医生更快更准确。 那不就回到了张文宏说的,对 AI 越依赖越上瘾。 判断力是需要训练的 早在大语言模型促发这阵子 AI 热潮之前,放射科引入 CAD 系统,就出现过类似的问题。 CAD 系统全称为计算机辅助检测,现在已经是医学影像里必不可少的工具。但曾经,CAD 的引入所带来的「自动化偏差」,就完全是张文宏所担心的情况。2004 年,在英国的一项研究中发现,当 CAD 系统未能标记出病灶,比如漏标、错标时,放射科医生的检测敏感度(Sensitivity)显著下降,尤其是采用 CAD 辅助的医生,敏感度比对照组更低。 一项相对更近的研究是 2020 年,一项针对皮肤癌检测的研究发现,当 AI 给出正确诊断的时候,所有医生的准确率都提高了。可一旦给出的诊断是错误时,越是经验不足的医生准确率下降得越厉害。综合来看,AI 和医生共同诊断,准确率的表现是最好的。 经验丰富的老专家如张文宏,之所以能一眼看出 AI 在胡说八道,是因为他们脑中有积累了数十年的病例库。而年轻医生如果从实习期就开始用 AI 写病历、下诊断,他们脑中的「数据库」始终是空的。 因此,想要让 AI 做任何一件「一步到位」的事,背后都一定有巨大的风险。一步到位取代医生是这样,一步到位直接服务患者,更是这样。 以前我们有「百度看病,癌症起步」的笑话,目前的生成式 AI 最大的问题在于它极度自信,一本正经地误诊。即使是错误的医学建议,它也能用极具说服力、引经据典(甚至是伪造的文献)的语气说出来。 图片来自:小红书 如果是受过多年专业训练的年轻医生,尚且容易在 AI 的自信面前放下戒备,产生自动化偏差;那么对于没有任何医学背景的普通用户来说,这种「完美幻觉」更加是值得警惕,本质上和盲目相信「专家」头衔差别不大。 AI 对于普通人的健康有没有用?肯定是有,不然也不会有 2.3 亿的用户记录。不过需要分清两个点:首先,治病和保健是两码事。保健包括日常饮食作息、补充剂摄入、运动计划等等,这些都是对生命没有重大风险的。 治病显然就复杂太多了。目前 AI 应用最多的还是症状的分析,检查报告上的指标解读,一些简单的用药指导。 更简单粗暴的说:在 AI 的指导下,可以争取到一些时间,请到假,去医院。考虑到现在国内的医院挂号不容易,个别检查也需要预约,但不是每个人都有条件在出现症状的时候,就立刻飞奔去医院——哪怕是社区医院,也可能要排队呢? 所以在 AI 的帮助下,可以缓和症状,争取到一些时间,配合使用一些基础药,病程不至于恶化,人也不会太难受。 作为自己健康的「第一责任人」,我们不应该跳过对自己判断力的培养和训练,那才是真正的交出主导权和决策权。
OpenAI偷袭,谷歌掀桌!2026开年第一场AI大战太精彩
编辑:KingHZ 【新智元导读】谷歌强势回应OpenAI:开源TranslateGemma模型,支持55种语言,效率惊人!12B参数超越27B基线,手机端轻松运行,真正速通「巴别塔」。 语言的边界,正被AI一一抹平。 OpenAI悄悄发布了翻译产品ChatGPT Translate,谷歌则祭出强势回应—— TranslateGemma,一个能在手机上翻55种语言的开源模型。 AI正在徐徐开启巴别塔之门。 从语义润色到图文混合,从文风调节到设备端运行,AI翻译不再是「你说我译」,而是对人类沟通方式的全新重构。 不同于OpenAI几乎悄无声息的上线ChatGPT翻译,谷歌全网高调宣布发布了支持55种语言的开源翻译模型TranslateGemma。 这的确值得一说,AI正在降低沟通障碍,全网好评不断。 ChatGPT:偷袭谷歌翻译 近日,OpenAI首次挑战谷歌翻译。 一款名为ChatGPT Translate的独立翻译工具,低调上线了。 OpenAI 几乎没有任何公开宣传,目前都不知道ChatGPT Translate具体何时上线。 互联网档案馆(Internet Archive)的Wayback Machine上有一张11月份的网页快照:https://web.archive.org/web/20251119103023/https://chatgpt.com/translate/ 看起来与当前页面几乎一致,但这也可能只是 OpenAI 在测试该工具的线上版本。 该工具支持超过 50 种语言,基础界面与谷歌翻译高度相似。 但在功能逻辑上,ChatGPT翻译引入了生成式AI的核心优势,最大亮点在于翻译后的「二次加工」能力: 用户可以通过预设的提示词选项,一键调整译文的语气,如「更流利」、「商务正式」、「儿童易懂」或「学术风格」,从而实现针对不同受众的精准表达。 然而,作为初版产品,它目前在功能完整性上仍落后于谷歌,暂不支持文档、网页及手写翻译、图片翻译功能。 目前,ChatGPT Translate仅以网页形式存在,并没有专门的App。 因此,离线使用似乎仍无从谈起。 如果没有一款支持端侧翻译的应用,ChatGPT Translate对于在无网络的偏远地区旅行的用户来说可能并不实用。 另外,它也尚未提供实时对话翻译功能。相比之下,谷歌的Pixel 10现在已经支持通话语音实时翻译。 自动播放 此前,ChatGPT已可以用于多语言翻译任务,但这还是OpenAI第一次推出独立的AI翻译服务,而且无需登录可免费使用。 2023年,沃顿商学院教授Ethan Mollick就注意到,ChatGPT翻译能力出色: 尽管ChatGPT就是为了英语中使用而构建,并不是翻译工具,但在一些小规模测试中,在翻译能力上,ChatGPT经常优于Google Translate(谷歌翻译)。 2024年,美国明尼苏达州政府利用ChatGPT加快并扩大面向非英语居民的翻译服务 明尼苏达州企业翻译办公室使用ChatGPT将政府文件翻译成多种语言 人工智能辅助流程将翻译时间从数周缩短至48小时以内 自实施以来,该办公室已处理了3000份翻译请求,累计翻译超过200万字 去年,网友使用过ChatGPT翻译功能后,直呼:头皮发麻,这就是双语实时翻译天花板。 ChatGPT Translate的问世标志着翻译工具正从单纯的「语言转换」向注重语境与交互的「智能适应」方向演进。 不过,尽管这些语气与语境方面的能力颇具吸引力,ChatGPT Translate与谷歌翻译相比仍显得有些「半成品」—— 后者已发展了数十年,最近还通过基于Gemini的改版进一步增强了对习语和俚语理解的支持。 而且,谷歌这次直接开源了最新的翻译AI模型,直面ChatGPT的挑战。 谷歌TranslateGemma让手机翻译55种语言 基于Gemma 3,谷歌发布了开源翻译模型TranslateGemma,它非常酷: 支持55种语言,并在近500种附加语言对上进行了训练,以供进一步研究 效率出色:12B模型超越了27B基线模型,在参数数量不到一半的情况下实现了更优的性能 保留多模态能力:能够翻译图像中的文本,而无需特定的多模态训练 灵活的部署选项:4B适用于移动设备/边缘设备,12B适用于消费级笔记本电脑,27B适用于云GPU/TPU 在对模型的技术评估中,最令人瞩目的发现是它们的效率表现。 12B参数规模的TranslateGemma模型,在WMT24++基准测试中使用 MetricX 衡量后,性能超越了27B的Gemma 3基线模型。 这对开发者来说无疑是巨大利好:只需不到一半的参数量,就能实现高度保真(high-fidelity)的翻译质量。 这项效率上的突破,意味着可以在不牺牲准确性的前提下,实现更高的吞吐量与更低的延迟。 同样值得注意的是,4B模型的表现已接近原本的12B基线水平,这使得它成为移动端推理的理想选择。 这意味着开发者可以构建完全在设备端运行的低延迟翻译工具。 TranslateGemma的背后,源自Gemini模型体系。 之所以能实现如此高密度的智能表现,关键在于一种专门设计的双阶段微调流程,将Gemini模型的「直觉」成功蒸馏并融入开放架构中。 第一阶段:监督式微调(SFT) 他们以Gemma 3的基础模型为起点,使用多样化的平行语料进行微调。这些语料既包含由人工翻译的高质量文本,也涵盖由最先进的Gemini模型生成的高质量合成译文,覆盖范围广泛,甚至在低资源语言上也能保持出色的翻译保真度。 第二阶段:强化学习优化(RL) 为了进一步提升翻译质量,他们引入了创新性的强化学习环节。在这一阶段,他们构建了一套奖励模型的集成系统,包括MetricX-QE和AutoMQM等先进评估指标,引导模型生成更具上下文准确性、听起来更自然的译文。 此外,TranslateGemma延续了Gemma 3在多模态方面的强大能力。 在Vistra图像翻译基准上的测试表明,即使在训练过程中并未专门进行多模态微调,其文本翻译能力的提升也显著增强了模型处理图像中文字翻译的表现。 这意味着,TranslateGemma 在文字与图像的交叉处理能力上,也具有天然的优势。 这场由OpenAI与谷歌引燃的AI翻译之争,早已超越「谁更准确」的争议,而是走向「谁能更像人、谁能真正懂人」的深层较量。 从语言模型到语境模型,再到认知协同系统,AI正在让世界重写沟通规则。 而真正的赢家,或许是全人类。
OpenAI宣布将启动广告测试 以提升ChatGPT的营收能力
财联社1月17日讯(编辑 赵昊)OpenAI将开始在ChatGPT中向部分美国用户测试广告投放,这标志着该公司在商业化道路上的一次重大转变,因其希望提升这款热门聊天机器人的营收能力。 当地时间周五(1月16日),OpenAI在官网宣布,将把月费8美元的“ChatGPT Go”订阅套餐推广到ChatGPT服务覆盖的所有地区。该套餐最早在印度上线,目前扩展至美国市场。 与ChatGPT Go相比,Plus的订阅费用要20美元/月;相应地,OpenAI计划未来几周在美国的免费用户和Go用户中测试广告,Plus、Pro等付费较高的套餐将保持无广告体验。 OpenAI称,“广告收入有助于我们维持ChatGPT的免费和低价位,从而支持我们让所有人都能轻松使用人工智能的承诺。” 在初期阶段,OpenAI计划在ChatGPT相关回答的底部测试赞助商品和服务广告,并明确将广告与正常对话内容区隔开来。公司表示,广告有助于用户通过聊天机器人做出更好的购物决策。 OpenAI应用业务CEO Fidji Simo在博客中表示:“我们的企业级和订阅业务已经相当稳健。我们相信,构建多元化收入模式很重要,而广告可以帮助让智能服务更加普惠。” 分析认为,OpenAI接受广告模式的决定,反映出公司努力实现收入多元化(或许在为潜在IPO做准备),同时缓解建设和维护人工智能系统所带来的巨大成本压力。 OpenAI预计公司可能在未来多年内仍难以实现盈利,但已承诺在人工智能数据中心和芯片方面投入约1.4万亿美元。 这一举措在某种程度上也意味着战略转向。此前OpenAI主要依赖订阅模式。 首席执行官 萨姆·奥尔特曼(Sam Altman)曾多次表达自己对广告的反感,称其是“最后的手段”,并担心一旦用户认为聊天机器人在“卖东西”,对其可信度的信任可能下降。不过,谷歌等竞争对手已经开始在AI产品中引入广告。 目前,ChatGPT的每周活跃用户已超过8亿人。公司多位高管曾在社交媒体公司任职,包括上文提到的Simo——她此前曾负责推动Facebook应用的广告业务增长。 Simo强调,广告不会影响ChatGPT给出的回答内容。OpenAI 也表示,不会向广告主分享用户对话内容,还将根据早期反馈对广告产品进行调整。 Simo表示:“在引入广告的同时,最关键的是保留ChatGPT最核心的价值。这意味着,必须让用户信任ChatGPT的回答是基于客观有用的信息,而绝不是由广告驱动。”
马斯克“无聊公司”被曝将新建地下隧道,缓解通勤压力
IT之家 1 月 17 日消息,当地时间 1 月 16 日,据《财富》杂志报道,文件显示马斯克旗下的“无聊公司”正与内华达州政府关联机构合作,研究一项可能从里诺延伸至特斯拉超级工厂的地下隧道项目,路线位于 80 号州际公路下方,长度约 14.5km。 该研究由西内华达经济发展局出资推进。该机构是一家与州政府密切合作、负责招商引资的非营利组织,已于 2025 年 10 月向无聊公司支付 5 万美元(IT之家注:现汇率约合 34.9 万元人民币),用于完成概念性设计和可行性研究。研究目标是为塔霍 — 里诺工业中心寻找新的交通替代方案。 该工业中心占地约 433 平方公里,随着数据中心和大型企业持续入驻,80 号州际公路沿线的交通流量和事故数量显著上升。 特斯拉和松下作为工业中心内规模最大的两家公司,自至少去年春季起便与内华达州州长办公室就交通问题展开沟通,并同步参与多种解决方案的评估。 在现阶段讨论中,通勤铁路方案仍是主要方向。特斯拉和松下正与当地交通机构合作,资助一项利用现有货运铁路的通勤铁路研究。同时,两家公司也向西内华达经济发展局提供资金,用于评估包括地下隧道在内的其他选项。前州长基础设施事务主管克里斯 · 赖利曾牵线无聊公司高管,与特斯拉和松下管理层就隧道研究进行交流。 目前,隧道项目仍处于高度概念阶段。研究是否完成尚不明确,拟建隧道的长度、建设成本、是否引入自动驾驶车辆等核心细节均未对外披露。
奥特曼秘密持股OpenAI!法庭文件曝光总裁日记:2017年就想转盈利
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 硅谷最贵的一场官司,有了新进展。 马斯克诉OpenAI案,法庭一口气解封超过100份证词文件,爆出太多猛料。 奥特曼隐瞒他通过YC基金间接持有OpenAI的股份,并同时担任非营利组织的独立董事和CEO。 OpenAI总裁Brockman早在2017年就承认他想把OpenAI变成一家营利性公司,而且要踢出马斯克。 马斯克还放话“迫不及待想赶紧开庭了,庭审结果和证词绝对会让你大吃一惊”。 OpenAI并没有坐以待毙,在官网单开一页专门用来反驳马斯克的证词,就很Drama。 吃瓜群众纷纷开启画线模式,在冗长的法庭文件中发挥自己的注意力机制。 还有人吐槽,奥特曼隐瞒的事简直比GPT-5的隐藏层还多。 奥特曼做ChatGPT是出于热爱还是股份 2024年,奥特曼曾在国会听证会上一脸无辜的表示: 我不持有OpenAI的任何股份,我做这件事是因为我热爱。 结果最新法庭文件显示,奥特曼早就通过YC基金间接持有OpenAI的股份。 董事会后来还得知,奥特曼还秘密拥有OpenAI创业基金。 与此同时,奥特曼还同时担任OpenAI非营利组织的“独立董事”和首席执行官。 有投资者指出,严格地说奥特曼持有的股份通过SPV(特殊目的载体)实现,从法律意义上讲确实不算OpenAI的股份。 字面意义上他没有撒谎,但他还是在某种程度上撒谎了。 总裁私人日记,正经人谁写日记啊? 最具爆炸性的证据来自Greg Brockman 2017年9月至11月的私人日记,这些内容通过法律发现程序被强制公开,现在成了马斯克手里最锋利的刀。 日记里,Brockman写道: 这是我们摆脱埃隆的唯一机会。他是我心目中的“伟大领袖”吗?我们真的有机会实现这个目标。从财务角度来说,什么能让我达到10亿美元的目标。 接受Elon的条款会摧毁两件事:我们的选择能力,以及经济利益。 他甚至直接承认:”真实答案是我们想让他(马斯克)出局。” 最要命的是2017年11月的这一段: 从他(马斯克)手中夺走非营利组织是错误的。未经他同意就将其转型为B-Corp(共益企业)。这在道德上是极其败坏的,而且他真的不是个傻瓜。” 但几天以后接着写的这篇标题为“我们的计划”(our plan): “如果能赚到数十亿当然很好,也许我们应该转型做营利性公司。” 而就在2017年11月,Sam Altman还在邮件里向马斯克保证”团队仍致力于非营利结构”。 马斯克2015年到2018年间向OpenAI捐赠了约4400万美元,当时OpenAI还是一家承诺”为全人类福祉开发AI”的非营利组织。 如今这些日记条目被视为欺诈指控的核心证据,它们显示OpenAI领导层一边公开承诺非营利,一边私下策划完全不同的剧本。 Replit创始人还发现奇怪的盲点,Brockman在2017年写日记就用思维链了? OpenAI反击:马斯克才是想要控制AGI的那个人 OpenAI这边反驳的核心论点是:马斯克在断章取义。 蓝色为马斯克在法庭上承认他说了什么 红色为OpenAI补充马斯克没承认但当年也说了的。 OpenAI称2017年马斯克已经同意盈利性结构将是OpenAI的下一个发展阶段,他们之间的分歧只是在于控制权归谁。 更有戏剧性的是OpenAI透露的另一个细节:马斯克曾要求获得50%到60%的多数股权、初始董事会控制权,并亲自出任CEO。 当这些条件被拒绝后,他甚至谈到要“让他的孩子控制AGI”,这番话让OpenAI其他创始成员相当震惊。 OpenAI称马斯克不断提起诉讼是为了拖延OpenAI的研发进度,给自己的xAI公司争取更多时间。 由于双方各执一词,给法官也整不会了。 法官表示“存在大量有争议的证据”适合由陪审团而非法院直接裁决。 审判定于2026年4月27日开始,预计持续约4周。
仅用一周时间,谷歌就让OpenAI认清现实
究竟是什么样的更新,才能让谷歌CEO皮查伊称之为“众望所归”(Answering a top request from our users)? 那就是谷歌Gemini最新的Personal Intelligence功能。 它通过用户Gmail、Google Photos、YouTube和搜索等应用的数据,让AI能够跨数据源推理,提供个性化回答。真正意义上实现了AI全能管家。 几乎同时,谷歌还与苹果达成多年期合作,Gemini 3将成为新版Siri的技术底座。还有通用商务协议的发布。一系列动作密集而迅猛。 资本市场的反应也是立竿见影,Alphabet市值突破4万亿美元,19年来首次超越苹果。 这一系列更新背后,是谷歌全栈优势的体现。 从硬件到软件,得益于谷歌在AI产业链的每个环节都有布局,而他们也正在用技术栈控制越来越多的生态。 谷歌释放的信号很明确,不仅要赢,还要赢得更彻底。 技术代差可以追赶,资金差距可以弥补,但生态位的差距一旦形成,OpenAI们可能就永远无法追赶上谷歌了。 01 谷歌和苹果的合作,是一次世纪握手。 1月12日,两家公司联合宣布达成多年期合作协议,Gemini 3将成为下一代苹果智能(Apple Intelligence)的技术底座。 这次合作并非单纯的提供基座大模型那么简单。文章《“套壳”谷歌Gemini,但苹果还没死心自研模型》中提到,Gemini作为后台训练导师与复杂任务处理引擎(负责信息摘要、跨应用调度等),苹果自研模型处理本地敏感数据。 所有用户交互与数据流转通过苹果私有云完成,Siri控制权与隐私标准仍由苹果掌控,核心落地场景为今年晚些时候推出的新版个性化Siri。 根据外媒报道,这笔交易预计每年为谷歌带来约10亿美元的收入,但更重要的价值是数据。Siri每天处理约15亿次请求,这些交互数据将进一步强化Gemini的Agent能力。 即便不触碰任何用户的敏感数据,但是Gemini依然会了解用户的需求和处理结果。因此,当用户习惯在新版Siri中完成各种任务时,谷歌就掌控了从用户意图到应用执行的完整链条。 几乎在同一时间,谷歌在美国零售联合会推出通用商务协议(Universal Commerce Protocol,UCP)。这是一个开源的AI电商标准,可以让AI代理与商业系统无缝对接。 谷歌与Shopify、Walmart、Target、Wayfair、Etsy等20余家零售和支付巨头联手打造这一协议,使用户可以直接在Gemini应用和AI Mode中完成商品搜索、比价、下单和支付,无需跳转到商家网站。 这种“原生结账”体验彻底改写了电商的流量逻辑,入口从独立电商网站转移到了AI对话界面。 在零售端,Gemini还接入了Google Shopping Graph。这是一个包含超过百亿商品信息的知识库,支持AR虚拟试穿、价格保护、实时库存查询等功能。 说回谷歌的Personal Intelligence功能,它与ChatGPT仅能参考过往对话历史不同,这个功能主打的是可以跨应用推理,分析数据点之间的关系。 谷歌提供的案例显示,当用户站在轮胎店排队却不知道自己的2019款本田小型货车需要什么型号的轮胎时,Gemini可以从Google Photos中识别车辆配置,从Gmail收据中找到车牌详细信息,然后建议不同的选项。 比如一种适合日常驾驶,另一种适合全天候条件,参考的是在Google Photos中找到的家庭前往俄克拉荷马州的公路旅行记录。 用户可以单独控制每个数据源的访问权限,在隐私保护和功能体验之间取得平衡。 谷歌强调,Gemini不会直接在Gmail收件箱或Google Photos库上进行训练,而是仅使用“有限信息,如Gemini中的特定提示和模型的响应”来改进这一能力,且会采取措施过滤或模糊对话中的个人数据。目前该功能已向AI Pro和Ultra订阅用户开放测试。 02 AI产业正在进入一个被称之为“inference economics”(推理经济学)的时代。 在这个时代,竞争优势不再由训练模型的参数量定义,而是由“以最低成本提供有用信息”的能力决定。而谷歌在这方面的布局堪称教科书级别。 谷歌使用自研的TPU芯片训练模型,它的优势主要集中体现在在推理环节上。 这是因为GPU每做一次运算,都要频繁地从缓存或内存(HBM)中读写数据。这种“存取-计算-存取”的循环在推理时会消耗大量带宽和电力。 TPU让数据在处理单元之间直接传递。一旦权重加载进阵列,数据流进去就能连续完成成千上万次乘加操作,无需中间写回内存。 不仅如此,为了兼顾图形渲染、科学计算等任务,GPU拥有复杂的调度逻辑、分支预测和指令缓存。这些在纯粹的推理运算中属于“无效载荷”,但又必须耗费计算资源。 TPU剥离了所有非AI相关的电路。在推理时,由于模型结构是固定的,TPU能以极高效率的批处理(Batching),几乎没有时钟周期被浪费在指令调度上。 此外,谷歌在TPU Pod中使用了自研的OCI(光学电路交换)技术。 相比于英伟达依赖的电缆和 NVLink 开关,谷歌的光学互联能以更低的功耗提供数 Tbps 的跨芯片带宽。这使得 TPU 在处理超长上下文或超大模型推理时,通信开销更小。 当Gemini每天处理数十亿次查询时,每次推理哪怕只节省几美分,累积下来就是数亿美元的成本优势。 更深层的优势体现在商业模式上。 谷歌并不追求AI订阅收入的最大化,Gemini Advanced的定价策略比ChatGPT Plus更便宜,甚至在某些场景下完全免费,比如edu账号可以全年免费。 谷歌的战略是“羊毛出在猪身上”,强化生态锁定、增加用户停留时间、提升广告定向精度。 根据财报,谷歌约80%的收入仍然来自广告。对于谷歌来说,AI 并不是一个新生意,而是一次“广告引擎的史诗级大修”。 谷歌将Gemini深度嵌入。用得越多,用户的数据画像就越清晰,广告推送也就越精准。 不仅如此,传统的蓝色链接是搜索引擎让你尽快离开,点击去别的网站。 但是和Gemini对话截然相反,谷歌需要用户继续留在Gemini里。用户停留时间越长,展示高价值广告的机会就越多。 谷歌不靠卖AI赚钱,而是用AI让现有的广告生意变得更赚钱。 迭代速度的优势同样关键。 从DeepMind的研究idea到TPU的芯片优化,再到模型训练和产品部署,谷歌可以在一个闭环内完成整个链条。 而像OpenAI这样的AI企业,想要更新就需要协调微软的Azure云、英伟达的芯片供应、第三方的数据合作,决策链条冗长,响应速度必然慢半拍。 在AI军备竞赛的“以周计算”节奏中,这种速度差异可能决定市场窗口的得失。 所以谷歌才会更新得越来越快,同时他们还在扩大优势,形成“赢家总赢”的局面。 打下推理成本后,通过与苹果的合作,谷歌获得了大量的Siri请求数据,相当于ChatGPT日均25亿次提示词的60%。而通过UCP,谷歌还将在电商AI入口的争夺战中抢得先机。 这不是简单的技术合作,而是对流量分发权的重新定义。 数据飞轮是谷歌最难以复制的护城河。谷歌拥有Search、YouTube、Gmail、Maps等九个用户超过10亿的产品,每天产生的数据量远超任何竞争对手。 Personal Intelligence功能的推出,让这些数据首次被深度整合到AI体验中。 用户每一次与Gemini的交互,都在强化模型对个体偏好的理解,形成正反馈循环。这种“数据→模型→体验→更多数据”的飞轮效应,是OpenAI等独立AI公司难以企及的。 03 视角切换到OpenAI这边,他们此刻正陷入前所未有的困境。 2025年底,就在Gemini 3发布后不久,OpenAI CEO Sam Altman向全体员工发出了“红色警报”(code red)。OpenAI公司暂停了所有商业化项目,包括广告平台、个人助手Pulse、购物代理以及健康AI工具的开发。 全员转向一个目标,那就是追上Gemini 3的水平。 奥特曼后来在播客中承认,这种“红色警报”状态通常会持续6到8周,但他补充说:“Gemini 3的影响没有我们担心的那么大。” 然而市场数据讲述了另一个故事。 根据Similarweb的分析,ChatGPT在生成式AI市场的份额从2025年1月的87.2%跌至2026年1月的64%,而Gemini在同期从5.7%涨至21%。 ChatGPT的网络流量在近几周下降了22%,从12月初的约2.03亿日均访问量降至1.58亿,而Gemini的使用量保持稳定在5500万至6000万日均访问量。 此消彼长之间,ChatGPT的统治地位正在被撼动。 根据谷歌财报电话会议,Gemini的月活跃用户从2025年7月的4.5亿增长到10月的6.5亿,三个月内增长44%。 反观,Similarweb的数据显示,ChatGPT同期增长仅为5%-6%。 苹果合作的“降级”更是一记重击。 OpenAI曾是苹果在AI领域的首选合作伙伴,ChatGPT被整合到苹果智能中,用于处理复杂查询。 但在谷歌与苹果的新协议下,OpenAI的角色被边缘化了。 投资研究公司Equisights Research的CEO Parth Talsania一针见血地指出:“苹果选择Gemini作为Siri的底层技术,意味着OpenAI转变为辅助角色。ChatGPT仍然可用于复杂的、用户主动选择的查询,但不再是默认的智能层。” 更深层的迹象在于,谷歌全栈优势正在放大。 OpenAI没有自己的搜索引擎、操作系统以及产品矩阵。每一个APP之间除了账号相通以外,都是独立运作的。 但谷歌可以将Gemini无缝嵌入Gmail、Docs、YouTube等用户日常使用的工具中,反之还有Personal Intelligence功能。 ChatGPT却只能要求用户主动离开现有工作流程,用户想生成视频就得从ChatGPT里退出来打开Sora App。 谷歌很清楚一件事:用户对AI模型本身并不忠诚。 这个行业的残酷真相是,用户会毫不犹豫地在ChatGPT、Gemini、Claude之间来回切换,谁的模型在某个任务上表现更好,他们就用谁。 数据显示,越来越多的开发者开始使用LangChain这样的抽象层,让应用可以在不同的AI提供商之间无缝切换,而不需要重写代码。这种“多模型策略”正在成为常态,ChatGPT用于写作,Claude用于任务编排,Gemini用于多模态理解。 但用户对他们的数据、使用习惯、费用预算和工作效率倒是非常忠诚。 他们的数据不可能轻易迁移到其他平台,这些习惯也不可能一夜之间改变。 所以谷歌的战略就是抓住这些真正的忠诚度,通过更大的AI生态让用户感受到持续的价值增长,锁住用户。 当用户发现在Gmail里就能直接用Gemini起草邮件,在Google Docs里就能让AI帮忙润色文章,在YouTube里就能获得视频摘要,他们为什么还要打开一个独立的ChatGPT标签页? 这种“无缝体验”远比模型更有吸引力。 别的模型可能更聪明,但Gemini就在每天使用的工具里,不需要切换窗口,不需要复制粘贴,这就够了。 关键的是,谷歌还在不断降低用户使用AI的门槛,用价格战进一步扩大优势。 免费用户现在可以在Gemini CLI中使用Gemini 3,以前只有付费用户才能使用。 1月初,新用户年订阅Google One的AI Pro半价促销。这些动作的目标很明确:让更多用户进入谷歌的生态系统,让他们习惯在谷歌的产品中使用AI,让迁移的成本变得越来越高。 当技术竞赛演变为生态位竞争,先发优势和资金储备都不再是决定性因素。 谷歌正在用全栈建造一个AI帝国。 而对于OpenAI和其他竞争者来说,亮出“红色警报”并不能解决问题,他们想要追上谷歌的脚步,只会越来越艰难。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。