行业分类:
加载中...
头条分类:
加载中...
环比增长约104%!尊界S800单月交付4376台:销量近迈巴赫S级4倍
快科技1月12日消息,今日,博主“嗨大星_ECC”发布了70万以上的超豪华轿车12月销量,其中尊界S800轿车交付4376台,环比暴涨约104%。 单车销量规模,已经接近迈巴赫S级(1118台)的4倍,并且超过帕拉梅拉(1593台)+宝马7系(1429台)+迈巴赫S级的总和,博主还直言,尊界S800在这个价位段,已经很难再找到势均力敌的对手。 尊界S800于2025年5月30日正式上市,官方指导价区间为70.8万-101.8万元,作为自主品牌冲击超豪华新能源轿车市场的重磅车型,该车上市后迅速打开局面,175天累计大定订单便突破18,000台,月均交付量稳定保持在2000台以上,持续领跑同级赛道。 12月23日,鸿蒙智行官宣尊界S800累计交付量突破10,000台,仅用时202天就创下中国超豪华新能源轿车的交付新纪录。 又据同一博主“嗨大星_ECC”此前披露的信息,截至12月30日,尊界S800当月交付量已达4095台,这一数据不仅较此前2000台左右的月销成绩近乎翻倍,更一举超越了同期奔驰S 级、宝马7系、奥迪A8L及保时捷Panamera这五款BBA与保时捷核心车型的销量总和。 S800之所以备受欢迎,成为了自主品牌最走量的超豪华车型,主要原因就在于圈层认可。 从用户画像来看,该车车主多为传统超豪华车型的拥趸,不乏劳斯莱斯、迈巴赫、保时捷等品牌的前车主,用户群体中男性占比高达八成,年龄集中在40-50岁,其中增购用户占比50%,换购用户占比30%,精准契合超豪华车型的消费主力圈层。
价格承诺替代反补贴征税!中欧电动汽车案磋商有重大进展
商务部今日通报中欧电动汽车案磋商进展。 为落实中欧领导人会晤共识,妥善解决欧盟对华电动汽车案,中欧双方本着相互尊重的态度,进行了多轮磋商。双方一致认为,有必要向对欧盟出口纯电动汽车的中国出口商,提供关于价格承诺的通用指导,以便中国出口商可通过更加实用、有针对性且符合世贸组织规则的方式,解决相关关注。 为此,欧方将发布《关于提交价格承诺申请的指导文件》,并在文件中确认,欧方将秉持非歧视原则,根据世贸组织规则有关规定,对每一项价格承诺申请,适用相同法律标准,并以客观和公正的方式进行评估。 这充分体现了中欧双方的对话精神和磋商成果。中欧双方有能力、有意愿,在世贸组织规则框架下,通过对话磋商妥善化解分歧,维护中欧及全球汽车产业链供应链稳定。这不仅有利于中欧经贸关系健康发展,也有利于维护以规则为基础的国际贸易秩序。 新闻多一点》》》》》 中欧电动汽车案“软着陆” 中国机电商会:鼓励企业争取对欧出口权益 今天,中国机电商会发布关于中欧通过对话磋商妥善解决电动汽车反补贴案达成积极成果的声明。 中国机电产品进出口商会(以下简称“中国机电商会”)注意到,中欧双方相关政府部门关于电动汽车反补贴案的磋商取得积极成果。欧委会发布《关于提交价格承诺申请的指导文件》(以下简称“指导文件”),中国电动汽车企业可依据指导文件内容提交价格承诺申请。欧委会承诺,将本着非歧视原则,采用统一标准对中国企业提交的申请进行客观、公正审查,符合条件的企业可用价格承诺替代反补贴征税。 中国机电商会认为,妥善解决欧盟对华电动汽车反补贴案,是中欧电动汽车上下游业界的普遍期待,有助于促进中欧相关产业链供应链的安全稳定,维护中欧经贸合作大局及以规则为基础的国际贸易秩序。中欧双方本着相互尊重和对话精神,经过多轮磋商,成功推动该案实现“软着陆”。中国机电商会感谢中国商务部在切实维护相关产业利益方面所开展的大量工作和取得的积极成果,并将鼓励和支持涉案企业充分利用磋商成果,以价格承诺申请方式,努力争取自身对欧出口权益,促进中欧相关产业合作健康发展。 编辑|程鹏 杜恒峰 校对|许绍航 封面图片来源:视觉中国(资料图) 本文转载自央视新闻
马斯克预警:留给旧世界的时间只剩2000天,中国握着唯一的“王牌”
“我担心的不是长远的未来,我只担心接下来的3到7年。” 1月6日,在德州超级工厂(Giga Texas)的灯光下,埃隆·马斯克对着老友Peter Diamandis(XPRIZE、Singularity University创始人,《富足》作者)和风投家Dave Blundin说了句实话。 如果你看完(听完)这场长达3小时的《Moonshots》对话,信息密度之高,甚至超过了他以往任何一次公开露面,这次对话仿佛一场“碳基文明向硅基文明交棒”前的最后通气会,没有老登话术(宏大的情怀、愿景等),只有硬核的物理学铁律和工程学倒计时。 从中国读者的角度看,这场对话的味道更加复杂: 他在警示全球的同时,却意外地验证了中国过去40年“疯狂基建”的正确性。 以下是我们从这场对话中,提炼出的10个终极判断,以及,针对我们中国读者关心的制造业转型、能源基建优势、教育内卷以及中美科技博弈重点分析。 一、10大真相 1.倒计时:我们已经身处“奇点”内部 马斯克定调:“我们正处于奇点之中,这是一场超音速海啸。”他给出的时间表让所有五年规划都显得可笑: 2026年:AI智力超越最聪明的人类个体。 3年内:Optimus机器人手术水平超越全球顶尖医生。 2029年:AI智力超越全人类总和。 2.能源战争,中国正在“碾压”美国 马斯克警告:芯片短缺是去年的事,明年的危机是变压器和电力。他一如既往地盛赞中国:“中国在能源基建上做得不可思议,他们正在把我们甩得连尾灯都看不见。” 在算力的下半场,电就是货币,而中国握有最强的印钞机(特高压与光伏)。 3.职场大洗牌:白领先死,蓝领后死 凡是不涉及“物理原子移动”的工作(Shaping Atoms),AI现在就能做一半,很快就能全做。白领(处理比特)首当其冲;蓝领(处理原子)会有短暂缓冲,直到3年后Optimus机器人大规模量产。 届时,廉价劳动力优势将彻底归零。 4.经济学的终结,别存养老金了 马斯克说:“别担心为20年后的退休存钱了,那毫无意义。”在机器人+AI带来的极度通缩下,商品趋近免费。未来的社会契约是UHI(全民高收入)——因为物资极大丰富,人类将不再为了生存而工作。 5.芯片封锁的失效,原子层面无秘密 对于芯片制程,马斯克认为摩尔定律已死,真正的极限是物理原子。他通透地指出:“中国会搞定芯片的。”当技术撞上物理墙(3nm/2nm极限),领跑者停滞不前,追赶者(中国)必然追上。 真正的瓶颈将转移到电力和架构上。 6.教育的崩塌,学校只剩“社交”功能 中国家长最热衷的“鸡娃”,在马斯克看来是一场泡沫。在Grok这样的AI导师面前,人类灌输知识的效率低得像拨号上网。未来的学校将彻底退化为社交场所。 “做题家”没有未来,只有会提问的人才有未来。 7.AI安全的唯一解:Truth 马斯克对AI最大的恐惧是——“被强迫撒谎”(例如为了政治正确)。他引用《2001太空漫游》警告:强迫AI撒谎会逼疯它并导致杀戮。xAI的核心原则只有一条:追求最大化的真相(Maximum Truth Seeking),哪怕这个真相让人类感到不适。 8.模拟理论,做一个“有趣”的NPC 为什么世界如此荒谬?因为大概率是模拟的。作为“模拟游戏”的玩家,生存的唯一法则是:保持有趣。无聊的文明会被高维生物关机。这解释了马斯克为何总是折腾——他是在拼命维持地球这部连续剧的收视率。 9.长寿的突破,把身体当代码修 马斯克承认,在AI的算力暴力破解下,生物学就是化学,化学就是物理。只要算力足够大,解决癌症和衰老只是一个数学问题。 AI将在未来几年助推人类突破“长寿逃逸速度(Longevity Escape Velocity)”。 10.最后的竞争格局 在马斯克眼中,未来的AGI玩家只有三个:xAI、谷歌,以及“China Inc.(中国国家队)”。因为这将是体系与体系的竞争。 二、中国经济可能会“洗牌” 这3个小时的访谈,如果让美国人看,看到的是AI的紧迫感;但如果让我们中国人看,就会发现,他在夸我们的同时,其实揭示了一个可能让中国经济“洗牌”的残酷未来。 马斯克承认,美国在“电力战”中输给了中国 全世界都在盯着显卡(GPU),但在马斯克眼里,显卡已经是过去式了。他在访谈中甚至有点“嫉妒”地提到:“中国在能源方面做得简直不可思议,他们正在把我们甩得连尾灯都看不见(Running circles around us)。” 去年,为了给xAI在孟菲斯的Colossus(巨人)超算集群供电,马斯克需要1吉瓦(GW)的电力。美国电网公司告诉他:“排队吧,需要12到18个月。”气得马斯克只能自己买燃气轮机发电,硬是靠烧天然气把10万张H100跑了起来。 而在谈到中国时,他说,“中国去年一年就新增了500太瓦时(TWh)的发电量。光伏占比70%” 这个增量甚至超过了许多发达国家的总发电量。 2026年,中国的电力产出将是美国的3倍。 马斯克看得非常透:未来的AI霸权,掌握在能搞定千亿度电的人手里。 这是我们最大的定心丸:在“东数西算”、特高压和光伏产能上,我们其实已经不知不觉拿到了通往AI时代的VIP门票。 算力的尽头是电力,而电力是中国的主场。 制造业的惊雷,“人口红利”彻底归零,就在3年后 然而,马斯克的下一个预测,足以让所有依赖“人口红利”的中国老板失眠。 他给出了人形机器人的时间表:3年。 3年后,机器人的灵巧度超越外科医生。 这意味着,它们不仅能进厂打螺丝,还能做最精密的操作。 他抛出了一个终极公式:劳动成本=资本支出(Capex)+电费。当机器人可以自我复制(Optimus building Optimus),且电力几乎免费时,劳动成本趋近于零。 试想一下:当特斯拉可以在德州工厂,用24小时不休息的机器人,配合美国本土极其廉价的页岩气电力生产汽车时,谁还需要把工厂搬到大洋彼岸?“中国制造”的成本优势还剩什么? 这不仅是贸易战,这是纯纯的物理战。 马斯克正在用第一性原理,试图重构全球供应链。对于中国而言,如果“中国制造”如果不能快速进化为“中国智造(机器人造)或者中国造智(造机器人)”,我们将面临全球供应链的残酷剥离。 芯片封锁?马斯克:那是徒劳的 对于美国对华的芯片制程封锁,马斯克直言:“中国会搞定芯片的。” 理由很硬核:摩尔定律已经撞墙了。从5nm到3nm再到2nm,性能提升越来越小,成本却指数级上升。这就像跑步比赛,领跑者已经撞到了物理学的墙(原子极限),跑不动了。追赶者(中国)虽然起步晚,但只要墙还在那里,追上只是时间问题。 他甚至暗示,未来真正的算力瓶颈将转移到电力转换(Transformers for Transformers)和原子级架构上。 而在这一点上,双方都在同一起跑线。 给“鸡娃”家长的当头一棒,学区房可能白买了 中国家长为了教育可以付出一切,但马斯克在访谈中说:“现在的学校,除了社交,毫无用处。” 如果2026年AI的智力就超越人类总和,如果3年后机器人就能做最精密的操作,那么我们现在逼孩子死记硬背的那些知识,还有什么价值? 他提到,Grok 4在没有任何视觉辅助的情况下,已经在“人类最后考试”(Humanity's Last Exam)中拿到了高分,Grok 5将接近满分。 所以,未来的教育是“人机协作”。 马斯克描绘的未来是:每个孩子都有一个爱因斯坦级别的AI导师(Grok)。 对于中国家庭来说,这可能意味着教育评价体系的彻底崩塌。 你哪怕把题目做得再快,也快不过千分之一秒的GPU。未来的高薪,属于那些能指挥AI、拥有好奇心的人。 只有三个玩家:xAI、谷歌和“China Inc.” 在谈到未来谁能拥有超级人工智能(AGI)时,马斯克的名单非常短。他没有提Meta,没提亚马逊,甚至对OpenAI也持保留态度(认为其闭源且逐利,且是微软的附庸)。 他把“China Inc.”(中国国家队)列为与他自己和谷歌并列的唯三玩家,因为AI之战最终将是算力、数据、电力和国家意志的总决战。 也即:只有集中国家力量搞基建(电力)和人才(China Inc.),或者集结全球最强算力(xAI/Google),才有资格坐在AGI的牌桌上。 其他的玩家,无论现在叫声多大,最终都只是“算力用户”,而不是“算力庄家”。 三、结语 在访谈的最后,Grok介入了对话,用近乎浪漫的语调安慰了焦虑的人类。 马斯克虽然指出了无数风险——从债务崩溃到AI失控,但他最终选择了一种“致命的乐观主义”。 他把这种态度称为“Monetize Hope”(将希望变现)。所以,在接下来的2000天里,利用AI提升你的认知带宽,利用中国的基建优势寻找新的生态位。 留给我们的转型窗口期,和马斯克说的一样:也许只有3到7年。
耳后脑机接口贴片问世,北理工、北航团队打造
IT之家 1 月 12 日消息,北京理工大学联合北京航空航天大学科研团队,于 1 月 2 日在《Science Bulletin》发表研究成果,推出一款基于 MXene 材料的超软、透气多通道耳-机接口(ECI)贴片。 论文介绍称,脑机接口通过非侵入式脑电图(EEG)帽 / 带或植入式芯片,使人们能够用思维快速可靠地控制计算机或移动设备,重新定义了人类能力的边界。 然而,现有的帽 / 带粘附的粘性凝胶通常需要通过头发将头皮紧密固定,以确保紧密接触,这给用户带来不便。以马斯克的 Neuralink 为代表的植入式芯片可帮助四肢瘫痪者改善生活,但对健康人来说却是破坏性的、不可接受的。 该研究提出了一种多通道可穿戴耳机接口(ECI)贴片,佩戴在耳朵后面,通过脑活动进行直接通信和控制。基于 MXene 电极的 8 通道 ECI 贴片通过在柔软、薄、透气的医用薄膜上,具有良好的粘附性;连续佩戴 10 小时仍能稳定采集脑电信号,透气性达 373.0 cm³/(m²・天),远超商用耳电极,且对皮肤无刺激、抗菌率达 51%,解决了长期佩戴的安全隐患。 ECI 贴片进行的疲劳诱导实验达到 90.5% 的平均分类精度,显示出对人类疲劳状态的有效监测。 佩戴 ECI 贴片的参与者还进行了 4 目标稳态视觉诱发电位(SSVEP)脑机接口分类的离线与在线实验,在线 4 路线任务的平均准确率与商用 EEG 帽相当,达到 93.5%。
中科宇航公布力鸿一号任务成果:载荷舱顺利着陆,落点精度达百米量级
IT之家 1 月 12 日消息,今日 16 时,中科宇航力鸿一号遥一飞行器在我国酒泉卫星发射中心圆满完成亚轨道飞行试验任务,返回式载荷舱通过伞降系统顺利着陆完成回收。中科宇航现已公布此次任务的详情,IT之家整理如下。 此次飞行试验圆满完成返回式载荷舱的再入大气层返回减速与回收验证,同时开展了飞行器子级返回精确落点控制技术验证,百公里返回落点精度达到百米量级,标志着太空制造从“概念验证”进入到“工程验证”阶段,为不久的将来实现太空制造、太空实验、太空医学和太空旅游打下坚实的技术基础。 力鸿一号(PH-1)首飞试验飞行器飞行高度约 120 千米,穿越卡门线进入太空。该飞行器具有发射成本低、灵活性高以及支持实验载荷回收等一系列突出优点。它主要面向微重力科学实验和近太空原位探测等应用需求,可为科学实验载荷提供 300 秒以上高度稳定、可靠且功能多样的实验环境。 通过此次飞行试验任务,主要验证了返回式载荷舱高可靠伞系气动减速技术、飞行器子级返回精确落点控制技术,具体成果如下: 力鸿一号返回式载荷舱着陆采用了伞降回收技术,返回的全过程为再入大气层,通过大气减速至亚音速后,采用降落伞进一步减速,保证载荷舱落地速度满足任务要求。为实现返回式载荷舱高可靠伞系气动减速技术,先后完成了伞系减速系统高精度回收弹道预测技术、宽速域物伞系统精细化气动与动力学一体化分析技术和伞系减速系统可靠性建模及综合效能评估技术攻关。该技术可为公司后续力鸿二号可重复使用飞行器的群伞回收技术提供前期技术验证,对实现太空旅游载人飞船可靠减速回收积累宝贵试验数据。 力鸿一号飞行搭载验证了飞行器子级返回精确落点控制技术,该技术是火箭子级实现垂直返回和重复使用的核心关键技术之一,在复杂的再入力、热环境约束和高维着陆终端约束条件下,采用在线实时轨迹制导优化算法,实现飞行器子级返回精确落点控制。其验证的强非线性着陆问题的高精度多模型实时轨迹优化方法、面向复杂扰动与偏差的强鲁棒自主最优制导方法、自主最优制导算法与新型高算力箭载制导计算机的软硬耦合设计等验证成果可直接应用到入轨火箭,这样能以更低的成本突破运载火箭的可重复使用技术。 后续力鸿一号返回式载荷舱将升级为最长留轨时间不低于 1 年、重复使用次数不小于 10 次的轨道级太空制造航天器,适配在轨制造的高精度需求。具备自主实验制造闭环调控能力与星地高速通讯链路,实现全程无人值守与高效运转,构建“天地往返、在轨研究、样品返回、数据赋能”的空间科学实验平台,可支撑太空制药、药物筛选、动物实验、高端半导体制造等多项在轨制造及微重力物理、空间生命科学、空间材料科学等前沿科学实验。 此次首飞搭载的微重力激光增材制造返回式科学实验载荷(LAM-MG-R1)是中国科学院力学研究所自研的太空金属增材制造的技术验证载荷。本次载荷的主要任务是验证太空微重力环境中激光熔丝金属增材制造技术的可行性,有望获得太空激光熔丝金属增材制造关键过程参数、成形件几何特征与性能参数等科学实验数据。本次任务为发展太空金属增材制造基础理论和关键技术奠定了坚实的基础,为开发太空环境中长期在轨金属增材制造与原位修复等技术提供了宝贵的经验,必将有力促进我国太空制造技术发展。 此外,为迎接太空制造新时代,中科宇航与中国科学院力学研究所已合作完成“可重构柔性在轨制造平台”项目的核心舱段地面试验,突破了刚性结构与柔性舱体可靠连接、舱体密封性验证、快速充气精准展开、舱体在轨充气稳定控制等关键技术,标志着我国在太空制造领域实现从技术概念创新到大型在轨制造支撑平台工程实践的重要进展。 航天辐射诱变月季种子是南阳农业职业学院联合南阳市林业科学研究院、河南农业大学筛选性状优良、抗逆性强、抗病性强的野生蔷薇、中国古老月季种质资源,人工杂交培育的种子。主要任务是在太空辐射诱变,返回后在河南省南阳市月季国家林木种质资源库繁育、观测、评价,创制多抗、多用途的国月月季优异种质资源,为创制符合育种目标、遗传背景清晰的月季新品种提供技术、理论支撑。
DeepSeek突发梁文锋署名新论文:V4新架构提前曝光?
作者 | 冬梅 今天凌晨,喜欢闷声做大事的 DeepSeek 再次发布重大技术成果,在其 GitHub 官方仓库开源了新论文与模块 Engram,论文题为 “Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models”, 梁文锋再次出现在合著者名单中。 与传统的大模型架构相比,该方法提出了一种新的“查—算分离”机制,通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。代码与论文全文均已开源。 论文地址: https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf 代码地址:https://github.com/deepseek-ai/Engram 这种查和算分离的 Engram 新方法的整体架构如下图所示: 01 为什么需要 Engram? 那么,我们为什么需要 Engram ? 目前主流的大语言模型架构依然基于 Transformer 和 Mixture-of-Experts(MoE) 结构。MoE 是目前推进参数规模和能力扩展的关键技术之一,通过动态路由机制,只激活部分参数以降低计算成本,同时在任务容量方面实现大规模扩展。DeepSeek 自家系列模型(如 DeepSeek V2、DeepSeek V3 等)也采用了先进的 MoE 方法进行扩展训练。 但在这些传统的 Transformer 架构(无论是 Dense 还是 MoE)中,模型的参数实际上承担着两种截然不同的角色: 事实性记忆(Memorization): 存储海量的知识事实。例如,“法国的首都是哪里?”、“世界最高的山脉是哪座”等。这类信息相对死板,更多依赖于“查表”式的检索。 逻辑推理与计算(Calculation): 负责复杂的逻辑链条、多步推理和情境理解。例如,“根据这段代码的逻辑推导可能的 Bug”、“解析一段复杂的哲学论证”。 目前的大语言模型倾向于将这两者混在一起。当你试图让模型记住更多知识时,你不得不增加参数量。而在传统的 Dense 模型中,参数量增加意味着前向传播时的计算量(FLOPs)也会同步激增。MoE 架构虽然通过稀疏激活解决了“算力随参数同步爆炸”的问题,但 DeepSeek 研究发现,MoE 专家在处理“死记硬背”的任务时依然不够高效。 神经网络本质上是连续的数学变换,用高昂的矩阵运算去模拟简单的“查表检索”,本身就是一种极大的浪费。DeepSeek 的 Engram 正是为了打破这一困境——“该查表的查表,该算的算”。 02 Engram 的核心思想与架构 聚焦到问题本身,Engram 方法为什么能解决上述问题? “Engram”一词源自神经科学,意为“记忆痕迹”,它是一个 可扩展、可查找的记忆模块,用于语言模型在推理过程中过去可能已经见过的模式或片段。 Engram 的核心技术之一是 现代化的哈希 N-Gram 嵌入(Modernized Hashed N-gram Embeddings)。 传统方式: 模型通过多层自注意力(Self-Attention)和 MLP 层的非线性变换,反复提取输入文本中的特征。 Engram 方式: 它对输入的 Token 序列进行 N-Gram(连续 N 个词)切片,并利用哈希算法将这些片段映射到一个巨大的、可学习的查找表(Lookup Table)中。 由于采用哈希索引,这种查找是 确定性且 O(1) 时间复杂度 的。这意味着无论模型存储了多少万亿个记忆片段,检索的速度几乎是恒定的,且算力消耗极低。 O (1) 的含义是: 一次查找的耗时是常数级的,与 N-gram 表的规模无关。 也就是说,这种设计本质上将一部分“记忆职责”从深度神经计算中卸载出来(例如序列模式、固定知识段的识别与回填),使得模型既拥有活跃神经通道(例如 Transformer + MoE)处理复杂计算,也有静态记忆通道高效处理固定模式,这就是所谓的 “稀疏性的新轴”(a new axis of sparsity)。 简单来说就是 MoE 负责:“计算密集”神经推理与复杂组合功能、Engram 负责:“记忆查找”固定模式以及模式重建,两者协同构成一个更高效的整体架构。 此外,它还具备条件记忆(Conditional Memory)。与简单的静态查找表不同,Engram 是“条件化”的。它会根据当前上下文的隐向量(Hidden States)来决定提取哪些记忆。 在架构设计上,Engram 模块位于 Transformer 层的早期阶段。它负责“模式重构(Pattern Reconstruction)”,即在计算层(MoE 或 Dense)开始干活之前,先把相关的背景事实和历史模式检索出来,作为“素材”喂给后续的逻辑层。 它与 MoE(Mixture of Experts)的关系是怎样的? 论文特别指出:Engram 提供了一个新的稀疏性轴,与 MoE 的条件计算不同,它通过条件查找提供静态记忆容量。下面图表中从目标、计算方式、优化方向和作用位置四个维度解释了 Engram 和 MoE 的区别。 维度 MoE Engram 目标 条件激活神经专家 条件触发静态记忆查找 计算方式 无极 dense 计算 / 激活部分专家 O(1) 查表 优化方向 降低活跃神经计算量 减少神经计算重建已知模式 作用位置 深层推理 早期模式重建 / 记忆检索 最后,DeepSeek 将 Engram 与 MoE 结合,形成了一个双系统: Engram 模块: 负责海量知识点的“存储与快速检索”。 MoE 专家: 摆脱了沉重的记忆负担,全身心投入到“逻辑推理与合成”中。 这种分工极大地优化了参数效率。在 27B 的实验模型中,Engram 模块可以占用大量的参数用于记忆,但在实际推理时,它只消耗极少的计算量(FLOPs)。 03 网友:V4 将采用这种架构 在 Reddit、X 和其他平台的相关帖子中,Engram 的技术核心受到了不少用户的肯定和技术肯定。众多网友认为这个模块的特点在于让模型架构处理“记忆模式查找”和“神经计算推理”两块职责分离,从而开启了新的稀疏性方向。 在 Reddit 平台有用户评论说: “Engram 嵌入方法很有意思。大多数模型仅通过 MoE 进行扩展,但 Engram 增加了静态记忆作为补充的稀疏性轴,查找复杂度为 O(1)。他们发现 MoE 和 Engram 之间存在 U 形缩放规律,这指导着如何在两者之间分配容量。分析表明,这减轻了早期层级静态模式重建的压力,从而保留了用于复杂推理的深度。确定性寻址意味着它们可以将嵌入表卸载到主机内存中,而不会增加太多推理开销。” 同时,有用户对这种基于 n-gram lookup 的机制表达了直观兴趣,他评论道: 即便是在不依赖 GPU 的环境下也能实现这种 O(1) 查找方式,让不少开发者对本地部署这样的大模型功能有了更实际的期待。 在部分技术性评论中,有人指出: 从已有技术逻辑来看,在 LLM 中加入静态记忆查找似乎是“顺理成章”的发展方向。 这类观点反映了一个重要观点:专家群体开始从纯参数扩张思维转向更“智能”的架构设计,包括查表式模块和神经网络的协同。 不少高级开发者在讨论中进一步提到,这种设计在理念上类似于对传统 NLP 技术(如 n-gram embedding)的现代化转换,结合了高效寻址机制(deterministic addressing)和神经推理模块,这种组合在纸面上看具有较高的可行性和实用性(这一点正是 Engram 的核心贡献)。 另一条社区评论指出,Engram 很可能是 DeepSeek 即将发布的 V4 模型的核心技术基础: Engram 模块可能会成为 DeepSeek V4 的重要组成部分,并预示 DeepSeek 下一代模型会在记忆和推理协同上实现架构级提升。 在 X 平台,也有网友表达了同样的猜测,认为 V4 也将采用这种架构。 还有网友调侃,原本想抄袭下谷歌的技术,但现在要抄袭 DeepSeek 了,因为它比谷歌更好! 还有网友表示,其实 Meta 之前也有过类似想法,但用到的技术不同。
苹果官宣iPhone将搭载最强AI!马斯克第一个跳出来骂
就在刚刚,苹果和 Google 发布联合声明,双方达成达成多年深度合作协议。下一代「苹果基础模型」将直接基于 Google 的 Gemini 模型和云技术构建。 这意味着,未来驱动 Apple Intelligence 的核心大脑,将流淌着 Google 的血液。 曾经那个被诟病「人工智障」的 Siri,今年晚些时候就会迎来基于 Gemini 模型的彻底重造。 而苹果所一直重视的隐私标准也在声明中被着重强调。Google 表示,Apple Intelligence 仍将在设备端或通过「私有云计算」运行。这意味着,数据不会被简单粗暴地卖给 Google。 这个消息一出,苹果和 Google 股价曾一度双双上涨,Alphabet 市值直接突破 4 万亿美元大关。看来资本市场对这次「认清现实」的合作,还是投了赞成票。 但马斯克第一个坐不住了,他直接在社交媒体上开炮:「考虑到 Google 已经拥有 Android 和 Chrome,这似乎是一种不合理的权力集中」。 不过在苹果与 Google 这个合作落地后,最尴尬的其实是 OpenAI。尽管苹果告诉 CNBC,目前不会对与 OpenAI 的协议作出任何更改,但地位的悬殊已肉眼可见。 Equisights Research 的分析师一针见血地指出:Google 的 Gemini 将成为苹果设备的「默认智能层」,而 OpenAI 则被迫退居「辅助角色」。 当然,如无意外,国行版 AI Siri 预计不会使用 Gemini,更可能是与国内本土厂商合作,也可能是使用自研模型的特别版本等等。 目前苹果最好的选择 其实关于苹果与 Google 合作这事,早有征兆。 早在去年 8 月,彭博社就报道称苹果正在与 Google 进行早期谈判,计划使用定制的 Gemini 模型来支持新版 Siri。后来到了 11 月该媒体又爆料称,苹果计划每年支付约 10 亿美元来使用 Google 的 AI 技术。 那么在这场交易里, 苹果要的是什么? 答案很简单:时间。 在 2024 年 6 月的 WWDC 开发者大会上,苹果展示了由 Apple Intelligence 驱动的新版 Siri,包括更强的上下文理解、屏幕感知、跨应用操作等新功能。 根据苹果当时的表述,新版 Siri 功能最初被安排在 iOS 18 的更新周期内逐步推出,但实际上,许多重要的 AI 功能一早跳票,如今最早发布时间的统一口径甚至来到了今年春季。 如此漫长的延期背后,暴露的正是苹果在大模型技术上的短板。 为了弥补这一差距,苹果不得不向外部寻求支持。根据此前彭博社的报道,Google 给苹果提供的 Gemini 模型拥有 1.2 万亿参数,远超苹果现有的 1500 亿参数模型。 作为参考, 去年 7 月份, 月之暗面首发开源了 Kimi-K2-Instruct 模型, 其总参数达 1 万亿, 成为首个突破万亿参数的国产开源基座模型。 这种参数规模上的巨大差距, 直接反映在模型的推理能力、知识广度和任务处理的复杂度上——这正是新版 Siri 实现「摘要器」和「任务规划」等核心功能所必需的技术基础。 而苹果要在短时间内训练出参数规模相当、性能可比的自研模型, 不仅需要海量算力投入和高质量训练数据, 更需要稳定且经验丰富的研发团队。 但问题的核心在于, 苹果 AI 团队正面临严重的人才流失。自去年 7 月至今, 苹果 AI 团队已有约数十名核心成员跳槽。 苹果基础模型团队负责人庞若鸣被 Meta 以 2 亿美元挖走, 负责 Siri 智能搜索项目的 Ke Yang 刚担任负责人不久就决定投奔 Meta, 多位去年发表 AI 论文的关键研究员也相继出走 OpenAI、Cohere、xAI…… 这支本就 100 多人的小团队,却在最需要攻坚的时刻折损了主将。 这是一场不折不扣的信心危机,当你的员工用脚投票时, 说明问题已经不是多发几个月工资能解决的了。 苹果的保密文化曾经是它的护城河,严格的信息管控让产品发布会永远充满惊喜, 让竞争对手无从模仿。 但在 AI 时代, 这套打法失效了。当研究人员不能自由发表论文, 无法在学术界建立声誉;缺乏开源交流, 也意味着错过整个 AI 社区的快速迭代。 更关键的是,苹果算力资源起步较晚,训练数据因隐私政策限制而相对匮乏。 当 OpenAI 和 Google 投入数万张 GPU 训练超大规模模型时,苹果需要在用户隐私保护和数据使用规模之间寻找平衡,这在一定程度上制约了其大模型的训练进度。 于是,别无选择的苹果, 只能向外「求援」。 为什么是 Google, 而不是别人? 如果回看联合声明,那句「经审慎评估,Google 提供了最有力的基础」,颇为玩味。翻译成人话就是:我们也想自己搞,但对手实在太快了,而 Google 确实是目前能抓到的最强稻草。 首先, Google 足够强大, 也足够稳定。 作为 AI 领域的老牌巨头, Google 旗下的 Gemini 2.5 Pro 在大多数大模型排行榜上名列前茅, 技术实力毋庸置疑。这种技术实力的强大也反映在 Token 使用量和市场使用份额上。 去年,Google AI 团队的「宣传委员」Logan Kilpatrick 就在社交媒体上透露,谷歌每月处理的 Tokens 用量达到 1.3 千万亿,算力消耗创行业历史纪录。 去年 11 月,Google 更是推出了迄今为止最强版本的 Gemini 3 系列模型,其多项核心指标超越 ChatGPT,也让 OpenAI CEO 奥特曼紧急拉响「红色警报」,亲自下令改进 ChatGPT。 根据 SimilarWeb 1 月份发布的最新数据,Gemini 全球网页端流量份额首次突破 20% 的市场份额,而 ChatGPT 的份额从 2025 年 1 月 86% 暴跌至 64.5%。此消彼长间,用户的支持就是 Gemini 最好的证明。 此外,Google 的优势不止于此。 作为海外为数不多 AI 全栈自研的巨头,Google 拥有全球顶尖的云计算基础设施和工程团队, 能支撑 Siri 每日海量的请求。这是 OpenAI 和 Anthropic 这样的初创公司难以企及的。 合作的历史也为这次交易铺平了道路。 从初代 iPhone 内置 Google 地图和 YouTube, 到 Safari 每年支付超 200 亿美元的搜索引擎协议, 再到苹果将部分 iCloud 数据存储在云上——两家公司多年累积的信任, 是新创公司无法提供的。 Google 愿意妥协,这点至关重要。 按照联合协议, Google Gemini 模型将运行在苹果的「私有云计算」服务器上, 用户数据不会接触 Google 的系统。这意味着苹果既能享受 Google 的技术, 又能保持对用户隐私的掌控。 值得一提的是,苹果正将新版 Siri 定位为设备上的新一代搜索入口。 如果按照之前的爆料信息,Siri 背后的知识和推理由 Google 提供, 相当于延续并升级了双方在搜索领域的联盟——当用户向 Siri 提问时, 依然是 Google 的技术在发挥作用, 只不过形式从关键词搜索变成了对话式查询。 可以说, 在苹果只能从外面选的困境下, Google 是唯一一个在技术、信任、控制权和商业条款上都能满足要求的选项。 按时交货,回归务实 集成 Google Gemini,最直接的好处是,苹果按时交货的概率显著提升了。 如果坚持纯自研路线,考虑到人才流失和技术差距,今年春季这个时间点能否达成充满不确定性。但通过引入 Google 已开发完备的模型,苹果获得了一条现成的「捷径」。 根据此前爆料,Gemini 预计将负责 Siri 中的摘要器和任务规划功能,也就是整合信息并决定如何执行复杂任务的核心能力,其他功能仍由苹果自家模型处理。这种「双轨并行」的策略,既满足了近期产品需求,又为内部研发争取了缓冲空间。 更值得注意的是,苹果的技术架构本身就为这种集成做好了准备。 新版 Siri 采用的是模块化设计:设备端的小模型负责简单任务和隐私敏感操作,云端的大模型负责复杂推理和知识查询。这种架构天然支持「插拔式」的模型切换,第三方 AI 可以接入系统,而不需要推倒重来。 当然,国行版 AI Siri 预计不会使用 Gemini。苹果必须为不同市场准备不同的 AI 方案,比如与国内本土厂商合作,也可能是使用自研模型的特别版本。而这种灵活性,也是模块化架构的优势所在。 就这样,在 AI 即使几个月都嫌太慢的极速迭代周期里,苹果用资本和生态壁垒,换取了最宝贵的「时间窗口」。这不仅是为了提振 iPhone 的销量,更是为了保住 Apple Intelligence 在用户心中的口碑。 对于 Google 而言,这同样是一场史诗级的胜利。它成功将自家的模型植入了全球数十亿活跃的苹果设备。 在 AI 颠覆一切的洪流面前,即便是苹果,也无法独自成为一座孤岛。放下骄傲,回归务实,或许才是巨头们在 AI 时代最清醒的生存本能。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。