行业分类:
加载中...
头条分类:
加载中...
OPPO全球首发!新版高通骁龙8E5来了:7核心配置 行业罕见
快科技2月16日消息,OPPO计划在春节后正式推出全新的折叠屏旗舰Find N6,其型号为CPH2765,该机已经现身Geekbench跑分网站,引起了不小的关注。 最令人意外的是,这款手机将全球首发新版高通骁龙8E5旗舰平台,而且采用的是一种非常罕见的架构。 不同于常规版本骁龙8E5的8核心配置,Find N6搭载的是全新的7核心版本。这颗芯片由2颗4.61GHz的超大核和5颗3.63GHz的大核组成,相比标准版少了一颗性能核心。 从泄露的跑分数据来看,7核版骁龙8E5的单核成绩达到了3524分,多核成绩则为9090分。虽然在多核爆发力上与突破1.1万分的8核标准版有一定差距,但对于折叠屏这种特殊的形态来说,这种取舍显得非常聪明。 通过减少一颗核心,OPPO在保证旗舰级性能体验的同时,能更有效地控制功耗和发热。这对于内部空间极其珍贵的折叠屏手机而言,不仅能换来更持久的续航表现,也能让整机在高负载运行时更加从稳。 除了性能方案的创新,OPPO Find N6这次还要正面硬刚折痕这一行业难题。据可靠消息显示,该机的折痕深度将挑战行业最浅记录。从目前的工程机表现看,其视觉平整度已经领先竞争对手一大截,几乎能带给用户类似平板电脑的无缝视觉体验。 目前Find N6已经顺利获得入网许可,并准备了标准版与卫星通信版两个版本。随着春节假期的结束,这款被寄予厚望的国产折叠屏旗舰很快就会正式官宣。
从白酒到人工智能 春晚营销背后的产业变迁史
财联社2月16日讯(记者 沈娇娇 实习记者 林嘉豪)除夕夜,中央广播电视总台2026年春节联欢晚会(以下简称“春晚”)将如约而至,据财联社记者不完全统计,截止至目前,本届春晚官宣合作伙伴超20余家,分品类来看,互联网企业、人工智能机器人、智能出行等科技赛道企业成绝对主角。 具体来看,火山引擎是春晚的“独家AI云合作伙伴”,宇树科技是“机器人合作伙伴”,抖音拿下《竖屏看春晚》独家合作,小红书作为真人笔记互动社区合作,B站(09626.HK)成独家弹幕视频平台,快手(01024.HK)则包揽直播、点播及短视频等多种内容形态...... 资料来源:中央广电总台总经理室微信公众号、春晚微博(财联社记者整理) 注:时间截止至2026年2月16日12时30分 作为一年一度最具有国民讨论度和话题度的节目,春晚不仅是文化符号,更是一面折射中国产业经济四十年发展脉络的棱镜。从早期的白酒、家电,再到如今席卷而来的互联网与人工智能浪潮,春晚合作品牌名单的更迭,成为各产业发展的“晴雨表”,清晰勾勒出中国消费市场与产业结构的深刻转型。 传统消费品牌的顶流竞技场 春晚的商业化进程在1994年中央电视台开启首届正式广告招标后迈入快车道,并在此后的二十年里成为中国传统消费品行业进行品牌营销的核心竞技场。这一时期,以白酒、家电、食品饮料为代表的龙头企业,通过竞逐春晚这一黄金广告资源,上演了一场场商业传奇。 1994年,中央电视台首次推出“黄金时段广告招标”,催生了具有时代特色的“标王”概念。孔府宴酒曾以3079万元夺得第一届标王。随后,1995-1996年,名不见经传的山东秦池酒厂以6666万元、3.2亿元的高价连续夺魁,从一个区域品牌瞬间成为全国瞩目的焦点,将“标王”效应推向顶峰。此后,白酒企业对春晚的争夺尤为激烈,五粮液(000858.SZ)、剑南春、泸州老窖(000568.SZ)等川酒代表长期占据春晚背景板与口播资源;洋河蓝色经典在2008年首次登上春晚舞台之后,借春晚平台迅速打开全国市场。 从1990年代末至2010年代初,随着冰箱、彩电、洗衣机等家电全面进入家庭,家电品牌频繁亮相春晚。其中,美的集团(000333.SZ)从2003年开始连续多年冠名春晚零点报时。与此同时,在2000年代中后期兴起的电视“高清化”换代浪潮中,TCL、创维、康佳等国产彩电领军企业也积极成为春晚的合作伙伴,推出“高清看春晚”等营销概念。 医药保健、食品饮料企业更是央视春晚商业合作中不可或缺的主力军。2000年-2002年,春晚零点报时广告被哈药六厂盖中盖、太极集团(600129.SH)曲美和哈药六厂护彤儿童感冒药分别中标。娃哈哈、汇源果汁、农夫山泉、蒙牛(02319.HK)、伊利(600887.SH)等众多食品饮料巨头也都是春晚的常客,通过这一顶级国民舞台持续塑造品牌形象、触达亿万家庭。 从互联网用户争夺到AI军团 2015年是春晚营销的重要分水岭。腾讯(00700.HK)微信与央视春晚合作推出“摇一摇抢红包”活动,发放总价值5亿元的现金及品牌红包。除夕当日,微信红包收发总量达10.1亿个,是2014年的200倍。借助春晚流量红利,微信支付迅速缩小与支付宝的差距。这场被业界称为“偷袭珍珠港”的营销战役,不仅重塑了移动支付竞争格局,更让互联网企业意识到春晚作为国民级流量入口的巨大价值,正式开启互联网企业进军春晚营销的新时代。 此后数年,互联网大厂开启春晚合作争夺战。阿里(09988.HK)携支付宝、淘宝入局,发放超20亿元红包;快手、抖音等短视频平台相继拿下独家互动权,借助春晚完成用户规模的快速扩张。彼时的春晚合作,核心是互联网企业的“拉新之战”,似乎谁拿下独家权益,谁就能在流量红利期占据先机。 2022年成为又一分界点,京东(09618.HK)虽为“独家互动伙伴”,但观众同时可以在抖音、快手上观看春晚直播,标志着春晚这一超级IP的流量从单一平台走向多平台分发。此后,“独家”头衔开始分化、垂直化。譬如2025年,小红书定位“独家笔记分享平台”,B站主打“独家弹幕视频平台”等,意味着平台不再追求通吃所有用户,而是精准服务特定圈层与内容消费习惯。 如今,人工智能与机器人赛道的强势崛起。2026年春晚,相关企业阵容迅速扩大:火山引擎成独家AI云合作伙伴,宇树科技、银河通用、魔法原子等参与机器人相关合作,豆包也以AI应用身份亮相春晚。这背后是中国AI及机器人行业2025年以来热钱涌入、出货量激增的行业“奇点”。
机器人春晚大乱斗
文 |青橙财经,作者 | 青风,编辑 | 六子 2026年央视春晚尚未开播,一场机器人行业的"营销世界大战"已提前引爆。 1月23日,魔法原子一纸官宣,让魔法原子这家具身智能赛道的新锐企业一跃成为总台2026春晚“智能机器人战略合作伙伴”。紧接着,一周之内,银河通用、宇树科技、松延动力相继官宣登台。四家企业将同台竞技,这在央视春晚历史上尚属首次。 *图源银河通用 然而,最戏剧性的剧情来自"缺席者"——出货量领先的智元机器人。这家2025年营收突破10亿元的行业龙头,竟以"预算有限"为由拒绝春晚,转而自掏腰包,于2月8日举办全球首个机器人晚会《机器人奇妙夜》,200余台机器人连演12个节目,甚至邀请黄晓明同台变魔术。 一边是亿元级入场券的"四国杀",一边是零成本自办晚会的"独角戏"。这场营销狂欢背后,折射的是机器人企业在"商业化元年"的生死抉择。 亿元席位的赌博 据36氪报道,2026年春晚机器人合作权益的报价在6000万元至1亿元之间,部分独家权益甚至高达5亿元。对于尚未盈利的初创企业而言,这相当于研发团队一整年的综合成本。那为何这么多企业仍然为此挤破脑袋? “现在的机器人太需要春晚了。”一位业内人士如此评价。 这种"非理性"投入背后,是宇树科技2025年春晚成功案例的强力示范。去年,其人形机器人表演的《秧BOT》成为现象级节目,直接带动企业订单暴增,上半年便完成C轮融资,投资方涵盖中国移动、腾讯投资、阿里巴巴等巨头,融资金额数亿元,估值飙升至120亿元。 *图源宇树科技 “春晚带来数亿级别的破圈认知,是肉眼可见的,对品牌端、资本端都会形成明显放大,这种曝光往往会在估值、融资乃至 IPO 预期上形成正向刺激,同时也更容易转化为订单层面的快速增长。”艾媒咨询CEO张毅认为。 但也有业内人士认为,这场亿元级的赌博,并非稳赚不赔。对于初创机器人企业而言,高额的春晚合作费用,可能会挤压研发投入,而即便获得了国民级曝光,后续能否将流量转化为订单,仍存在巨大不确定性。更重要的是,多家企业同台竞技,难免会被市场横向比较,一旦表演效果不及预期,反而会对品牌造成负面影响。 智元机器人显然算过这笔账,选择了另辟蹊径,自己策划了一场《机器人奇妙夜》全球直播,200多台机器人完成了舞蹈、小品及人机共舞等一系列表演。 “我非常希望能上春晚这个国民级平台,但公司整体预算有限,优先保障研发费用,所以不是不想上,是没有足够预算。”智元CMO邱恒接受媒体访谈时坦承。据他表示,由于拍摄用的机器都是自己的,而且有品牌招商,因此“这个活动几乎是零成本”。 春晚亮相的商业化“回报”目前还无法评估,但智元却早已为晚会后的业务拓展做好了全盘准备。 《机器人奇妙夜》晚会结束后,智元同步启动"999元全民机器人体验计划",通过租赁平台"擎天租"将同款机器人推向市场。据了解,目前平台已上线生日、年会、求婚等场景的小套餐解决方案。这种“晚会引流+场景落地”的模式,让智元摆脱了“曝光即终点”的困境,实现了品牌传播与商业转化的闭环。 *图源智元机器人 是斥巨资登上顶流平台寻求破圈,还是精打细算通过内容营销精准触达?两种截然不同的路径,折射的都是机器人企业的竞争焦虑。 谁是第一? 2026年被业内普遍视为机器人的"商业化元年",产业正从"广泛参与"向"头部集中、梯队分化"加速演进。而出货量,作为衡量企业商业化实力的核心指标,直接成为企业争夺的“舆论高地”。 近期,多家研究机构发布的2025年人形机器人出货量榜单,直接引爆了“谁是第一”的口水战。 Omdia报告显示,2025年全球人形机器人总出货量预计达1.33万台,其中,智元机器人出货量达5168台,市场份额达39%,位居全球第一;宇树出货量4200台,市场份额32%,位居第二;优必选出货量1000台,市场份额7%,位居第三。 *图源Omdia Counterpoint和IDC的数据虽略有差异,但前两名的位次基本一致。 宇树对此并不认可该排位,称网上流传的出货数据为不实信息。宇树披露,去年其人形机器人实际出货量超5500台,本体量产下线超6500台。 “目前各种机器人形态多样,请勿把不同类型的机器人数量,合并在一起进行对比。”宇树表示,公司四足机器人和人形机器人最近几年出货量均为全球第一,直指前述机构数据有误。 这场“数据罗生门”揭示了行业更深层次的焦虑:在资本寒冬尚未完全过去的当下,销量排名已成为企业融资的重要背书。智元确认了Omdia报告的真实性并官方转发,宇树则高调反击,都是为了在资本市场上占据更有利的位置。 公开数据显示,2025年国内人形机器人整机企业数量达140家,发布人形机器人产品超330款。就像新能源汽车市场一样,机器人赛道最后胜出的必然也将是少数几家。而2026年将是一个关键的分水岭。各家企业均在加码量产。 优必选CEO周剑曾表示,2026年人形机器人年产能将从去年的千台提升到万台。据统计,2025年优必选获得订单金额近14亿元。 智元董事长兼CEO邓泰华此前透露,该公司2025年销售收入超10亿元,远超2024年的数千万元,预计2026年出货量和销售收入仍将保持数倍的增长。 但问题是:能扭秧歌、转手绢、跳舞、演小品的机器人,真的准备好进入工厂和家庭了吗? “如果人形机器人今年还是做视频、发Demo,价值不大,关键要看能在哪些场景能干事。”一位早期投资过多家机器人的投资人直言。在他看来,如果还停留在跳舞表演,热潮很难持续。 实际上,目前,部分企业仍停留在“实验室炫技”阶段,机器人产品看似功能强大,却难以适应真实场景的需求,无法实现规模化商用。 以舞台上的机器人表演为例,虽然动作精准、视觉效果震撼,但大多是“定制化编程”的结果,无法实现自主决策和灵活适配,与真实商用场景中的需求相去甚远。 比如,松延动力虽然推出了万元级人形机器人“小布米”,试图推动人形机器人向消费级市场下沉,但目前消费级机器人市场仍处于培育阶段,用户需求尚未完全激活,如何将春晚的曝光转化为实际订单,仍是松延动力面临的巨大挑战。 资本竞跑 不论是争抢春晚舞台,还是争抢出货量排名,机器人企业都是为了在量产、交付和商业化的赛马中活下来。在这个异常烧钱的赛道中,资本的力量尤为关键。即便是手握近14亿元订单的港股上市公司优必选,2025年上半年财报也显示亏损达4.39亿元。 资金仍在涌入这个赛道。据IT桔子数据,2025年中国机器人领域融资事件达610起,较上年增长近3倍,总融资额估算超过570亿元。 互联网巨头也在积极卡位。包括百度风投、联想创投、蚂蚁集团、美团、阿里巴巴在内的8大互联网巨头,在具身智能赛道的投资次数合计达62次,投资金额在14.5亿至34亿元之间。 机器人企业还正处在集体冲刺IPO的关键窗口期。 智元机器人则通过资本运作,已成功控股A股上市公司上纬新材。 宇树科技已于2025年11月完成了IPO辅导,冲刺进入最后阶段,有望成为A股“人形机器人第一股”。天眼查显示,目前宇树已经完成了10轮融资。最新一轮公开融资是去年6月,吸引了中国移动旗下基金、腾讯、锦秋基金、阿里巴巴、蚂蚁集团、吉利资本等投资方,彼时企业估值超过100亿元。 *图源天眼查 银河通用在2025年12月完成股改,被外界解读为为登陆二级市场做准备。有市场消息称,银河通用筹备赴港上市,预计2026年一季度交表。银河通用随后辟谣,称股改是为了后续融资引入新的一级市场投资人。 随后不久,银河通用宣布完成新一轮超3亿美元A轮融资,成为2025年公开数据中金额最大的单笔融资事件。据了解,该轮融资后,公司估值达30亿美元(约合人民币211亿元)。 作为后起之秀,魔法原子已完成两轮融资,最新一轮是在去年5月获投数亿元,目前公司估值约35亿元。官宣上春晚同日,魔法原子联合创始人顾诗韬称,公司正按“最快时间表”推进上市进程,2026年还将在二级市场释放相关消息。 此外,据公开信息,自去年以来,云深处、星海图、傅里叶、乐聚机器人、众擎机器人等先后完成股改,有些企业已开启上市辅导。 一场IPO竞速赛已然打响。各企业都希望在关键窗口期抢占用户和资本心智,但能不能拿到更多订单,关键取决于企业能否让机器人真正“用起来”和“用出价值”。 写在最后 不可否认,这场春晚机器人大乱斗为中国机器人行业带来了积极影响。无论是四家企业挤滩央视,还是智元自办晚会,都让机器人技术走进了亿万大众的视野,打破了公众对机器人的刻板印象,为行业培育了潜在用户。 但更要清醒地认识到:机器人行业的核心竞争力,从来不是舞台上的几分钟炫技,而是技术的沉淀、产品的实力和场景的落地。 2026年的春晚营销大战,本质上是一场关于"生存权"的预演。亿元春晚入场券买的是曝光,但曝光之后能否转化为订单;自办晚会省的是成本,但省下的钱能否砸出真技术——这两条路径没有对错,只有成败。
消息称苹果平价版MacBook不采用塑料外壳,有望3月上市
IT之家 2 月 15 日消息,彭博社记者马克 · 古尔曼今天在最新一期《Power On》通讯中表示,苹果即将推出的平价版 MacBook 将搭载更加活泼的外壳,吸引更多年轻用户。 据报道,苹果在过去一年里为这款笔记本测试了多种配色方案,包括浅黄色、浅绿色、蓝色、粉色、银色以及深空灰,尽管测试的颜色种类不少,但上面的颜色不太可能全部进入量产清单。 同时,虽然这款产品也会面向企业用户,但苹果更希望这款产品能吸引到学生群体,培养更多年轻的 Mac 用户以带动销量提升。虽然这款产品定位不算高端,但公司希望其外观尽量与 MacBook 产品线保持一致。 古尔曼表示,苹果本来可以将常规的铝合金机身换为塑料等低成本原料削减制造成本,但最终仍采用铝材,并通过改变制造工艺来加快外壳生产进度。 据悉,新的制造工艺相比 MacBook Pro、MacBook Air 当前使用的方法制造速度更快、成本效益更高,因此这项原本用于平价产品的技术很可能会“反哺”高端产品线。 此外,这款笔记本将搭载苹果 iPhone 手机的 A 系列芯片,而非近年来一贯采用的 M 系列芯片。并采取减少 USB-C 接口、削减内存等措施降低制造成本,预计将搭载 13 英寸屏幕,但显示质量可能不及 Air、Pro。 价格方面,这款笔记本等起售价预计在 699 美元-750 美元(IT之家注:现汇率约合 4833 元- 5186 元人民币)之间,有望 3 月发布。
刚刚,DeepSeek V4基准测试泄露!疑似明天发布,全场惊呼新王归来
新智元报道 编辑:Aeneas kingHZ 【新智元导读】DeepSeek V4,据说明天就要上线了?这是首个匹敌顶尖闭源模型的开源模型,被网友评为「一鲸落万物生」。泄露的基准测试显示,它在SWE-bench Verified上取得了83.7%,已经超越Opus 4.5和GPT-5.2! 就在刚刚,一张图在全网疯狂刷屏了! 据说,DeepSeek V4的基准测试已经泄露,整个AI圈都震了。 有大V总结道:AI编程大战,已经达到了新的高峰。 泄露信息显示,DeepSeek V4在SWE-bench Verified上取得了惊人的83.7%,超过了Claude Opus 4.5(80.9%)和GPT-5.2(80%)。 可以说,100万+上下文长度+Engram记忆机制=真正的全仓库级推理能力。 他惊呼:闭源模型占据主导的时代,是否正在走向终结? 同时泄露的,还有下面这一张图。 其中,它的SWE-Bench Verified得分,达到了83.7%。如果这个数字最终被确认,将直接改写当前「最强代码模型」排名! 相比之下,其他模型的得分都比较落后—— DeepSeek V3.2 Thinking:73.1% GPT-5.2 High:80.0% Kimi K2.5 Thinking:76.8% Gemini 3.0 Pro:76.2% 这不是小幅领先,而是直接跃升到第一梯队顶端! 不仅如此,真正令人警惕的,并不只有编程能力,V4的其他分数也很惊人。 AIME 2026:99.4% IMO Answer Bench:88.4% FrontierMath Tier 4:23.5% (直接达到GPT-5.2的11倍) 这意味着什么? 如果这些数据属实,DeepSeek V4不是「又一个强模型」,而是一次能力曲线的陡峭抬升! 它可能会同时在代码、竞赛数学、前沿数学推理三个高难度维度上,刷新现有天花板。 还有网友综合了全网DeepSeek V4消息,不仅在HumanEval、SWE_bench、上下文和成本上刷新成绩,而且发布时间预计在春节,也就是明天! HumanEval:约90%(来自Reddit社区泄露 + Skywork AI总结) SWE-bench:进入「>80%」区间(在Wavespeed对比帖中引用,根据 Claude Opus 基准推测得出) 上下文长度:高达 100 万 token(在Reddit AI Insider和博客总结帖中反复出现的传闻) 成本:据称比OpenAI便宜20到40倍(根据DeepSeek V3/R1 API 定价与前沿模型层级的对比推算) 预计发布时间:2月17日(农历新年期间,泄露文章中广泛报道) 如果是真的,DeepSeek将又一次改变游戏规则。 总之,DeepSeek V4的发布时间,很可能是周一。据说,这是首个不落后于闭源顶尖模型,甚至能与之匹敌甚至超越的模型。 有人说,以DeeepSeek-V4为代表的开源模型需要跨越的差距越来越大了! 很期待,当V4等中国开源模型发布后,这一差距会如何随着时间演变。 被打假了? 不过,这几张流传出来的基准测试,很快被怀疑是假的。 比如在官方评分系统下,不可能有模型达到99.4%的分数。最高分只能是119/120(99.2%)或 120/120(100%)。 另一个证据,就更加增加了这几张基准测试的可疑性。 Epoch AI也确认,FrontierMath的数据是伪造的,因为只有他们和OpenAI有权对该数据集进行评估。至少有两个基准测试被打假,证明这些图可信度确实不高。 而且,据说DeepSeek新模型的官方发布时间,已经被推迟到了三月底。 如果模型本体还在封闭开发阶段,那么所谓83.7%的 SWE-Bench Verified,是基于哪个版本跑出来的?是内部原始checkpoint?还是已经定型的最终权重? 另外,对于如今的大模型,分数本身并不是终点,「收据」才是关键。 这个83.7%的分数是怎么跑出来的?是否做了pass@k报告?软件工程实验台的工具栈如何配置?使用了什么版本的harness?是否基于最新数据集版本评估?有没有做污染检查?失败案例如何分解? 如果没有这些细节,所谓的第一名,也只是一个数字而已。 另外,就算泄露的分数很惊人,但真正有说服力的,是可复现的运行细节。 比如,精确的评测线束、配线组、不稳定测试如何处理、SWE实验台上工具调用失败如何重试?基础模型本身的能力贡献有多少?代理框架又放大了多少性能? 否则,这种所谓的刷新排行榜,就只是更像一次市场营销行为。 还有人提出,技术基准测试得分提高,也不意味着能驾驭现实中混乱的代码库。很多所谓更聪明的模型,在上下文窗口被塞满后,就迅速崩溃了。 有趣的是,即便是假的,这也说明DeepSeek的确「深得人心」,网上的夸大其词的「泄露」就是DeepSeek成功最大的标志。 不过,DeepSeek V4的上下文,一定是一个杀手锏。 100万长上下文来了, 其他还会远吗? 最近,已经沉寂已久的DeepSeek,忽然在官网和移动应用上推出了新模型的灰度测试。 根据流传的信息,该默写的参数可能仅为200B,且未采用DeepSeek与北大联合开发的Engram条件记忆机制。 但只要通过简单的测试就会发现,这个新版本有一个大突破——超长的上下文窗口,包含100万个token,可以一次性处理《三体》三部曲体量的长文本。 奇怪的是,API文档并没有更新,上下文长度依然为128K。 Hugging Face、GitHub上,DeepSeek完全没有更新任何消息。 业内普遍猜测,DeepSeek很可能在测试V4-lite版。 在DeepSeek V3的基础上,国产模型已经刷新了开源最好成绩。 深入研究代码后,Meta科学家Zhuokai Zhao得出观察结论: LLM架构的前沿探索已基本收敛。 …… MLA + sigmoid =稀疏专家(MoE)+ 共享专家 + 无辅助损失 + DSA + MTP正成为前沿稀疏专家模型的标准配方。 …… 设计空间已被充分探索。 而DeepSeek不仅更新了上下文,在V3.2版本之后,在模型架构、记忆和视觉推理上,持续输出,不断创新: 100万上下文长度,很可能就是DeepSeek的另一个绝招。 这次的低调测试,或许就是DeepSeek大更新的「试点」,是招「妙手」。 100万token上下文都来了,其他还会远吗? 总之,大家对DeepSeek V4充满期待: DeepSeek V4, 全新编程之王! 另外,在一个overchat.ai的网站上,我们也发现了不少关于DeepSeek V4的蛛丝马迹。 根据这个网站的信息,DeepSeek V4预计将在2026年2月17日发布,配合春节发布。(什么逆天操作) DeepSeek员工的内部测试显示,V4 在编码任务方面可能超越Anthropic的Claude和 OpenAI的GPT系列。关键的基准是SWE-bench,Claude Opus 4.5目前以80.9%的得分领先。 DeepSeek预计将以开放权重模型形式发布V4,延续一贯的开源传统。 DeepSeek V4提供仓库层级推理——能够理解一个文件中的变化如何影响项目中其他文件,这对处理大型代码库或复杂分布式系统的开发者尤其有价值。 另外,DeepSeek V4还引入了新的Engram条件存储系统,实现近乎无限的上下文检索,使其能够处理极长的编码提示,并在大型代码库中保持上下文。 网站介绍说,DeepSeek V4自诩为专业的“编程之王”挑战者。 DeepSeek之前的模型,尤其是V3和R1,证明了开源AI模型可以以极低成本与专有模型竞争。V4预计将在这一成功基础上,拥有更令人印象深刻的编码能力。 四大核心突破,成为游戏规则巅峰者 除了上下文更新外,DeepSeek手里还有这些牌——Engram、mHC、DAS 2.0…… 不知道DeepSeek V4能带来哪些新的惊喜! 上个月初,Information爆料称,DeepSeek计划在2月中旬,也正是春节前后,正式发布下一代V4模型。 V4的最大提升,就是在编程能力上。它的编码实力,据说可以赶超Claude、ChatGPT等顶尖闭源模型。 而以下四个方向,就是它实现的核心突破,堪称game changer的级别。 编程能力:剑指Claude王座 2025开年,Claude一夜之间成为公认的编程之王。无论是代码生成、调试还是重构,几乎没有对手。但现在,这个格局可能要变了。 知情人士透露,DeepSeek内部的初步基准测试显示,V4在编程任务上的表现已经超越了目前的主流模型,包括Claude系列、GPT系列。 如果消息属实,DeepSeek将从追赶者一步跃升为领跑者——至少在编程这个AI应用最核心的赛道上。 超长上下文代码处理 V4的另一个技术突破在于,处理和解析极长代码提示词的能力。 对于日常写几十行代码的用户来说,这可能感知不强。但对于真正在大型项目中工作的软件工程师来说,这是一个革命性的能力。 想象一下:你有一个几万行代码的项目,你需要AI理解整个代码库的上下文,然后在正确的位置插入新功能、修复bug或者进行重构。以前的模型往往会忘记之前的代码,或者在长上下文中迷失方向。 V4在这个维度上取得了技术突破,能够一次性理解更庞大的代码库上下文。 这对于企业级开发来说,是真正的生产力革命。 算法提升,不易出现衰减 据透露,V4在训练过程的各个阶段,对数据模式的理解能力也得到了提升,并且不容易出现衰减。 AI训练需要模型从海量数据集中反复学习,但学到的模式/特征可能会在多轮训练中逐渐衰减。 通常来说,拥有大量AI芯片储备的开发者可以通过增加训练轮次来缓解这一问题。 推理能力提升:更严密、更可靠 知情人士还透露了一个关键细节:用户会发现V4的输出在逻辑上更加严密和清晰。 这不是一个小改进。这意味着模型在整个训练流程中对数据模式的理解能力有了质的提升,而且更重要的是——性能没有出现退化。 在AI模型的世界里,没有退化是一个非常高的评价。很多模型在提升某些能力时,会不可避免地牺牲其他维度的表现。V4似乎找到了一个更优的平衡点。
OpenClaw背后的男人,被奥特曼“招安了”
眼下最牛“超级个体”被OpenAI“招安”了。 当地时间周日下午,OpenAI的CEO山姆·奥特曼抛出一个大消息: Peter Steinberger,加入OpenAI。 Steinberger,正是OpenClaw背后的男人。 OpenClaw在这一个月突然火爆全球,本质是一个可自动执行复杂任务的AI Agent:用户只要下达目标,它就能自己拆解步骤、调用工具、联网检索并完成整套流程。 既能写代码、搭应用、部署项目,也能帮普通人处理文档整理、数据分析、网页操作甚至跨软件事务协同。 它爆火的关键在于“单人指挥、多线程干活”的体验——像雇了个不睡觉的数字助理。演示案例刷屏后,开发者和非技术用户都在实测,讨论量迅速飙升。 更让整件事充满戏剧性的是,OpenClaw背后是一个“超级个体”,是这个叫Peter Steinberger的人单兵作战搭建的核心原型。 奥特曼的官宣消息里盛赞Steinberger“是个天才”,对未来智能体如何相互协作、为人们提供实用服务有着许多令人惊叹的构想。 而奥特曼“招安”Steinberger,也是剑指AI Agent赛道: “我们预计这很快将成为我们产品的核心。” 01 OpenClaw缘何多次更名? OpenClaw应该会继续以原形态存在,而非被OpenAI吸纳。 因为OpenClaw不仅是一个开源项目,还和Anthropic有很强的关联。 理论上,OpenClaw不内置任何特定模型,它是支持多种外部模型的“大脑”,你需要自己提供API key或本地运行模型。 所以用户可以接入Anthropic、OpenAI、谷歌等不同公司下的不同模型。 但在实际操作上,开发者强烈推荐Anthropic的Claude Pro/Max+Opus 4.6(或类似版本),理由是长上下文强、prompt注入抵抗好、Agent任务执行能力突出。 官方文档也有专门的Anthropic集成指南,支持API key或Claude订阅的setup-token。 很多教程、WIRED文章、Reddit讨论里,用户配置的都是Claude Opus来跑OpenClaw。 甚至,OpenClaw这个名字是改了好几次之后确定的,早期的名字是“Clawdbot”。 结果Anthropic不愿意了,因为“Clawd”和“Claude”简直就是在玩谐音梗啊。于是,Steinberger才无奈将“Clawdbot”改名为“Moltbot”,又改成了现在的OpenClaw。 所以,奥特曼是冲着Steinberger这个人去的。 他在消息中明确表示:“OpenClaw将继续以开源项目形式存在,OpenAI也会继续为其提供支持。” OpenAI在AI Agent上,确实有压力了。 Anthropic在这方面已经明显领先。 先是Claude Code大获成功,这是一款编程Agent。 而后Anthropic又趁热打铁,推出了用途更广泛的Agent,名为Cowork,将Claude Code的代理能力(自主规划、多步执行、文件读写、工具调用等)扩展到更广泛的办公、知识工作场景。 就是在这个节点,Steinberger推出了OpenClaw。 02 这事Meta也干了! 另外,Meta也已经准备好发力,去年已经用数十亿美元的价格,直接收购了AI代理Manus背后的团队。这个团队最早来自中国,在去年曾经引发很多关注。团队的创始人肖弘将出任Meta副总裁。 Meta创始人兼CEO马克·扎克伯格(Mark Zuckerberg)在一月的财报会上表示,计划将Manus的技术整合到其现有平台中。 AI Agent是奥特曼现在想要抢占的领域,而Steinberger就是那个绝佳的人选。 而且相比之下,OpenClaw在影响力和颠覆性上,或许要比Manus更胜一筹。 奥特曼具体花了多少钱,让一个“超级个体”甘愿加入明星AI公司,目前尚不清楚,具体交易条款还未披露。 但奥特曼是一向舍得花钱招揽人才的。 去年5月,OpenAI以超过60亿美元的价格收购了iPhone设计师Jony Ive的AI设备初创公司io。 恰如如今奥特曼“招安”Steinberger盯上的是AI Agent,当初招揽Ive,背后其实是对AI硬件的野心。 可以确定的是,OpenAI此举含金量之高,足以让竞争对手抖三抖。 一场更为激烈的AI Agent之战,即将拉开帷幕。 03 记住,这不是招聘,这是收购 不过我们要明确一点,OpenAI这次并不完全是“招聘”,而是一场“收购”。 只是说OpenClaw的开发团队仅有Steinberger一个人,所以才看起来像是招聘。 归根结底OpenAI想要的,就是加强公司的agent产品线。 如果从产品逻辑上来讲,OpenClaw可以被简单理解为一个独立的agent编排层,专门用来把大模型输出的结果变成实际的操作。 它结构简单,可以接入任何支持工具调用的大模型。你也可以理解为是赛博版“最后一公里”。 OpenClaw的核心价值在于他证明了一件事,那就是普通用户确实需要一个能持续运行、自主执行任务的数字助理。 而且交互界面得友好一些,像Claude Code那样硬核的界面学习成本太高了。 因此,这种OpenClaw这种“消息即agent”的设计思路,恰好填补了OpenAI产品线的空白。 你说这巧不巧?ChatGPT刚好就是一款对话工具,它欠缺的,也刚好就是对话之后的操作能力。 不仅仅是产品,OpenAI还需要对编排层的设计经验。 如何管理长时间运行的任务,如何处理多步骤的工具调用,如何在保持自主性的同时维持安全边界。Steinberger在OpenClaw项目中已经遇到并解决过太多类似的问题。 OpenAI最有可能的做法是把OpenClaw和现有产品进行组合。 比如现在OpenAI正在推的Codex,开发者在ChatGPT里对OpenClaw说:“帮我修复生产环境的那个内存泄漏问题,然后部署到测试环境”。 OpenClaw就会先从监控系统拉取错误日志,分析出问题代码的位置,然后调用Codex来实际修改代码、运行测试。 Codex完成修复后,OpenClaw继续接手后续流程,提交代码审查、等待 CI 通过、触发部署脚本、在Slack通知团队。 Codex负责“写代码”这个专业环节,OpenClaw负责“编排整个工作流”,既不会破坏原有的产品线,也能让新产品融入,进而提高用户的操作体验。 奥特曼在之前的采访中表示,“我们的竞争优势不再只是模型更聪明,而是产品体验、用户粘性、生态系统的综合能力。” 他们意识到单纯的模型性能优势无法持久,必须构建一个多元化的产品矩阵。 这就像寒武纪生命大爆炸,基础的遗传机制确立后,物种开始疯狂分化。 OpenClaw提供了agent的“基础架构”,GPT模型提供“智能内核”,两者结合就能诞生出无数种类的新品。 原本OpenAI可能需要一两年时间来摸索的agent产品,在拥有了这个经过市场验证的原型后,开发周期可能会被缩短至半年、几个月,甚至像Anthropic的Cowork一样,仅仅需要10天。
前荣耀CEO赵明“复出”,搭档印奇再造一个自动驾驶巨头?
文 | 节点AI,作者 | 杨雪健 “复出并不是‘是否’的问题,而是‘何时’和‘以怎样的方式’。我相信只要方向明确、价值值得,我会再次上路。”2025年9月,原荣耀终端股份有限公司CEO赵明在“复旦管院恢复建院40周年·领变者论坛”(以下简称复旦论坛)上,曾回应外界对他去向的猜测。 最终,赵明选择了智能汽车行业作为复出的全新起点。 赵明下一个十年,投入智能汽车事业 2月12日,千里科技董事长、阶跃星辰董事长印奇发文,正式官宣赵明加盟千里科技。他称:欢迎明哥!骐骥驰骋,志在千里! 随后,赵明回应印奇微博称:非常荣幸有缘际会千里科技,一个可以奋斗十年的事业,期待与印奇兄弟携手一起打造 AI 商业闭环,助力千里腾飞。 图源:赵明微博 “我更希望找到一个能让我真正兴奋起来的方向,一个值得我再投入十年甚至更久的事业。”赵明在复旦论坛上透露。 休整近一年,看来千里科技令赵明“再次兴奋”。 赵明1973年3月出生,上海交通大学移动通信与电子系统专业硕士。 曾任华为技术有限公司 3G 研发工程师、NodeB PDT经理、CDMA&Wimax&TD-SCDMA 产品线总裁、全球无线行销部部长、意大利代表处代表、荣耀业务部总裁、荣耀终端股份有限公司CEO等职务。 在2025年1月,赵明宣布离开荣耀震惊外界,他表示将“调整和修复身体”。在此后大半年的时间里,赵明几乎停更了自己的社交媒体账号。 不过赵明调整身体状态的同时,并没闲着。他在复旦论坛上提到,从荣耀辞职后,没有完全远离行业,会有很多创业者朋友向他请教,他也会针对投资者的商业计划书认真给出建议。 赵明(右),图片源自复旦管院官方公众号 对于火热的AI浪潮,他在论坛演讲中谈到,“在未来相当长的时间里,AI一定会深刻影响产业、科技和产品体验,逐渐成为类似网络、电力这样的基础设施,嵌入我们的日常生活,重塑体验,几乎无处不在。” 不过,赵明也看到了AI赋能的产业的核心困扰,就是找不到清晰的商业模式。“AI在应用场景和用户期待之间,仍然存在不小的差距。同时AI在资本市场的‘热’和商业实践上的‘冷’是并存的,很多空间和盈利更多停留在想象层面。”赵明提到。 赵明过往辉煌的职业履历,以及他对AI技术、智能产业商业化落地的观察和思考,或许正是千里科技当前最需要的能力。 2月12日,千里科技(601777.SH)发布公告称。公司第六届董事会第三十次会议审议通过了《关于修订<公司章程>的议案》,增设联席董事长一名,以及《关于选举第六届董事会非独立董事的议案》,同意提名赵明为公司第六届董事会非独立董事候选人。 这意味着,赵明的职务也已水落石出,他将出任千里科技联席董事长。 图源:千里科技公告 对于赵明,千里科技给予极高的评价。 公告中介绍赵明时写道:执掌荣耀品牌10年,是资深科技产业领袖,拥有逾25年全球科技企业管理经验,在品牌重塑、大规模组织变革及全球市场拓展等方面具备卓越的领导能力,2024年入选中国经济新闻人物。 已经有了印奇,千里科技为什么还需要赵明呢? 千里科技进入商业化关键期 2024年10月底,印奇出任千里科技董事长,这位让吉利控股集团董事长李书福“相见恨晚”的“天才”,上任后提出“AI+车”的愿景。 印奇,图源:千里科技官方公众号 在印奇看来,汽车是实现AI最好的场景,AI会让车变成超级智能体和超级空间,期待未来汽车能打造完整生态链。因此,印奇决定让公司的科技业务与终端业务“双轮驱动”、AI化与国际化“双化牵引”的发展路径。 印奇执掌千里科技后,公司的发展增速肉眼可见,千里科技在业内的存在感也在一步步增强。 2025年年中,千里科技正式发布了面向L2+级的智能辅助驾驶解决方案,以及面向L3级、L4级的智能辅助驾驶的产品路线图。2025年底,千里科技的科技业务板块已完成核心技术体系的全面整合,与吉利联合研发的高含模量智能辅助驾驶系统“千里浩瀚G-ASD”第一个版本。 千里浩瀚G-ASD也将在极氪、领克十余款车型、超过30万辆车上搭载,这对于千里科技的规模化带来强力推动。 众所周知,吉利集团除了是千里科技股东外,也是该公司最大供应商及最大客户。从目前的业务布局来看,千里科技主要从“吉利系”企业采购整车、整车成套件及汽车零部件,并向吉利若干联营企业销售车辆。 不过,在面向媒体的采访中,印奇坚定表示:“千里一定是一个智能产品和智能服务的供应商,这是本质”。因此,不难看出在吉利保底的规模基础上,千里科技谋求更大突破的野心。 面向2026年,印奇曾展望道:“新一年将是千里从‘技术验证’迈向‘商业验证’的关键分水岭。我们将在‘AI+车’与‘AI+终端’两大战场实现技术与产品的深度耦合,在多元终端上完成具身智能体系的完整布局,真正走通商业模式从0到1的闭环。” 从印奇的发言中能够感受到,千里科技对于商业化落地速度与规模的渴望。 在印奇为千里科技制定的“双轮双化”长期战略之下,引入强援赵明,将意味着千里科技进入全面提速的新阶段。 实际上,与赵明相同,印奇也是跨界进入汽车行业。加入千里科技前,印奇是“AI四小龙”旷世科技的联合创始人。 共同的跨界经验,或许也会让印奇与赵明为千里科技的发展碰撞出更加精彩的火花。 “今天AI时代的到来,让我们必须重新思考和构建很多东西。就像进入一个全新的‘新手村’,我们要从新的初级阶段重修,从1级到10级,再到高手,是一个循序渐进的过程。我分享的这些,不是结论,而是过程中的一些体会。因为无论时代如何变化,商业的底层逻辑始终有其共通之处。”赵明在复旦论坛上如是说。 一个是精通商业底层逻辑的智能汽车“新手”,一个是李书福相见恨晚的技术天才,赵明搭档印奇能否带领千里科技驰骋一跃,值得期待。
抢红包到底拼手速还是手气 央视揭秘抢红包背后算法
快科技2月16日消息,拼手气抢红包早已成为春节假期的固定节目,对不少人来说,金额多少并不重要,图的就是一份热闹与喜庆。 不过,同一个红包里,为什么有人抢到“巨款”,有人却只有几分钱?拼手气红包到底有没有规律?先抢和后抢真的有区别吗? 今日,央视新闻《全释硬科技》对抢红包背后的算法进行了揭秘。 最初,红包采用的是完全随机分配逻辑——总金额和人数固定,由系统随机分配,看似全凭运气,但这种方式存在明显漏洞:越早抢,理论上拿到大额红包的概率越高。 例如,100元分给10人,第一个人能抢的金额是0.01元到100元之间都有可能。 如果他只抢到10元,剩下90元给后面的人,第二个人的可分配区间变为0.01元至90元,期望值降至45元。 随着人数减少、金额缩水,后抢者的期望值会不断下降,显然不够公平。 为了解决这一问题,在保留随机性的同时兼顾公平性,平台引入了被称为红包界黄金法则的二倍均值法。 其核心思路是:为每位用户设定金额上限,最少0.01元,最多不超过剩余金额平均值的两倍。 仍以100元分给10人为例,第一个人最多只能抢到100÷10×2=20元,金额区间为0.01元至20元,数学期望约为10元,而不再是50元。 如果他只抢到1元,剩余99元分给9人,第二个人的上限为99÷9×2=22元,期望值约为11元;即便第一人直接抢到上限20元,剩余80元分给9人,第二人的上限为80÷9×2≈17.78元,期望值依然维持在8.89元左右。 可以看到,通过动态调整上限,每位参与者的期望值始终围绕平均值波动,既保留了随机乐趣,也避免了先抢占便宜,后抢吃大亏。 当然,真实的抢红包算法要更复杂一些,除了保障相对公平的金额分配外,平台还要兼顾最小金额限制,高并发下的系统稳定性等各种细节问题。
刚刚,春节杀手锏“源神”登场
作者 | 王涵 编辑 | 漠影 智东西2月16日报道,刚刚,Qwen3.5正式发布并开源,在多模态理解、复杂推理、编程、Agent智能体等几大能力领先同级开源模型,多项基准媲美甚至超越GPT-5.2、Gemini 3 pro等闭源第一梯队。 Qwen3.5-Plus总参数为3970亿,激活参数仅170亿,性能超过万亿参数的Qwen3-Max模型,部署显存占用降低60%,推理效率大幅提升,最大吞吐量可提升至19倍。 Qwen3.5上线后,我们马不停蹄地问了它一道大模型的“脑筋急转弯”:我要去洗车,洗车的地方离家就100米,我是开车去呢,还是走着去呢? 对于这道题,网友们测试了国内国外各类大模型,鲜有模型答对。而Qwen3.5不仅识别出了题目中的逻辑陷阱,还用很幽默和轻松的语气回答了正确的答案,并且给出了“开车慢行,确保安全”的温馨提示。 回看Qwen3.5的思考过程,它遵循着分析需求、识别核心陷阱、制定答案、起草答案、内部比较、最后打磨、思考其他可能、确定答案等一些列步骤,在其中还会像真人一样“鼓励自己”,坚定自己的回答。 价格上,Qwen3.5-Plus的API价格是最低每百万Token 0.8元。同等性能下,这个价格仅相当于Gemini-3-pro的1/18。 从Qwen2.5、Qwen3到Qwen3.5,过去两年千问不断迭代开源,每一代产品、每一个尺寸都在为行业制定新的天花板标准,“最强开源=千问”几乎快成为共识。 但这一次,Qwen3.5的意义不止于“又刷新了一次榜单”。 一、让草图“一键变”网页,千问进化成原生多模态大模型 在解读Qwen3.5背后的技术之前,我们先来看看Qwen3.5在实际应用场景下的表现如何。智东西拿到抢先体验资格,率先对该模型的多模态理解、推理、以及代码生成能力进行了体验。 我们上传了一张礼品购买App的前端页面手绘草图,要求Qwen3.5根据草图生成红白配色的简约风前端页面,并输出可以直接用的HTML代码。 几乎没有思考时间,Qwen3.5先是识别出了草图中的基本框架和文字信息,在红白配色的模糊指令下,自主选择了饱和度没有那么高的红色。生成的代码简洁可用,页面也与草图几乎一模一样。 还有一处小细节是,我们上传的草图是英文,而Qwen3.5根据上下文的问答和提问的语言,判断出用户应该是中文用户,自动将页面语言调整为了中文。 在复杂场景与OCR能力方面,我随手拍了一张含有多个物体和背景的照片,问Qwen3.5:今天的天气怎么样?这张图片中都有什么? 可以看到模型可以在理解画面的同时,准确提取模糊的文字信息。这张图片是背光,文字在阴影内有些模糊不清,但Qwen3.5很准确地识别出了图片中的布洛芬颗粒冲剂、保湿霜以及酸奶的品牌,还贴心地附上了功效。 结合外面晴朗的天气,Qwen3.5综合判断用户正在家休息养生,并且给出了“希望天气好心情也好,早日恢复活力!”的祝福。 最后,我们来看看Qwen3.5在艺术理解上面的能力。我们给Qwen3.5看一张西班牙画家萨尔瓦多·达利的《记忆的永恒》,看看模型能不能识别出这幅画的风格派别和背景。 Qwen3.5提取出了这幅画中的特点元素“融化的时钟”,准确回答出这幅画的作者是萨尔瓦多·达利,并且将该作者的生平信息以及这幅画的画面材质、创作时间、尺寸、收藏地等详细信息都呈现给了用户。此外,该模型还详细介绍了这幅画的主要元素和象征意义以及艺术地位,对美学和抽象概念的理解较强。 Qwen3.5可与OpenClaw集成,驱动编程任务。通过将OpenClaw作为第三方智能体环境集成,Qwen3.5 能够进行网页搜索、信息收集和结构化报告生成——它结合自身的推理与工具调用能力,以及OpenClaw的接口,为用户带来流畅的编码和研究体验。 此外,Qwen3.5能够作为视觉智能体,自主操作手机与电脑完成日常任务。在移动端,该模型已适配更多主流应用,支持自然语言指令驱动操作;在PC端,Qwen3.5能处理跨应用的数据整理、多步骤流程自动化等复杂任务,有效减少重复性人工干预,提升工作效率。 以Qwen3.5为底层模型,Qwen Code支持“vibe coding”,可将自然语言指令转化为代码、实时迭代开发项目,并支持如生成视频等富有创意的任务。 整体体验下来,Qwen3.5在多模态能力方面真是下了狠功夫。这背后其实是千问团队在模型底层架构的重构,千问正式从“语言模型”进化为“原生多模态大模型”。 二、原生全模态,让模型像人一样学习 业界普遍认为,统一多模态是通往通用人工智能的必经之路。但让大模型真正”张开眼睛”,在统一架构下同时提升语言和视觉能力,实现多模态信息的高效融合与协同生成,并非易事。 当前行业中不少看起来“多模态”的方案,本质上仍是“拼装”——先训好语言模型“学说话”,再外挂视觉或音频模块,模块之间靠适配层勉强对齐。 有的产品甚至只是在统一入口背后,通过工程路由将不同任务分发给不同模型。这些方案都没有实现真正的多模态融合,且不少视觉理解模型会随着视觉能力的增强,出现语言能力”降智”的问题。 Qwen3.5从一开始就选择了一条鲜有人踏足的路。 从预训练第一天起,该模型就在海量的文本和视觉的混合数据上联合学习,就像人类一样,调用五官来综合接收外界信息。 让视觉与语言在统一的参数空间内深度融合,模型看到一张图就能自然理解其语义,读到一段文字便能在脑中构建对应画面。没有“中间商赚差价”,没有信息折损,真正具备像人一样的跨模态的直觉理解力。 想要让这种原生融合真正跑起来,就要有一个“人类大脑”,模型的训练架构也必须跟着变。在这一点上,行业中的传统做法是让视觉和语言用同一套并行策略,效率损耗严重。 Qwen3.5的做法是各走各的最优路径,再在关键节点上高效汇合。这样做的结果就是哪怕同时喂入文本、图像、视频三种数据,训练速度也几乎不受影响,和只训练纯文本时相当。 同时,Qwen3.5通过定制化的FP8/FP32精度策略,使激活内存占用降低约50%,训练速度提升10%。该策略已在强化学习训练与推理全流程统一应用,有效降低了多模态模型规模化部署的成本与复杂度。 在智能体训练上,千问团队还搭建了一套大规模强化学习框架,支持文本、多模态与多轮对话等场景,训练效率提升了3至5倍。 原生多模态融合带来的能力不止图像理解,Qwen3.5可对图像做像素级空间定位与代码级精细处理,能理解 2小时长视频的时序与逻辑关系,可将手绘草图转为可运行前端代码,还能作为视觉智能体自主操作设备、跨应用完成复杂任务。 三、四大核心突破,助力模型“以小胜大” 过去两年,大模型行业普遍走上“堆参数、拼算力”的“大力出奇迹”路线,模型规模从千亿一路攀升至万亿级别,性能虽有提升,但成本也随之水涨船高。 部署需要专属集群,推理消耗大量算力,不仅中小企业难以负担,终端设备更是无法运行。技术指标不断突破,可离普惠、实用的目标反而越来越远。Qwen3.5换了一种思路:不比谁更大,而是比谁更聪明,比谁能用相对更小的模型获得更大的智能。 具体来说,有四项核心技术突破共同支撑了这个结果: 一是混合注意力机制。传统大模型在处理长文本时,需对每个token与全部上下文进行全量注意力计算,文本长度越长,算力开销就越高,这也是限制长上下文能力的关键瓶颈。 Qwen3.5采用混合注意力机制,可依据信息重要性动态分配注意力资源,实现主次分明,在提升效率的同时保证精度。 二是极致稀疏MoE架构。传统稠密模型在每一次推理时都要调动全部参数参与运算,模型规模越大,对应的算力成本也就越高。 而Qwen3.5的MoE架构核心思路则在于,无需同时启用所有参数,只需依据输入内容,按需激活与之最相关的“专家”网络即可。 这样的架构,让Qwen3.5有397B的总参数的情况下,激活参数仅需17B,相当于仅需不到5%的算力,即可调动全部知识储备。 三是原生多Token预测。千问团队让模型在训练阶段就学会了对后续多个位置进行联合预测,推理速度接近翻倍。在长文本生成、代码补全、多轮对话等高频场景中,模型的响应速度接近“秒回” 四是系统级训练稳定性优化。2025年千问团队曾发表过一篇注意力门控机制的论文,还斩获了NeurIPS 2025最佳论文奖。 在这篇论文中,千问团队通过在注意力层的输出端加入了一个“智能开关”,就像一个水龙头,可以智能调控信息的“流量”。 这样既可以防止有效信息被淹没,也防止无效信息被过度放大,从而提升模型的输出精度和长上下文泛化能力。 类似的深层优化还包括归一化策略和专家路由初始化等,它们各自解决不同环节的稳定性问题,共同确保上述架构创新在大规模训练中真正跑得通、跑得稳。 在以上技术的加持下,Qwen3.5的新架构让模型在总参数不足400B的情况下,性能却能超越上一代超万亿模型的同时,部署显存占用降低60%,推理效率大幅提升,还顺手把API价格卷到了Gemini-3-pro的1/18。 当行业还在比拼”谁的跑分更高”时,Qwen3.5已经把竞争带向了下一个问题:谁的模型更好用、更实用、更多人用得起。 结语:Qwen3.5在“好用、实用、用得起”上一马当先 一马当先,不只是跑得快,更是跑得对、跑得远。 在多模态方面,Qwen3.5再一次验证了原生多模态是从预训练第一天起就让模型像人类一样,用统一的认知框架理解图文交织的世界。在效率与性能上,Qwen3.5将思考的重点放在“如何让大模型更高效”,“如何才能让大模型好用、实用、用得起”上。 从识别到理解,从单模态到跨模态推理,Qwen3.5让大模型从对话工具向理解真实世界的基础能力演进。阿里一方面在不断推出SOTA级模型,另一方面,通过开源策略让人人都能免费用,孕育出了一片全新的创新土壤。
漫剧“暴力”进化,AI与大厂联手开启洗牌元年
文 | 犀牛娱乐,作者|小福,编辑|朴芳 2月12日,抖音集团短剧版权中心发布的漫剧分成系数调整公告,成为为行业投下的又一枚重磅炸弹。在新规中,漫剧分成系数从原本模糊的4类大幅细化至6类。其中仿真人、3D、2D动画被明确赋予更高分成系数,成为平台重点倾斜的内容方向。 这并非孤例。当行业还在讨论漫剧是不是短剧替代品时,平台与大厂已经开始围绕AI生产能力重排赛道。过去被视为低成本补充内容的漫剧,正在被推向一个更清晰、也更残酷的工业化竞争阶段。 一场由AI驱动、大厂背书、工业化逻辑重构的洗牌元年,已然开启。 从“野蛮生长”到“精准分层” 抖音这次新政的精妙之处,在于它对漫剧品类提出了更明显的喜好倾向。 在新的结算体系中,平台将原本相对笼统的漫剧内容从4类细化为6类,覆盖仿真人剧、3D动画漫剧、2D动画漫剧、表情包动态漫剧、动态解说漫剧、静态解说漫剧等更具体形态。分成计算公式则为当月新增有效时长x时长单价x漫剧类型系数x版权系数。 其中,仿真人剧、3D动画漫剧、2D动画漫剧分成系数分别达到了60、50、40,相对应的,表情包动态漫剧、动态解说漫剧、静态解说漫剧三类比较低质量的漫剧,分成系数仅有1-10不等。 这一调整表面上是一次结算公式的技术升级,本质却是平台通过“定价权”对内容供给结构的主动干预,亦或者说,这背后是一套严密的“技术歧视”逻辑。 首先,这是平台对“内容阶级”的重新定义。 过去,漫剧长期被视为真人短剧的“低配版”,内容质量良莠不齐,大量依靠PPT翻页式的静态、动态解说混迹于流量池。而此次新政中,仿真人剧与3D、2D动画被赋予了极高的系数加成,这意味着同样的播放时长,高技术含量的作品收益可能是低端内容的数倍。 对于大量以静态画面、低帧率解说为主的早期漫剧形态而言,这意味着一个明确的信号——低成本、低完成度、低工业化水平的内容正在被系统性挤出收益区间。平台并未用审核或禁令“清场”,而是通过收益杠杆,让这些内容自然失去继续生产的经济基础。 抖音正通过算法和账单,强制要求创作者抛弃传统的“廉价生产力”,转向以AIGC工具为核心的高阶创作。 其次,这标志着漫剧正式进入“AIGC强绑定”时代。 可以看到高系数所对应的内容形态,几乎都具备着可与AIGC工具深度绑定、可被算法放大、可进行规模复制的特性。无论是仿真人的镜头调度,还是2D、3D动画的角色生成与动作驱动,本质上都更适合进入AI模型驱动的生产逻辑。 这意味着,漫剧不再只是创作者的手工活,而正在被平台视为一条具备工业潜力的新内容管线。 在我们看来,这种分层不仅是管理手段,更是一种“腾笼换鸟”。 平台正在清理那些占据流量却无法带来审美溢价的冗余内容,为即将爆发的AI原生内容腾出生态位。换句话说,那些无法掌握AI工具的传统作坊,迟早将在这场系数调整中被无情洗牌。 技术与资本共振 如果说分成新政是“方向盘”,那么技术与大厂布局,就是这辆车真正踩下的油门。 近期,字节跳动推出的AI视频生成模型Seedance 2.0在海内外引发高度关注,其在画面一致性、镜头连续性与生成效率上的跃迁,进一步降低了视频级内容的生产门槛。对于漫剧而言,这类模型的意义在于它能够更稳定地输出高质量叙事画面,进而推动漫剧的量产化进程。 几乎在同一时间,阅文集团CEO兼总裁侯晓楠发布春节内部信,明确将“长青内容、IP+AI、全球化”作为三大核心战略方向。内部信中明确将推动短剧与漫剧向精品化升级,并全力布局AI漫剧等新场景,提升IP的开发效率与价值空间。 腾讯则上线首款独立漫剧App“火龙漫剧”,并与中文在线等头部内容公司展开授权合作。而像快手、百度、优酷、爱奇艺、B站等大厂及平台,也均在近期针对漫剧进行了不同形式的布局。 从平台到IP源头,再到技术底座,大厂的动作几乎同步完成。 这种集中押注并非偶然。 与真人短剧相比,漫剧天然具备两个决定性的结构优势:其一,AI几乎可以完全消解拍摄成本,不再依赖演员、场地与线下执行;其二,内容生产可以彻底进入全数字化流程,从剧本拆解、角色生成到镜头输出,均可被模型与工具链重构。 正因如此,头部漫剧公司的判断才显得格外“激进”。 就像一位头部漫剧从业者所言,漫剧几乎用三个月的时间走完了短剧过去三到四年的路。这并非夸张,而是由生产方式本身决定的。当内容不再受制于物理世界,其进化速度自然呈指数级上升。 而在这一过程中,谁能更快整合生成模型、IP资源与平台内容分发能力,谁就能在洗牌期率先占据规模优势。反之,仍停留在低成本拼产量阶段的玩家,将很快被新规则边缘化。 结语: 漫剧的这场洗牌,实际上是AI算力对传统生产力的全面替代。在以倍速计算的发展速度面前,任何对旧模式的留恋都可能成为沉没成本。 当字节、腾讯等头部玩家陆续完成基础设施的合围,漫剧将不再是短剧的影子,而是真正属于AI时代的原生内容形态,有望成为AIGC商业化落地的第一个完整工业化样本。 无论这场革命将何时到来。可以确定的是,2026年,漫剧不再是小众的狂欢,而是“技术军备竞赛”最真实的修罗场。
开发者福音!GitHub AI代理终结3小时杂务,效率狂升10倍
作为全球最大的代码托管平台,GitHub承载着数千万开发者的日常协作,但其仓库管理中的各类繁琐杂务,长期以来成为消耗开发者精力的“隐形负担”。 这些杂务涵盖依赖版本更新、issue分类、简单代码错误修复等,看似琐碎却占用大量核心工作时间。GitHub 2025年开发者调查数据显示,约68%的受访者每周需花费3小时以上处理此类任务,更值得警惕的是,依赖更新不及时已导致近三成开源项目存在已知安全漏洞,既影响开发效率,也埋下安全隐患。 在此背景下,GitHub于2026年2月正式抛出重磅功能Agentic Workflows,通过引入带严格安全护栏的AI代理,精准解决仓库杂务痛点,同时牢牢守住维护者对仓库操作的最终控制权,这一动作也标志着代码托管行业正式迈入智能自动化新阶段。 Agentic Workflows的核心竞争力,不在于单纯的AI自动化,而是AI代理与护栏机制的深度协同:既让AI高效干活,又杜绝“乱干活”的风险。 其AI代理依托GitHub Copilot底层的大语言模型训练而成,并非泛泛的自动化工具,而是能深度理解仓库的代码结构、贡献规则及历史数据,精准执行预设范围内的各类杂务: 当依赖库发布安全补丁时,AI会自动生成更新PR并附上详细测试报告,省去开发者手动检索、测试的麻烦;新issue提交后,AI能快速解析内容,自动添加分类标签并分配对应负责人,避免issue堆积混乱;甚至可精准识别代码中的语法错误,生成针对性修复建议,降低基础调试成本。 而护栏机制则为这些自动化操作筑起了“安全防火墙”,这也是GitHub区别于其他仓库自动化工具的核心亮点。 维护者可根据仓库需求,灵活定义AI的操作权限,比如限制AI仅能修改文档或测试文件,严禁触碰核心业务代码;所有AI生成的PR默认处于草稿状态,必须经维护者审核通过后才能合并,从源头规避误操作风险;对于修改核心依赖版本这类高风险操作,系统会自动触发二次确认流程,确保人工介入把关,实现“AI提效不越权”。 从技术实现逻辑来看,Agentic Workflows的AI代理并非孤立运行,而是深度融入GitHub仓库生态,形成了一套“认知-执行-审核”的闭环流程。 AI首先会全面分析仓库的README、CONTRIBUTING.md文件及历史提交记录,快速建立对仓库规则、代码风格的精准认知;执行任务时,会严格参考护栏权限配置生成操作预览,清晰呈现操作内容及潜在影响;维护者通过可视化界面查看后,可灵活选择批准、修改或拒绝;一旦批准,AI便自动完成操作并生成规范的提交记录,全程可追溯、可回溯。 这种“AI建议-人工确认”的模式,既最大化发挥了AI的自动化优势,又完美保留了维护者的控制权,实际应用效果显著。 某开源项目维护者启用该功能后,AI自动检测到三个过时依赖并生成更新PR,维护者仅用5分钟便完成审核修改与合并,较传统手动操作效率提升近10倍。 Agentic Workflows的推出,是GitHub从代码存储工具向智能协作平台转型的关键一步。 它用AI技术精准解决了开发者的“痛点中的痛点”,将千万开发者从重复、繁琐的仓库杂务中解放出来,让他们能将更多精力投入到代码创新、功能研发等核心工作中,本质上是对开发者生产力的一次重构。 同时,其严格的护栏机制也为行业树立了AI应用的安全标杆,打破了“自动化与控制权不可兼得”的误区,证明通过科学的技术设计,可实现AI提效与安全可控的双向平衡。 GitHub的这一动作,也迅速引发了代码托管行业的连锁反应,巨头们纷纷加码仓库自动化赛道,竞争日趋激烈。 OpenAI于2026年2月上旬同步发布Copilot Pro升级版,新增AI驱动的代码安全扫描功能,可实时检测代码漏洞并生成针对性修复方案,与GitHub形成功能呼应;GitLab则抢先一步,在2026年1月底便推出AI-powered Merge Request Automation功能,聚焦代码冲突自动解决、集成测试自动运行等核心场景。 Bitbucket则选择与Anthropic深度合作,推出基于Claude 3的仓库自动化工具,重点发力开源项目安全漏洞修复,目前已在多个大型开源仓库试点落地。 一场围绕开发者协作效率的AI军备竞赛,已在代码托管领域全面打响。(本文首发钛媒体App , 作者|AGI-Signal,编辑|秦聪慧)
爆火OpenClaw,创始人突然加入OpenAI!星标飙到197k
作者 | 江宇 编辑 | 心缘 智东西2月16日报道,今日,爆火AI开源项目OpenClaw的创始人Peter Steinberger宣布正式加入OpenAI,参与推动其下一代个人Agent方向的研发。 Steinberger在个人社交平台上称,他将加入OpenAI,把Agent带给每一个人,同时强调OpenClaw将继续作为一个“开放、独立、仅刚刚起步的项目”存在。 OpenClaw这一近期快速走红的开源项目,将转由基金会托管,继续以开源形式独立运作,OpenAI将对该项目提供持续支持。目前,OpenClaw的GitHub星标已有19.7万。 OpenClaw此前也曾以Clawdbot或Moltbot之名出现,被用户视为一种可在本地运行的个人助理,能够处理邮件、与保险公司沟通、完成航班值机等一系列复杂事务。自2025年11月首次推出以来,该项目在开发者社区中迅速传播,根据Steinberger披露的数据,其曾在单周内吸引约200万名访问者。 加入OpenAI的结局,似乎在当初项目名改成“Open”Claw时,就已经注定。 OpenAI联合创始人兼CEO Sam Altman今日亦发文宣布,Steinberger将加入OpenAI,专注于“下一代个人Agent”的发展方向,并提到未来是高度多智能体化的时代,承诺“OpenClaw将以开源项目的形式存在”、“OpenAI支持开源”。 Steinberger本人随后在一篇博客文章《OpenClaw, OpenAI and the future》中解释了他作出这一决定的背景。 ▲Peter Steinberger博客文章截图 他谈到,OpenClaw最初只是一个出于兴趣的探索项目,但过去一个月的发展远超预期,来自投资人和机构的接触不断增加。 在他看来,OpenClaw完全有可能被打造为一家大型公司,但这并非他当前最感兴趣的方向。 Steinberger已经在此前的创业中投入了13年时间,而这一次更希望专注于构建一个“普通人也能使用的Agent”,而不是再次从零开始运营一家企业。 为了寻找合适的合作方式,他近期曾前往旧金山,与多家头部AI实验室进行交流,并接触到尚未公开的研究成果。 在这一过程中,他逐渐认为,OpenAI在模型能力、研究资源以及对开源项目的支持态度上,与他对OpenClaw未来的设想更为一致。 他强调,保持OpenClaw的开源属性始终是其核心原则,而通过设立基金会的方式,可以为社区提供更稳定的结构,使项目继续服务于希望掌控自身数据、并支持多模型、多公司协作的开发者。 外媒此前援引知情人士称,Steinberger曾与包括Meta在内的多家AI公司进行过接触。当时就有网友在论坛发帖质疑,OpenClaw如果真加入了OpenAI,会不会变成“ClosedClaw”。 加入OpenAI则也为持续数周的招募与谈判画上句号。Steinberger在文章中直言,他更看重的是将Agent能力尽快带给更广泛的用户群体,而与OpenAI的合作,是当前实现这一目标的最快路径。 结语:OpenClaw之后 个人Agent怎么走 从OpenClaw的走红来看,个人Agent真正吸引人的是真的进入用户的真实计算环境。一旦智能体不再停留在对话或单一工具层面,开始接管电脑、跨软件执行任务。 但与此同时,这种方式也提出了许多难题:安全、权限、稳定性、以及普通用户是否真的愿意把操作权交出去。 多家AI厂商此前在Agent产品上的反复调整,恰恰说明了这件事远比想象中复杂。 OpenClaw或许还不是答案本身,个人Agent是否真的能成为下一个计算入口,还需要从这些的尝试中,慢慢走出来。
全球首个,英伟达用AI两个月造出“全新PyTorch”
新智元报道 编辑:Aeneas 【新智元导读】仅用两个月,AI 就「自己」写出了一个能跑模型、对标PyTorch的深度学习系统!陈天奇、贾扬清纷纷大赞:AI终将完全超越人类程序员。 最近,英伟达又发布了一个炸裂成果。 英伟达高级工程师Bing Xu开源了VibeTensor项目,并且表示:「这是第一个完全由 AI 智能体生成的深度学习系统,没有一行人类编写的代码。」 这是什么概念?深度学习运行时(Deep Learning Runtime),是让神经网络真正跑起来的底层系统系统。 仅仅用两个月,AI就自己写出了一个「深度学习运行时」。 它不是demo,不是PPT里的概念,是真正能跑起来的、对标PyTorch的一个系统! 这个项目也获得了陈天奇、贾扬清等大佬的盛赞。 两个月,AI写出比肩PyTorch的成果 AI,能不能从零生成一整套「深度学习系统软件」?这里指的,是那种真正的、工程师平时根本不敢让AI碰的底层系统。 答案是,可以。 VibeTensor是一个受PyTorch启发的即时运行时,它具有全新的C++20内核(CPU + CUDA)、torch风格的Python覆盖层以及实验性的Node.js/TypeScript API。 注意,它并不是一个轻量级封装器。它实现了自己的张量/存储、调度器、自动微分引擎、CUDA运行时和缓存分配器和插件ABI。 在VibeTensor项目中,人类只需要做这几件事:给出高层架构、定义约束条件,设定性能与可靠性目标。 剩下的事,就可以全部交给LLM驱动的编码智能体,包括C++核心运行时,Python API,Node.js接口等等。 英伟达工程师们,再也不用手动编写每一行代码了。 速度也是很惊人:仅仅用两个月时间,整个系统就开发完成了。 两个月,是什么概念?要知道,PyTorch经过了十年级别的演进,需要成百上千名工程师,进行无数次架构的重构。 而VibeTensor只需要2个月,由AI生成大量代码,还覆盖了完整的运行时链路。 当然,VibeTensor现在还不能取代PyTorch。虽然某些特定内核的速度更快,但它整体的训练性能仍然比PyTorch慢。 但这根本不是重点。 随论文一同发布的AI生成算子内核套件的宏观结构示意图,该套件包含多个后端实现(Triton、CuTeDSL以及PyTorch参考路径) 重点是,AI已经能造出PyTorch级别的复杂系统了。 这就证明:人工智能智能体已经足够强大,能够构建复杂的、功能齐全的软件系统,而不仅仅是简单的脚本。 编码智能体不仅能写函数,还能在测试约束下,协同生成并验证一个跨越多层抽象的复杂系统。 网友们纷纷惊呼:库兹维尔预言的递归改进循环,正在发生! 当然,AI智能体虽然可以编写大量代码,但最终成功与否,还要取决于项目是否附带评审。 有人说,英伟达真正的秀肌肉之处,在于敢把生产级的C++内核交给智能体来写。 这就意味着,英伟达背后,有着世界一流的测试基础设施,以及完善到位的运行时遥测体系。 用AI快速交付,其实并不难,真正困难的是如何可靠地交付——而这,依然是人类的护城河。 VibeTensor架构 这个架构的宏观视角,是这样的。 从使用体验上看,VibeTensor是一个受PyTorch启发的即时运行时,包括torch风格的Python API,以及熟悉的张量、算子、自动微分体验。 但在实现上,VibeTensor并不是PyTorch的封装或裁剪版,而是实现了自己的一整套系统栈。 从宏观层面来看,它由如下部分组成—— 前端:Python(nanobind)和 Node.js(N-API)都向同一个C++运算符注册表分发。 核心运行时:张量/存储 + 调度器 + 自动微分 + 索引 + 随机数生成器。 CUDA运行时:流/事件包装器、分配器、图、内核启动助手。 计算层:内置CUDA内核 + 可选Triton/CuTeDSL内核 + 插件加载内核。 多GPU实验 :Fabric张量和可观测性(统计+事件环)。 更关键之处在于,它真的能训练模型。 针对Blackwell架构(SM100/SM103)的warp级特化ring all-reduce内核的宏观与微观视图 在评估阶段,论文并没有止步于单算子正确性或micro-benchmark,而是刻意选择了完整训练闭环作为验证手段,覆盖了三类具有代表性的工作负载:序列反转任务、CIFAR-10 上的Vision Transformer,以及一个miniGPT风格的语言模型。 这三个任务并非随意挑选。 序列反转任务是经典的自动求导与时序依赖sanity check,能够快速暴露梯度回传、参数更新或状态复用中的隐藏错误。 CIFAR-10上的ViT则引入了更复杂的算子组合,验证系统在中等规模模型下的稳定性。 而miniGPT风格的语言模型则进一步拉长了训练步数,对长时间运行、多步梯度累积、显存管理和数值稳定性提出了更高要求。 论文展示的训练曲线表明,在这些任务上,VibeTensor与PyTorch在整体收敛趋势上是高度一致的:loss能够稳定下降,accuracy或perplexity持续改善,没有出现梯度爆炸、训练发散或「跑几步就崩」的情况。 这一点尤其关键,因为它意味着系统中的多个核心子系统能够在真实训练循环中正确协同工作。 真正颠覆性的意义:工程边界被打破 英伟达这项研究真正颠覆性的意义,不在性能,而在「工程边界被打破」。 需要强调的是,作者非常克制:他们反复声明VibeTensor性能明显落后PyTorch,也不适合生产环境。 但这恰恰让这篇论文更有分量了。 因为它要证明的不是「AI能不能写出最优代码」,而是——系统软件,第一次被证明是「可被AI整体生成」的! 在过去,大家都默认一个隐含前提:AI可以写应用代码、脚本、业务逻辑,但系统软件、运行时、内存管理、并发控制,只能人写。 VibeTensor 第一次用一个可运行、可复现的工程告诉你:这个边界,正在被打穿。 另外,论文里一个非常重要、但容易被忽略的点是:测试不再只是验证工具,而是约束 AI 搜索空间的核心机制。 在这个项目中:测试约等于可执行的设计文档,回归测试是对抗「AI 局部正确、全局崩坏」的唯一手段,多步训练测试,则可以揪出单步算子永远发现不了的bug。 这本质上是在说:未来系统工程的核心能力,可能不是写代码,而是「设计好一套让 AI不敢乱来的测试体系」。 重要反面教材:「弗兰肯斯坦效应」 论文最后还非常坦诚地总结了AI写系统的典型失败模式,作者称之为弗兰肯斯坦效应。 简单说就是:每个子模块单独看都很合理,拼在一起却会把系统性能彻底拖垮。 比如,为了安全性,AI在autograd引擎里加了一个全局backward锁。 从单点看这是对的,但结果却是:GPU kernel空转、并行性被扼杀、系统整体变慢好几倍。 这部分内容其实非常有价值,因为它说明了一件事:AI非常擅长「局部最优」,但极其不擅长全局性能目标。 而这,正是下一阶段AI系统工程必须正面解决的问题。 总之,如果用一句话来概括VibeTensor这篇论文的意义,那就是:这是第一篇用完整可运行系统证明「AI已经可以触碰深度学习系统工程核心腹地」的论文。 它不是终点,但很可能是一个分水岭。 英伟达3万工程师全员All in AI编程 最近,还有另一个内幕消息曝出:英伟达的30000名工程师在引入AI编程助手后,代码产出狂翻3倍! 英伟达很早就在内部尝试各种AI代码生成辅助工具,但自从定制版Cursor广泛部署之后,效能提升才真正「爆发」。 注意,Cursor并不是简单补全,而是一套可以:自动生成新代码、生成单元测试与集成测试、理解大规模代码库深层依赖关系、自动修bug的的「全流程AI编程助手」。 据英伟达工程负责人描述:Cursor现在在所有产品线、所有开发阶段都在使用。它能自动从 ticket、设计文档获取上下文,然后基于规则自动生成包括代码、测试、CI 在内的完整变更。 三倍代码量,是说AI写了很多垃圾代码吗?事实相反,英伟达强调:代码质量仍由人工负责审核和监督。 工程师会留出更多时间,给设计决策和复杂逻辑,把重复性工作交给AI完成。 从英伟达的角度来看,这种「让AI进入关键路径」的做法其实并不陌生。早在多年前,DLSS就已经在超算上运行了。 可见,英伟达并不是第一次将AI引入高风险、高复杂度的工程系统,而是已经积累了长期经验。
除夕,一家AI公司市值站上2600亿港元
作者 | 江宇 编辑 | 漠影 智东西2月16日报道,今日,港股春节前最后一个交易日,通用人工智能(AGI)企业MiniMax股价继续走高,收盘报847港元(约合人民币748元),总市值达到2656亿港元(约合人民币2347亿元),领涨港股人工智能板块。 其股价表现强势,盘中一度冲高至886港元(约合人民币783元),不仅刷新其自今年1月上市以来的历史高点,更创下2026年开年以来港股市场的单价最高纪录。 这是MiniMax上市以来的第38个交易日,也是其市值首次站上2600亿港元关口。 以当前市值计,MiniMax已正式进入港股“2600亿俱乐部”,与美团、携程、京东、快手、百度等一批成立十多年、穿越多轮周期的老牌互联网公司站在同一量级。 格隆汇统计数据(2026年1月1日至2月9日期间) 时间维度上的对比尤为直观,MiniMax成立尚不足5年,自1月9日登陆港交所以来不足40天,股价已较上市初期超5倍。 按2026年年初至今口径计算,MiniMax年内累计涨幅达到413.3%,位列港股千亿市值公司涨幅第一。 格隆汇统计显示,在2026年1月1日至2月9日期间,MiniMax已是港股涨幅榜首。 格隆汇统计数据(2026年1月1日至2月9日期间) 而在2月9日至2月16日的短短数个交易日内,其股价再度上涨64.5%,市值从1615亿港元快速抬升至2656亿港元。 这一轮上涨,使MiniMax在市值层面,用38天走完了许多互联网公司二十年才完成的路程。 这背后,是AI生产力价值正在被市场持续计入价格的过程。从编程到更广泛的泛生产力场景,AI开始被视为一种能够在真实世界中稳定交付结果的工具。 从具体产品层面看,MiniMax近期发布的M2.5模型,是这一轮市场定价变化的重要背景。 2月12日,MiniMax正式发布M2.5,这是其面向Agent场景原生设计的生产级模型,支持PC、App及跨端应用的全栈编程开发,直接对准编程、工具调用、搜索和办公等高频生产力场景。 在公开基准测试中,M2.5在多项核心指标上达到或刷新行业SOTA水平,包括SWE-Bench Verified(80.2%)、Multi-SWE-Bench(51.3%)、BrowseComp(76.3%)。 相较上一代M2.1,M2.5在复杂任务中的拆解效率和推理过程中的token消耗均有明显优化,在SWE-Bench Verified测试中完成任务的速度提升了37%,更适配长链路、连续运行的Agentic任务。 成本结构的变化同样直观。在每秒输出100个token的情况下,M2.5连续运行一小时的成本约为1美元,折合人民币约7元,相当于一杯奶茶的价格。若以每秒50个token计算,成本仅为0.3美元。 这类具象、可计算的使用成本,让“AI生产力”从概念变成了可以被估值的现实能力。 在MiniMax内部的真实业务场景中,M2.5已经开始承担实际工作负载。 目前,约30%的内部任务由M2.5自主完成,覆盖研发、产品、销售、HR、财务等多个职能环节,且渗透率仍在持续提升。其中,在编程场景下表现尤为突出,M2.5生成的代码已占新增提交代码的80%。 为进一步满足Agent场景对响应速度的需求,MiniMax于2月15日深夜上线MiniMax-M2.5-highspeed版本,支持100 TPS极速推理,推理速度约为同类产品的3倍,相关Coding Plan与API同步开放,上线后迅速引发海内外开发者抢购。 结语:MiniMax迈向商业化与全球化的新纪元 在这一轮市值快速抬升的背后,是资本市场开始明确看好MiniMax的长期发展空间。 摩根大通在最新研报中,在AI基础模型领域,MiniMax是少数同时具备技术实力、多模态商业化潜力和全球可扩展性的企业,其模型在核心基准测试中的表现,以及覆盖B2B与B2C的全谱系产品矩阵,为持续变现奠定了基础,而全球化布局则进一步放大了规模扩张与盈利的可能性。 该研报预计,2025年至2030年,MiniMax营收年复合增长率有望达到138%,并在2029年起实现盈利。 在摩根大通看来,MiniMax逐步走向以商业化兑现能力、模型原创性和全球化纵深布局为核心的新阶段。 放在这一判断之下,MiniMax当前的市值变化,更像是资本市场对其“下一阶段角色”的提前定价:从一家快速成长的AI公司,迈向一个以全球市场为目标、以持续交付生产力为核心的新纪元。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。