行业分类:
加载中...
头条分类:
加载中...
联想天禧AI 3.5发布:承诺未来12个月智能体利润全部归属开发者
凤凰网科技讯 12月26日 2025联想天禧AI生态伙伴大会(LTPC 2025)今日在北京举行。会上,联想集团披露了其在个人AI领域的最新战略进展,正式宣布天禧AI已升级至3.5版本,并明确了从“AI助手”向具备闭环执行能力的“AI队友”跃迁的技术路径。联想集团副总裁阿不力克木·阿不力米提表示,行业共识正指向个人AI普惠,联想将通过“一体多端”战略(即天禧个人超级智能体+多种终端设备),构建以“人”为中心的AI生态,目标是让每位用户拥有专属的“智能双胞胎(AI Twin)”。 据官方数据显示,天禧AI生态目前月活跃用户已突破2.8亿,其中18至34岁的年轻群体占比超七成,2025年分发量突破40亿次。为进一步激活开发者生态,联想在会上联合火山引擎启动了“天禧AI生态智能体先导计划”,并抛出重磅商业激励政策:向开发者提供1亿token抵用券,且承诺在未来12个月内,智能体产生的全部利润将100%归属于开发者。这一举措旨在降低开发门槛,加速应用从技术尝鲜向商业落地转化。 针对AI行业的商业模式变革,联想方面指出,随着2025年国内AI用户突破5亿,智能体的价值衡量标准正从传统的SEO(搜索引擎优化)向GEO(生成式引擎优化)范式转变。这意味着,未来的流量分发不再单纯依赖关键词匹配和曝光,而是取决于智能体能否理解用户意图、有效协同并可靠交付最终结果。为此,联想正致力于构建包括A2A协同协议及TAC连接、TAP支付在内的基础设施,试图打通从意图理解到任务交付的完整商业闭环。 技术演进方面,新发布的天禧AI 3.5在个性化记忆、多智能体协同行动力及交互体验上实现了升级,如通过ChatExcel等应用实现办公自动化。同时,联想还前瞻性地展示了天禧AI 4.0的规划,强调其将具备“思你所想”的深度认知能力和“行你所愿”的跨应用资源调度能力。此外,联想还提及了从“万物互联”向基于物理AI的“万物AI”演进趋势,即通过智能体大脑与操作系统小脑的融合,驱动物理系统自我进化。 会议最后透露,联想将于北京时间2026年1月7日亮相CES 2026消费电子展。届时,联想将与英伟达CEO黄仁勋、英特尔董事会成员陈立武、AMD CEO苏姿丰等行业领袖同台,共同探讨AI PC及产业创新的未来方向。
百万华人涌入,变革中的斯坦国
作者|刘景丰 “我们总共30个房间,29个房间住着来考察的中国人。” 一家在哈萨克斯坦最大城市阿拉木图的酒店老板告诉霞光社。 这家酒店的老板是福建人,因看好阿拉木图的商机,他只身来到这里,于今年9月开了这家主要服务华人的酒店。 “这还不是旺季。今年九月刚开业那会儿,酒店的房间提前好几天就被订出去了。” 这是出海中亚热最微观的体感之一。更宏观的数字也呈现了这种趋势:来自同程旅行的数据显示,今年前11个月,中国赴哈萨克斯坦人数超过87.6万人次(2024年全年为65.5万人次);此外,12月初至新年假期期间,中国主要城市飞往哈萨克斯坦的机票预订量较去年同期更是增长超50%,酒店预订量增长超80%。 如此看来,今年赴哈萨克斯坦的中国人或将接近百万之众。 除了“人”的流动外,货物的流动同样高涨。今年1-11月,我国境内6大口岸站累计开行中亚班列13089列,累计发送货物1031695标箱,同比增长30.6%。 可以感受到,今年出海中亚真的热起来了。中亚正从过去的“边缘市场”转变为中国企业出海的 “外贸增长极”,除了基建、新能源、3C等领域领跑外贸增长,跨境电商更是帮助中国商品铺就出海中亚的新通道。 12月中旬,霞光社在哈萨克斯坦的阿拉木图进行了为期5天的考察,深入了解这片变革中的市场。一个直接的感受是,尽管这里的城市更像是10-15年前中国二线城市的基建水平,但整个社会的数字化进程发展迅速,电商、在线打车、在线娱乐和线上订酒店民宿等已成为人们的日常;人们的消费也迎来新一轮升级,中国的新茶饮、新能源车在街头日益增多;此外,这里经济产业也从“能源腹地”升级为“多元合作区”,中国企业开始成为年轻人就业的“新宠”。 回看2025年,或许这正是中亚市场迎来全面升级的历史新节点。 01 电商购物,成为年轻人的日常 在许多人的印象里,中亚的斯坦国是拥有着广袤草原与戈壁、热情游牧民族以及丰富美食文化的地方。 但当我们真正踏入这片土地时,反而有种欧洲小城的感觉——在12月圣诞节前的两周,阿拉木图街道两侧的商店几乎家家都摆上了圣诞装饰;俄式建筑,是这里最常见的建筑风格;堵车不分早晚,即使上午11点路上依然会堵车,晚高峰堵车更是家常便饭。 下午四点,阿拉木图的公路上已经排起长龙 或许堵车也能磨练人的性子,这里人们的节奏比较松弛,上班出行除了打车、公交外,更多是步行,就连送外卖也可以步行…… 当地“骑手”,正在步行送外卖。因为不方便,当地人几乎不怎么点外卖 实际上,对于第一次来这里的中国人,通常会有各种攻略教你如何靠各种软件实现“无缝衔接”:如何开通“一带一路”流量,如何用Yandex Go打车、如何用Kaspi QR(已与支付宝打通)扫码支付、如何用地图软件查看本地公交,乃至如何电商购物。 Kuma(化名)是一位当地大四学生,2021年举家从中国移民到哈萨克斯坦,如今在一家中资汽车服务企业实习。她告诉霞光社,刚来到阿拉木图时,这里电商还不发达,对于早已适应国内电商环境的她还不适应,购物极不方便;但如今她几乎每周都要网购两三次,“这里的电商跟国内相比在体验上已经差别不大,唯一不同就是这里不会包邮。” 今天的哈萨克斯坦,不仅有本地电商平台Kaspi.kz,俄罗斯电商平台Wildberries(WB)、Ozon,还有来自中国的淘宝、速卖通、Temu等跨境电商平台,而且通过中国电商平台还可以购买国内商品,并通过西安、乌鲁木齐的中转仓发往阿拉木图等城市,体验十分流畅。此前,霞光社也曾撰文详细分析中亚的电商市场,《中亚电商热:147亿美元市场里的中国玩家》。 整体来看,哈国已成为中亚电商基础最完备的国家。在这里,无论是互联网普及率(92.9%)还是移动连接率(128%)均处于区域最高水平,用户线上购物习惯已经稳定形成;而且,电商占零售比重从2013年的0.5%升至2024年的14.1%;过去五年哈萨克斯坦电商规模增长了七倍,2024年规模已达3.156万亿坚戈(约65亿美元),同比增长33%。 Yandex Ads大中华区负责人马婧对霞光社表示,电商是数字化转型的 “催化剂”和“缩影”,它正给当地带来三大变化:一是消费的普惠化,打破了消费的地域限制,让小城镇和农村居民也能获得与大城市几乎同等的商品选择;二是催生新就业与创业,直接带动了数字营销、本土电商运营、仓储物流、客服等大量新职业,也激发了本土中小卖家的创业热潮;第三,也倒逼商业基础设施升级,支付、物流、信任体系(如评价、客服)在电商的推动下快速成熟。 以支付为例,除了电商、打车等线上场景,在阿拉木图历史最悠久、最著名的交易市场绿巴扎,一些销售农产品和手工商品的商户已经能够支持Kaspi QR扫码支付。这意味着,电子支付已经从线上向线下渗透。 对中国企业而言,哈萨克斯坦是中亚各国里最容易起量、最适合进行仓配布局、也可能是ROI最快转正的市场。 此外,乌兹别克斯坦借助最大的人口红利,也成为中亚最重要的电商市场。乌兹别克斯坦互联网普及率高达89%,整体数字化基础在快速提升;同时,它以3700万人口成为中亚潜力最大的消费市场。随着Uzum等本地电商以及速卖通、Temu等中国电商在这里崛起,其电商交易额持续保持双位数增长。 另一个可以考虑的市场是吉尔吉斯斯坦,这里的互联网普及率与乌兹别克斯坦接近。尽管整体经济体量较小,但用户高度依赖线上渠道,电商渗透速度快,服饰、小家电、日常用品等品类增长明显。对于中国商家来说,吉国适合作为低成本试水、轻运营快跑的市场,通过平台入驻与海外仓轻量模式观察用户需求并快速迭代。 中亚早期错过了PC互联网时代,但如今正赶上移动互联网时代,因此这里95%的网民通过智能手机上网,消费决策链路高度依赖移动互联网。霞光社体验发现,在这里常用的打车、支付、在线招聘、在线买车等软件,许多都是在2020年之后开始出现或推广。而且,在这里一个App集成多个功能的现象较为普遍。以Yandex为例,它集成了搜索、出行、外卖、租车等各种功能,构筑了一个超级App的数字生态。 马婧介绍,Yandex哈萨克斯坦公司正构建一套深度渗透的数字生态系统,该系统已成为当地核心的网络基建:每月有1000万人使用Yandex哈萨克斯坦的服务,日均在Yandex搜索中发起超900万次查询。Yandex广告联盟(YAN)拥有4.5万家合作伙伴,为品牌与当地活跃消费者搭建持久互动关系创造了契机。 数据显示,2025年上半年,在哈萨克斯坦使用Yandex Ads的中国广告主数量同比增长76%,广告投放金额激增192%。增长的核心驱动力来自工业设备及材料领域,其广告投入占中国企业在哈Yandex Ads总投放额的75%,较2024年上半年增长超5倍;游戏行业成为增长最快的品类,广告投入增长近8倍;IT服务、物流及家居用品行业也实现了两位数乃至三位数的强劲增长。 Yandex在阿拉木图的办公大楼 这些数字表明,中国企业正借助Yandex Ads的本地化效果营销工具,将自身竞争优势与中亚市场需求精准匹配,快速且规模化地开拓新细分领域。 此外,马婧还提到,中亚消费者过去受欧洲商品影响较大,在产品审美上更偏欧美风格;此外,商家如果要在这里做营销,一个关键点是 “超越翻译,实现文化共振”——不仅内容要融入本地节日、热点、网络用语,渠道上也要深耕本地国民级生态,而非简单复制国内渠道矩阵。 从人们的生活到商业营销,数字化正在全面改变这片市场。 02 从奶茶到新能源车,中国商品带来消费升级 数字化变革这里的生活方式,而新消费则正提升人们的生活质量。 在阿拉木图,火遍全球的蜜雪冰城也开到了这里。在阿拉木图火车站旁,就有一家蜜雪冰城的门店。在它隔壁,紧挨着一家同样来自河南的新茶饮品牌——WEDRINK(茶主张)。 蜜雪冰城的门店依然保持着跟国内相似的视觉设计,门店里茶饮的品类也跟国内相差不大。霞光社看到,这里的饮品在价格上普遍比国内要高。以一款草莓圣代为例,在这里要600坚戈(合人民币8.15元),而国内同款的价格约为6元。 别看只相差2.15元,但对于讲求极致性价比的蜜雪来说,这已经高出一个价格档了。但对于当地人而言,这个价格算是非常接地气了,毕竟人均工资大概5000-6000元的当地人,日常承受的消费品物价几乎是国内的2倍甚至更高。 在跟店员交流中霞光社得知,蜜雪冰城约一年前开始进入中亚市场,已经在哈萨克斯坦开了十多家门店,此外在乌兹别克斯坦也有门店。目前,其正处在扩张早期。 相比蜜雪冰城,WEDRINK在哈萨克斯坦的门店扩张也更凶猛——据称目前已经有上百家了。在WEDRINK官方消息中称,其已经在哈萨克斯坦、乌兹别克斯坦、塔吉克斯坦、吉尔吉斯斯坦等中亚国家铺开。毫无疑问,在这里WEDRINK 的渗透率远高于蜜雪冰城。 奶茶消费只是个缩影,当下的中亚国家正处于消费升级的起跑阶段,这里既有对欧美生活方式的需求,同时又乐于接受来自中国的新消费品牌,而谁能率先跑通模式、搭建本地化运营与跨境供应链,或许就能在这片蓝海市场占据先机。 但挑战同样不容忽视。在跟蜜雪冰城店员交流中,霞光社注意到这里的新茶饮供应链目前还主要依赖国内供应,而哈萨克斯坦冬季漫长,物流延迟风险高,原料依赖进口成本波动较大。此外,当地消费者对甜度要求较高,且传统咸奶茶仍占据主流。对于想在这里长期立足的品牌来说,加快供应链本地化建设,同时根据“重咸重甜”调整产品配方,是必须要做的事。 除了新茶饮,中国的新能源车也已成为这里的一道风景线。在阿拉木图的道路上,时常见到比亚迪、红旗、理想以及极氪等品牌的新能源车。在一众旧车中,他们格外显眼。 由于哈萨克斯坦对汽车没有报废年限限制,加上油价便宜(约人民币3-4元/升),大街上放眼望去几乎都是各种老旧车辆。哈萨克斯坦马吉利斯(议会下院)议员沃勒扎斯·库斯佩科夫在接受“Бүгін LIVE”节目采访时曾透露,哈萨克斯坦国内注册的乘用车数量已超过500万辆,其中近80%为使用年限超过10年的旧车。 一位在哈萨克斯坦做汽车服务的企业负责人邢先生告诉霞光社,因为这里旧车较多,汽车服务的需求也比较旺盛,加之近几年中国品牌汽车的到来,许多中国车企已经在哈萨克斯坦、乌兹别克斯坦等国开设了类似4S店的售后服务点。他所在的万高汽车就是一家有中欧背景的汽车质保与跨境贸易服务商,目前已经在中亚的哈萨克斯坦、乌兹别克斯坦等国落地汽车维修、质保等业务。 除了维修的商机外,另一个变化是,哈萨克斯坦为了改变旧车过剩的情况,政府即将推出一项“以旧换新”计划,类似于国内通过政府补贴的方式、鼓励车主将旧车更新的政策。此外,当地媒体也曾报道,哈萨克斯坦将推出汽车租赁计划,该计划仅限购买新车,最大亮点是无需首付款。毫无疑问,这项措施将推动当地新车价格下行,激活新车消费。 或许得益于此,2025年上半年哈萨克斯坦对中国品牌汽车的需求快速攀升。中国汽车工业协会数据显示,2025年1—6月,哈萨克斯坦累计进口中国汽车约7.76万辆,同比翻倍,跻身全球进口中国车前十市场。 甚至有行业内人表示,在中国运往中亚的汽车里,有约45%是销售到哈萨克斯坦的。在欧美等高消费市场的汽车消费日渐低迷之际,中亚快速增长的汽车消费已成为车企的“香饽饽”。 为了推动当地新能源车市场,自2024年开始,哈萨克斯坦就开始在主要城市启动新能源充电网络规划,预计到2030年,当地充电桩覆盖率将达到60%以上。这同样给中国的新能源充电设施企业带来了新机会。 03 被“排斥”后,中国商人的出海再思考 看似美好的市场,但对中国商人来说并不是唾手可得。 一位在当地做了一年的汽车贸易从业人员告诉霞光社,哈萨克斯坦人更倾向于从本地汽车零售商那里购买汽车,“从中国来开店的汽车销售商,销量基本上都不行。即使你把价格做得很低,本地人也不愿意来,他宁愿以高一点的价格从本地车入手车辆”。 这是因为,当地人更看重汽车售后的持续服务,过去一些中国车商在销售完车辆后出现售后纠纷,给当地消费者带来不好的体验,影响了中国车商的信誉。 当然在汽车售后上,也会出现另外一种情况:当地人会有一些特别完美的要求,比如要求维修过发动机、变速箱的车辆要跟新车一样,“我之前就遇到过一位这样的顾客,他要求维修的车辆性能必须跟新车一样,我们给他解释维修的车辆不可能跟新车完全一样,但他就是不认可,甚至后来我们要请来警察给协调处理。” 阿拉木图的中国新能源车 除汽车市场外,在建材贸易领域,一位从江苏来哈国考察的建材商家也直言自己受到了当地商家的“排斥”。他原本打算在中亚考察一圈,重点考察哈萨克斯坦。为了沟通方便,他特意花了800元人民币请了翻译一起走访当地的商家。结果在批发市场转了一圈也没能找到一家愿意跟他深度交流的商家,“他们看我们只问不买,知道我们做类似的生意后,就不愿意接待了,把我们往外轰。” 原本想多考察几天的他,最终在第一天考察结束后决定转道去乌兹别克斯坦。 当地商人对中国商人固有的一些偏见,以及竞争开始激烈的市场,都让想来这里做小生意、赚快钱的商业变得越来越难。 除此之外,还有一些坑也需要引起中国商人的注意。 哈米信息创始人Kimi从2022年开始布局哈萨克斯坦,此前她做中国到欧洲跨境物流生意,对哈国的关务、口岸以及当地车队资源较熟悉。尽管如此,但她在哈国的业务起步时就遭遇当头一棒:她曾在哈萨克斯坦招聘了一名当地的合伙人,负责整个项目在本地的推广,很快Kimi就发现,这个合伙人把公司的资源和APP项目包装成个人的,并拿到外面招商引资、直接卖钱,最后兜不住穿帮了,不仅自己惹上官司,也给公司也惹来麻烦。 “在中亚,你如果要做生意又不想不亲自干,指望纯财务投资给你带来回报,大概率会掉坑里。你只能自己多考察、多留意、多长点心眼,做决策慢点,没有其他的办法。”Kimi 表示。 实际上,当下的中亚各国正处在经济改革、社会开放、政策调整的转折期,这里的社会规则、产业政策以及执法机关的执法随意性都需要外来投资者特别注意。 中国商务部发布的《2023年对外投资合作国别(地区)指南——哈萨克斯坦》里,特别强调了防范风险这一项:“考虑到哈方投资政策和产业政策变动频繁,各地执法机关随意执法现象屡见不鲜,如果由可靠的哈方合作伙伴出面,同有关政府部门打交道,往往能够收到事半功倍的效果。如果是中方独资项目或企业,也应聘请有实力、有经验的顾问,协调处理与各级政府部门间的关系和法律事务。签署合同时要谨慎仔细,防止落入陷阱圈套,尽可能规避风险隐患。” 总结下来,哈萨克斯坦与中国的商业合作,似乎正呈现一种“上层热、中层冷、基层疑”的复杂局面。 但这种情绪并不意味着合作没有前景,恰恰说明了这片市场存在着不成熟性和高潜力。 应对这种不成熟的关键,在于深度的本地化。 当下,全球的目光都开始聚焦中亚,除了中国与中亚5国每年举办的中亚峰会外,美国、欧盟、日本等经济体今年也相继与中亚5国举办了C5+1峰会,意图与之开展各类合作。这片战略位置重要、自然资源丰富的市场,正在掌握自己的主动权。 中国企业想要深度融入这片市场,必须将自身的资本、技术优势,与哈萨克斯坦国家转型的战略需求、本地合作伙伴的切实利益深度绑定,与其单纯出口成品,不如探讨在当地设厂组装或生产部分组件,给当地带来很多就业机会;与其外派工人,不如雇佣、培养值得信赖的本地骨干,这也能缓解因跨文化和工作习惯差异引发的内部矛盾。 一个可喜的变化是,霞光社在跟当地大学生交流时发现,过去他们毕业后最常选择的岗位是饭店服务员等,但现在,当地的中国公司成为当地年轻人最喜欢的就业去向之一。
华为全球征集!悬赏300万元解决这两大技术难题
快科技12月26日消息,今日,华为宣布面向全球启动2025奥林帕斯奖难题征集,今年的两大难题分别为面向AI时代的创新介质技术与Agentic AI原生的数据底座。 华为表示,随着AI技术的发展,传统应用正在向Agent智能应用演进,数据不仅在规模上持续增长,数据的留存、管理与应用方式也在发生改变。 本届奥林帕斯奖将聚焦解决AI时代数据处理的算力开销大、协议栈复杂、知识库构建难、推理效率与精度冲突、存储成本激增等问题,面向全球科研工作者公开征集解题之道。 方向一:面向AI时代的创新介质技术 难题1:基于SSD的存算融合与高效索引技术 难题2:面向超高记录密度的存储信道调制编码技术 难题3:层次化大内存网络协议和IO路径优化技术 方向二:Agentic AI原生的数据底座 难题4:知识提取、多模态数据表征与知识检索技术 难题5:面向大模型高效推理的语义信息凝练技术 今年奥林帕斯奖奖金池还是保持了百万级,设置2个奥林帕斯奖,奖金各100万元;5个奥林帕斯先锋奖,奖金各20万元。 根据安排,2026年5月至2026年6月将进行成果评审,2026年8月举行颁奖典礼。 据了解,“奥林帕斯奖”(OlympusMons Awards)由华为公司于2019年起设立,旨在鼓励全球科研工作者投入数据存储领域基础理论研究,突破关键技术难题,加速科研成果产业化,实现产学研合作共赢。 奥林帕斯奖自设立以来,已吸引全球12个国家的超过320名学者参与,共评出6个奥林帕斯奖和18个奥林帕斯先锋奖。
豆包能扶持出“问界”吗?
张一鸣和任正非之前的交集有二:一是在2017年前后,任正非特别喜欢刷今日头条;二是张一鸣曾在2018年6月的一次演讲中,称赞华为是字节的榜样。现在,张一鸣又一次踏入了“榜样”任正非涉足的河流。 数年前,华为大力扶持赛力斯,开启了ICT企业入场汽车行业的成功范式,一度推出业内首创的智选车商业模式,如今大模型企业扎堆切入智能手机赛道,跨界协同同样正成为智能手机行业新的商业化路径。 在混元、DeepSeek大模型被植入C端产品时,12月份豆包与中兴的深度合作引发了关注,前者手握大模型技术优势,后者具备手机硬件研发积淀。 据界面新闻,近期字节跳动又在推进与vivo、联想、传音等硬件厂商开展AI手机的合作,为其设备预装AIGC插件,从而获得用户入口,扭转当前AI在执行层面的被动局面。报道称,多位vivo员工还证实,vivo与字节跳动已经确认合作,双方正在讨论具体合作细节。 此前字节曾强调,豆包目前正在与多家手机厂商洽谈助手合作,但没有自己开发手机的计划。如今看来,在初试中兴手机获得市场验证成功后,豆包跨界手机领域几乎已经不可避免。 问题在于,互联网及大模型厂商的技术与手机厂商硬件的绑定,能否复刻问界的崛起神话? 即便这个答案或许要在今后一段时间内日渐见分晓,但在存量竞争的手机市场,我们依然可以给出一个判断:豆包下场手机赛道,注定要给十年来高度同质化的行业格局,带来新变量。而2026年的智能手机格局,也将发生彻底变化。 01 理解当下豆包赋能中兴的价值,仍需对标当年华为扶持赛力斯的逻辑。 通讯、汽车、AI是三个不同的细分产业地带,但理论上,AI赋能手机,与当年华为用ICT技术赋能汽车有相似之处,在逻辑上皆属于核心能力的跨界输出。况且,智能手机与汽车皆属于消费工业品赛道,对智能感知、图像调用、底层芯片等方面有相似的技术基因。 回过头来看,数年前当传统汽车行业正面临智能化转型的阵痛时,华为以鸿蒙系统、智能驾驶技术为核心,向赛力斯输出全链条智能技术,并派驻人员入驻重庆,后者则承担硬件制造、整车生产等职责。 联合定义的产品开发模式和华为的全栈赋能,让问界实现了从小众车企品牌到高端玩家的转型,问界M8、问界M9分别长期稳居国内40级和50级豪车市场冠军,智选车的跨界样本也让赛力斯率先成为新能源车企中盈利的玩家,同时又使智选车模式拓展到当下的五界。 如今豆包与中兴的合作,在模式、逻辑以及路径上与华为、赛力斯的组合有异曲同工的地方,从合作背景来看,双方各有诉求,形成了天然的互补。中兴手机近年来在市场份额上持续承压,根据IDC 报告,在现有的固化格局下,中兴手机在国内的市场份额可以被视为others,高端市场更是突破乏力,亟需AI手机以及核心技术赋能打破增长瓶颈,至少明面上,中兴手机依旧想留在牌面上。 反向看豆包,作为国内用户量最大的AI APP,月活用户达1.7亿,已在大模型技术上形成成熟积淀,同样需要补足生态体系,依托到智能手机这一高频C端场景,验证AI技术落地价值与商业潜力,并创造新的流量变现路径。 即使在合作模式上,豆包也延续了技术输出配合硬件承载的思路,向中兴输出大模型核心设备,主要是AI助手本身具备的智能交互升级、多模态内容生成、智能感知操控等,这与华为此前把智能座舱、智驾系统等落地到智选车上的做法类似。 中兴则发挥自身在硬件研发、生产制造与渠道铺设上的优势,将技术能力转化为终端产品。理论上,上述的策略均是让专业的玩家做专业的事,实现1+1>2的效果。 当年华为在汽车圈“出道”,主流头部车企基于市场竞争、自主能力储备以及所谓的灵魂论等影响未能吃下红利,反倒是赛力斯最终与华为一拍即合,率先进行该模式的探索。而据外界报道,字节跳动也曾与OPPO沟通相关合作,但遭到后者的拒绝。 很显然,即便豆包也强调不造手机,上述现象还是表明,在相对成熟的汽车以及手机行业,主流玩家基于维护市场地位等考虑,一开始可能都对颇有实力的外界巨头下场抱有谨慎态度。 这意味着跨界者要么构建让原有产业界放下戒备的商业模式,要么通过竞争以及市场销量业绩,以扩大影响力,从而实现商业化破局。 这番道理在豆包身上是适用的,从初期成果来看,中兴努比亚M153 手机的系统级AI Agent能力让其3万台首批备货很快售罄,并在二手市场上溢价,成交价格远高于实际3400元多的零售价。 问界的成功是汽车工业网联智能化技术趋势与新能源汽车市场窗口期红利的双重结果,它至少为华为公司在当时市场环境下探索了增长曲线,又引出了后来的“五界三镜”布局,为汽车工业升级注入活力。 至于豆包和中兴的模式,其他手机厂商能否复制,关键要看各方洽谈下合作壁垒是否能被打破,以能否根据行业特性进行合作模式的适配。 02 手机行业的市场环境及赛道属性、核心技术痛点以及产业链形态等,注定了字节扶持“赛力斯”之路不会平坦。 首先在于,手机行业的红海属性和品牌固化,加起来业内不过几个,远低于汽车行业几十个品牌的规模数量,高度集中的壁垒就让这条路径比汽车行业艰难得多。 换句话说,智能手机行业的主流玩家只有五六家,已经落寞的品牌也只有三四个,汽车行业即便某些传统厂商缺乏与跨界玩家的合作基础,可业内的选择面广,可能性较多,厂商的智驾方案、激光雷达以及车载系统等软硬件产品不会愁卖。 即使车企考虑自研,在尚未分清胜负的情况下,外部供应链伙伴依旧有利可图。例如长安等车企,在智驾方向走的便是多方案并行。 如果说华为赋能赛力斯是在蓝海市场实现“从0到1”的突破,那么豆包赋能中兴,或者后续可能的其他厂商,则是在红海市场进行“从1到N”的优化,两者的难度并不能完全同日而语。 进一步讲,赛道属性差异也巨大。 汽车行业是典型的“重资产、长周期、高壁垒”领域,当年华为入场时,汽车智能化尚处于萌芽阶段,市场空白点较多,赛力斯旗下品牌凭借领先的智能座舱和驾驶技术,轻松实现了差异化竞争。 智能手机行业与之不同,早已进入“快迭代、红海竞争、技术固化”的成熟阶段,瑞银调查预警称,业内换机周期延长至2.6年,智能手机行业或将迎来数年低增长期,虽然有AI手机加持推动超过10%的年均增长,存量竞争态势却愈发明显。 在这样的市场中,任何创新都容易被快速复制,可能难以形成长期壁垒。加之字节与其他主流手机厂商的合作与否尚,以及具体合作模式无定论,中兴、魅族等小众厂商出货量占比又不到10%,短时间内走向规模化是一大挑战。此外,双方当前合作仍处于用户“教育”与功能打磨的初级阶段,国内每年手机出货量上亿,对比下来尚未形成超大口碑效应。 这与当年问界M9很快占据50万级市场冠军的逻辑不一样,双方所处的行业变化阶段不同,新能源汽车行业,新成立不到几年的品牌也可能在资本、技术加持下瞬间崛起。手机行业目前日渐成为“华米OV”的固化市场,想要打破需要有现象级爆款以及可持续的增长潜力。 再者,考虑技术赋能的核心痛点不同,这是不同宿命下需要直面的第二个问题。 当年汽车工业要解决的是传统汽车“智能缺失”的核心短板,还要参与到工厂建设、销售服务营销中来,当时绝大多数车企的智能化水平低下,ICT技术输入相当于为赛力斯装上了“智能大脑”,借助科技巨头的渠道、品牌势能,便形成了碾压式的竞争优势。 豆包赋能中兴面对的是智能手机行业创新同质化的问题,当前市场上的主流手机在摄影、屏幕、大电池等硬件配置、基础功能上已相差无几,大模型功能更多是锦上添花的优化,AI手机的确是趋势,却并非用户的刚需,又或者说以此激起用户换机欲望的有效性,还尚待观察,在隐私风险等诸多问题没有得到妥善解决的前提下,豆包版AI手机首批3万多台的销量不完全足以论证技术影响力,其逻辑在于手机群体画像结构更为复杂,中青老年、男女等各自看重的技术卖点差异很大。 大模型能力下,业内竞争态势依旧也有差异化,一旦豆包的技术方案获得市场认可,头部品牌凭借更强的研发实力和供应链优势,进行快速跟进复制,不排除豆包手机助手的模型技术差异化迅速被缩小。 在智能手机行业竞争,最大的影响不是技术变革本身,而是仍然用过去的逻辑做事,模型大厂在完成0到1阶段的商业试水后,摆在它面前的新困难又会出现:手机行业60%左右份额在线下,依托于渠道体系、零售终端店面,还有各种供应链,从现阶段看,豆包对于手机厂商的赋能围绕大模型展开,小厂商在上述几点方面若做不到体系化的铺开,仅靠线上渠道,市场业绩增长大概率会受限。 字节毕竟缺乏对消费电子业态在市场、渠道、营销等方面的经验,而且这些领域字节也未必会涉足其中。 当然如果合作的是大厂商,这个结论自然不成立,豆包可以聚焦擅长的领域,其他交给手机厂商就行了。因此,开头提到的豆包与手机厂商的合作模式,就成了重点,各自的商业化考虑决定了市场走向。 03 豆包版“赛力斯”是否会出现,可能还没有定论。但仅从产品而言,我们判断,豆包版的“问界”可能已经在路上。 尽管挑战重重,AI手机还是为打破十多年来已经成熟的行业格局提供了可能。当前,传统智能手机高端市场格局固化,苹果依旧占据国内头部,中端市场产品同质化严重。 站在市场需求层面,年轻用户群体为AI手机提供了增量空间。MobTech的研究显示,大模型的受众用户以中青年及学生为主,年龄集中在18-30岁,占比超过70%,其中学生群体占比最高。 这部分用户对信息技术的接受度高,愿意尝试“AI辅助表达”“多模态交互”等新功能。豆包定制版中兴手机主打的智能交互、场景化内容生成等功能,恰好契合了年轻用户的需求,有望在2000-4000元的中高端细分市场切分份额。 据界面新闻报道,援引知情人士观点,字节跳动的想法是针对2000元以上的中端机型进行“投量”,先于手机厂商发布新机,后续再通过OTA(系统升级)覆盖至其他机型,等规模达到1.5亿—2亿量以后再与其他互联网厂商“掰手腕”。 如此一来,在豆包已经率先吃螃蟹,其他大厂按兵不动的背景下,可以推测,假设随着豆包手机助手能力的进化,形成更智能化和个性化的用户体验,即便不能改变行业厂商格局,也有希望在产品侧,像当年问界在高端汽车市场超越BBA一样,在细分市场实现弯道超车。 毕竟,在以往手机操作系统、芯片会是用户选择某款机型的重要参考因素,苹果、华为便是借此拉开了与其他厂商在高端市场的差距,锁定70%以上份额。人工智能的到来,将会增加市场竞争的变化因素,Agent及其具备的智能调度、多模态感知技术等即将成为手机的另一大底层能力卖点。 豆包与中兴的合作,是AI技术赋能C端硬件的一次重要尝试,既承载着复刻问界神话的期待,也面临着红海市场的重重考验。 产业界内外更关心的是,这场合作能否成功,既要发挥Agent技术的差异化优势,又要契合用户的真实需求,既要打破行业的同质化僵局,又要构建可持续的商业竞争生态。
Gemini 3预训练负责人警告:模型战已从算法转向工程化!合成数据成代际跃迁核心,谷歌碾压OpenAI、Meta的秘密武器曝光
2025 年底,大模型行业的“年终决战”正式打响,各家纷纷亮出压箱底的杀手锏,就在这场激烈角逐中,Gemini 3 以绝对王者之姿强势突围,一登场就刷新了行业的认知边界。 11 月 18 日,Gemini 3 直接“横扫”多项权威基准测试,以“世界最强多模态理解”“交互最深智能体”“推理怪兽”的姿态,强势碾压全球所有同类模型。谷歌 CEO 桑达尔·皮查伊亲自为其站台,直言这是“迄今为止最智能的模型”。消息一出,整个 AI 圈瞬间沸腾,所有人都在追问:Gemini 3 的强悍,到底藏着什么秘诀? 答案在发布当天就有了初步线索。Google DeepMind 研究与深度学习副总裁 Oriol Vinyals 直接在推特上“剧透”:“Gemini 3 这么强,核心秘诀就两点:更好的预训练,更好的后训练。”这番直白的表态,让“预训练”与“后训练”瞬间成为行业热议的核心话题。 近日,Gemini 3 预训练负责人之一、开创性论文 RETRO 的合著者 Sebastian Borgeaud 首次现身播客,深度拆解了这款顶级模型背后的实验室逻辑。在他看来,Gemini 3 的飞跃绝非单一环节的突破,而是无数细节持续优化的结果:“我们几乎每天都能找到让模型变更好的地方,整个团队都在加速前进。” 更关键的是,Sebastian Borgeaud 点出了一个核心转变:谷歌已经不再是单纯“做模型”,而是转向“做系统”。 这一观点恰好与 DeepMind 联合创始人兼 CEO 戴密斯·哈萨比斯不谋而合。哈萨比斯此前就公开表示,Gemini 3 的强大,根源在于“研究、工程和基础设施”的深度融合。 Gemini 3 的秘诀,其实侧面反映了当下行业的深刻变革:AI 已经从“无限数据”的规模化时代,正式迈入“数据有限”的新阶段。 这一趋势不可逆转,也倒逼整个行业重新思考创新方向。在 Sebastian Borgeaud 看来,合成数据、推理轨迹、长上下文、持续学习、端到端检索训练,再加上靠谱的评估体系,这些将共同构成 AI 行业未来的进化路径。 其实早在经典的 Chinchilla 项目中,DeepMind 团队就已经摸到了关键规律:在训练计算量固定的前提下,与其盲目扩大模型规模,不如更快地扩展数据规模,这样能训练出更优的模型。 这一结论放到现在依然极具现实意义,它直接决定了模型训练后的推理服务效率和使用成本,是企业落地 AI 的核心考量之一。 作为从强化学习转向表征学习的资深研究者,Sebastian Borgeaud 的预训练功底堪称深厚:从 Transformer 架构,到 BERT、XLNet,再到 DeepMind 第一篇大语言模型论文 Gopher,丰富的研究经历让他形成了独特的“研究品味”,这也为 Gemini 3 的预训练突破埋下了伏笔。 针对行业内 “预训练 Scaling Law 已死” 的争议,Sebastian Borgeaud 给出了明确回应:“规模依然重要,但架构创新和数据创新的权重已经显著提升,甚至变得更为关键。” 那么,在数据受限的大背景下,如何实现更好的模型效果?合成数据成了行业追捧的热门方案,但 Sebastian Borgeaud 的态度却相当审慎:“这确实是个有意思的方向,但必须极度谨慎。” 在他看来,合成数据的核心风险不是“没效果”,而是“用错了还浑然不觉”。一旦数据分布发生偏移,模型看似答题能力提升,但可能会陷入“自嗨”的闭环里。为此,他给出了一套稳妥方案:用强模型生成合成数据后,必须通过小规模的可控消融实验,验证其带来的收益和潜在副作用。 但即便如此,一个核心疑问仍未解决:“用合成数据训练出的模型,能否超越它的‘老师’?” 值得一提的是,谷歌的模型训练一开始融合了多种来源的数据,这也为 Gemini 3 的多模态优势打下了基础。 Sebastian Borgeaud 还透露,DeepMind 正在推进 “后 Transformer 架构” 的创新,同时十分看好 “原生态模型”。尽管这种模型的研发成本高昂,但长期价值值得投入。此外,今年兴起的强化学习规模化趋势,他们也有丰厚的预训练阶的经验可以复用,形成了技术协同效应。 在播客后半段,Sebastian Borgeaud 把话题转向下一轮预训练的热点。他认为,预训练不会再沿着“更大、更长、更贵”的单一路线走下去,重点会转向架构创新: 长上下文和注意力机制是其中的关键变量。如果上下文越长,模型推理时可携带的信息越多,模型能力边界也就越宽。 更长期的方向,是把检索与搜索更深地融入训练,做端到端、可微的学习,让模型把“会检索”变成内生能力,而不是上线后再外挂工具。他判断,强化学习的规模化可能推动这一进程,但要沉淀为稳定的架构与训练范式,不是一时之功,还需要数年。 另一条主线是持续学习。Sebastian Borgeaud 直言,基础模型一旦预训练结束,知识就基本定格:明天出了新论文、新发现,模型不会自己更新。眼下行业更可行的办法主要发生在产品推理侧——接入检索,把最新信息实时拉进上下文,再基于这些材料完成推理,从而避免频繁重训底座、缓解知识过期。 这与他参与的 RETRO 项目思路一致,将知识放在外部库,模型负责推理。他认为检索增强这套方法近年才走向成熟,未来几年有望更深地进入 Gemini 这类头部模型。更远的目标则是改变训练方式,让模型能在真实世界的数据流上持续训练,实现真正意义上的“持续更新”。 Sebastian Borgeaud 还单独拎出来评估这件事,将其视为预训练阶段的核心难题。“如果评估体系跟不上,很容易陷入‘看似提升’的假象内耗,根本分不清是模型改对了,还是数据出了问题。”也正因为如此,谷歌内部搭建了专属的评估体系。毕竟外部基准很容易被污染,保留内部的评估阵地才是关键。 他认为评估需要跨越两道鸿沟:一是在小模型上验证有效的改进,能否顺利迁移到大规模模型上;二是预训练阶段的优势,能否在后训练之后转化为真实可用的能力。 最后,服务成本也是绕不开的现实约束。随着用户规模不断扩大,推理预算变得越来越敏感,预训练环节也必须为“上线落地”负责,在提升模型能力的同时,还要降低成本、节省资源。 对于 Gemini 3 目前的表现,Sebastian Borgeaud 直言“超出预期”。他认为,模型是真的越来越聪明了,这种进步不仅体现在基准测试的屠榜成绩上,更反映在真实工作场景的使用体验中。 展望未来,他预测 Gemini 将更好地服务于科学研究,甚至有可能凭借助力重大发现拿下诺贝尔奖;同时也会越来越深入地融入普通人的生活,解决各类实际问题。 “进步的脚步看不到尽头,至少未来一年,这种加速前进的势头不会放缓。” 这正是他的对未来的预言。 播客里还分享了更多关于 Gemini 3 训练背后的细节和 Sebastian Borgeaud 的精彩观点,我们翻译了该内容,并在不改变原意基础上进行了删减和整理,以飨读者。 Gemini 3 强大的“秘方”: 更好的预训练与后训练 Matt Turck:我想从 Oriol Vinyals 的一条推文开始。Oriol 是 Google DeepMind 研究与深度学习副总裁,也是 Gemini 联合负责人。他在 Gemini 3 发布时说,模型背后的秘密非常简单:更好的预训练和更好的后训练。考虑到 Gemini 3 相比之前最先进水平的跃迁幅度,这听起来很朴素。你怎么看?在某种意义上,真的就是这么简单吗? Sebastian Borgeaud:我不确定这算不算秘密。至少从我的角度看,这很正常。人们有时会期待从一个 Gemini 版本到下一个版本,会有某个重大变化并带来巨大差异。以我的经验,可能确实有一两件事带来的提升更大,但总体上是很多变化、很多来自一个非常大团队的工作累积起来,才让 Gemini 3 比之前几代好这么多。我想这会成为一个反复出现的主题:像 Gemini 3 这样的发布,是大团队共同促成的结果。 Matt Turck:这对 AI 进展意味着什么?从外部看似乎只是调了一些“旋钮”就实现了跃迁。这对未来意味着什么?我们接下来可以期待什么? Sebastian Borgeaud:有两点。第一,以这种方式我们仍然能取得这么多进展,这仍然很了不起,而且进展并没有放缓。有很多“旋钮”、很多改进,我们几乎每天都能找到能让模型更好的东西。第二,我们不再是在构建一个模型,而是在构建一个系统。人们有时会觉得我们只是在训练一个神经网络架构,但我们实际上也在构建围绕网络的整个系统。 Matt Turck:大家最关心的是:这对真正的智能进展意味着什么?我们不必深入讨论“AGI”,但我们该如何理解模型进展:它是通往智能的路径,还是只是为了在某个基准上表现更好?是什么让你相信核心模型在变得更聪明? Sebastian Borgeaud:基准表现确实在持续提高,而且前沿基准的设计正在变得越来越难。即使对我这样有计算机科学背景的人来说,模型能回答的一些问题也需要我花相当长时间才能答出来。这是基准视角。我们会频繁评估,也非常谨慎地保留测试集。但人们常担心对基准过拟合,或所谓 benchmaxing(刷榜 / 跑分)。我认为这些担忧并没有很充分的依据。 另一个更让我有信心的方面是:内部人们使用模型来提升生产力的时间在不断增加。每一代新模型都很明显能做新的事情,并且在研究与日常工程工作中比上一代提供更大的帮助。这也说明模型在变得更有能力,并在做非常有用的事情。 Matt Turck:如果把视角拉远,你还会对现状感到惊讶吗?从你的角度看,我们相比几年前你的预期是领先、按计划,还是落后? Sebastian Borgeaud:事后说“按计划”很容易。如果我诚实面对自己,我觉得我们领先于我原本以为能达到的位置。2019 或 2020 年开始做大语言模型工作时,很难相信我们现在所做一切的规模,以及模型如今的能力。当时如果看 Scaling Law ,它们确实指向这个方向,也有一些人非常相信这些。但我不确定当时我是否会重注押它一定会实现并达到今天的状态。 一个随之而来的问题是:如果未来还能保持过去五年的同类进展,这会把我们带到哪里?我认为未来几年会发生非常酷的事情。 Matt Turck:你认为短期两到三年会走向哪里?AI 会提出新的科学发现、获得诺贝尔奖吗? Sebastian Borgeaud:这是其中一部分。在科学方面,DeepMind 历史上做了很多工作,也有大量工作继续朝这个方向推进。我认为未来几年会有一些重大的科学发现。 另一方面,在我日常的研究和工程工作中,我也很期待我们如何用这些模型推动更多进展,同时更好地理解我们正在构建的系统,并进一步发展我们自己的理解和研究。 Matt Turck:行业里有一个重要主题:自动化 AI 研究与工程。如果外推,会通向类似“AI 2027”的情景,出现某种断点。从务实角度,你今天在工作中使用 AI 是什么样?你觉得几年后会意味着什么? Sebastian Borgeaud:我认为与其说是自动化,不如说是让我们更快,让我们把更多时间投入到更高层次的研究部分。语言模型研究的日常工作中,我们要处理基础设施层面非常复杂、非常大的系统,所以相当多时间用在跑实验、盯实验、分析数据、收集结果。真正有意思的部分是形成假设并设计新实验。我认为后两部分仍将主要由我们来做。第一部分,尤其在接下来一年,随着更多能动式(agentic)工作流被启用,会越来越能够加速我们的工作。 Matt Turck:你认为各个前沿 AI 实验室基本都在朝同一个方向做同样的事情吗?几乎每周或每月都有新模型,我们已经被“惯坏了”。Gemini 3 刚发布时,几乎就在我们录制前两小时,GPT 5.2 也发布了。你怎么看?未来会怎样?会有人脱颖而出吗? Sebastian Borgeaud:不同实验室的工作确实有相似之处,底层技术也相似。如果大家都在训练类似 Transformer 的模型架构,我不会惊讶。但在其之上,确实存在专业化:研究树上不同分支会被不同公司探索与利用。例如,DeepMind 在视觉与多模态方面一直很强,这一点今天仍然成立,也体现在使用方式与基准表现中。推理方面,OpenAI 提出了第一个模型,但我们也有相关研究脉络。所以有相似之处,但并不完全相同。 至于未来是否会有人脱颖而出,我不确定。有一点很清楚:今天要在 Gemini 这样的模型上继续取得进展,确实需要很大的团队和大量资源。但这并不意味着今天的方式就是最优的。颠覆性研究可能出现,使得更小团队在某种形式上实现超越。这也是我喜欢在 Google 的原因之一:Google 有做更探索性研究的历史,研究覆盖面很广,而且这些研究很多时候与 Gemini 并行推进,我们也能利用其中一些进展并将其带入 Gemini。 Matt Turck:在 DeepMind 或行业其他地方,是否有团队在半秘密或完全秘密地研究“后 Transformer”架构?有一天会突然出现让大家惊讶的成果吗? Sebastian Borgeaud:我相信有。Google 和 DeepMind 内部确实有团队在模型架构方面做研究。至于这些研究是否会成功,很难说,因为研究想法真正能奏效的很少。在此期间,一家公司相对另一家的核心优势,可能就是人才质量。 Matt Turck:我提到的那条 Oriol 的推文,被 Demis Hassabis 引用转推。他说真正的秘密是研究、工程和基础设施的结合。这是 Google 的“秘方”吗?你们做了垂直整合(端到端整合)? Sebastian Borgeaud:这确实有帮助,是重要的一部分。研究与工程的界限也很有意思。我认为随着时间推移,这条界限变得模糊:在这些很大的系统上工作时,研究看起来像工程,工程也反过来像研究。这种思维方式在 DeepMind 过去几年发生了变化:以前可能更偏传统研究心态,但现在做 Gemini 更像研究工程。 基础设施也非常重要。我们在构建超级复杂的系统,因此拥有可靠、可用、可扩展的基础设施,是不让研究工程被拖慢的关键。Gemini 3 是在 TPU 上训练的,不是在英伟达芯片上训练的,这体现了端到端整合。 Sebastian 的工作内容 与研究品味的养成 Matt Turck:你是 Gemini 3 的预训练负责人之一。这具体意味着什么? Sebastian Borgeaud:这项工作包含几部分。第一部分是研究:让模型变得更好。但现在不太是我亲自跑实验,而是帮助设计实验,并与团队成员一起审查结果。 第二部分是协调与集成。团队规模很大,在预训练侧包含数据、模型、基础设施、演进等,日常参与的人可能有 150 到 200 人。把所有人的工作协调成一个能共同构建的整体很复杂,也需要时间。对我来说这很重要,因为能把每个人的进步释放出来,才是我们取得最大进展的关键,而不是让少数人短期跑在前面。短期可能有效,但长期真正成功的是能整合很多人的工作。 Matt Turck:你在哪里长大?你是如何成为今天的你? Sebastian Borgeaud:我在欧洲多个地方长大,搬家比较多。我出生在荷兰,7 岁时搬到瑞士。父亲来自瑞士,母亲来自德国。我大部分学校教育以及高中开始阶段在瑞士完成,主要使用法语,也有德语部分。15 岁时我搬到意大利,在那里完成高中,大概到 19 岁。那时我原本打算去苏黎世联邦理工学院学习,但某天早上查排名时看到剑桥排在前面,就决定申请。几个月后收到录取,于是搬到剑桥,在计算机实验室完成本科和硕士。 Matt Turck:你成长过程中是数学很强、偏理工、偏计算机的孩子吗? Sebastian Borgeaud:我父亲有技术背景。我大概 10 或 11 岁开始和他一起写程序学习,一直很喜欢。我在学校的数学和科学一直比较轻松,数学考试几乎不需要复习也能考得很好。这在大学里明显改变,但那就是我的高中经历。 Matt Turck:你从学校到现在的路径是什么? Sebastian Borgeaud:这也比较幸运。硕士期间有一门课的授课人也是 DeepMind 的研究员。最后一节课结束后,我去问他能否给我内推。他让我发简历给他看看能做什么,我由此获得了 DeepMind 面试机会。那是 2018 年。我大学毕业后以研究工程师身份加入 DeepMind(当时还不是 Google DeepMind)。 Matt Turck:你最开始做什么?后来如何发展到成为 Gemini 3 的预训练负责人之一? Sebastian Borgeaud:我最开始做强化学习方向:训练无监督网络,在 Atari 环境中学习关键点,尝试让智能体玩 Atari。我做了大约 6 个月,但不太喜欢这种偏合成的部分。我更想做真实世界数据,产生更直接的真实世界影响。我总体更喜欢做“能用起来的东西”,不太喜欢纯粹学术式研究。 这促使我转向表征学习:构建或训练能形成良好表征、可用于不同任务的神经网络。我参与的第一个项目叫“从真实世界数据中学习表征”。当时我们不得不把“真实世界数据”写进项目名里,因为否则大家会默认是合成环境或合成数据;这一点后来完全改变。 之后在大语言模型与 Transformer 方面,我们研究 Transformer 架构,以及 BERT、XLNet 这类模型,学习这些表征并尝试改进。 Matt Turck:你做过 RETRO,对吗?能谈谈吗? Sebastian Borgeaud:之后我们开始做大规模化大语言模型。首先是 Gopher,我认为那是 DeepMind 发表的第一篇大语言模型论文。那时团队大概 10 到 12 人,已经很清楚这类研究无法靠个人完成。 这也是我开始做预训练、做大规模预训练的阶段。我形成了自己的研究取向,也很享受这项工作。我们训练了一个密集 Transformer 模型,参数规模约 2800 亿,数据约 3000 亿 token。现在我们不会再用当时那样的方式做事,但那是一次很棒的学习经历。 之后出现了两个项目:Chinchilla 与 RETRO。Chinchilla 重新审视模型规模与数据规模如何扩展,尤其从训练计算量最优的角度:训练计算量固定时,如何训练出最好的模型?应该增加模型规模还是增加数据规模?我们重新审视了 OpenAI 的相关工作,发现相较于扩展模型规模,更应该更快扩展数据规模。这在今天仍然很相关,因为它影响训练后推理服务成本以及使用成本。 RETRO 更偏架构创新:研究如何通过给模型加入从大规模文本语料库检索的能力来改进模型。与其让模型把所有知识都存进参数里,我们让模型在训练和推理时都能查找特定内容。 Matt Turck:你提到“research taste”。这是什么意思?对研究者有多重要? Sebastian Borgeaud:这很重要,也难量化。第一,研究不是孤立的;你的改进必须能与其他人的研究整合。假设你让模型变好,但让其他人使用模型难度增加 5%,这不是好权衡,因为会拖慢其他人的研究,累积下来会拖慢长期进展。 第二,要对复杂性敏感。复杂性具有主观性,但我们有复杂性预算,也有研究风险累积的上限。意识到并管理它很重要。很多时候我们不一定用性能最强的版本,而是愿意牺牲一些性能,选择更低复杂度的版本,因为这能支持未来取得更多进展。 Matt Turck:这也包括对什么可能有效的直觉判断吗?毕竟算力有限。 Sebastian Borgeaud:是的。有些人这方面更强,经验也很重要。研究侧确实受算力瓶颈限制;如果算力更多,会更快取得更多进展。你需要判断研究树上哪些方向值得探索、做哪些实验。大多数研究想法都会失败,你需要判断何时该转向别的方向,何时该继续推进。深度学习里,负面结果并不一定意味着方法不行,往往只是还没把它做成,意识到这一点也很难。 Matt Turck:你们如何平衡短期与长期? Sebastian Borgeaud:总有关键路径事项需要做:某部分需要改进,或已知某部分不够好。我们会投入很多精力去修复这些问题。原因之一是它们能确定性地让模型变好,是较安全的投入;原因之二是那些不够好、不够完美的地方,往往在扩大规模或模型更强时暴露问题,所以需要认真解决。 另一部分是探索性研究:可能进入下一版或再下一版 Gemini 的想法,潜在收益更大,但尚未完全验证。如何平衡没有明确答案,也有周期性:做 scale-up 时探索性研究更多;临近扩大新架构或新模型规模时,会更偏执行导向,重点在去风险、补齐最后不确定因素。 预训练 Scaling Law 已死? 从无限数据向有限数据的深层转变 Matt Turck:研究与产品之间的张力如何?会不会因为与其他实验室竞赛而有压力,比如为了某些基准目标? Sebastian Borgeaud:我认为在 Google 这类压力很少,因为领导层有研究背景。他们知道可以强推某些基准或目标,但最终重要的是研究进展与把研究做成。我个人日常几乎不感受到这种压力。 Matt Turck:DeepMind 的团队如何组织?预训练有几百人?是否有后训练、对齐团队?大家如何协作? Sebastian Borgeaud:我们有预训练团队、后训练团队。预训练侧有人做模型、数据、基础设施,也有评估(eval)。很多人低估了评估研究的重要性,但它很难做好。也有大型团队做基础设施和上线服务。 Matt Turck:Gemini 3 用起来和 2.5 很不同。是否有一个关键架构决策解释差异?你会怎么描述架构? Sebastian Borgeaud:从高层看,架构与上一代相比变化不大,更像是多个因素叠加带来的大幅改进。它是基于 Transformer 的混合专家(MoE)架构。粗略看,你仍能在其中辨认出原始 Transformer 论文里的很多组件。 Matt Turck:能用科普方式解释 MoE 吗? Sebastian Borgeaud:Transformer 大体有两块:注意力模块负责在不同 token 之间混合信息;前馈模块更多提供模型推断所需的“记忆”和计算能力,它对单个 token 计算,因此可以并行。在原始 Transformer 中,这部分是一个密集计算的隐藏层:输入线性变换到隐藏维度,经过激活函数,再线性变换回输出。 混合专家的核心想法是把“使用的计算量”和“参数规模”解耦,通过动态路由,把计算分配到某些“专家”上执行,而不是把计算量与参数规模完全绑定。 Matt Turck:Gemini 原生多模态。从实际角度看,这意味着什么?是否会更贵? Sebastian Borgeaud:原生多模态意味着不分别训练图像模型、音频模型、文本模型,而是同一个模型、同一个神经网络共同处理不同模态。 成本大致有两类。第一是复杂性成本:做的事情更多,不同模态会相互作用,与研究中的不同部分产生交互,因此需要花时间处理复杂性。第二是计算成本:图像输入通常比纯文本大,朴素处理会更贵,但也有很多研究在提升效率。我认为收益总体上远大于成本,这也是我们训练这些模型的原因。 Matt Turck:2025 年很多人讨论“预训练 Scaling Law 已死”。Gemini 3 是否证明 Scaling Law 仍在继续? Sebastian Borgeaud:这些讨论对我来说有点奇怪,因为我的经验不匹配。规模在预训练中很重要,是让模型变好的关键方面,但人们高估了它:它重要,但不是唯一因素。规模带来的好处相对可预测,这就是 Scaling Law 告诉我们的。但这只是其中一部分;架构创新与数据创新同样重要,甚至今天可能比纯扩规模更重要。不过规模仍然重要。 Matt Turck:今年后训练出现了强化学习规模化、测试时计算规模化。预训练这边是否也在继续加速? Sebastian Borgeaud:更合适的说法是这些因素会叠加。规模是一条轴,模型与数据也会提升性能。有时创新带来的收益超过继续扩规模;有时纯扩规模才是正确答案。强化学习规模化也出现了类似现象;因为我们有预训练经验,很多经验教训可以复用到强化学习规模化上。 Matt Turck:Gemini 3 的预训练数据混合是什么? Sebastian Borgeaud:数据从一开始就是原生多模态的,包含许多不同来源。 Matt Turck:我们会不会用完数据?合成数据今年使用增加。合成数据在哪里有帮助,哪里没有? Sebastian Borgeaud:合成数据很有意思,但必须非常谨慎,因为很容易用错。常见做法是用强模型生成合成数据,再用更小规模消融实验验证其效果。一个关键问题是:能否用合成数据训练未来的模型,并让这个模型比生成合成数据的模型更强?我们为此花了很多时间思考并做研究。 至于是否用完数据,我不这么认为。我们也在这方面做工作。但更可能发生的是范式转变:从数据无限环境转向数据受限环境,这会改变研究方式与问题思路。一个类比是,大语言模型之前,很多人在 ImageNet 等基准上工作,也处在很数据受限的环境;那个时期的一些技术因此又变得有意思。 Matt Turck:行业里还有“推理轨迹(reasoning traces)训练”的概念:让模型展示推理过程,用来训练下一代模型。你怎么看? Sebastian Borgeaud:我不能评论具体细节。泛泛来说,这与合成数据问题相关,我们的思路类似。另一个关键主题是:模型如何用更少的数据学习。 我这里的“数据受限”不一定指数据更少,而是指数据是有限的,范式从“无限”转为“有限”。 从另一个角度,架构改进的含义之一是:用同样数据训练能得到更好结果;等价地,也可以用更少数据达到旧模型的同等结果。但就今天所需的数据量而言,我们仍比人类可用的数据量高出好几个数量级。人类还有进化过程等因素,这类高层换算需要很多假设,但一阶近似下,我们确实用得更多 长上下文、注意力机制: 未来预训练的重要方向 Matt Turck:你对预训练进展的哪些方向感到兴奋 Sebastian Borgeaud:Gemini 1.5 在长上下文能力上有很大跃迁,这使模型与智能体能处理更长的上下文,例如在代码库上做大量工作时上下文会不断增长。未来一年左右,这方面会有更多创新:让长上下文更高效,也让模型支持更长上下文。 对我们来说,注意力机制方面最近也有一些有意思的发现,会影响未来几个月的研究,我对此非常兴奋。 我也想强调:进展往往来自许多因素累积。我们已经看到很多小到中等规模的改进:修复某个问题、修复某个 bug、某项研究显示出前景。这些叠加会推动大量进展。 Matt Turck:RETRO 强调效率,小模型做更多;而 Gemini 3 是海量数据与长上下文。长上下文是否会让 RAG/ 搜索不再需要,一切被折叠进模型? Sebastian Borgeaud:RETRO 的核心是检索信息而不是存储信息,不一定是为了让模型更小。它更像是让模型在预训练意义上做更多推理,而不是只存知识。这一点今天仍然重要。 直到最近,预训练的迭代周期通常比后训练慢很多,因此预训练侧做大改动风险高、耗时长。RAG 或搜索可以在后训练中做,迭代更快,也能提供很强性能。 但从根本上说,我相信长期答案是以端到端、可微的方式学会这些能力:在预训练(或未来某种训练形式)中,把检索作为训练的一部分,把搜索作为训练的重要部分。我认为强化学习规模化可能开启了这个过程,但架构侧仍有很多工作。这会在未来几年出现,而不是立刻。 我还想强调:让预训练更好的不只有架构,还有基础设施、数据与评估。评估非常难,在预训练中更难,因为要跨两个差距:一是小模型评估要能预测大模型 scale-up 后的方向;二是预训练评估还要能代理后训练之后的效果。评估上的进展非常重要,也很难,它帮助我们判断模型侧或数据侧的改动是否是真实改进。 Matt Turck:你们内部会自己建立一套评估体系,对吗? Sebastian Borgeaud:是的,而且越来越是这样。外部基准可以用一段时间,但很快会被污染:它们会以不同形式出现在论坛或网络各处。如果训练数据覆盖到这些内容,就很难检测评估泄漏。要防止自欺、避免误以为自己更强,唯一办法是创建内部留出的评估集,并真正把它们留出。 Matt Turck:对齐在预训练层面重要吗,还是主要在后训练? Sebastian Borgeaud:主要是后训练,但确实有一些部分与预训练相关,我们也会考虑。我不能讲太多细节。 Matt Turck:如果核心数据来自互联网,而互联网有很多糟糕内容,对齐的最基础做法是否就是把某些内容从模型中排除? Sebastian Borgeaud:我没有明确结论。但你不希望模型去做那些糟糕事情。从根本层面,模型需要知道那些事情是什么,因此至少要训练一部分内容,让它知道并学会避开;否则用户提到糟糕内容时,模型可能连在说什么都不知道,也就无法判断“这是糟糕的事情”。 持续学习很重要 Matt Turck:Deep Think 是不同模型,还是同一模型的一部分? Sebastian Borgeaud:我不能评论太多。 Matt Turck:模型“思考”10 秒、20 秒时幕后发生什么? Sebastian Borgeaud:核心是生成“思考”。不只是在模型深度方向做计算,也在序列长度方向做计算,让模型在序列上进行更多推理。模型会形成假设、检验假设、调用工具验证、进行搜索调用等,最后可能查看思考过程并给用户确定答案。 Matt Turck:智能体部分,以及 Google 的 antigravity 项目,你觉得哪里有意思? Sebastian Borgeaud:我们日常很多工作偏执行,例如盯实验。我认为智能体在这里影响最大。 从预训练角度看,感知与视觉很重要,因为模型需要与电脑屏幕交互;屏幕理解做得好非常关键。 Matt Turck:vibe coding(氛围编程)是预训练带来的还是后训练带来的?如何把“氛围”做进模型? Sebastian Borgeaud:你问五个研究者会得到五种答案。也有人谈“大模型气场”,认为更大模型可能“感觉”不同。我不会用这些词来表述,但我认为模型“氛围 / 感觉”更多来自预训练,而非后训练。至于 vibe coding 本身,我认为更偏强化学习规模化与后训练:可以获得大量数据,把模型训练到在这方面做得很好。 Matt Turck:什么是持续学习?它会如何影响重训? Sebastian Borgeaud:持续学习是让模型随着新知识出现而更新。例如明天出现新科学突破,我们昨天训练的基础模型在预训练阶段并不知道它。 过去几年这方面进展很大,主要在后训练:使用搜索工具并进行搜索调用,模型在某种意义上能访问新信息。这也类似 RETRO 的思路:通过检索,把知识语料与推理部分外化。 预训练侧也有关联:如果能持续扩展用户上下文,模型在上下文中获得越来越多信息,在某种程度上就具备持续学习成分。 更范式性的变化是:是否能改变训练算法,使模型可以在来自现实世界的数据流上持续训练。 最值得关注的研究热点 Matt Turck:持续学习之外,你觉得今天哪些研究方向最值得关注? Sebastian Borgeaud:很多小改动仍在累积,这是历史上推动进步的主要方式,我不认为它会停止。长上下文架构与研究是一个方面;注意力机制是一个方面;从无限数据转向有限数据的范式转变也会带来很多变化与有趣研究。 另一个重要方面是:使用模型的人增长很快,因此预训练侧也越来越要考虑上线服务成本。预训练侧能做什么,让模型质量更好、服务更便宜,并在推理时消耗更少资源。 Matt Turck:给想成为你这样的学生或博士生一些建议:几年尺度应该聚焦什么? Sebastian Borgeaud:越来越重要的是:能做研究,同时理解系统层面。我们在构建复杂系统,能理解从 TPU 到研究的整套堆栈,是一种优势:能发现不同层之间的空白,也能把研究想法一路推演到 TPU 堆栈层面的影响。能做到这一点的人会产生很大影响。应关注研究、工程与系统结合,而不仅是纯架构研究。 我也对 RETRO 那类检索研究很感兴趣。我认为它直到现在才接近成熟,但情况在变化。未来几年,让类似方法对 Gemini 这类领先模型变得可行,并非不合理。 Matt Turck:为什么以前不成熟,为什么可能改变? Sebastian Borgeaud:与复杂性有关,也与这样一个事实有关:它带来的能力可以在后训练中更快迭代。用搜索与后训练数据,可以用更简单方式给模型提供相似能力。随着后训练与强化学习规模化发展,重心可能再次向预训练侧转移。 Matt Turck:你认为 AI 领域有哪些方向被过度投资? Sebastian Borgeaud:情况已经好很多。两年前我看到人们还在做专门模型来解决一些任务,而这些任务可能在半年到一年内就会被通用模型覆盖。现在大家更相信:对不需要极度专门化的任务,用通用模型更合理,即使不是当前版本,下一版本可能就能做到。这意味着如何使用模型、以及 harness 等研究变得越来越重要;也包括如何让模型与这些 harness 更稳健、能从错误中恢复。 Matt Turck:对创业公司有什么建议?基础模型越来越强,似乎缩小了创业空间。 Sebastian Borgeaud:可以比较一年前或一年半前模型能做什么,再看今天能做什么,然后外推。模型正在改进的领域会继续改进;也可能有一些领域进展不大,那些可能更值得研究。我没有具体例子,这是总体建议。 Matt Turck:从你个人经历的角度,你对未来一年到两年有什么期待? Sebastian Borgeaud:我很喜欢日常工作中的一点:与很多人一起工作,并向许多研究人员学习。这在很大程度上驱动着我。每天我来上班都会与非常聪明的人交流,他们会教我以前不知道的东西,我很喜欢这部分。 我已经多次提到:有太多因素会叠加,很多方面仍有改进空间。我非常好奇,因为我看不到这类工作继续带来进步的尽头。能够见证并看到这能把我们带到多远,非常有意思。至少在接下来一年左右,我看不到它会放缓。
ChatGPT和传统搜索引擎,在一条钢丝上越走越近
奥特曼此前曾多次公开表示,在AI回复中加入广告让他感到不安,他认为这是企业的“最后手段”。 可是在现实面前,奥特曼选择了低头。 在ChatGPT最新的安卓测试版1.2025.329代码中,赫然出现了“ads feature”、“search ad”、“bazaar content”等广告相关的字符串。 这些代码片段虽然只有十几行,但足以说明OpenAI正在为ChatGPT植入广告做技术准备。 诚然,广告会为OpenAI带来巨大的收入。 但是这样一来,AI搜索长期建立的结构化、纯净无广告等标签将会荡然无存。如何在广告以及优质输出内容之间找到平衡点,已然成为了2026年所有大模型企业的共同难题。 01 广告即将成为OpenAI的最大收入来源之一。 根据OpenAI披露的数据,公司在2025年上半年的支出就达到25亿美元,照此以往,到2029年时,公司将烧掉1150亿美元。 即便ChatGPT的周活跃用户目前接近9亿,但其中只有约5%的用户付费订阅。 按照OpenAI的定价,ChatGPT Plus每月20美元,ChatGPT Pro每月200美元,按5%的付费率计算,这些订阅收入也远不足以覆盖成本。 为了填补这个财务黑洞,OpenAI制定了免费用户变现计划。根据公司内部预测,2026年开始,免费用户的人均年度营收将达到2美元,到2030年这个数字将增长到15美元。 最直接的变现方法就是广告。而OpenAI希望通过广告业务,到2030年实现总营收中20%来自广告相关收入。 奥特曼在最近的访谈节目中也调整了说法,称广告“虽然令人不适,但并非完全不可接受”。这种态度的变化,与其说是理念转变,不如说是现实妥协。 从OpenAI内部讨论的情况来看,其广告形式与传统搜索引擎有着本质区别。奥特曼称之为“意图导向的变现”,核心是将广告转化为“对话式推荐”,而不是简单地在搜索结果中插入广告链接。 这种模式的运作方式是:当用户询问“最好的跑鞋推荐”时,AI会在提供专业建议的同时,自然地推荐某个付费品牌。 据The Information报道,推荐不会生硬地标注“这是广告”,而是融入对话流程,比如“根据你的训练强度,Nike的Pegasus系列可能很适合,它的缓震技术能有效保护膝盖”。OpenAI可能通过购买分成或收取“优先进入推荐逻辑”的费用来实现盈利。 OpenAI在内部制作了多种广告展示原型,用于模拟不同的呈现方式。其中一种方案是在ChatGPT主回复窗口的侧边栏显示赞助信息,并明确标注“包含赞助结果”。这种设计参考了谷歌搜索的广告展示方式,但试图让广告看起来更像“补充建议”而非传统的页面广告。 OpenAI的另一种方案是在用户点击进一步信息时,在页面侧边展示广告。 比如用户询问巴塞罗那旅行建议,ChatGPT会先推荐圣家堂等景点,这个推荐本身不是赞助内容。但当用户点击圣家堂的介绍链接时,会看到一个包含多家付费旅游服务商赞助链接的弹窗。 这种“二次触发”机制的目的是避免用户在首次对话中就感受到商业推广的压力。 OpenAI还在探索“生成式广告”模式。AI不是简单展示广告商提供的文案,而是根据用户的具体需求和对话语境,自动生成定制化的推荐内容。 比如同样推荐一款跑鞋,对马拉松选手会强调耐久性和支撑性,对新手则会强调舒适性和性价比。OpenAI认为这种动态生成的广告内容理论上能带来更高的转化率。 OpenAI内部员工在评估这些方案时,他们的核心争论点在于“如何在不引发用户反感的情况下展示广告”。 同时团队内部也达成了一种共识,那就是广告绝不能打断或干扰自然对话节奏,所有广告曝光都应设定在对话推进至一定深度后触发。 这个原则意味着免费用户不会在每次对话中都看到广告,只有当对话内容明确指向消费、出行或产品决策时,广告才会出现。 02 2025年11月,OpenAI推出了Shopping Research功能,将ChatGPT变成个人购物助手。用户可以语音或文字描述购物需求,AI会提出针对性问题,然后提供完整的购买建议,包括产品链接和价格对比。 OpenAI在推出这个功能时明确表示,目前不收取任何佣金或联盟营销费用,商家也不能付费影响排名。但业内普遍认为这只是暂时的策略。Shopping Research使用了专门训练的GPT-5 mini模型,能够读取产品页面、规格表和可信评论,这个基础设施完全可以无缝对接广告系统。 OpenAI已经与Walmart、Target、Etsy等零售商建立合作关系,用户可以在ChatGPT中搜索和购买这些平台的商品。虽然现在是免费流量导入,但一旦广告系统上线,这些合作关系就能立即转化为付费推广渠道。 在2025年黑色星期五期间,ChatGPT带来的电商网站流量同比增长28%,Cyber Monday当天AI带来的零售网站流量增长670%。如果OpenAI能在这些流量中插入广告,即便转化率只有传统电商的一半,收入也将非常可观。 然而,为了抵御其对购物入口及广告收入的冲击,亚马逊在临近圣诞节时,屏蔽了ChatGPT、 Meta、谷歌等多家公司的AI爬虫,阻止其抓取商品信息。 同时,亚马逊推出了自研的AI购物助手Rufus,以守住平台的入口,应对AI搜索带来的变革。 为了进一步探索广告业务,OpenAI从谷歌挖来了广告业务高管希瓦库马尔·文卡塔拉曼(Shivakumar Venkataraman),他曾负责谷歌搜索广告的多个核心项目。 此外,OpenAI还在LinkedIn上发布了多个与广告相关的职位,包括广告工程师、广告产品经理和广告策略分析师。 这些动作都表明,广告对OpenAI来说已经不是要不要做的问题,而是怎么做的问题。 推动OpenAI做这个决定的,除了成本压力,还有竞争压力。谷歌在2025年宣布将在Gemini中引入广告,计划2026年正式推出。这给OpenAI带来了直接威胁。如果竞争对手都在通过广告降低用户成本并增加营收,OpenAI很难独善其身。 Perplexity AI已经推出了“赞助回答”功能,在搜索结果中明确标注赞助内容。虽然这个功能引发了一些用户不满,但也证明了AI搜索广告的可行性。OpenAI显然不想在这场竞赛中落后。 从市场规模来看,全球数字广告市场年产值超过1万亿美元,其中谷歌和Meta占据了大部分份额。如果OpenAI能通过ChatGPT切入这个市场,哪怕只拿到5%的份额,也将带来每年500亿美元的收入,足以支撑公司的长期运营。 但OpenAI也面临着用户信任的挑战。一旦AI的回答开始掺入商业利益,用户如何判断这个建议是基于客观分析还是广告商的付费?当ChatGPT推荐某款产品时,用户会怀疑这是因为产品真的好,还是因为品牌付了钱? 这个问题没有答案。 OpenAI现在正试图在"智力中立"与"财务自救"之间走钢丝。如果这个平衡失败,ChatGPT可能会从“AI助手”变成“推销产品的聊天机器人”。 03 但不可否认的是,AI搜索正在蚕食传统的关键词搜索。 传统搜索引擎的市场份额正在以肉眼可见的速度流失。根据highervisibility发布的2025年搜索行为研究报告,谷歌在通用信息搜索领域的份额从2025年2月的73%降至8月的66.9%,半年时间下降了6.1%。 中国市场的变化更加剧烈。百度的移动端搜索市场份额从2021年的94.72%下降到2025年第三季度的58.6%。 QuestMobile的数据显示,百度的媒介地位指数跌至第九位,排在抖音、淘宝、微信、快手、小红书之后。而且百度2025年第三季度的在线营销收入同比暴跌18%,这已经是连续第六个季度下滑。 然而这些用户并不是不再搜索了,而是把搜索行为转移到了AI工具上。 QuestMobile发布的《2025年中国AI终端生态发展研究报告》显示,截至2025年10月,AI移动端用户规模已达7.2亿,占中国网民总数的50%。AI搜索请求日均突破28亿次,其中商业查询占比41%。 德国数字行业协会bitkom对1000名用户的调查显示,50%的受访者有时会通过AI聊天查找信息,而不是使用传统搜索引擎。在16-29岁人群中,5%完全依赖AI搜索,11%主要使用AI,20%使用AI与传统搜索引擎的比例相当。 也就是说,超过三分之一的年轻人已经把AI作为主要或唯一的信息获取方式。 更能说明问题的是零点击率的变化。零点击代表用户搜索完关键词后,不进行任何页面跳转,转而直接下一次搜索或者关闭页面。 SparkToro的数据显示,谷歌搜索的零点击率已达58.5%,移动端更是高达77.2%。这意味着超过一半的搜索不再产生点击,用户在看到搜索结果和摘要后就离开了。传统搜索引擎最核心的广告模式正在失效。 AI搜索带来的转化率更高。大模型搜索转化率指的是用户从发起搜索到最终需求被直接满足的比例。ChatGPT的转化率是谷歌搜索的6倍,用户更愿意信任AI给出的直接答案。 这种转变背后是AI搜索解决了传统搜索长期存在的核心痛点。 传统搜索只提供链接列表,用户需要点开十几个网页逐一查看,不同网站信息质量参差不齐,相互矛盾,用户需要自行辨别真伪。一个简单问题往往需要花费很长时间拼凑完整答案,"搜索→点击→阅读→返回→再搜索"的循环让用户苦不堪言。 AI搜索直接给出完整答案,省去了筛选链接、逐一点击、拼凑信息的过程。根据OpenAI联合哈佛大学的调查《How People Use ChatGPT》,将近35%的用户将“获得直接答案”列为使用AI搜索而不是谷歌搜索的首要原因。 AI搜索支持多轮对话,这进一步丰富了搜索结果。第一次提问不清楚时,用户可以立即追问、补充条件、调整方向,像与真人对话一样逐步明确需求,而非反复修改关键词重新搜索。AI能记住上下文,形成连贯对话,而传统搜索每次都把用户当作"新用户"处理。 《AI搜索用户行为研究》显示,72%的AI搜索会话包含2轮以上对话,其原因是这种交互方式更符合人类自然的思维习惯。而在传统的关键词搜索中,并不存在"连续"这个概念,每一次搜索都只有当前的关键词。 用户更看重的是,AI给出的答案不受商业利益驱动,没有竞价排名的困扰。传统搜索引擎的广告模式长期以来饱受诟病,百度搜索结果前几页被竞价排名广告占据,真实信息被淹没,用户需要滚动数屏才能找到非广告内容。 虽然AI也可能出错,但至少不是“谁付费谁排前面”。 语音交互方式的便利性也是重要因素。移动端打字速度慢、容易出错,长问题输入体验极差,而语音输入速度是打字的3-4倍,特别适合复杂问题表达。Geokeji的研究显示,AI搜索应用中58%的用户使用语音输入,而传统的关键词搜索,即便拥有语音输入功能,使用率仍然不到20%。 语音搜索的平均问题长度是文字搜索的2.3倍,因为语音输入更便利,用户能够更完整地表达自己的需求,提高了搜索的准确性。在开车、做饭、带娃、运动等场景中,双手被占用时,语音搜索成为唯一选择。这些高频场景让用户养成了"遇事直接说"的新习惯。 Gartner预测,2026年全球搜索引擎访问量将骤降25%。这不是简单的市场份额转移,而是一场交互方式的革命。 从"打字输入关键词"到"语音描述完整问题",从“筛选十几个链接”到“获得一个直接答案”,从“单次查询”到“多轮对话”,传统搜索引擎赖以生存的“关键词匹配+竞价排名”模式,正在被基于大语言模型的"语音对话+直接答案"模式快速取代。 所以,传统搜索公司和ChatGPT一样,也处在两难之中。适应新的交互方式,那原本行之有效的商业模式就注定遭到破坏;但继续留在舒适圈吧,这个圈子的规模又肉眼可见越来越小。在这个新技术革命将来未来的转型期,他们只能自相矛盾、首鼠两端,但同时又坚定地走在钢丝上,钢丝对面,就是同样彷徨的ChatGPT。
内存涨价成暴利产业 传三星祭出霸王条款:想拿货就得听他的
快科技12月26日消息,存储芯片近三个月价格大涨,其中DRAM内存更是一飞冲天,现货价涨了两三倍了,显然这会让上游厂商的利润暴涨。 8Gb DDR4颗粒在4季度的合约价涨了42.9%,现货价更是大涨197%,明年1季度还会继续上涨,预计涨幅达到50%,从而推动价格达到13.5美元,跟现货价差不多少了。 DDR4颗粒这样的涨价直接让一些厂商的利润率突破了50%,这还是南亚科、华邦电等小厂的利润水平,跟高端的HBM内存60%的利润率很近了。 正因为此,三星也减缓了DDR4内存停产的时间,还会继续生产供货,但是在当前的环境下,产业链消息称三星推出的供货条件堪称霸王条款,要厂商接受NCNR以保证自己的最大化利润。 NCNR的意思是Non-Cancellable、Non-Returnable,厂商签订了供货协议就不能取消也不能退回,换句好理解的话就是签了这个协议就没有后悔的份,哪怕协议期间价格暴跌了,想拿货的厂商也得按照约定的价格来,否则就拿不到供货。 考虑到内存价格的暴涨还要持续一年甚至两年时间,厂商们估计也只能硬着头皮接受三星的霸王条款,毕竟没货才是最难的,什么利润都没有。 虽然上游的内存厂商在这次的涨价中赚嗨了,利润都要创纪录,但是也别高兴得太早,内存涨价缺货已经开始抑制需求,明年的PC及手机等市场出货量预计下滑5-10%,消费者会选择不买少买。 内存厂商也不要用AI需求居高不下当作大涨价的理由,AI泡沫论的争议也不会停,明年一旦出现震荡,内存市场搞不好也一样会变天,现在就笃定价格一直涨两三年太早了。
小米华为万元旗舰对决将上演 徕卡版靠什么打动消费者?
【CNMO科技】12月25日,小米17 Ultra徕卡版正式发布。在其7999元的起售价公布后,小米集团总裁卢伟冰表示,看到很多人猜测小米17 Ultra徕卡版定价1万多元。一万多元放到下一代好不好。这番话背后,是一个明确的信号:2026年,小米将冲击那道由苹果和华为长期垄断的“万元超高端”护城河。 小米17 Ultra徕卡版 但问题也随之而来:有多少消费者愿意为小米万元旗舰手机买单?若想在明年实现这一市场跨越,仅靠徕卡的品牌加持,小米是否足以支撑? 为何下一代徕卡版能到万元价位? 在小米17 Ultra发布会之前,卢伟冰曾透露,17 Ultra将迎来价格上调(最终定价6999元起)。从2022年底至今差不多三年间,AI迎来爆发式增长。根据整体判断,2025、2026、2027三年都会是内存成本上涨点。内存价格的猛涨,进而会带来手机成本大幅上升。 小米17 Ultra 值得一提的是,此前小米15 Ultra发布时,小米官方曾称这是“最后一次6499元”。卢伟冰直言,当时并没有完全考虑到内存,仅仅是基于处理器成本、相机配置上涨而作出的判断。 瑞银报告指出,到2026年第四季度,内存成本在旗舰/高端手机BOM(物料清单)中的占比将达到约14%,高于2025年第四季度的11%和2024年第四季度的8%。届时,单台旗舰机的内存成本价值将从2025年第四季度的52美元跃升至73美元,同比增幅高达41%。 此外,小米17 Ultra作为小米与徕卡全新合作模式下的首款作品,搭载了“徕卡2亿像素光学变焦”镜头,该镜头不仅是行业首个75-100mm全2亿像素光学直出镜头,还是行业首个获得徕卡APO光学认证的手机镜头。全新的“徕卡一英寸光影大师”主摄搭载LOFIC超高动态技术,从硬件底层提升动态范围。 在此基础上,小米17 Ultra 徕卡版新增“大师变焦环”,支持焦距调节、曝光补偿、白平衡等;外观方面则配备专属徕卡红标、徕卡铭文等。下一代徕卡版势必会进行配置升级,例如搭载更先进的传感器、处理器,并可能进一步强化或新增专属硬件,这些都将推高制造成本,为万元定价奠定成本基础。 此外,CNMO认为,小米的高端化之路已行至中途,在千元价位段稳固立足后,突破苹果、华为长期把持的万元关口是其高端化进程的必经之路。卢伟冰此次发布会的喊话,或许是一次精准的营销预热,旨在提前重塑用户心理预期,推动“小米=性价比”的传统认知向“小米=超高端”转变。小米与徕卡的合作从“联合研发”升级为“战略共创”,甚至可能获得更深度授权,核心目的便是借助徕卡的百年影像品牌背书,为万元定价提供强有力的品牌溢价支撑。 谁为万元小米徕卡版买单? 影像发烧友与徕卡品牌信徒是核心群体。对他们而言,购买的小米徕卡版机型并非单纯的手机,而是一款“便携的徕卡相机”。徕卡红标带来的身份认同感、机械变焦环赋予的专业创作仪式感,以及徕卡独特的色彩科学和画质表现,为这一群体提供了无法用参数衡量的情绪价值。价格并非他们的首要敏感点,极致的影像体验和品牌归属感才是核心诉求。 追求身份标识的高端商务人士是另一重要潜在群体。对这部分用户来说,手机亦是个人品味与实力的象征。一款带有显性徕卡标识、设计匠心独具且价格不菲的旗舰手机,可成为其“社交名片”。若小米能成功塑造超高端品牌形象,将有机会从华为“非凡大师”、苹果iPhone Pro系列的目标客群中争取到这部分用户。 小米生态内的深度用户同样具备较高付费意愿。对于已深度融入小米智能家居、穿戴设备等生态的重度用户而言,一款顶级旗舰手机是生态体验的核心枢纽。出于对品牌的认可与生态协同的便利性需求,他们更愿意为生态内的顶尖产品支付溢价。 小米该如何卖出万元手机? 今年11月,华为发布Mate 80 RS 非凡大师。其核心竞争力源于通信技术、红枫影像、鸿蒙系统等构建的难以复制的技术壁垒。这也为小米提供了借鉴:需在影像、AI、材料工艺等领域打造专属“杀手锏”,构建核心技术优势。 华为Mate 80 RS 非凡大师 强化品牌故事叙事同样关键。华为“非凡大师”通过代言人、品牌叙事等,成功传递了独特的精神价值。小米与徕卡的合作也应突破硬件层面,深入挖掘并传播双方合作的美学理念与工艺价值,塑造差异化品牌认知。 此外,打造专属圈层与体验可进一步提升产品附加值。小米可借鉴豪车、名表的运营模式,为万元徕卡版机主设立专属“俱乐部”。通过组织线下摄影大师班、徕卡文化交流等活动,让用户感知到购买的不仅是产品,更是高端圈层的入场券,获取稀缺的社交资本与专属体验。 推进全链路高端化体验不可或缺。从产品设计、包装,到售前咨询、专属客服,再到售后维护,需构建一套符合万元价位预期的、尊贵且无缝衔接的全流程消费体验,匹配超高端产品的定位。 写在最后 小米徕卡版机型冲击万元价位,其深远意义远不止于“卖得贵”。这不仅是小米高端化进程的关键跨越,更是对超高端手机市场格局的一次挑战,背后承载的是品牌价值升级与技术实力的全面检验。 2026年,小米新一代徕卡版机型想在万元价位段真正站稳脚跟,仅靠常规的配置升级远远不够。它需要在核心技术上持续突破,打造出更具差异化和不可替代性的功能;在品牌塑造上,要进一步深化与徕卡合作的内涵,传递出更具感染力和认同感的价值理念;在用户体验上,要全方位优化,从产品到服务都做到极致。只有这样,小米徕卡版机型才能在与华为的这场万元旗舰对决中,赢得消费者的青睐,在超高端市场开辟出属于自己的一片天地。
内存价格起飞怎么办:转换器让SO-DIMM笔记本内存装进!
快科技12月26日消息,在DDR5内存价格一路狂飙下,DIY玩家们为了省钱可谓是绞尽脑汁。 继之前的手动焊接内存方案后,Hardware Canucks又带来了一个门槛更低、更具普适性的替代方案:利用SO-DIMM转DIMM转接卡,将相对低价的笔记本内存安装到台式机主板上。 相比起高风险的电路焊接,这种转接方案非常简单,玩家只需购买一个转接适配器,将笔记本DDR5内存插入适配器,再整体插入台式机的插槽即可。 Hardware Canucks测试了包括AMD锐龙7000/9000以及Intel LGA1700/1851在内的多个主流平台。 实测结果显示,DDR5-4800是最稳妥的运行频率,在手动调校下,性能表现甚至能直逼桌面级DDR5-6000规格,在1080p游戏实测中,两者的帧数差距微乎其微,普通玩家在实际游玩时几乎察觉不到区别。 这种方案适合手中已有闲置笔记本内存,或能低价淘到笔记本拆机条的用户,虽然笔记本DDR5价格近期也有所上涨,但整体仍比同容量的台式机模组便宜不少,以16GB为例,即便算上转接卡成本,仍能省下约30%至40%的费用。 不过,该方案也存在明显的局限性,由于转接卡增加了内存的高度,可能会与一些塔式散热器或ITX机箱冲突,此外某些系统可能在启动时默认运行在较低速度,需要手动调整内存设置。
马斯克又作妖,圣诞 AI 新功能惹怒全球画师,网友集体删号出走
圣诞假期,马斯克给全球画师送了份「厚礼」。 起因是社交平台 X 上线了一个基于 Grok 模型的「AI 编辑」功能。用户只需长按手机图片或点击网页版的「编辑图片」按钮,就能输入文字指令,让 AI 随意修改别人发布的作品。 马斯克的本意,或许是降低创作门槛、放大平台互动,顺手给 Grok 找一个足够高频、足够性感的落地场景。 但现实的结果却是,画师们和他们的作品,一夜之间都失去了说「不」的权利。 一键篡改+公开展示,X 的新功能为何让画师集体暴怒 用「离谱」形容 Grok 新功能,其实已经算是委婉的说法。 具体来说,Grok 的图像编辑支持根据文字指令对已有图片进行二次创作。用户可以要求 Grok 替换图片背景、改变角色的动作、表情和服装,甚至添加新元素等 。 单看功能描述,它和其他 AI 改图工具并无本质区别。但是,这项功能对所有公开图片生效,也就意味着任何人在 X 上都能随意编辑他人发布的图片,而且原作者也不会收到通知。 更糟糕的是,X 平台并未提供关闭或退出此功能的选项。 面对他人的「改图」,创作者没有拒绝权,也没有反制手段。被 AI 修改后的版本,还可以被直接发布在原帖的评论区, 供所有人围观、传播与再利用。 在这套规则下,作品一旦发布,就不再属于创作者,而是自动进入平台的「公共可编辑状态」:人人可用,哪怕是原作者无权置喙。不出所料,画师们愤怒了: 「这真是太糟糕了。」 「也许他们正在试图将反 AI 的人踢出平台。」 「我讨厌这个,即使我用 AI 创作艺术。」 画师们的暴怒,绝非小题大做。 他们抵触的从来不是 AI 技术本身,而是心血被肆意践踏,更是整个 AI 行业对原创权益的长期漠视。最开始,创作者的作品在不知情的情况下被抓取训练的。 许多画师都有过这样的绝望:在 AI 工具里输入提示词加上自己的名字,出来的作品几乎以假乱真,这对艺术家来说是极大的精神打击。 要知道,这种独特风格是他们耗费数年、甚至数十年打磨的艺术灵魂,但 AI 却只需抓取几十张作品、花几个小时训练,就能轻松「复制」。可按照很多国家的现行法律多不认定风格复制侵权,形同合法抢劫。 今年 3 月 GPT-4o 吉卜力画风风波便是缩影,OpenAI CEO 奥特曼在 X 上为新增数百万用户沾沾自喜时,完全没意识到这种傲慢是对原创者的公然冒犯。 更早之前,佳士得宣布举办首场 AI 艺术专拍,引发全球 2800 多名艺术家联署抗议。艺术家怒斥「这是把盗来的成果摆上台炫耀,踩着手工艺术家牟利」。 即便佳士得回应训练素材来自创作者自身,他们也并不买账。因为反对者认为这种拍例会树立坏榜样,进一步挤压人类艺术的生存空间。 如果说之前的训练侵权是「暗偷」,X 的新功能就是扯掉遮羞布的「明抢」:任何人可一键篡改作品,还将篡改版公之于众,本质是对创作者人格权与著作权的双重羞辱。 不乏「理中客」认为,AI 改图早就存在,普通人用电脑离线也能做到,X 只是提供了接口而已。可这种辩解完全站不住脚。 平台内置按钮的影响,和私下改图有着天壤之别。前者是官方背书的侵权合法化,是对创作者尊严的公然践踏。 原作者辛苦构思的画面,可能被 AI 几秒改成低质恶搞版流传,损害创作名誉;更严重的是,作者会失去对作品衍生用途的掌控,署名权、作品完整权形同虚设,甚至可能因改图含情色、诽谤等内容背锅。 官方背书大大降低侵权门槛,不懂技术的普通人也能一键上手。这种明显带有「作恶倾向」的功能设计,无论从商业伦理还是实际影响来看,都是对创作者群体的致命打击。 删号、迁徙与「投毒」反击,被逼到墙角的画师们如何反击 放眼国内,诸如此类的争议亦不鲜见。所谓「大哥不说二哥」,本质是全球内容平台在 AI 流量焦虑的裹挟下,对创作者权益的集体漠视。 网易 LOFTER 的「老福鸽画画机」事件最为典型。2023 年 3 月,LOFTER 低调上线了一个 AI 绘图功能,立刻激起轩然大波。 画师们质疑平台是否擅自使用他们上传的作品来训练 AI,质疑声浪迅速席卷全站。 虽然官方连续两次声明「训练集来自开源数据,没有使用用户作品」,但许多创作者纷纷宣布「删号退出」。最终,LOFTER 在 3 月 10 日彻底下架了该 AI 功能,并启动「创作者保护计划」。 面对各大平台接二连三的「骚操作」,不少画师彻底失望。 他们删除了过往发布的所有作品,甚至清空账号、退出平台,只为守住最后一点创作尊严。可离开之后,画师们又能去哪儿? 除了自建网站,由 X 前 CEO 杰克·多西参与创立的社交平台 BlueSky,成了不少画师的首选。早在马斯克宣布 xAI 将抓取 X 内容训练模型时,就有大批画师申请加入 BlueSky。 因为平台官方明确承诺「绝不会用用户数据训练 AI」,这份清晰的立场,让饱受伤害的画师们感受到了久违的尊重。 Cara 则更硬核,打出的旗号就是为艺术家打造的反 AI 避风港,明确承诺不使用用户内容训练 AI 模型,还内置反 AI 抓取措施,自动为图片添加名为「Glaze」的保护层,并禁止 AI 生成图像上传。 但这种有底线的平台,终究是少数。多数画师只能在两难中纠结: 一边是主流平台的侵权风险,一边是小众平台的影响力不足。既不敢放弃主流平台的曝光机会,又得花精力在小众平台找安全感,如同无根的浮萍,不知道下一个避难所能撑多久。 被动迁徙之外,不少画师开始主动反击,给自己的作品「投毒」,用魔法对轰魔法。 Glaze 由芝加哥大学团队开发,它在图片上覆盖一层人眼不可见但在像素层面极具干扰性的「噪音」。这层噪音会误导 AI 模型,使其将「油画风格」识别为「素描风格」,从而防止风格被模仿。 另一款工具 Nightshade 则更激进,堪称「AI 毒药」。它通过错误标记数据,如果模型大量吞噬经过 Nightshade 处理的图片,模型的功能将发生紊乱甚至崩溃。 比如人眼看是牛的图像,AI 可能把牛识别成手提包,模型吃多了这样的「毒牛」图片,最后生成结果会把牛画成手提包模样。 此外,创作者的反抗没有白费。 在持续的声讨与施压下,各大平台和行业机构终于开始修补漏洞,试图平衡 AI 发展与版权保护的关系。比如出台「反爬」政策或技术:加元数据标签挡 AI 爬虫、上线反抓取功能、监测拦截异常批量下载。 法律层面,多个国家和地区开始研讨 AIGC 版权规则。行业方面,Getty Images 等大图库一方面严禁未经授权的 AI 素材上传,另一方面和 AI 公司合作推出付费训练数据集。 诚然,画师们的诉求其实也特别简单,不盲目反对 AI 技术,只想要基本的尊重:用他们的作品训练,要提前授权;产生的收益,要合理分账。 而 X 平台这项毫无征兆的新功能,便是对这份诉求的公然挑衅。 画师们既要抵御 AI 无孔不入的侵权,又要死死守住最后的创作尊严,本该有的节日暖意,最终只剩下愤怒、失望和深深疲惫。 今年圣诞夜,他们无人欢笑。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。