行业分类:
加载中...
头条分类:
加载中...
英媒:欧盟计划提供电动车补贴,要求外国车企增加技术转让
欧盟委员会执行副主席里贝拉 凤凰网科技讯 北京时间1月23日,据英国《金融时报》报道,欧盟已承诺帮助陷入困境的欧洲汽车行业,可能会通过实施覆盖整个欧盟的补贴计划来提振电动汽车需求。 欧盟委员会执行副主席特蕾莎·里贝拉(Teresa Ribera)在达沃斯世界经济论坛上对《金融时报》表示,欧盟官员仍在为一项激励计划“制定”选项。 “我们有理由从整个欧洲的角度来考虑如何促进这些措施,而不是让成员国自推补贴计划。”里贝拉表示。她警告称,欧盟成员国不要陷入各自为战,彼此对抗的竞赛。 德国总理朔尔茨周二透露,欧盟委员会正在考虑他提出的欧盟补贴计划。德国政府在2023年突然取消了该国的补贴计划,导致电动汽车销量大幅下降。欧洲汽车制造商协会称,许多欧盟成员国提供电动汽车激励措施,但条款天差地别,而且有几个成员国根本没有提供购车补贴。 《金融时报》指出,欧盟面临的一个挑战是,他们要设计出一个既符合世贸组织规则,又避免补贴流向中国汽车制造商的方案。目前,中国汽车制造商的市场份额正在快速增长。 里贝拉承认,在欧盟快速推进电气化的同时,欧洲汽车品牌在数量和质量上难以满足欧洲人对电动汽车的期望,必须在这之间找到一个“复杂的平衡”。 她还表示,愿意考虑提高对希望在欧盟境内建立生产设施的外国汽车制造商的技术转让要求。欧盟在去年表示,将要求获得欧盟电池开发补助的外国公司与当地合作伙伴分享部分技术。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
路虎纯电卫士问世要等到2030年:现有底盘塞不下电池
IT之家 1 月 23 日消息,电动版路虎卫士预计要到 2030 年前后才会问世,届时该车型将迎来换代,并基于全新平台打造。 捷豹路虎(JLR)首席商务官 Lennard Hoornik 在当地时间周二接受外媒 Autocar 采访时表示,尽管公司研究了当前路虎卫士电气化的可能性,但受限于车身结构,技术上仍然存在难以克服的挑战。 “我们并不打算在 D7x 平台上对现款‘L663’车型进行电气化,” Hoornik 说。“L663 车型已经在其领域表现出色,目前也有插电式混合动力版本。但考虑到车桥的布局以及所需的越野性能,在现有底盘内增加电池空间并不现实。” JLR 内部人士透露,即便尝试使用 JLR 旗下的大容量六缸插电式混合动力系统(IT之家注:该系统已在 MLA Flex 平台上的路虎揽胜和路虎揽胜运动版车型上运用),D7x 平台的限制,依然让路虎卫士与这套插混系统无缘。 Hoornik 进一步强调,公司仍然致力于为旗下所有品牌(揽胜、卫士、发现和捷豹)推出电动车型,但在现款路虎卫士车架上挤出足够的电池空间几乎不可能,因此必须寻找新的技术方案。 当被问及这是否意味着电动版路虎卫士需要等到第二代车型换代,还是会提前推出一款基于专属电动平台的新车型时,Hoornik 并未明确回应。“电动版路虎卫士需要在这个系列发展的一个关键节点上推出。” 此外,Hoornik 还谈到了 JLR 计划在 2026 年进军世界拉力越野锦标赛,包括派出两辆路虎卫士 Octa 参加著名的达喀尔拉力赛的原因。“我们从参赛中就能学到许多东西。同时,这也让路虎卫士 Octa 的研发方向更加明确,有助于提升产品实力,并推动相关技术生态的发展。”
中国空天院科研团队实现超宽带太赫兹偏振态的高精度动态调控
1 月 23 日消息,据中国科学院空天信息创新研究院消息,该院科研人员经过两年攻关研发出新型太赫兹波偏振调制器,成功实现超宽带太赫兹波偏振态的高精度动态调控,相关研究成果发表于国际学术期刊《光学》。这一关键技术突破,将推动太赫兹波在新一代无线通信、文物无损检测、生物微量传感等方向的应用。 据介绍,太赫兹(THz)波在电磁波谱中位于微波与红外之间,是频率在 0.1 太赫兹至 10 太赫兹范围内的电磁波,尚未广泛开发利用。其具有高穿透性、光子能量低等特点,被称为未来 6G 高速无线通信的基础,也能成为继 X 光和超声之后的另一种新型无损检测技术。 值得一提的是,太赫兹波有两个天然特性:其波长在百微米到毫米级别,比可见光大近三个数量级,常规材料难以实现高效的调控;太赫兹波极大的带宽(0.1 至 10 THz)要求器件具有非常低色散的响应特性,对结构提出了很高要求。 研究团队通过调节偏振调制器的两个关键参数 —— 金属镜-棱镜距离和液晶双折射率,在超宽范围内实现了太赫兹 p 偏振和 s 偏振光之间的大范围相位调控,具有极低的色差,并同时保持光的反射强度几乎不变。这意味着偏振的两个基本维度可以被灵活控制,进而输出任意的偏振态。偏振调制器可以在 1.6-3.4 THz 范围内转换并动态切换相互正交线偏振和左 / 右圆偏振,且线偏率和圆偏率(DoLP,DoCP)均超过 0.996。实际上,该偏振调制器可以在任意中心频率下输出任意偏振状态,且相对带宽均超过 90%。 IT之家从中国科学院空天信息创新研究院(空天院)获悉,该研究团队所研制的偏振调制器在多功能性、大工作带宽以及高控制精度上取得性能突破,可为光谱检测提供偏振解析能力,满足材料物理特性研究、生物制药品质监测等应用需求,也可作为下一代信息技术的核心部件,在高速通信中降低传输损耗、提高数据吞吐量。
全球首个!中国电信完成千卡、千亿参数模型500公里联合训练试商用
快科技1月23日消息,据中国电信,在集团公司统一组织下,中国电信研究院、天翼云、北京电信成功了完成业内首个1024卡、千亿参数商用大模型的分布式联合训练真实用户试商用。 通过天津市武清区到北京市大兴区瀛海镇之间的真实光路环回,实现了500公里长距互联分布式训练,而且训练性能达到单数据中心的97%以上。 本次试商用基于北京现网800G广域智联无损网络,以及息壤一站式智算服务平台,在互联距离、带宽收敛比、模型参数方面,都去取得了重大突破,实现了多数据中心互联、资源整合支持商用模型分布式联合训练。 在广域智联无损网络技术方面,中国电信创新广域无损调度算法、关键帧识别技术,将带宽收敛比提升到32:1;创新WSON 50ms极速倒换技术,实现长距链路中断无感知切换。 系列技术有效解决了长距离传输中网络拥塞丢包、链路故障、建网成本等问题,确保了训练过程的稳定性和高效性。 在500公里的长距离传输下,网络传输吞吐率仍能保持在较高水平,为千卡千亿参数商用大模型的联合训练提供了坚实的网络支撑。 与此同时,息壤平台支持算力插件、跨地域算网协同、跨数据中心自动并行、断点续训等一系列关键技术能力,实现故障秒级定位、分钟级处理与恢复,保证了百川千亿参数商用模型的快速部署和稳定高效运行。
提升机器人3D操作能力,北京大学与智元机器人联合实验室发布OmniManip
IT之家 1 月 23 日消息,如何将视觉语⾔基础模型(Vision Language Models, VLMs)应⽤于机器⼈以实现通⽤操作是具身智能领域的⼀个核⼼问题,这⼀⽬标的实现受两⼤关键挑战制约: VLM 缺少精确的 3D 理解能⼒:通过对⽐学习范式训练、仅以 2D 图像 / ⽂本作为输⼊的 VLM 的天然局限; ⽆法输出低层次动作:将 VLM 在机器⼈数据上进⾏微调以得到视觉 - 语⾔ - 动作(VLA)模型是⼀种有前景的解决⽅案,但⽬前仍受到数据收集成本和泛化能⼒的限制。 上海智元新创技术有限公司官方今日发文称,北⼤携⼿智元机器⼈团队提出 OmniManip 架构,基于以对象为中⼼的 3D 交互基元,将 VLM 的高层次推理能力转化为机器⼈的低层次高精度动作。 针对⼤模型幻觉问题和真实环境操作的不确定性,OmniManip 引⼊了 VLM 规划和机器⼈执⾏的双闭环系统设计,实现了操作性能突破。目前项⽬主⻚与论⽂已上线,代码与测试平台即将开源。 IT之家从智元机器人官方获悉,OmniManip 的关键设计包括: 基于 VLM 的任务解析:利⽤ VLM 强⼤的常识推理能⼒,将任务分解为多个结构化阶段(Stages),每个阶段明确指定了主动物体(Active)、被动物体(Passive)和动作类型(Action)。 以物体为中⼼的交互基元作为空间约束:通过 3D 基座模型⽣成任务相关物体的 3D 模型和规范化空间(canonical space),使 VLM 能够直接在该空间中采样 3D 交互基元,作为 Action 的空间约束,从⽽优化求解出 Active 物体在 Passive 物体规范坐标系下的⽬标交互姿态。 闭环 VLM 规划:将⽬标交互姿态下的 Active / Passive 物体渲染成图像,由 VLM 评估与重采样,实现 VLM 对⾃身规划结果的闭环调整。 闭环机器⼈执⾏:通过物体 6D 姿态跟踪器实时更新 Active / Passive 物体的位姿,转换为机械臂末端执⾏器的操作轨迹,实现闭环执⾏。 此外,OmniManip 具备通⽤泛化能⼒,不受特定场景和物体限制。团队已将其应⽤于数字资产⾃动标注 / 合成管道,实现⼤规模的机器⼈轨迹⾃动采集。该研究团队将开源泛化操作⼤规模数据集和对应的仿真评测基准。 据IT之家此前报道,以“天才少年”身份加入华为的稚晖君于 2022 年底宣布离职,创业智元机器人。2024 年 9 月 3 日,智元机器人完成 A++++++ 轮融资,估值已超过 70 亿元,得到了包括北汽、上汽、比亚迪在内的国内汽车巨头支持。 目前,智元机器人量产的第 1000 台通用具身机器人已于本月(1 月 6 日)正式下线,其中包括 731 台双足人形机器人(远征 A2 / 灵犀 X1)和 269 台轮式通用机器人(远征 A2-D / A2-W)。
美国遭遇罕见冬季风暴 多地民众喜忧参半
  国际在线消息:罕见冬季风暴恩佐1月21日以来席卷美国南部数州,多地降雪量创历史最高纪录。多个鲜少经历极寒天气的地区在本周内遭遇了“十年一遇”的灾情,当地民众面临生活设施与人身安全多重风险。   据美国有线电视新闻网(CNN)报道,本周二,一场冬季强风暴席卷美国墨西哥湾沿岸,使这一很少经历极端寒冷天气的地区降雪量破纪录。这场风暴影响了从得克萨斯州墨西哥湾沿岸到北卡罗来纳州大西洋沿岸约2400公里范围,导致大面积停工停学和交通中断。佐治亚州高速公路巡逻队在14个小时内回应了超过100起交通事故。亚特兰大所属迪卡尔布县周三早晨宣布进入紧急状态。截至周三下午,全美范围内已有超过1800个航班被取消。   报道称,本次风暴使多个州市降雪量创历史新高,亚拉巴马州莫比尔市报告降雪7.5英寸,远超1973年创下的3.6英寸纪录,还致使其市政中心屋顶因积雪而坍塌。   报道指出,风暴不仅在墨西哥湾沿岸地区造成严重后果,低温也影响了美国大部分地区。截至22日晚间,全美范围内已报告至少11人死于严寒或风暴。   据美国《纽约时报》网站报道,在冬季风暴引发的混乱中,新奥尔良也享受了一场“奇观”。许多人用能找到的任何东西——垃圾桶盖、烤盘、纸箱做成雪橇;人们打起了雪仗,还有一些青少年用冰柱当成剑挥舞嬉戏。不过,受灾地区并非“田园诗般的雪景水晶球”,大雪导致的停学停工扰乱了人们的日常生活,在新奥尔良这样大多数人没有应对冬季极端天气经验的城市造成了一系列问题。一些居民表示,他们通宵达旦、竭尽所能尝试防止管道冻结和爆裂,道路无法通行,商家纷纷关门歇业,这也意味着工人们失去工资收入。 美国民众在结冰的马路上打冰球(BBC报道截图)   英国广播公司(BBC)发布的一则视频报道展现了美国民众苦中作乐,享受雪地活动的场景:在路易斯安那州马泰里,修女和牧师开心地打起了雪仗;在南卡罗来纳州查尔斯顿,一位民众被拖曳着在街上“滑雪橇”;成群结队的人在冰冻的街道上“打冰球”,瑜伽垫和冲浪板成为家家户户的“滑雪神器”。(胡晓薇) 美国民众享受“滑雪”乐趣(美联社报道截图)
法德强调“欧洲当自强” 专家称欧洲团结稳定至关重要
  当地时间22日,法国总统马克龙与到访的德国总理朔尔茨举行会谈。两国领导人均强调,在特朗普再次入主白宫后,在与美国打交道时,欧洲更需要团结,更需要自力更生。 △法国《世界报》网站报道截图   在会谈后举行的新闻发布会上,朔尔茨表示,特朗普就任美国总统将是“欧洲的挑战”,欧洲应该更加自力更生。   “特朗普总统已经做出或宣布了一系列决定。我们将与欧洲伙伴密切分析这些举措。我们的立场很明确:欧洲是一个拥有大约4.5亿公民的大经济区。我们很强大,我们团结在一起。欧洲不会躲起来,而是要做一个建设性的、自信的伙伴。” △法国24电视台网站报道截图   马克龙在新闻发布会上表示,现在比以往任何时候都更需要欧洲人,特别是需要法德两国在巩固一个团结、强大和自主的欧洲方面发挥作用。马克龙强调,在继续发展跨大西洋关系的同时,必须以欧洲的价值观和手段来捍卫欧洲的自身利益。   “今天的首要任务必须是为了我们的欧洲,首先是为了我们的竞争力、繁荣和安全,同时也要加强我们的民主,维护我们的经济和社会模式。”   马克龙还呼吁欧洲国家增加国防开支,以减少对美国的安全依赖。   北京外国语大学区域与全球治理高等级研究院教授崔洪建在接受中央广播电视总台环球资讯广播采访时分析指出,欧洲想要实现防务自主,还需要处理很多棘手的问题,但是欧洲并没有为此做好准备。   目前,涉及欧洲安全的很多问题并没有现实的解决方案,包括:欧洲的安全机制如何解决?未来北约的性质如何变化?欧洲国家在北约内部扮演什么角色?在北约框架下,军费开支结构如何调整?欧洲国家能否拿出更多经费支撑北约的正常运转?欧洲国家近年来在欧盟框架下进行的一些防务自主建设和北约之间是什么关系?欧洲一旦想要更加自主自立,此前由美国通过北约给欧洲提供的所谓“核保护伞”届时转由谁来承担?   不解决上述这些核心问题,欧洲想要在安全上摆脱对美国的依赖,真正走上自主自强的道路,就不过是一个目标而已。   当地时间21日,欧盟委员会主席冯德莱恩在瑞士达沃斯致辞时表示,当下制裁、出口管制和关税措施的可能性增加,欧盟必须在保障安全的必要性与创新、促进繁荣的机会之间取得平衡,各方需要共同努力,避免全球竞相压低价格。   冯德莱恩还表示,欧盟的首要任务是与美国尽早接触,讨论共同利益,并做好谈判的准备。 △英国《卫报》网站报道截图   崔洪建指出,在经济领域,欧盟也要面对美国相关政策改变带来的不确定性。   根据美方目前的表态,可能会对欧洲国家普遍征收10%至20%的关税。再加上双方现有的关税,关税总体水平会进一步上升。美欧之间的贸易关系非常复杂,很多欧洲产品在欧美之间有多次进出口的流程,简单的10%到20%的关税在实际过程中会消耗欧洲国家更多的贸易成本。   欧洲一些国家在市场和技术上对美国的依赖都很大,一旦美国新政府在经贸措施、产权政策等问题上发难,将对欧洲整体经济结构产生直接影响。   美国新政府已经表态可能会重新恢复对化石能源等传统能源的开采和运用。未来欧洲和美国在能源领域的竞争会进一步上升。   崔洪建进一步指出,欧洲能否成功应对未来“跨大西洋”关系的不确定性,关键因素在于欧洲内部的团结和稳定。   近期,欧洲国家一方面不断试探美国新政府可能会采取的政策立场,一方面希望尽快和美国新政府进行接触,展开谈判。在谈判过程中,不排除欧洲会对美国的征税和产业限制措施进行反制。鉴于目前欧洲整体在面对美国新政府时处于相对弱势的地位,因此反制手段的最终目的是要和美方尽量达成妥协。   尽管欧洲希望借助其他经济体和世界大国平衡和对冲美国新政府给欧美关系带来的冲击和影响,但归根结底,如何与美国打交道,取决于欧洲内部能在多大程度上实现团结。对多数欧洲国家而言,首先应该尽快解决内部的政治稳定问题,进而向美国发出更清晰的信号,放大欧洲想对欧美关系施加影响的声音。   素材来源丨环球资讯广播《直播世界》   记者丨杨卓英 张晗   编辑丨印梅梅 杨楠   签审丨闫明 江爱民
漯河舰入列,未来将在航母编队中担任什么角色?
   22日上午,漯河舰在青岛某军港交接入列。此次交接入列的海军漯河舰,舷号545,是我国自主研制建造的新一代护卫舰,是海军转型发展的重要装备。专家表示,作为护卫舰,054B护卫舰的武器系统得到了显著增强。具体都有哪些武器系统的提升?    军事专家曹卫东介绍,054B护卫舰,武器系统主要是增加了发射单元,因为作为护卫舰,一般搭载的武器装备相对比较少,增加了它的体量,就可以搭载射程更远的反舰导弹,054B护卫舰很显然是增加了这样的能力。   在动力系统方面,054B护卫舰采用全电力推进和复合柴油燃气涡轮的方式,就是在交替推进的情况下,可以改进它的声呐,也就是舰艏声呐、舰尾的拖曳声呐和侧扫声呐,反潜的能力会大幅度提升。   另外,054B护卫舰使用了一体化主桅杆,除了能看到相控阵雷达以外,好像还增加了一个X波段的雷达,可能是要增加未来在搜索无人机或低空目标探测能力,使它在未来的作战中,实现武器系统的一种升级。    054B护卫舰将在航母编队中发挥重要作用   海军054B护卫舰首舰漯河舰交接入列,未来它将主要执行什么样的任务?又会在航母编队中担任什么样的角色呢?   军事专家曹卫东表示,当054B护卫舰向多用途隐身护卫舰发展时,我们看到它似乎还有模块化更换的功能,就是通过不同的模块包,增加某一方面的功能,比如反潜或者防空能力。   既然054B护卫舰已经成为一种多用途护卫舰,在单独执行任务时,可以前出进行抵近的、对陆的侦察,并且也可以进行相应的打击;执行救援救灾的任务,也是能够单独执行。   与航母编队的时候,由于它改进了动力系统、静音性能、反潜能力,在航母编队中反潜的作用将会进一步突出。未来,在海军单独行动或与航母等大型水面舰艇进行活动的时候,都可以发挥更重要的作用。    从525到545,护卫舰平台三次技术迭代   交接入列的漯河舰,是054B型护卫舰首舰,舷号545。   20年前,2005年2月,人民海军第一代具有隐身外形和远洋作战能力的护卫舰054型护卫舰首舰马鞍山舰正式入列,弦号525。这级舰另外一艘,是舷号为526的温州舰。它们为054A型护卫舰换装全新武器系统,作出了有益探索。   054A型导弹护卫舰,是我国自行研制设计建造的新型护卫舰,可单独或协同海军其他兵力攻击水面舰艇、潜艇,具有较强的远程警戒和区域防空反导能力。   054A型首舰徐州舰,舷号530,2008年1月入列海军,装备新型防空、反导、反潜武器和一架直-9C反潜直升机,具有防空反导和对海打击能力。   20年弹指一挥间,从525到545,从中映照出来的是054型护卫舰平台连续三次的技术迭代。
港大马毅:“百模大战”资源消耗惊人,智能本质到底是什么?
1.23 智识学研社新年科学演讲现场 编者按 过去几年是AI发展突飞猛进的几年,2024年,诺贝尔物理学奖和化学奖更是破天荒地颁给了AI领域的科学家。 然而,即使拿下了诺贝尔奖,我们也很难将这些年AI的进展单纯归结为科学上的胜利,它更像是一个工程上的奇迹。当下业界甚至学界广泛追随和信仰的Scaling Laws,本质上仍是“大力出奇迹”:相信更多数据、更大算力、更大参数能给模型带来更高的性能。 与此同时,AI系统内部的运作机制依然是一个巨大的黑箱,从神经网络的表征学习到决策逻辑的可解释性,核心的科学问题仍未得到根本性解答。AI虽然对传统科学贡献良多,但它本身的科学原理却仍在迷雾之中。 在智识学研社2025年新年科学演讲上,香港大学计算与数据科学研究院院长马毅教授提醒,在讨论人工智能甚至通用智能(AGI)之前,我们首先要了解什么是智能,智能背后的数学原理是什么?过去十年,在机器智能这个领域,“术”的层面取得了长足的进步,但是“道”的层面还有很长的路。在现在这个时间节点上,科学变得非常重要。 以下为马毅新年演讲全文,全文共9301字。 ●  ●  ● 毋庸置疑,这十年来人工智能技术突飞猛进,进展日新月异,甚至超出了很多人的想象。不光是学术界,还有产业,乃至政府、社会都变得非常关心这件事。技术发展很快,但是对智能的科学问题、数学问题,乃至后面的计算问题,并没有界定得很清楚。 自古以来,中国的哲学中一直有“道”和“术”的概念。那么在科技这个领域,术是工程技术,千变万化;但是道,思想、科学理论的本质问题,大道至简。过去十年,在机器智能这个领域,“术”的层面取得了长足的进步,但是“道”的层面恐怕还有很长的路要走。 今天大会的主题是‘AI for science’,我想在今天强调一个观点,就是——可能“智能就是科学,科学就是智能”。 过去几年,我们团队一直在研究智能到底是什么,智能的背后有没有严格的数学问题,有没有非常严谨的计算基理。这是我们想搞清楚的。 爱因斯坦说过一句话,这句话是在讲science。Everything should be made as simple as possible,but not any simpler(凡事力求简洁,但不能过于简化)。意思是所有的事情都应该解释得尽可能的简单到不能再简单。这个标准是什么呢?要简化,把世界的规律用最简单的方式找到;但是不能再简单,再简单就解释不了现象。这两句话在我看来是科学的本质,也是智能的本质。 刚才韩院士也提到,对于未来会怎么样,大家现在都很焦虑。一个古老的智慧是——欲知未来,先知过去。 01 从生物演化视角重新思考智能 最近几年,我和团队做了一些跨学科的合作研究,我们的智能研究本身也越来越深入,这让我强烈地感受到——自然界生物的起源与进化是就是智能机制起作用的结果,甚至可以认为——生命的本质就是其智能的演进。智能是生命的更底层的机制,而生命形式只是智能的载体。 可以看到,其实生命的起源与发展过程就是生物智能发生和发展的过程。最早的时候只有DNA,后来开始有了早期的生命。这些最早的生命个体基本上没有学习和自我进化的能力,几乎可以认为在个体层面没有智能。但群体有智能,群体一步步通过遗传变异和基因的优胜劣汰,代代相传外部世界的知识,从而帮助适应与生存。这种过程现在有一个很流行的名字,就是生物群体在做Reinforcement learning,不是不能进步,但代价很大。 带着这个视角来看今天的大模型,你会发现大模型的进化与上述情况非常相似。现在的 “大模型”完全可以类比 DNA和早期生命阶段,我们对它的内部机制并不完全了解,但试错、竞争、优胜劣汰的过程和现象,如出一辙。早期无数生命快速诞生和消亡,现在的大模型则是百模大战,一将功成万骨枯——同样,这个过程当然也能进步,但代价极大,资源消耗惊人。 到了差不多5亿年前,生物的神经系统和眼睛的出现,让生物个体获取外部信息的能力激增,引发了寒武纪生命大爆发。大脑一定程度上取代了DNA的记忆作用,个体具有了智能。 生物的智能,从基因遗传和自然选择这种物种层面的智能,生物学上我们叫Phylogenetic,进化到个体具有后天学习与适应的智能Ontogenetic,这是智能机制上非常大的跳跃。 后来人类诞生,相比于此前的生物,人类的大脑高度发达,个体智能得到了极大提高,同时人类群居行为和信息交流又进一步提升了人类的群体智能。不但是人类的个体在学习,而且学习的东西还通过文字和语言在交流并得以在群体中传承,语言文字又取代了DNA的另一部分作用,能够把知识记忆并传下去。 然后到了几千年前,数学与科学的出现又一次大大推动了智能的发展。人类学会了抽象的能力,超越了之前单纯从经验的数据里寻找规律。这期间到底发生了什么?到目前为止大家并不是很清楚,但是我们知道,作用机制从本质上和生物智能的早期机制是非常不一样的。我们做学问一定要把历史搞清楚。 02 智能研究历史: 起源、寒冬与大爆发 那么真正开始对智能进行研究,这件事情的起源在哪里?今天一提到智能,大家都说是起源于 1956年(达特茅斯会议定义的)的“AI”,这显然是不正确的。人类对智能机制的深入研究至少可以追溯到上世纪40年代。当时,以诺伯特·维纳为代表的一大批杰出科学家,开始探索机器模拟动物和人类智能的可能性。 他们研究了哪些问题呢?比如研究“一个系统怎么从外部世界学习有用的信息,这些信息怎么组织管理、度量”,他的学生香农创立了信息论;维纳本人研究“动物是如何学习的,反馈、纠错”,这是控制论和系统论;然后是“怎样通过跟外部环境或者对手博弈,不断地提高决策质量”,这是冯·诺伊曼的对策论和博弈论。维纳的思想还直接影响并催生了40年代初沃伦·麦卡洛克和沃尔特·皮茨提出人工神经网络首个数学模型。包括图灵研究计算(computing)如何通过机器实现,他提出图灵测试本质上也是相信人和机器之间的计算机制应该存在着统一性。我们看到,维纳的《控制论》英文名就叫Cybernetics: on Control and Communication in the Animal and the Machine。这些科学家就是想知道动物感知和预测外部世界的能力,以及这种系统的本质和机理到底是什么。对这些科学家来说,他们都坚信——智能背后的数学机制是统一的。一旦找到了并实现了这些机制,动物与机器之间的界限将变得模糊——我们可以将其称为“诺伯特·维纳测试”。 人工神经网络的诞生与发展本身,同样是人类从生物学和神经科学研究中获得灵感的结果。既然动物是一种智能存在性的证明,那么我们就可以去研究神经的工作原理。这促使了神经元的数学模型的诞生,即人工神经元。有了数学模型之后,当时大家比较急,或者说对智能的后续发展开始变得过分乐观,觉得既然掌握了神经元的数学模型,那就可以去构建神经网络,制造感知机,并且去训练它。大家如果去看50年代的《纽约时报》对感知机的报道会发现,我们现在在人工智能上吹的牛当时已经吹过了,比如机器能够自主学习和思考,人类将不再需要劳动等等,这都是50年代神经网络模型出现后的社会讨论。但是后来发现其实不行,不work。 直到80年代,人们才意识到可能还有一些关键因素没有被充分理解,所以又重新开始研究大脑的工作原理,从而诞生了卷积神经网络,这也是1989年的图灵奖。 大家可以看到,40 年代之后,有了人工神经元的模型后,开始建立了系统和网络,有了神经网络的概念。在过去大概 80 年的时间里,神经网络几起几落,这是一个基本的发展历史。最早由于 practice比较粗糙,效果并不是很好,当然理论上也发现了神经网络有它的局限性,让大家在70年代对神经网络的能力产生了一些质疑,导致在70 年代进入了一个寒冬。但是在 80、90 年代还是有不少人仍在坚持,比如Hinton、LeCun 等等,而且在设计越来越好的算法,去训练神经网络,包括 Backpropagation 等。到 2000 年,神经网络又进入第二个寒冬,原因主要是在做分类的问题上,出现了一个支持向量机的工作,由于它的数学理论比较严谨、算法比较高效,所以对神经网络也带来一些冲击。一直到2010年以后,神经网络随着数据以及算力的加持,它的性能得到逐渐的提高,才带来了这些年的蓬勃发展。 最近这十几年,凭借算力和数据的支持,人工神经网络的应用开始迎来飞跃,直到今天。特别是在文本、图像和科学领域尤为突出。比如说 在Transformer 下,不管是文本、图像,甚至在各方面的科学数据上都取得了非常显著的成效。所以其实近年来AI的成果,实际上是多年前的理念在技术层面的实现。 03 从黑盒到白盒 现代深度神经网络一直是黑盒子。因为基于这些深度网络的人工智能系统都是基于经验或者试错的方式设计出来的。当然,这个黑盒子的确取得了很多非常突出的成果。所以不少人会认为深度网络作为“黑盒子”,只要能用、好用就足够了。从工程角度看,这或许没问题,但从科学角度来看,我觉得这难以接受。更何况历史上,但凡影响力巨大的事物,一旦它还是一个“黑盒子”,就极有可能被人利用。 以天文为例,历史上,在天体物理、牛顿力学诞生之前,迷信与巫师活动盛行。一些人会利用民众对天文现象的无知制造恐惧,从而达到自己的目的。而科学家的重要的价值和责任之一就是要破除这种现象。从这个角度出发,我们必须要搞清楚,智能究竟是什么,这些深度网络究竟在做什么、能做什么。 我们需要研究怎么把智能定义为一个科学问题,明确其科学问题的核心,探究它的数学本质,以及确定正确的计算方法——这些议题现在必须被提上日程。 今天的主题是“AI for science”。科学到底是什么,能做什么?某种程度上讲,科学就是感知到并学习外部世界,然后获取可预测的信息和规律。 这里有很多例子,比如气象学,正是因为世界并不是完全随机的,有一些是可以找到内在规律的,我们才能预测天气。物理规律的发现同样是如此。比如一个球的下落,我们知道它是遵循物理定律的。但其实,从智能的角度,我们在座的每个人甚至是阿猫阿狗都是“牛顿”。因为人和猫狗这样的动物其实都对外部世界建立了极为精准的物理模型。比如当玩的球下落的时候,猫和狗能够迅速且精准地接住,甚至比人还准。它们不需要懂牛顿定律,却能不断学习,并用学到的东西对外部物理世界做出精准预判。学习到的是什么呢?是外部世界的数据的分布规律。 那能不能从数学角度把这些规律统一起来呢?其实是可以的。牛顿定律和动物学到的物体运动的规律差别仅在于表达的方式不同,语言不同,但在数学上其实是具有一致的表现形式的。比如说一个物体在不受外力影响的情况下,会在一条直线上运动,我们很容易判断它在下 一 秒出现在哪里,它不会随机出现在其它的地方。当然还有更复杂的可预测的问题,它可能不是一条直线,很可能是一个平面,或者是多条直线,甚至多个平面、多个曲面等等,数据里面很多的信息就是通过这种结构体现出来的。 我们学习就是要从这些观测到的高维空间中的数据里面学到低维的数学结构和特征,学到以后还要把它组织好、表示好,这也是现在AI领域的前沿课题。 学习到低维结构有哪些好处呢?低维结构具有很多很好的性质,比如completion(补全)、denoising(去噪)和error correction(纠错)。 首先,completion补全。数据分布在一条线上,部分缺失,AI能够填补这些空白,就像GPT做填空题一样。事实上Transformer就在做这件事,nothing else。 第二是denoising,去噪。当我们识别出数据中的噪声并找到规律后,就能清除噪声,就像我们的大脑会自动清晰化模糊的图像。这就是Diffusion model在做的事,大家现在经常看到的以及用到的用AI生成声音、图像的功能和应用,本质上就是在做这个,nothing else。 低维结构第三个特别好的性质是Error correction,纠错。当发现数据与已知规律不符的时候,比如物体被遮挡,AI能够像像大脑一样填补缺失部分,甚至损毁了的内容都可以恢复,现在机器做出来的效果可以非常好,远远超过很多人的想象。 所以我们学习的统一的数学问题,就是从高维世界中学习数据的低维分布,然后把它组织好并结构化。前面讲到,人和动物的大脑天然就在做这个事情,找到相关性和规律。我们现在通过数学方法让机器来做同样的事情——去发现数据间的相关性和规律。 数据分布在很高维空间中,一张图像可能包含一百万或一千万像素,但其结构可能只有几维,甚至非常线性。宇宙广袤,千变万化,但研究弦理论的数学家和物理学家可能会说,从宇宙大爆炸到今天的所有观测到的物理现象,用一个9维或11维的模型就足够描述了,极为简洁。内在的道理是一样的,规律本身简单,而表象千变万化。 刚才谈的是“学什么”的问题,我们要去找低维结构。那么该怎么找,怎么学呢? 首先是去解决观测数据中的噪声问题。比如我们观察的世界空间是一维的,那么它更低维的规律就应该在零维上。我们看这张图,偏离红线以外的观测就应该是噪声,我们可以通过数据压缩,把这两条红线外的区域往里挤压来去噪。而衡量这些数据分布的不确定性的指标就是熵。当我们在去除噪声,朝低维结构压缩的时候熵在减少,这是信息论描述的事情。通过这样的过程,相似的东西会自然聚集,而不相似的则应该被分开。 过去十年间,神经网络不管是感知、分类还是生成,所做的事情都可以通过这张图来解释,今天大家所见的所有AI的现象,它最基本的原理都在这张图上,包括执行方式和优化算子。这里面的数学机理即使是本科生也能理解。 好,刚才说的是从一维到零维的情况。当数据维度更高的时候,情况会稍微复杂一些,但道理是一样的。 当我们对这个世界还什么都不知道的时候,什么事情都可以发生,你可以想像整个未知世界一开始可能是整个蓝色球覆盖的区域。但因为我们的世界不是随机的,它是有规律可预测的,可能发生的事情就是这些绿色的球所表示的区域。如果我找到这些绿色的区域,其实就是对这个世界认知的信息有所增加,这就是信息增益。从信息表达的角度,我就用不着去把每个球都记下来,我只需要记住这些绿色的球,对这些球进行编号,球的编码量就会减少。所以你会看到,对世界的认知的信息在增加,实际上是一种编码量减少的过程,这其实就是压缩的概念。因为这个世界是可预测的,发生的事件存在的分布就是可以被压缩的。这是第一点。香农的信息论其实就是告诉我们怎么用类似编码的方式把信息记录下来。当然,现在有了一个更时髦的词,叫Tokenization. 第二,当我找到这些绿色球所在的地方之后,我还需要在大脑里面把它们组织好。可能一开始我们的脑子还区分不了苹果和桃子,比如说这两条线,一个代表苹果,一个代表桃子,我要把苹果和桃子在我的大脑里面最大限度的分开。相关的变成独立的,不正交的变成正交的。实际上现在Transformer就是在做这样的事,它就是将图像打为Tokens并组织好。 包括现在,我们看到Diffusion Model ,一样的,当我们知道怎么做了以后,就是从一个随机的过程逐渐压缩去噪,最后找到自然图像的分布。而且目前Diffusion Model还有一些缺陷,没有完全组织好。所以完全可控的生成还没有完全实现。 现在大家看到的Stability AI, Midjourney等等其实也都是在做这件事。 今天的AI技术像Diffusion Transformer,用到图像、视频上,像Sora,本质上都在做这件事。原理上其实是一样的。 现在知道了学习的目的,那么具体要怎么去实现它呢? 压缩去噪要优化的目标是一个很复杂的函数,目标很复杂。我们找不到全局最优解。但至少可以局部地去优化它。通过对输入的数据的分布稍微重组织一下,使其熵略微减少,一层一层地进行。自然界也不会一次做到位,但自然界知道可以在原有的基础上一步步变化。那我们也可以一步步优化,使得每次数据被处理后都更好一点,熵都减少一点,一层一层,一次一次地来做。神经网络每一层都在做这种整理,让使输出数据比输入更好。所以其实从这里,一目了然,神经网络就是在做压缩、去噪,以找到数据的低维分布并把它组织好。 知道了这些,我们就可以通过数学推导,设计这些网络每一层的算子并优化明确的目标函数。大家可以看到,这些数学推导只需要本科生的数学知识,主要就是求导以及做梯度下降。然后大家会发现,对这样的算子的一些简单的实现就有类似Transformer的结构出现。并且这样的网络学到的结构更加简洁,更加具有统计和几何意义。它就是在对数据做聚类和分类。 当我们了解神经网络要实现的目标后,就可以完全理解它其实是实现这个目标的手段而已(means to the end)。那么我们就可以清晰、可控地设计每一层的结构,每一层要实现什么算子,作用是什么,算子、参数在做什么,都可以看得很清楚,而且数学上完全是可解释和可控的, 不需要人去猜测、调整。 前面讲的是早期的最基本的白盒模型。最近这两年的时间,我们的工作又有了令人振奋的进展。首先,白盒的结构完全可以扩展,处理的图像规模完全可以扩展到几十亿,甚至上百亿。而且,白盒也正在变得更加简约,过去的很多通过经验设计的冗余的地方,全部可以不需要。甚至我们还让它变得更加高效,我们优化了Transformer,每一层算子的计算复杂度从二次复杂度降到了线性复杂度,而且全部是通过数学推出来的,不是猜出来或者试出来的。清清楚楚,更高效,而且去除了冗余的、经验设计中不必要的部分。 前面是学习,从外部世界学到数据分布,并且组织好。 但怎么判断做对了没有呢?数据够不够学习完整的分布,有没有漏掉的地方?怎么去验证这个模型压缩去噪以后是对的,而且够了呢?只有一个办法——回去用,把它decode 回去。 刚刚过去的2024年,Hinton获得了诺贝尔物理学奖。获奖的这个工作是他在80年代做出的,其实就是在做这件事,从物理学得到启发,把autoencoding做好。当然,今天看来这个方法不见得就完全正确,但这个问题是很对的。 我们是怎么解决这个问题的,又做到了什么样的效果呢?可以看到,用白盒的方法,所有算子都是数学方法搭建出来,完全可以做到和通过经验设计的网络一模一样的效果,甚至可以更好。 那仅仅依靠编码(encoding)和解码(decoding)就够了吗? 2022年,Hinton发表了一篇文章,叫Forward-Forward Algorithm (编者注:在NeurIPS 2022 上,Hinton 介绍了他的最新工作“ Forward-Forward Algorithm ”即FFA,这是一种新的人工神经网络学习算法,灵感来自于人类对大脑神经激活的了解。他认为forward-forward 有可能在未来取代 backprop。该论文还提出了一种新的更接近大脑的节能机制的计算模型,并可以支持forward-forward算法)。其实我们早就知道,自然界没有BP这个option(选项),没办法像程序员那样可以看左边不够补一下左边,看右边不够又补一下右边,数据不够又去量一量再给系统补下数据。人也好,猫狗也好,我们的大脑是不直接在外部物理世界度量对错的,我们做不到这一点,我们所有的学习都是在大脑内部进行的。 比如说,我看到现场有很多圆形的设备和装饰,但大家怎么确定它的形状就一定是圆的呢?你是用尺子圆规一个个去测过的吗?不是的吧。那你怎么知道的呢?从小到大,我们并没有逐一测量过这些东西,但我们还是能够分辨物体的形状、种类、判断速度并且采取行动。动物也是一样的,当一只山羊看到老虎向它冲过来时,它不可能说老虎你等一下,我来测测你的距离和奔跑速度,不会的。如果真有过这样做的生物,也早就被自然选择淘汰掉了。动物的学习全部是自主(Autonomous)的学习。 其实这就是诺伯特·维纳80年前就提出并且探讨的问题。维纳本科学的是动物学,所以他很早的时候就在思考——动物是怎么学习这些的呢?动物的方法是,我要让我的记忆能够恢复我观察到的物理世界,并对它进行预测。动物没法把自己大脑中的世界和真实的物理世界直接比较,来看到底对还是不对。 那它们是怎么做的呢?答案是闭环。就是不用在真实世界中去比,而是把你假想的和你感知到的进行比较,这就是闭环做的事情。所有的自然界的生物,全部都是闭环学习。 为什么现在有些人主张进行端到端的模型训练呢?那估计他们想卖更多的数据或者芯片给你吧。端到端的方式当然可以训练,但代价很大,成本很高。而像蚂蚁和其他小动物,都能高效、自主地学习,不需要大量的数据和算力,因为它们的学习从机制上就是不一样的。 预训练存在一个显著问题:容易出现灾难性遗忘。大家也可以看到,预训练模型从1.0到2.0再到3.0,每次都需要重新训练。但是我们看我们自己,你的大脑有每次都重新训练的1.0、2.0、3.0的版本吗?没有的。你每天都在持续学习,而且你长大了学了新东西以后,你小时候学的是不会忘的,你还是知道加减乘除怎么算,对不对?闭环系统是不会忘的。这是最近我们与Yann LeCun(杨立昆)团队合作的一些工作。 我们看近年来生物学和计算机科学的跨学科研究。证明了生物的智能就是具备这样的特征,它们就是这样来组织它们的记忆,而且组织得非常精妙。这是对猴子大脑的研究,可以看到它把记忆组织得非常好,组织成正交子空间,而且是稀疏表达,predict control,通过闭环、反馈控制进行纠错与学习。这些机制在自然界的生物中是普遍存在的。 04 我们离通用智能还有多远? 最后总结一下。 这几年,越来越多的人开始讲“通用智能”,我们的目标好像很明确,也很一致。但,到底要怎么实现呢?计算机科学之所以叫计算机科学,这件事的本质就是和计算问题高度相关的。 过去80年,人类对的计算的理解一直在演进。从incomputable(不可算)到computable(理论上可算)到tractable(可以通过计算机计算)到scalable(可扩展的计算),一步一步。现在许多人认为智能就是在做压缩,这是完全错误的,因为这件事情它甚至有可能是不可计算的。当然图灵后来定义了可算与不可算。而即使被证明是可计算的,也未必能计算。NP-hard的问题传统计算机算不了。现在DNN(深度神经网络)和BP(反向传播)之所以流行,是因为它们计算复杂度相对较低。但即便如此,自然界也没有同样的资源用类似BP这样的机制来算。我们看现在的大模型,动辄百亿、千亿的参数,能源消耗动不动就要多少个兆瓦。而我们人类大脑的能耗只有十几二十瓦,这中间还差了很多个数量级。自然界不可能这样去浪费算力和资源。 自然界的计算机制到底是怎么样的?其实现在科学界还在不断的探索研究中,现在还并不完全清楚。但已经知道的是——大脑绝对不仅仅是一个大模型,而是由数十万个并行单元组成的,甚至是以多模态的分布式的处理方式来实现的。这和当前流行的把所有内容砸在一个模型中的做法是完全不同的。我们还有很多需要向自然界学习的地方,也希望在探索智这个问题上,面对自然界的时候,大家能够谦虚一点。 今天的大会主题是“AI for science”,我觉得其实还有另外半句,就是 “Science also for AI”。关于智能的科学机制,我们知道的还太少,还有很长的路要走。 我们看到,今天好像所有人都在谈论智能,但其实对智能一直没有一个明确的科学的定义。这里我们提出一个对智能的定义——真正的智能系统必须具有自主改进和增加自身知识的机制。 任何一个系统,不管它能力多强,储存的知识数据有多庞大,只要不具备自主纠正或增加知识的计算机制,它就是没有智能的。我们经常举的一个例子是 ChatGPT 和一个婴儿,谁更有智能、谁更有知识?显然,GPT虽然拥有大量知识,但按这个标准,它是不具备智能的。一个婴儿虽然知识不多,但通过不断思考与学习,最终可能成为下一个爱因斯坦。某种意义上说,我们认为智能是能够增加知识的,是知识的微分,知识是通过智能活动所积累起来的,它是智能的积分。 我也建议大家,尤其是年轻的研究者和从业人士多深入研究历史。当我们真正理解了人工智能的整个发展历史以后,会发现过去10年所做的事情与50年代定义的“人工智能”其实不是一个东西。当时参加达特茅斯会议的年轻人,其实是想避开维纳和冯·诺依曼等等当时在学术界有着巨大声望的前辈,要在学界证明自己。他们想做和动物层面的感知、预测不一样的智能,研究属于人的独特的智能。50年代图灵提出图灵测试也是。他们想研究人类如何解决符号、抽象问题,这才是当年“人工智能”program 原本想做的事情。 回过头来再看过去十年的智能发展做的事情,我们把它们跟40年代研究的“动物的智能”和50年代提出的“人的智能”要做的事情列出来对比,你可以做下判断,到底离谁更近,离谁更远。 可以说,过去十年做的事,主要还是属于 “Cybernetics”的范畴,而且还没有做全,距离50年代追求的那个“Artificial Intelligence”其实还非常遥远。 05 多一点思想 少一点技术 智能不是一个笼统的概念,我们现在必须把它变成一个科学的概念。可以看到,生物智能的发展是有层次的,它们高度相关,但是每一次跃升都会有新的不一样的东西出现。最早的时候是群体的智能,生物群体通过强化学习来实现群体的智能的增长;然后个体智能得到了提升,动物个体能够自适应、反馈闭环、纠错,连续地来进行学习;然后人类诞生了,人类群体中形成了语言,能够交流,能够共同学习,大大提高了人类群体获取外部世界知识的效率,然后文字诞生以后还能把知识再传承下去,从群体智能层面很大程度上取代了DNA的一部分作用;然后,可能是在几千年前也可能更早,我们人类的大脑开始出现新的变化,产生了抽象思维,发展了自然数等概念,产生了数学和科学。这是整个智能的发展过程。 回过头来看,过去几年这么多大模型,是不是真的有数字能力呢?每次新的大模型出来我的学生都会测这个模型有没有数的概念,结果都是没有,包括GPT4o出来以后,还是3.11大于3.9。当然现在他们通过工程师改过来了,但是你换个方式问,3.11还是大于3.9。大家在接受一个新的信息的时候一定要提高警惕,有没有自己做过试验去验证,最后得到第一手的的可信的知识,如果没有,小心一点。 关于机器智能的发展,我个人认为可以分成几个阶段。第一个阶段,预训练大模型,就是模仿DNA,一代一代不同的结构和知识传承下去,百模大战,不好的被淘汰,就是这样,而且进化的机制和方法都很像。第二个阶段,机器智能真正出现个体记忆,自主学习。个体的“大脑”能够有感知,能够自适应,在大模型之外获取新的知识,而且不断改进。目前的机器智能还处于从阶段一迈向阶段二的过渡过程中。我们的团队也在为之努力。至于第三阶段,是真正实现人类水平的思维能力,抽象思维、因果逻辑等等。我个人认为还早,至少现在的智能机制还不太能够做到这些事情。 在现在这个时间节点上,理论变得非常重要。智能应该变成了一个科学问题、数学问题和计算问题,一定要科学化。不然大家就会轻易地说出一些奇怪的话来。比如我们经常能看到一些标题党: “Deep network is all you need.” “Reward is all you need.” “Attention is all you need.” “Foundation model is all you need.” …… 我觉得这样的提法完全是反科学的。但是现在的年轻人可能真的会把这些话当成真理。再往下,更严重的就是“不得了,人工智能马上要超越人了”。那你这个“超越”是什么意义上的“超越”呢? 当然,某种意义上确实超越了。计算机早就在很多地方已经超过人。一个普通的家用计算器,在算数、开根号方面那早就超过人了。但大家对这些事情要有本质的理解,不要泛泛去讲。 现在媒体上动不动就能看到,说人工智能未来要毁灭人类了。说实话我很反感这些耸人听闻的说法。因为我们清楚地知道,至少目前的系统还没有超出对数据进行压缩和编码的范畴。 从方法论上,科学研究往往依托于两个基本方法,一个是归纳法,一个是演绎法,这两者都有它的作用,比如实验物理,理论物理等等,相辅相成。过去十年,机器智能在技术上面突飞猛进,归纳出了很多好的经验,这期间的发展靠的主要是归纳法;但是我希望今后的十年,如果要把智能研究变成科学的问题,数学的问题,应该要有很好的数学理论框架。就像我们计算机学的泰斗Donald Knuth讲的,“The best theory is inspired by practice, the best practice is inspired by theory” 。我们过去十多年积累了那么多的practice,现在就是呼唤英雄的时代,大道至简,需要去找到智能的理论框架,去探索它的基本原理和思想。多一点思想,少一点技术。 谢谢大家!
外媒称2025年中美关系开局良好 期待两国合作造福全球
  国际在线专稿:当地时间1月20日,习近平主席特别代表、国家副主席韩正应邀在华盛顿出席美国总统特朗普就职典礼。2025年开年以来,中美高层互动与民间交流频繁,国际社会对中美关系发展前景怀以较为乐观的期待。孟加拉国《闪电报》近日刊发评论文章《中美关系开启合作新篇章》,聚焦中美友好交往对两国乃至全球发展的重要意义。文章指出,中美经济深度交织,两国积极开展务实合作将有利于共同应对全球性挑战,促进世界和平与稳定。 孟加拉国《闪电报》网站文章截图   文章首先回顾了近期中美友好互动。美国总统特朗普在开启第二个任期前与中国国家主席习近平通电话,文章认为,这反映了两国元首对双边关系重要性的共识和双方希望在新的起点上书写合作新篇章的共同愿望。通话中,双方领导人同意建立战略沟通渠道,就两国共同关心的重大问题保持经常性联系,“这凸显了元首外交对中美关系发展方向的战略引领作用”。文章还提到,近日“美国网友涌入小红书”现象则展现了两国的民心相通。中国国家副主席韩正作为习近平主席特别代表出席特朗普就职典礼,象征着两国关系进入新的接触阶段。   文章指出,作为世界上最具影响力的两大经济体,中美关系一直是全球外交舞台上的焦点。国际社会对中美友好交往普遍持欢迎态度。全球市场投资者对中美关系前景较为乐观,与中国股指挂钩的交易需求激增,彰显世界对中美关系稳定健康发展的热切期望。   文章分析称,中美经济联系是两国关系的重要基石。中美贸易、投资与技术合作深度交织,两国长期互惠互利。经过几十年的合作与发展,中美实现多领域优势互补,在全球产业链与供应链中得以深刻体现。文章呼吁美国应以维护共同利益为目标,遵守自由贸易原则和国际规范,尊重各国在全球经济中的角色和作用。“历史一再证明,合作将使中美双方实现共赢,对抗只会两败俱伤。近年来的贸易与技术摩擦,已生动警示了对抗造成的经济与社会代价。”   文章强调,2025年中美关系开局良好,但前路仍然充满挑战。美国政府正值过渡期,可能带来外交政策的波动变化,同时前任政府给双边关系留下了一定“负资产”。其次,气候变化、全球公共卫生危机和地区安全等亟待解决的全球性挑战需要中美共同努力、合作解决。两国要克服分歧,携手进步,不仅需要打破美国对华长期抱有的“零和博弈”心态,更要建立起平等互利的合作框架。此外,两国国情、政治制度和文化差异客观存在,需要双方加强相互理解与尊重。中美应通过对话加深了解,避免不必要的对抗,致力于推动世界和平、经济繁荣与可持续发展等共同目标,妥善处理分歧。   文章进一步表示,中美关系重要性已超越双边关系范畴,作为全球领导者,两国的政策和行动将对世界稳定与发展产生深远影响。两国合作不仅有助于应对全球性挑战,还将为其他国家树立典范,推动多边主义并促进世界和平。展望未来,在全球目光聚焦下,中美有机会在新的历史篇章中取得更大进展,通过建立信任与合作,发挥各自优势,实现共赢的同时为全球和平与繁荣作出贡献。(胡晓薇)
中国算力的隐秘江湖:以前近10万元的A100抢疯了,现在很多卡都没拆封
文 白鸽 编辑 王一粟、苏扬 要想富,先修路。 想要AI大模型能够持续迭代升级,离不开底层算力基础设施的搭建。自2022年ChatGPT爆发以来,算力市场也迎来了爆发式增长。 一方面,中国的科技巨头们,为了抢占未来AGI时代的门票,正在进行的算力“军备竞赛”,疯狂囤积显卡资源的同时,也正在进行从千卡、万卡再到十万卡级别算力集群的建设。 研究机构Omdia报告显示,2024年字节跳动订购了约23万片英伟达的芯片,成为英伟达采购数排名第二的客户。 有报道称,字节跳动2025年的资本开支将达到1600亿元,其中900亿将用来购买AI算力。与字节跳动同等规模的大厂,包括阿里、百度、中国电信等企业,也都在推进十万卡级别的算力集群建设。 而科技巨头们疯狂的算力基建行为,无疑也正在不断将中国AI算力市场推向高潮。 但巨头们疯狂扩大算力规模的另一面,中国算力市场中却有大量的算力资源被闲置,甚至开始出现“中国整体算力资源供过于求”的声音。 “算力市场2023年非常火,做性能相对较低的A100的都赚到了钱,但2024年市场冷淡很多,很多卡都没有拆封。不过各种因素叠加下,面向游戏和消费市场的4090仍处于需求更多的状态。”云轴科技ZStack CTO王为对光锥智能说道。 这两年,算力生意是大模型浪潮中第一个掘到金的赛道,除了英伟达,也还有无数云厂商、PaaS层算力优化服务商、甚至芯片掮客们都在前赴后继。而这一轮算力需求的暴增,主要是由于AI大模型的迅猛发展所驱动起来的。 AI的需求就像一个抽水泵,将原来稳定多年的算力市场激活,重新激起汹涌的浪花。 但现在,这个源头动力发生了改变。AI大模型的发展,正逐渐从预训练走向推理应用,也有越来越多的玩家开始选择放弃超大模型的预训练。比如日前,零一万物创始人兼CEO李开复就公开表示,零一万物不会停止预训练,但不再追逐超大模型。 在李开复看来,如果要追求AGI,不断训练超大模型,也意味着需要投入更多GPU和资源,“还是我之前的判断——当预训练结果已经不如开源模型时,每个公司都不应该执着于预训练。” 也正因此,作为曾经中国大模型创业公司的六小虎之一,零一万物开始变阵,后续将押注在AI大模型推理应用市场上。 就在这样一个需求和供给,都在快速变化的阶段,市场的天平在不断倾斜。 2024年,算力市场出现供需结构性失衡。未来算力基建是否还要持续,算力资源到底该销往何处,新入局玩家们又该如何与巨头竞争,成为一个个关键命题。 一场围绕智能算力市场的隐秘江湖,正徐徐拉开帷幕。 供需错配: 低质量的扩张,碰上高质量需求 1997年,还很年轻的刘淼,加入了当时发展如日中天的IBM,这也使其一脚就迈入了计算行业。 20世纪中叶,IBM开发的大型主机被誉为“蓝色巨人”,几乎垄断了全球的企业计算市场。 “当时IBM的几台大型主机,就能够支撑起一家银行在全国的核心业务系统的运行,这也让我看到了计算让业务系统加速的价值。”刘淼对光锥智能说道。 也正是在IBM的经历,为刘淼后续投身新一代智算埋下伏笔。 而在经历了以CPU为代表的主机时代、云计算时代后,当前算力已进入到以GPU为主的智算时代,其整个计算范式也发生了根本改变,毕竟如果沿用老的架构方案,就需要把大量数据通过CPU绕行再通往GPU,这就导致GPU的大算力和大带宽被浪费。而GPU训练和推理场景,也对高速互联、在线存储和隐私安全提出了更高的要求。 这也就催生了中国智能算力产业链上下游的发展,尤其是以智算中心为主的基础设施建设。 2022年底,ChatGPT的发布正式开启AI大模型时代,中国也随之进入“百模大战”阶段。 彼时各家都希望能够给大模型预训练提供算力,而行业中也存在并不清楚最终算力需求在哪,以及谁来用的情况,“这一阶段大家会优先买卡,做一种资源的囤积。”图灵新智算联合创始人兼研究院院长洪锐说道,这也是智算1.0时代。 随着大模型训练参数越来越大,最终发现真正算力资源消纳方,集中到了做预训练的玩家上。 “这一轮AI产业爆发的前期,就是希望通过在基础模型预训练上不断扩大算力消耗,探索通往AGI(通用人工智能)的道路。”洪锐说道。 公开数据显示,ChatGPT的训练参数已经达到了1750亿、训练数据45TB,每天生成45亿字的内容,支撑其算力至少需要上万颗英伟达的GPU A100,单次模型训练成本超过1200万美元。 另外,2024年多模态大模型犹如神仙打架,视频、图片、语音等数据的训练对算力提出了更高的需求。 公开数据显示,OpenAI的Sora视频生成大模型训练和推理所需要的算力需求分别达到了GPT-4的4.5倍和近400倍。中国银河证券研究院的报告也显示,Sora对算力需求呈指数级增长。 因此,自2023年开始,除各方势力囤积显卡资源之外,为满足更多算力需求,中国算力市场迎来爆发式增长,尤其是智算中心。 赛迪顾问人工智能与大数据研究中心高级分析师白润轩此前表示:“从2023年开始,各地政府加大了对智算中心的投资力度,推动了基础设施的发展。” 在市场和政策的双重影响下,中国智算中心在短短一两年时间如雨后春笋般快速建设起来。 这其中既有政府主导建设项目,也有以阿里云、百度智能云、商汤等企业为主开始投资建设的智算中心,更有一些跨界企业看到其中的机会从而迈入这一赛道。 同时,还有像图灵新智算、趋境科技、硅基流动等创业公司进入到算力行业。 相关数据显示,截至2024年上半年,国内已经建设和正在建设的智算中心超过250个,2024年上半年智算中心招投标相关事件791起,同比增长高达407.1%。 但是,智算中心的建设并非简单的修桥铺路,一是对技术和专业度的要求很高,二是建设和需求往往存在错配,三是对持续的规划不足。 在刘淼看来,智算中心其实是中国独特的产物,某种程度上承担了部分支持本地产业发展的社会使命,但不是纯市场化的行为带来一大问题,就是在长达12-24个月建设周期后,“建好了就闲置了,因为已经不能满足2年后行业对算力需求了。” 从当前来看,中国算力市场资源在某些区域确实出现闲置。“中国算力市场现阶段问题的根源,就在于太粗放了。”刘淼说道。 不过,市场不能简单讲是供需过剩,或者供需不足,实际上是算力供给与需求的错配。即高质量的算力需求远远不足,但低质量的算力供给却找不到太多的市场需求。毕竟,大模型预训练玩家往往需要万卡以上的算力资源池。 然而,中国算力市场上前期部分智算中心的规模,“可能只有几十台到一两百台,这对于当前基础模型的预训练来说是远远不够的,但设备选型是匹配的预训练需求。”洪锐表示,站在预训练角度,算力确实稀缺,但由于规模达不到而不能用的算力放在那里就成了闲置。 大模型赛道分化算力需求悄然转变 大模型市场的发展变化太快了。 原本在大模型预训练阶段,行业中玩家希望能够通过不停的训练来提升大模型效果,如果这一代不行,就花更多算力、更多资金去训练下一代大模型。 “之前大模型赛道发展逻辑是这样的,但到了2024年6月份左右,行业中能够明显感知到,大模型预训练这件事已经到了投入产出的临界点,投入巨量资源做预训练,也可能达不到预期收益。”洪锐表示。 背后很重要的原因,在于“OpenAI技术演进的问题,GPT-3.5的能力很震撼,GPT-4的能力有提升,但是从2023年年中到2024年,整体的基座模型能力的升级达不到2023年的效果,再多的提升在CoT和Agent侧。”王为如此说道。 基础模型能力升级放缓的同时,预训练的成本也非常高昂。 此前零一万物创始人兼CEO李开复所言,一次预训练成本约三四百万美元。这对于大多数中小企业而言,无疑是一项高额成本投入,“创业公司的生存之道,是要考虑怎么样去善用每一块钱,而不是弄更多GPU来烧。” 因此,随着大模型参数越来越大,越来越多的企业无法承担大模型训练成本,只能基于已经训练好的模型进行应用或者微调。“甚至可以说,当大模型参数达到一定程度后,大部分企业连微调能力都不具备。”洪锐说道。 有相关数据统计,2024年下半年,在通过备案的大模型中,有接近50%转向了AI应用。 大模型从预训练走向推理应用,无疑也带来了算力市场需求的分化。洪锐认为:“大模型预训练的计算中心和算力需求,以及推理应用的算力需求,其实已经是两条赛道了。” 从大模型预训练角度来说,其所需要的算力与模型参数量、训练数据量成正比,算力集群规模的整体要求是:百亿参数用百卡,千亿参数用千卡,万亿参数用万卡。 另外,大模型预训练的一个重要特征,就是不能中断,一旦中断所有训练都需要从CheckPoint重头开始。 “去年至今,国内引进了大量智算设备,但平均故障率却在10%-20%左右,如此高的故障率导致大模型训练每三小时就要断一次。”刘淼说道,“一个千卡集群,基本上20天就要断一次。” 同时,为了支持人工智能走向Agent时代甚至未来的通用人工智能,需要不断扩大算力集群,从千卡集群迈向万卡集群甚至十万卡,“马斯克是个牛人,规划了孟菲斯十万卡集群,首个1.9万卡,从安装到点亮,只花了19天,其复杂程度要远远高出现有的项目。”刘淼说道。 马斯克此前在X上宣布启用10万卡规模的孟菲斯超级集群 目前国内为了满足更高参数大模型的训练,也都在积极投建万卡算力池,但“大家会发现,算力供应商的客户其实都集中在头部的几个企业,且会要求这些企业签订长期的算力租赁协议,不管你是否真的需要这些算力。”中国电信大模型首席专家、大模型团队负责人刘敬谦如此说道。 不过,洪锐认为;“未来全球真正能够有实力做预训练的玩家不超过50家,且智算集群规模到了万卡、十万卡后,有能力做集群运维故障排除和性能调优的玩家也会越来越少。” 现阶段,已经有大量中小企业从大模型的预训练转向了AI推理应用,且“大量的AI推理应用,往往是短时间、短期间的潮汐式应用。”刘敬谦说道。但部署在实际终端场景中时,会需要大量服务器进行并行网络计算,推理成本会骤然提升。 “原因是延迟比较高,大模型回答一个问题需要经过深层次推理思考,这段时间大模型一直在进行计算,这也意味着几十秒内这台机器的计算资源被独占。如果拓展至上百台服务器,则推理成本很难被覆盖。”趋镜科技CEO艾智远对光锥智能称。 因此,相较于需要大规模算力的AI(大模型)训练场景,AI推理对算力性能要求没有AI训练严苛,主要是满足低功耗和实时处理的需求。“训练集中于电力高地,推理则要靠近用户。”华为公司副总裁、ISP与互联网系统部总裁岳坤说道,推理算力的延时要在5-10毫秒范围内,并且需要高冗余设计,实现“两地三中心”建设。 以中国电信为例,其目前已在北京、上海、广州、宁夏等地建立万卡资源池,为了支持行业模型发展,也在浙江、江苏等七个地方建立千卡资源池。同时,为了保证AI推理应用的低延时在10毫秒圈子里,中国电信也在多地区建设边端推理算力,逐渐形成全国“2+3+7”算力布局。 2024年,被称作AI应用落地元年,但实际上,AI推理应用市场并未如预期中迎来爆发。主要原因在于,“目前行业中尚未出现一款能够在企业中大规模铺开的应用,毕竟大模型本身技术能力还有缺陷,基础模型不够强,存在幻觉、随机性等问题。”洪锐说道。 由于AI应用普遍尚未爆发,推理的算力增长也出现了停滞。不过,很多从业者依然乐观——他们判断,智能算力仍会是“长期短缺”,随着AI应用的逐渐渗透,推理算力需求的增长是个确定趋势。 一位芯片企业人士对光锥智能表示,AI推理其实是在不断尝试追求最佳解,Agent(智能体)比普通的LLM(大语言模型)所消耗的Token更多,因为其不停地在进行观察、规划和执行,“o1是模型内部做尝试,Agent是模型外部做尝试。” 因此,“预估明年会有大量AI推理算力需求爆发出来。”刘敬谦说道,“我们也建立了大量的轻型智算集群解决方案和整个边端推理解决方案。” 王为也表示;“如果算力池中卡量不大的情况下,针对预训练的集群算力很难出租。推理市场所需要训练卡量并不多,且整个市场还在稳定增长,中小互联网企业需求量在持续增加。” 不过现阶段,训练算力仍占据主流。据IDC、浪潮信息联合发布的《2023-2024年中国人工智能计算力发展评估报告》,2023年国内AI服务器工作负载中训练:推理的占比约为6:4。 2024年8月,英伟达管理层在2024年二季度财报电话会中表示,过去四个季度中,推理算力占英伟达数据中心收入约为40%。在未来,推理算力的收入将持续提升。12月25日,英伟达宣布推出两款为满足推理大模型性能需要的GPU GB300和B300。 无疑,大模型从预训练走向推理应用,带动了算力市场需求的分化。从整个算力市场来说,当前智算中心还处于发展初期,基础设施建设并不完善。因此,大型预训练玩家或者大型企业,会更倾向于自己囤积显卡。而针对AI推理应用赛道,智算中心提供设备租赁时,大部分中小客户会更倾向于零租,且会更注重性价比。 未来,随着AI应用渗透率不断提升,推理算力消耗量还会持续提升。按照IDC预测结果,2027年推理算力在智能算力大盘中的占比甚至会超过70%。 而如何通过提升计算效率,来降低推理部署成本,则成为了AI推理应用算力市场发展的关键。 不盲目推卡 如何提升算力利用率? 整体来说,自2021年正式启动“东数西算”建设以来,中国市场并不缺底层算力资源,甚至随着大模型技术发展和算力需求的增长,算力市场中大量购买基建的热潮,还会持续一两年时间。 但这些底层算力资源却有一个共性,即四处分散,且算力规模小。刘敬谦表示:“每个地方可能只有100台或200台左右算力,远远不能够满足大模型算力需求。” 另外,更为重要的是,当前算力的计算效率并不高。 有消息显示,即使是OpenAI,在GPT-4的训练中,算力利用率也只有32%-36%,大模型训练的算力有效利用率不足50%。“我国算力的利用率只有30%。”中国工程院院士邬贺铨坦言。 原因在于,大模型训练周期内,GPU卡并不能随时实现高资源利用,在一些训练任务比较小的阶段,还会有资源闲置状态。在模型部署阶段,由于业务波动和需求预测不准确,许多服务器往往也会处于待机或低负载状态。 “云计算时代的CPU服务器整体发展已经非常成熟,通用计算的云服务可用性要求是99.5%~99.9%,但大规模GPU集群非常难做到。”洪锐表示。 这背后,还在于GPU整体硬件发展以及整个软件生态的不充足。软件定义硬件,也正逐渐成为智能算力时代发展的关键。 因此,在智能算力江湖中,围绕智能算力基础设施建设,整合社会算力闲置资源,并通过软件算法等方式提高算力计算效率,各类玩家凭借自己的核心优势入局,并圈地跑马。 这些玩家大致可以分为三类: 一类是大型国资央企,比如中国电信,基于其央企身份能够更好的满足国资、央企的算力需求。 一方面,中国电信自己构建了千卡、万卡和十万卡算力资源池。另一方面,通过息壤·智算一体化平台,中国电信也正在积极整合社会算力闲置资源,可实现跨服务商、跨地域、夸架构的统一管理,统一调度,提高算力资源的整体利用率。 “我们先做的是国资央企的智算调度平台,通过将400多个社会不同闲置算力资源整合至同一个平台,然后连接国资央企的算力需求,从而解决算力供需不平衡问题。”刘敬谦说道。 一类是以互联网公司为主的云厂商,包括阿里云、百度智能云、火山引擎等,这些云厂商在底层基础设施架构上正积极从CPU云转型至GPU云,并形成以GPU云为核心的全栈技术能力。 “下一个十年,计算范式将从云原生,进入到AI云原生的新时代。”火山引擎总裁谭待此前说道,AI云原生,将以GPU为核心重新来优化计算、存储与网络架构,GPU可以直接访问存储和数据库,来显著的降低IO延迟。 从底层基础设施来看,智算中心的建设往往并不是以单一品牌GPU显卡为主,更多的可能是英伟达+国产GPU显卡,甚至会存在通过CPU、GPU、FPGA(可编程芯片)、ASIC(为特定场景设计的芯片)等多种不同类型的计算单元协同工作的异构算力情况,以满足不同场景下的计算需求,实现计算效力的最大化。 因此,云厂商们也针对“多芯混训”的能力,进行了重点升级。比如今年9月,百度智能云将百舸AI异构计算平台全面升级至4.0版本,实现了在万卡规模集群上95%的多芯混合训练效能。 而在底层基础设施之上,影响大模型训练和推理应用部署的,除了GPU显卡性能之外,还与网络、存储产品、数据库等软件工具链平台息息相关,而处理速度的提升,往往需要多个产品共同加速完成。 当然,除云大厂外,还有一批中小云厂商以自己的差异化视角切入到算力行业中,如云轴科技——基于平台能力,做算力资源的调度和管理。 王为坦言,“之前GPU在业务系统架构中还只是附件,后续才逐渐成为单独的类别。” 今年8月份,云轴科技发布了新一代AI Infra基础设施ZStack AIOS平台智塔,这一平台主要以AI企业级应用为核心,从“算力调度、AI大模型训推、AI应用服务开发”三个方向帮助企业客户进行大模型新应用的落地部署。 “我们会通过平台统计算力具体的使用情况、对算力进行运维,同时在GPU显卡有限的场景下,想要提升算力利用率,也会为客户切分算力。”王为说道。 此外,在运营商场景中,算力的资源池比较多,“我们也会跟客户进行合作,帮助其进行资源池的运营、计算、统一运营管理等。”王为表示。 另一类玩家,是基于算法提升算力计算效率的创业公司,如图灵新智算、趋镜科技、硅基流动等。这些新玩家,综合实力远弱于云大厂们,但通过单点技术突围,也逐渐在行业中占据一席之地。 “最开始我们是智算集群生产制造服务商,到连接阶段,则是算力运营服务商,未来成为智能数据和应用服务商,这三个角色不断演变。”刘淼说道,“所以我们定位是,新一代算力运营服务厂商。” 图灵新智算未来希望,搭建独立的整合算力闲置资源的平台,能够进行算力的调度、出租和服务。“我们打造一个资源平台,将闲置算力接入平台,类似于早期的淘宝平台。”刘淼说道,闲置算力主要对接的是各地区智算中心。 与之相比,趋境科技、硅基流动等企业,更聚焦在AI推理应用市场中,并更注重以算法的能力,来提升算力的效率,降低大模型推理应用的成本,只不过各家方案的切入点并不相同。 比如趋境科技为了解决大模型不可能三角,及效果、效率和成本之间的平衡,提出了全系统异构协同推理和针对AI推理应用的RAG(搜索增强)场景,采用“以存换算”的方式释放存力作为对于算力的补充两大创新技术策略,将推理成本降低 10 倍,响应延迟降低 20 倍。 而面向未来,除了持续优化连接底层算力资源和上层应用的中间AI infra层外,“我们更希望的一种模式是,我们搭的是一个架子,房顶上的这些应用是由大家来开发,然后利用我们架子能够更好的降低成本。”趋境科技创始人兼CEO艾智远如此说道。 不难看出,趋境科技并不只是想做算法优化解决方案供应商,还想做AI大模型落地应用服务商。 另外,当前行业中针对大模型算力优化方案,往往会优先考虑提升GPU的利用率。艾智远表示,现阶段对GPU的利用率已经达到50%以上,想要再提高GPU的利用率,难度非常大。 “GPU利用率还存在很大提升空间,但非常难,涉及到芯片、显存、卡间互联、多机通讯和软件调度等技术,这并不是一家公司或一门技术能够解决,而是需要整个产业链上下游共同推动。”洪锐也如此对光锥智能说道。 洪锐认为,目前行业缺乏真正能够从技术上将超大规模智算集群组网运维起来的能力,同时软件层并未发展成熟,“算力就在这,但如果软件优化没做好,或推理引擎和负载均衡等没做好,对算力性能的影响也非常大。” 纵观这三大类玩家,不管是中国电信等运营商,还是云厂商们,亦或是新入局的玩家,各自切入算力市场的方式不尽相同,但都希望在这一场全球算力的盛宴中分得一杯羹。 事实上,现阶段相比大模型服务,这的确也是确定性更强的生意。 算力租赁同质化 精细化、专业化运营服务为王 从赚钱的稳定度上,淘金者很难比得上卖水人。 AI大模型已经狂奔两年,但整个产业链中,只有以英伟达为首的算力服务商真正赚到了钱,在收入和股市上都名利双收。 而在2024年,算力的红利在逐步从英伟达延伸到泛算力赛道上,服务器厂商、云厂商,甚至倒卖、租赁各种卡的玩家,也获得了一定利润回报。当然,利润远远小于英伟达。 “2024年整体上没亏钱,但是也没赚到很多钱。”王为坦言,“AI(应用)现阶段还没有起量,跟AI相关量最大的还是算力层,算力应用营收相对较好。” 对于2025年的发展预期,王为也直言并未做好完全的预测,“明年真的有点不好说,但远期来看,未来3年AI应用将会有很大的增量进展。” 但以各地智算中心的发展情况来看,却鲜少能够实现营收,基本目标都是覆盖运营成本。 据智伯乐科技CEO岳远航表示,经测算后发现,一个智算中心纵使设备出租率涨到60%,至少还要花上7年以上的时间才能回本。 目前智算中心对外主要以提供算力租赁为主要营收方式,但“设备租赁非常同质化,真正缺失的是一种端到端的服务能力。”洪锐对光锥智能说道。 所谓的端到端服务能力,即除硬件之外,智算中心还要能够支持企业从大模型应用开发,到大模型的迭代升级,再到后续大模型部署的全栈式服务。而目前能够真正实现这种端到端服务的厂商,相对比较少。 不过,从整体数据来看,中国智算服务市场发展前景越来越乐观。据IDC最新发布《中国智算服务市场(2024上半年)跟踪》报告显示,2024年上半年中国智算服务整体市场同比增长79.6%,市场规模达到146.1亿元人民币。“智算服务市场以远超预期的增速在高速成长。从智算服务的增长态势来看,智算服务市场在未来五年内仍将保持高速成长。”IDC中国企业级研究部研究经理杨洋表示。 洪锐也表示,在经历疯狂囤积卡资源的智算1.0时代,到智算中心粗放扩张,供需失衡的智算2.0时代后,智算3.0时代的终局,一定是专业化、精细化运营的算力服务。 毕竟,当预训练和推理分成两个赛道后,AI推理应用市场会逐渐发展起来,技术栈也会逐渐成熟,服务能力逐渐完善,市场也将进一步整合零散闲置算力资源,实现算力利用率最大化。 不过,当前中国算力市场也仍面临着巨大挑战。在高端GPU芯片短缺的同时,“现在国内GPU市场过于碎片化,且各家GPU都有独立的生态体系,整体的生态存在割裂。”王为如此说道,这也就导致国内整个GPU生态的适配成本非常高。 但就像刘淼所言,智算的20年长周期才刚刚开始,现在或许仅仅只是第一年。而在实现AGI这条道路上,也充满着不确定性,这对于众多玩家来说,无疑充满着更多的机遇和挑战。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。