行业分类:
加载中...
头条分类:
加载中...
电车起火逃生黄金90秒:生死时速背后的自救与系统防线
近日,多起电车起火爆燃的信息充斥互联网,不免让开电车和准备买电车的消费者紧张起来了。 12月18日,浙江永康,一辆电车在露天停车场起火;12月7日,山东济南恒大城二期地下车库突发大火,知情人表示是一辆电车引燃的;12月4日,广东东莞,一辆电车在小区停车位自燃。 我们不去点名汽车品牌和车型,是因为国家消防局早就指出,新能源电池热失控不可避免。 但消费者不用过于担忧,一方面电车起火概率较低,权威部门数据显示,2024年我国电车保有量为3140万辆,起火数量为550辆,相当于每10万辆有1.75辆起火;另一方面,市场监管总局加强了对电车安全的监管措施,尤其是聚焦了动力电池等关键部件风险。 图/2024年起火情况统计,来源/互联网 新能源观截图 另外,“史上最严电池安全令”明年7月将正式实施,要求动力电池热失控后不起火,不爆炸。 这些无疑都是给车主的生命财产安全加了一道保险,但同时,我们要明白,电车的起火燃烧和油车不一样,多起案例告诉我们,电车起火的火势更为猛烈,且扑救难度大。所以,掌握必要的逃生技巧和定期保养检测是很有必要的。 1. 电车起火逃生时间为什么这么短? 不管是上述的几起电车起火事件,还是其他案例,我们都能明显感受到,电车从冒烟到起火爆燃,时间太短了,这就给车主的人身和财产安全带来了极大威胁。 还记得两个月前上海某款纯电MPV在行驶中起火爆燃案例吗,有业界人士逐帧分析了视频,从有火花到爆燃,只有10秒钟左右,好在车上两人安全逃生,没有造成更严重的损失。 或许在火花之前还有冒烟情况,但因天色较暗,并没有体现在视频中。 而在11月,有网友转发了一条完整记录电车从冒烟到爆燃的视频,从少量白烟到大量黑烟,再到爆燃,也只有30多秒的时间。 图/MPV起火救援现场,来源/互联网 新能源观截图 为什么电车起火这么迅猛,破坏力这么大?因为它是电池热失控、密闭空间与人类认知延迟三者叠加,共同制造的一场“秒级绞杀”。 我们先看第一重的电池热失控。与传统燃油车油料的缓慢燃烧不同,锂电池一旦突破热失控临界点,其毁灭进程堪称能量核爆。 实验室数据表明,热失控启动后,60秒内电池包可释放全部化学能,核心温度瞬间突破1000℃。更致命的是,其释放的烟气绝非普通燃烧产物,而是包含大量一氧化碳、氟化氢、氰化氢等剧毒气体的“死亡气溶胶”,迅速取代密闭空间内的氧气,给乘客逃生增加难度。 图/电池热失控爆燃瞬间(实验场景),来源/运城消防 新能源观截图 第二重加速器是密闭空间与行为延迟的“时间黑洞”。无论是地下车库还是公交车厢,本质上都是一个巨大的“金属罐头”。当火灾发生时,有限的出口、可能因断电失效的电控门、以及高温下变形的塑料部件,都会迅速封堵逃生通道。 2025年,山东济南已经出现了两起电车在地下车库起火引燃其他车辆的事件,虽未造成人员伤亡的悲剧,但其迅猛的蔓延速度与巨大的破坏力,无疑为地下空间电动车辆火灾风险敲响了警钟。 图/济南地下车库起火事件现场,来源/互联网 新能源观截图 同时,心理学研究表明,人类从感知危险到做出有效逃生决策,平均需要20-30秒的认知处理时间。在恐慌和混乱中,这个时间会被进一步拉长。 第三重加速器是消防数据刻画的“血色警戒线”。国家应急管理部消防救援局的实验与研究揭示了残酷的时间函数:起火后约60秒,高温有毒烟气层将降至1.2米的成人呼吸带;至第90秒,舱内一氧化碳等致命气体浓度可能突破致人昏迷的阈值。 这意味着,90秒是烟气尚未完全下沉、可视度尚未归零、人员尚能保持清醒行动能力的最后安全窗口。一旦越过这条线,生存概率将急剧下降。 2.黄金90秒内的分秒拆解的生存算法 面对转瞬即逝的90秒,任何犹豫和错误操作都是致命的。生存的关键,在于将这套“生存算法”内化为肌肉记忆,在电光火石间完成精准判断与高效行动。 0-15秒:火源定位与路径预选的生死竞速。 警报响起的第一时间,大脑必须切换到“战场扫描”模式,核心任务是立即判断火源位置。若火源位于车尾(常见于电池底盘布局),且前门尚能开启,必须毫不犹豫从前门撤离——因为热烟气会向车尾聚集,前门方向是相对安全区。 反之,若火焰已封堵前门,需果断放弃同侧逃生,同步扫视后窗、侧窗等应急出口。关键原则是:永远向火势蔓延的反方向、向已知的最近安全出口移动。 上海自燃的MPV车辆乘客就上演了教科书般的极限逃生,从二排迅速跑到副驾位置,再打开车门逃生。乘客为什么会从副驾逃生,一方面如乘客所说,后排电动车门无法立即开启,另外的原因很可能是火情是从后排发起,前排还没有起火,从副驾逃出更安全。 图/MPV乘客逃生瞬间,来源/互联网 新能源观截图 15-60秒:破窗协同与通道效率的极限优化。 如果因为发生碰撞或者断电等情况,主要出口失效,那么破窗成为唯一生路。 此时需执行“破窗三定律”:一是工具选择,应使用安全锤、破窗器等专用工具,或用车内尖锐的金属物品(如头枕金属杆)持续击打侧窗玻璃的四个角,这里是应力最集中的薄弱点; 图/破窗器破窗,来源/互联网 新能源观截图 二是力量聚焦,放弃击打坚固的夹层前挡风玻璃,全力攻击侧窗; 三是行动果断,每拖延10秒,破窗所需的力量和难度都可能因火势蔓延而倍增。 在集体逃生中,必须建立“人链疏散协议”:由最靠近车窗的、行动力强的人员优先破窗,并协助儿童、老人及行动不便者先行撤离,乘客呈单列鱼贯而出,严禁任何人折返取物。还是上海的MPV自燃事件,已经逃生的乘客还试图回到车里取东西,无奈火情太大放弃,这显然是一个错误的行为。 60-90秒:防烟待援的绝地生存法则。 如果未能及时逃出,车厢已被浓烟笼罩,那么站立呼吸等于慢性自杀,必须立即执行“地面匍匐战术”:用衣物(最好浸湿)掩住口鼻,最大限度贴近地板爬行,因为较重的清洁空气会沉积在下方,而高温有毒烟气向上聚集。 同时,若所有车门确认无法开启,需启动“被动求生程序”:第一时间触发车内紧急通话装置报警,并用手机闪光灯高频闪烁,或向车外挥舞明亮衣物,为消防员的破拆救援提供明确的位置标识。 图/高频闪烁灯光求援,来源/互联网 新能源观截图 在报警时,应尽可能精准报出车辆型号、颜色、具体位置及车内大概人数,为救援争取每一秒宝贵时间。 3.超越个体反应的公共安全革命 个体的应急反应固然重要,但面对以毫秒计时的热失控,构建系统性的、前置的防御体系,才是扭转“生死时速”格局的根本之道。 当锂电池的能量密度仍在攀升,其蕴含的巨大能量与潜在破坏力始终是一体两面。90秒逃生法则,本质是人类与化学失控赛跑的脆弱平衡,但平衡不应仅靠个人的临场反应来维系。 这场安全革命需要车辆设计、运营机制与公众教育的三位一体联动。 在车辆设计上,需完成从“被动防护”到“主动逃生”的范式跃迁。令人欣慰的是,新的强制性国家标准已在路上,比如《汽车车门把手安全技术要求》明确规定,车辆在发生碰撞或电池热事件后,非碰撞侧的车门必须能通过机械方式从内外打开,这为隐藏式电动门把手提供了断电后的“逃生通道”。 图/对车内外门把手的标准要求,来源/互联网 新能源观截图 更重要的是,我国将于2026年实施的新版《电动汽车用动力蓄电池安全要求》(GB38031-2025),将其核心要求从“热失控后5分钟内不起火”提升至“不起火、不爆炸”,这被称为从“让你逃命”到“努力保命”的本质性飞跃。 图/新旧技术要求对照,来源/互联网 新能源观截图 车企也应主动集成更多“主动逃生”设计,如热敏自动破窗器、电池舱独立防火墙、以及火灾初期可自动解锁车门并播报语音指引的智能系统。 在运营机制上,应构建秒级联动的“数字生命链”。对于公交、出租、网约车等运营车辆,管理方应建立“90秒应急协议”。车载智能系统在监测到电池电压异常波动、温度骤升等热失控早期特征时,应能自动执行“生存模式”:同步向调度中心发送警报、切断高压电、解锁全部车门、降下未受火势波及侧的车窗。 同时,站点和车库的管理也至关重要。地下车库应配备独立的火灾报警系统、加强型机械排烟设施,并确保消防通道绝对畅通,避免山东济南车库火灾中因单车起火导致“火烧连营”的悲剧重演。 图/地下车库排烟设施--火灾报警系统,来源/互联网 新能源观截图 另外就是公众教育,其终极目标是锻造“条件反射式”的生存本能。知识只有在反复演练中才能转化为关键时刻救命的直觉。应将电动车火灾特性及应急逃生技能,纳入驾驶员考试的理论与实操科目。 公共交通系统则需在车厢显著位置以动态图示清晰标注“逃生决策树”,并定期组织乘客进行“盲操疏散演练”——在全黑、模拟烟雾的环境中,训练人们在90秒内依据荧光地标和声音指引完成撤离。 图/公共交通应急处置演练,来源/互联网 新能源观截图 对于广大私家车用户来说,上车后花30秒熟悉一下机械门锁位置、安全锤和灭火器的存放点,这个简单的习惯,可能在灾难来临时为你赢得宝贵的时间。 最后记住一点,防患于未然永远比应急措施更重要。我们平常要做到定期进行维护保养检测,查看底盘有没有磕碰,在充电过程中,尽量不要出现过充现象。一旦发生火灾,第一时间逃离车辆,然后报警,等待专业的消防救援人员进行救援。
小米大模型再亮剑,底层逻辑为何变了?
文 | 时间线Timelines,作者 | 赵明,编辑 | 周易 「我相信,真正的智能绝对不是在文本中读出来的,而是在交互中活出来的」。 2025 年 12 月 17 日,在今年度的小米「人车家全生态」合作伙伴大会上,小米宣布自研 AI 大模型 Xiaomi MiMo-V2-Flash 正式开源上线——而 Xiaomi MiMo 大模型负责人罗福莉也首次正式亮相,谈到了她对于 AI 的理解。 在演讲中,罗福莉多次表达了「物理世界导向」对于 AGI 实现的重要性。 她表示,多模态和真实世界交互才是通往 AGI 的关键,而非依靠文本。在她现场展示的 PPT 中,小米刚刚开源的大模型 Xiaomi MiMo-V2-Flash 也就此做出解读:真正的智能必须是一个具身的、嵌入环境的、通过与物理世界持续交互而涌现的属性。 某种程度上,罗福莉的这次演讲,代表了小米对于大模型和 AGI 的思考,以及小米在 AI 道路上的核心理念:与数字世界 AI 相比,更加强调物理世界的 AI 重要性。 很明显,以罗福莉的入职和亮相为代表,小米确实正在 AI 人才和大模型领域加大投入,而 AI 本身也是小米整体技术研发投入的三大核心板块之一。 那么,小米 AI 这一波,到底行不行? 95 后罗福莉,首次交卷了 从外界的视角来看,2025 小米「人车家全生态」合作伙伴大会的最大看点,其实是小米 MiMo 大模型负责人罗福莉的演讲。 这要从罗福莉本人在 AI 领域的关注度说起。 公开数据显示,罗福莉是一名 95 后,她本科毕业于北京师范大学,硕士毕业于北京大学计算语言学研究所,师从万小军教授。罗福莉在北京大学攻读硕士期间,就曾经在人工智能领域顶级国际会议 ACL 上发表 8 篇论文,其硕士期间在国际级会议上累计发表论文超过 20 篇。 从职业生涯来看,罗福莉毕业后加入阿里达摩院,担任机器智能实验室研究员,主导开发多语言预训练模型 VECO,并推动了 AliceMind 项目的开源工作。随后在 2022 年,罗福莉加入 DeepSeek 母公司幻方量化,并且以深度学习研究员的角色参与研发 DeepSeek-V2 等模型。 而在 DeepSeek 的经历,成为了罗福莉备受关注的核心支点。 2024 年 12 月,第一财经新皮层报道,DeepSeek-V2 的关键开发者之一罗福莉将加入小米——根据知情人士的说法,雷军认为小米在大模型领域发力太晚,于是亲自挖人,重金招募能够领军小米大模型的人才,支付的薪酬水平在千万元级别。 在当时的舆论场中,,类似于「雷军千万年薪挖角 95 后 AI 天才少女」这样的词条也登上热搜。 不过,一直到 2025 年 11 月 12 日,罗福莉才通过社交媒体对外确认,自己正在 Xiaomi Mimo 团队做 AGI 相关工作——此番在小米「人车家全生态」合作伙伴大会登台,也是罗福莉在小米的第一次公开亮相。 在会上,罗福莉主要介绍了 Xiaomi MiMo-V2-Flash 大模型的一些内容。 她表示,Xiaomi MiMo-V2-Flash 是一个非常小的模型,总参数只有 309B,激活参数只有 15B,但它在多数评测中超过了参数量更大的 DeepSeek V3.2 和 K2-Thinking,在全球大致处于相同水位的顶尖模型速度和成本象限里,MiMo-V2-Flash 实现了低成本、高速度,已初步具备模拟世界的能力。 其中,在技术层面,MiMo-V2-Flash 采用 3 层 MTP 推理加速并行 Token 验证,实现了 2.0-2.6 倍的推理速度提升。这种效率优势对于实际应用场景至关重要,特别是在资源受限的边缘设备上。 「我都不愿意称它是一个非常大的模型,但是它的代码能力,在我来看它已经进入了全球 top 2」,罗福莉表示。 值得一提的是,Xiaomi MiMo-V2-Flash 已经正式开源,采用了对开发者友好的 MIT 开源协议,基础版权重已经在 Hugging Face 上发布,支持深度思考和联网搜索功能。 关于 Xiaomi MiMo-V2-Flash ,卢伟冰表示,它是迈向 Agent 时代的全新语言基座。 不过,从商业的角度来看,MiMo-V2-Flash 作为 小米 MIMo 大模型家族的最新成果,其本质上也是为了小米的「人车家全生态」而服务。 实际上,罗福莉也表示,通过统一多模态感知能力,MiMo 能够为理解物理世界打下基础,从而更好地嵌入各种智能终端设备。这包括智能手机、智能汽车、智能家居设备等,形成一个无缝衔接的智能生态系统。 换句话说,MiMo 大模型将成为小米用来连接「人车家」三端的「智能大脑」。 大模型之路,已悄然转折 小米入局大模型的时间,其实非常早。 早在 2023 年 8 月,在雷军的年度演讲中,这位小米掌门人就表示,小米全面拥抱大模型,并且在 2023 年 4 月组建小米了 AI 大模型团队——据了解,该团队的负责人是小米技术委员会 AI 实验室大模型团队负责人栾剑。 当时,雷军表示,小米大模型技术的主力突破方向是「轻量化」和「本地部署」;他还表示,小米自研的 13 亿参数端侧模型已经在手机端跑通了 Demo,而且部分场景效果可以媲美 60 亿模型在云端的运算效果。 值得一提的是,在这次演讲之前,小米公司开发的大规模预训练语言模型 MiLM-6B/1.3B 就登陆了代码托管平台 GitHub,参数规模最高达 64 亿,而且现身在 C-Eval、CMMLU 基准评测榜单。 可以说,MiLM 在很长一段时间里都是小米大模型的代名词。 2024 年 5 月,小米公司宣布其大语言模型 MiLM 已正式通过大模型备案。当时,小米官方强调,小米大模型将逐步应用于小米汽车、手机、智能家居等产品中,为用户带来更加智能化的体验。 到 2024 年 11 月,小米宣布 MiLM 升级至二代 MiLM2,丰富了模型的参数矩阵,参数规模同时向下和向上扩充,实现了云边端结合,参数尺寸最小为 0.3B,最大为 30B,其中 MiLM2-30B 模型专门为云端设计;同时,新模型在指令跟随、翻译和闲聊等一系列能力上平均提升超 45%…… 当时,小米官方也表示,小米第二代自研大模型取得的进步和成果,已经开始渗透到真实的业务场景与用户需求中,不仅帮助集团内部解决了多样化的业务需求、实现工作提效,也已经在澎湃 OS、小爱同学、智能座舱、智能客服中开始应用落地。 不过,也正是在这个时间节点,小米的大模型之路,开始进入转折点。 实际上,据第一财经「新皮层」报道,正是在 2024 年年底,雷军挖来了罗福莉。以罗福莉的正式入职为节点,小米自研大模型的重心开始逐步切换,而小米则在 2025 年年初组建了「大模型 Core」团队,并且在 4 月份发布了小米 MiMo 系列的首个模型,也就是 MiMo-7B。 实际上,在此次发布 Xiaomi MiMo-V2-Flash 之前,小米就已经以 MiMo 的名义推出了一系列模型,包括推理大模型 MiMo-7B、视觉推理大模型 MiMo-VL、原生端到端音频生成模型 MiMo-Audio、端侧视觉语言大模型 MiMo-VL-Miloco、具身大模型 MiMo-Embodied。 对此,一位长期关注小米的 AI 行业人士告诉我们,小米在大模型领域的核心支点,已经从以往的以往的 MiLM 悄然转向为如今的 MiMo。 那么,小米 MiMo 下一步会如何发展? 对此,罗福莉其实也已经表态——她表示,下一代基座模型将会重点关注模型参数规模的增大与上下文长度的扩展;模型将是原生多模态的,意味着要用文本、视觉、音频原生融合的统一架构实现端到端的物理世界感知与推理。另外,算法与底层硬件相结合,提升训练与推理效率。 可见,小米 MiMo 不仅仅是要解决数字 AI 的问题,也要在很大程度上解决物理 AI 领域的难题,这确实是一个不小的目标。 加码补课技术,但依旧务实 小米对于 AI 和大模型的态度转变,本质上是伴随着其业务发展而产生的。 比如,2023 年上半年,随着 ChatGPT 的横空出世,国内掀起了一波大模型竞赛,当时小米表示不会做 OpenAI 类的大模型,但会积极拥抱 AI,将其与自身业务深度结合。这背后的背景是,小米当时还是把 AI 落地的重点场景考虑在智能手机上。 但如今,随着小米汽车业务的迅猛发展和小米「人车家全生态」的逐步成熟,小米对于 AI 落地场景的理解更加全面,对于大模型的重要性有了不一样的感知。 这才是小米通过自研 MiMO 持续加码 AI 的核心逻辑。 不过,即使是大模型,小米投入到 AI 大模型的逻辑,与腾讯、阿里、字节等互联网巨头在 AI 领域的布局,还是有着明显的不同。 毕竟,小米不是一家纯粹的软件公司或互联网公司,它本质上是全球最大的消费电子物联网公司之一。根据小米公布的数据,小米全球月活用户数达到 7.42 亿;硬件生态方面,小米 AIoT 平台连接设备数达到 10.4 亿,硬件合作伙伴数量突破 15000 家。 所以,小米 MiMo 大模型的终极落地场景,就是在万物互联的端侧设备上,包括手机,也包括汽车。 基于此,我们也能够理解,MiMo-V2-Flash 模型的特质在于,它是一款端云结合、侧重端侧的轻量化大模型;它的核心逻辑是端侧优先,其目的把一个更小参数量的模型,通过极致的蒸馏和量化,实现本地化部署,直接塞进小米手机或者小米汽车的车机里。 这在本质上,也是 MiMo-V2-Flash 的命名包含有「Flash」字样的关键原因。 从这个角度来看,小米对于大模型的思考和业务发展逻辑其实也非常明晰——那就是在加大力度投入到大模型同时,依旧非常务实,更加侧重于自身的业务落地场景,更加强调软硬件结合的核心产品逻辑。 值得一提的是,考虑到小米的「人车家」全生态,尤其是车端本身也是 AI 落地的核心场景之一,所以,小米对于大模型的思考,更加侧重于对于物理世界的感知和交互,也就是让大模型超脱数字世界的范畴,与物理世界更好地融合。 所以,小米做大模型的底层出发点,也天然地与具身智能产生了密切关联,这是小米做大模型最有挑战的地方——但是从另外一个角度来看,也是最有潜力的地方。 回过头来看,小米花重金投入到大模型,本质上也是在补课——补上大模型的课,也是补上研发投入到核心科技的课。尤其是在 AI 技术进入到无人区和深水区之后,这样的研发投入对于当前的小米来说,确实是非常必要的。 当然,小米不仅仅是在花大力气投入到 AI 之中,也在砸钱投入到芯片和操作系统的研发中,包括此前的玄戒 O1 芯片和小米 Vela 等,以及这次开源的 Xiaomi MiMo-V2-Flash,也是这些研发过程的阶段性成果。 但很明显,还不够。 值得注意的是,就在本次小米「人车家全生态」合作伙伴大会上,小米集团合伙人、总裁卢伟冰又再次强调称,小米今年预计研发投入达到 320 亿元到 330 亿元,2026 年预计投入约 400 亿,未来五年小米将在研发上投入 2000 亿元。 他还强调:「小米的长期目标是成为全球硬核科技的引领者」。 不过,从资本市场的角度来看,小米在 12 月 17 日的股价并没有因为其对外释放的研发成果而出现明显的回升,甚至在此后两天还出现了一定的下行——从资本市场的反馈来看,至少到目前为止,外界对于小米加码硬核科技、加码研发投入的叙事逻辑还并不买单。 很明显,尽管小米在 AI、芯片等领域已经拿出了一些成果,小米距离一家真正意义上的硬核科技公司,还有相当长的距离。 毕竟,对于任何一家企业来说,从技术研发到产品落地,再到最终市场认可,这从来都是一条漫长且充满不确定性的过程——要在 AI 落地上实现这个阶段性过程,小米除了继续投入大量的金钱和时间之外,还需要更强大的战略定力。
罗永浩的回旋镖:他骂俞敏洪的话术,如今被用来网暴他自己
文 | 冷眼观天 罗永浩估计这辈子都摆脱不了与俞敏洪的恩怨嘴仗了。 最近在播客里,罗永浩第N次聊到新东方往事,提到一种观点说他离开后批评俞敏洪是“忘恩负义”。 他觉得这个逻辑挺奇怪。 在他看来,真正的“知遇之恩”门槛很高,得是所有人都否定你时,有人全力挺你、扶持你直到成功。 他认为自己在新东方的经历够不上这个标准,反而觉得个人的职场成绩,很大程度上就是自己努力挣来的。 这个讨论牵扯出职场里一个根本的东西,就是所谓“两不相欠”。 这指的是一种清晰的契约关系。 你去工作,付出时间和能力,公司支付报酬、提供平台,这是一场基于自愿的交换。 罗永浩当年在新东方完成了教学,拿到了工资,也得到了展示才华的机会。 从契约角度看,这笔交易已经完成,双方两清。 但人们常常不满足于此,总喜欢给纯粹的雇佣关系披上一层道德外衣。 仿佛公司给了一个职位,员工就欠下了一笔永远还不清的人情债。 “没有新东方你什么也不是”的说法,就是其思维的典型。 它把个人的全部价值溶解在平台里,完全抹杀了个人奋斗的可能。 罗永浩质疑的正是这点。 契约精神的核心在于平等和界限,一旦引入模糊的恩义概念,平等就容易走样。 他重新定义“知遇之恩”,本质上是在尝试划清一条线:到底什么样的帮助,才真正构成了需要额外铭记的恩情? 在一个以合作为基础的环境里,过分强调感恩,反而可能模糊了权利义务的清晰边界。 · 有意思的是,这场争论的双方,在深层逻辑上可能犯了类似的错误。 批评者认为,平台提供了机会就是恩情,你借此成功了,所以不能批评。 罗永浩则认为,只有那种“雪中送炭”式的强力扶持才算数,新东方的经历不符合,所以他的批评不算忘恩负义。 两种看法都试图用一个简单的标尺,去丈量一段复杂的关系。 现实中的个人成长,往往是天赋、努力、时机和平台资源共同作用的产物。 罗永浩的个人特质,确实借助新东方的讲台被放大了;新东方的品牌,也因拥有他这样的教师而增添了故事。 这更像是一种互相成就。 只强调个人努力,或只强调平台基础,都只抓住了真相的一面。 他们的共通点在于,都把一种多维、动态的共生关系,简化成了一种一对一的恩义债务,或是纯粹的物质交换。 这种简化,让讨论失去了对职场复杂性的体察。 · 不过,罗永浩的批评方式,也暴露了他自身逻辑的一个根本性问题。 既然你罗永浩强调契约本质,并试图用严格定义来切割道德绑架,那么最有力的论述方式,理应回到契约本身。 如果你认为俞敏洪或新东方当年存在不公,最合乎逻辑的做法,是摆出当初双方约定的具体内容。 你需要说清楚,共事期间,对方的哪些具体决策或行为,违背了白纸黑字或心照不宣的契约条款——比如在薪酬兑现、资源支持、承诺履行等方面,到底存在什么样可以验证的违约事实。 讨论契约,需要细节和证据,而不是泛泛的情感指责。 但根据播客内容,罗永浩的回应更多停留在“完全不能认同”的情绪和“骂”的笼统描述上,并没有提供基于具体条款的事实举证。 “空口无凭”的批判,恰恰削弱了罗永浩所推崇的契约理性。 这使得争论从“契约是否被履行”的事实层面,滑向了“感受是否被辜负”的主观层面,最终,在形式上反而和罗永浩所反对的那种模糊的恩义话语,有了一些相似之处。 双方都绕开了对客观履约情况的审视,转而纠缠于主观的道德评判。 · 论述上的局限,或许能部分解释公众反应的温差。 年轻人对职场普遍的抱怨,虽然也带有情绪,但常常指向加班、薪酬等可观测的制度现象。 罗永浩对俞敏洪的具体批评,由于缺乏坚实的事实锚点,就容易被人解读为私人恩怨或道德背叛。 当一个人把争论框架设定为契约与公平,却没能使用契约的语言来论证不公时,他的言论就会产生一种矛盾感:既想挣脱感恩的道德叙事,自己又未能建立起更坚实的契约叙事。 结果,批评反而更深地陷入了恩义评判的漩涡。 · 作为一个以口才著称的网红,公众对罗永浩或许抱有更高期待,希望看到一种更成熟的争议方式,用事实和条款说话,而不是用情绪和定义对抗。 罗永浩似乎指出了用恩义掩盖契约的问题,但他的论证方法,却没能真正贯彻契约精神。 要解构“忘恩负义”的指控,最有效的方法或许不是重新定义“恩义”,而是彻底跳过这个范畴,去出示那些白纸黑字的履约记录。 你罗永浩的愤怒也许事出有因,但脱离具体事实的愤怒表达,在公共讨论中很难完成对复杂关系的厘清,反而可能加固那种非恩即怨的简单想象。 · 更进一步看,罗永浩怒斥俞敏洪,以及将罗永浩当成忘恩负义的人,都有着将职场关系过度道德化的倾向,实际上阻碍了健康的、基于事实的讨论。 一个进步的职场环境,应该允许合作结束后,双方依然能坦率、理性地基于事实进行交流。 评价可以褒贬,但出发点应是事实与逻辑,而非情感上的“报恩”或“报复”。 · 争论的背后,是两种逻辑的碰撞。 一种是源于人情社会的传统伦理,注重忠诚、回报与长幼秩序。 另一种则是基于现代社会的契约精神,强调权利平等、理性对话与个人独立。 前者温情,但容易模糊边界,演变为道德绑架;后者清晰,却常被误解为冰冷无情。 然而,支撑现代社会高效、公平运转的基石,恰恰是后者。 契约精神并不排斥情义,但它坚决反对用情义来覆盖规则、压制合理的表达。 可悲的是,至今还在怼俞敏洪的罗永浩,以及支持俞敏洪、骂罗永浩“忘恩负义”的人,都不过是前一种逻辑下的两种表现。
南京导航集体失灵,原因公布:GNSS卫星信号受到临时干扰压制
“南京卫星协会”微信公众号19日发布《关于12月17日南京区域导航信号异常情况的技术性探讨分析》。全文如下: 各会员单位及社会各界: 2025年12月17日傍晚,南京部分区域出现导航定位异常现象,引发社会广泛关注。 为澄清公众认知误区、解读技术原理与战略价值,南京卫星应用行业协会作如下说明: 一、离线地图无法解决本次导航异常问题 本次导航失灵的核心原因是GNSS卫星信号(含北斗、GPS)受到临时干扰压制,而非网络信号中断,因此下载离线地图并无实际意义。 从技术原理来看: 1. 离线地图的核心功能是存储地理数据,仅解决“地图显示”问题,无法替代定位信号来源; 2. 手机导航需依赖GNSS卫星信号(至少4颗卫星)解算位置坐标,再将位置信息匹配至地图,定位信号与地图数据是相互独立的两大系统; 3. 本次干扰精准针对北斗、GPS民用频段,导致定位信号无法被接收机识别,即便搭载离线地图,也因缺乏位置数据源出现定位漂移、无数据反馈等问题,无法实现有效导航。(离线地图更适用于公海荒漠深山等有卫星定位信号、无通信网络信号的区域)。 二、北斗与GPS民用频段兼容的战略意义得到验证 本次异常中北斗与GPS信号同步受影响,恰恰印证了我国北斗系统民用频段规划的前瞻性战略眼光: 1. 国际卫星导航频谱资源遵循“先到先得”规则,GPS早年间占据了L频段核心资源,北斗立项时优质频谱已所剩无几; 2. 基于国际电联框架,北斗民用信号(B1C频段)与GPS民用信号(L1C频段)实现兼容互操作,既突破了频谱资源封锁,更形成“干扰北斗即干扰GPS”的战略制衡; 3. 考虑到美国与欧盟的军事绑定特性,北约体系同样依赖GPS信号频段,这种频段兼容设计构建了重要的战略威慑——任何针对北斗民用信号的干扰,都将同步影响GPS相关应用,从根本上遏制了恶意干扰的可能性,为我国民用导航服务筑牢安全屏障。 三、北斗军用频率具备强抗干扰能力,不受影响 需明确说明的是,本次信号异常仅涉及民用GNSS频段,北斗军用频率完全不受干扰: 1. 北斗系统采用军民频段分离设计,军用频率为专属保密频段,与民用频段物理隔离; 2. 军用系统搭载全数字抗干扰技术、自适应智能滤波算法等核心技术,可精准识别并过滤干扰信号,具备极强的抗干扰与抗欺骗能力; 3. 作为国家重要空间基础设施,北斗军用频段的独立性与抗干扰性,始终为国防安全、关键领域应急保障提供稳定可靠的时空服务,这一核心能力从未受本次民用信号干扰影响。 本次导航异常如果系重大活动安保所需的临时信号管控措施,也属于行业内常规安全保障手段,相关信号已在活动结束后逐步恢复正常。 南京卫星应用行业协会将持续关注行业动态,及时分享卫星应用专业知识,助力公众科学认知卫星导航技术。 南卫协将继续在中国卫协的领导下搭建企业与政府沟通桥梁,欢迎相关企业积极参会,协会免收会费。 此前报道 据江苏新闻消息,12月17日傍晚,有南京网友反映,多个常用导航软件系统突发异常。导航界面持续显示“行驶在无数据道路上”。 外卖骑手也纷纷反映外卖软件等内置导航出现问题。“看不见导航”或导致外卖配送延时。 无独有偶,部分共享单车同样出现定位错误。某南京网友表示自己使用一辆共享单车短短五六分钟,停车时却“显示超出运营范围”“死活关不了锁”。强制关锁后,订单终点定位在了57公里之外的地方。 18日,记者咨询了多个平台,平台均表示如果因定位造成订单异常,可以向平台进行申诉。美团回应,如果骑手因为导航产生超时等问题,也可以申诉解决。 编辑|段炼 易启江 校对|张益铭 每日经济新闻综合自南京卫星协会、江苏新闻、中新网、公开资料等 每日经济新闻
车主早上买保险晚上出事 保险公司以次日生效为由拒赔
快科技12月19日消息,车辆当天买完保险后,如果不仔细看保险条款的话,可能发现不了次日0:00生效的条款,如果真买了保险后当天就发生了事故,保险公司拒赔了怎么办,下文的朱师傅就遭遇了这样的烦心事。 据报道,朱师傅称,自己有辆2008年买的海马汽车,因为家里有其他车子就很少开。 今年12月2日,他发现车辆脱保一个星期了,然后就去人保财险的营业厅买交强险,营业员没有向他介绍保险内容和保障,就说保单后续会发到微信服务号里,朱师傅付了965元保费离开。 朱师傅后来晚上去接女儿放学,路上一辆骑电瓶车过来撞上车头,骑车人被送到医院,骑车人腿骨折。朱先生报警后,事故责任还没有判定,同时也报了保险。 但后来在12月10号,保险公司发来一个书面的拒赔通知书,拒赔理由是保险未在合同期内。 朱师傅的保单显示收费投保确认时间和生成保单时间都是2025年12月2日上午10点21分,保险期间则是从2025年12月3日零时起到2026年12月2号24时。 也就是说,朱师傅付完钱之后,有将近14个小时的保险空窗期,可事故就发生在这段时间内。 拒赔拒付通知书提到朱师傅出险报时描述事故发生时间是12月3日上午九时,经调查,实际事故发生在12月2号晚上十点,不在保单有效期限内。 朱师傅说,这是因为事发当天只报了警,第二天才报保险,汽车人还在住院治疗中,事故责任还没判定,费用暂时由伤者先垫付。 朱师傅不认可被拒保,同时还表示,自己来投保的时候,业务员没跟提前告知。朱先生诉求,保险合同中次日临时生效的条款作废,变更为即时生效。 媒体找到当地人保财险上虞理赔分中心,工作人员表示不方便接受采访,后来,朱师傅反馈保险公司回复,经过审批后同意承担保险责任。
LeCun离职前的吐槽太猛了
一水 鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 好一个一吐为快! 年底就要正式离开Meta的LeCun,这下真是啥都不藏了。 不看好大语言模型能通往AGI,他就言辞犀利地指出: 通往超级智能之路——只需训练大语言模型,用更多合成数据训练,雇佣成千上万的人在后训练中“教育”你的系统,发明强化学习的新花招——我认为这完全是胡说八道。这根本行不通。 看不惯即将成为“前任”的Meta的封闭作风,他也直言不讳: Meta正在变得更加封闭……FAIR被推动去从事一些比传统上更偏向短期的项目。 而且还顺带剧透,自己将要创办的新公司仍会继续坚持开放。 以上内容来自LeCun最新参与的一档播客节目。在接近两小时的对谈中,他主要回答了: 为什么硅谷对扩展语言模型的痴迷是一条死路? 为什么AI领域最难的问题是达到狗的智能水平,而非人类的智能水平? 为什么新公司选择构建在抽象表示空间中进行预测的世界模型,而非直接生成像素的模型? …… 总结起来就是,不管是在Meta接近12年的研究经历,还是接下来要创办的新公司,抑或是未来想要实现的AGI,通通都在这里了。 人生下一程:创办新公司AMI 告别工作十二年的老东家,LeCun的下一步已然明了——创业。 做的还是之前在Meta被打压的世界模型。 LeCun透露,自己的公司名叫Advanced Machine Intelligence(AMI),将优先专注于世界模型的研究,而且开源…… 这一招算是把和Meta的矛盾摆在台面上了。 毕竟众所周知,自从亚历山大王走马上任,Meta就开始急转方向盘,从原来的开源先锋变得越来越封闭。 LeCun更是直言不讳: FAIR曾对AI研究生态产生了巨大影响,核心就在于高度开放的理念。但在过去几年里,包括OpenAI、谷歌、Meta都在变得封闭。 所以与其留在Meta任人宰割,不如自己出来做喜欢的研究。 而且LeCun强调,如果不公开发表研究成果,就算不上真正的研究。故步自封,只会陷入自我欺骗,不让学术界检验,就很可能只是一厢情愿的妄想。 他曾见过很多类似现象:内部对某个项目大肆吹捧,却没意识到其他人正在做的事情其实更优秀。 更何况Meta现在只追求短期项目影响,实则难以做出有价值的贡献,要突破就要公开发表成果,这是唯一的途径。 所以新公司走的是一条和Meta现在截然不同的路。 不止要做研究,还会推出围绕世界模型、规划能力的实际产品,AMI的终极目标是成为未来智能系统的主要供应商之一。 之所以选择世界模型,是因为LeCun认为: 构建智能系统的正确打开方式就是世界模型。 这也是他多年来一直致力于研究的内容,在纽约大学和Meta的多个项目中,已经取得了快速发展,现在也是时候将研究落地了。 至于他离职后,自己一手打造的FAIR会驶向何处?LeCun也透露了一二。 首先他表示,亚历山大王不是他在Meta的继任者。 亚历山大王的内部职责更偏向于整体运营管理,而非专门的科研人员,超级智能实验室也由他领导,下设四个部门: FAIR:专注于长期研究; TBD实验室:专注于前沿模型(主要是LLM); AI基础设计部门:负责软件基础设施; 产品部门:将前沿模型转化为聊天机器人等实际产品,并集成到WhatsApp等平台。 其中FAIR被交给了Rob Fergus领导,他也是LeCun在纽约大学的同事,目前FAIR内部减少了对论文发表的重视,更倾向于短期项目和为TBD实验室的前沿模型提供支持。 而LeCun自己目前仍然是FAIR的AI科学家,不过任期只剩下最后三周。 LeCun的离开,标志着Meta以FAIR为代表的、长达十年的“学院派”研究黄金时代的彻底结束,也标志着LeCun自己离开LLM转投世界模型的决心。 那么问题来了,为什么LeCun认为世界模型正确、LLM错误呢? 要做的世界模型和LLM“根本不是一回事” 核心原因在于,LeCun认为它们本质上是为了解决不同的问题而生,二者“根本不是一回事”。 前者是为了处理高维、连续且嘈杂的数据模态(如图像或视频),这些构成了与现实世界进行感知和交互的基础; 后者在处理离散、符号化的文本数据上表现出色,但不适合处理上述现实世界数据,LeCun对其评价为“完全糟糕”。 他还断言,处理图像视频类数据“就不能使用生成模型”,尤其不能使用那种将数据tokenize化为离散符号的生成模型(而这正是大多数LLM的基础)。 大量经验证据表明,这根本行不通。 基于此,LeCun坚信仅靠训练文本数据,AI永远不可能达到人类智能水平。 他在对比了LLM训练所需的海量文本数据(约30万亿tokens)与等量字节的视频数据(约15000 小时)后发现: 15000小时的视频信息量相当于一个4岁孩子一生中清醒时接收到的视觉信息总量,但这仅相当于YouTube半小时的上传量,而且后者信息结构更为丰富、冗余度更高。 这表明,视频这样的真实世界数据,其内部结构比文本丰富得多。 正是因为深刻认识到“文本无法承载世界的全部结构与动态” ,LeCun将目光重新投向了一条更接近人类学习本质的路径——让机器像婴儿一样,通过观察世界的连续变化,主动构建一个内在的、可预测的模型。 而这,就是LeCun眼中世界模型的画像。 在他看来,世界模型的关键作用就是预测特定动作或一系列动作所导致的后果,其核心基石为预测和规划。 预测:能够基于当前状态和潜在行动,推演出未来可能的状态(或状态的抽象表示); 规划:以预测为基础,通过搜索和优化,来确定实现预设目标的最佳行动序列。 至于怎样才能算一个“好的”世界模型,LeCun反驳了需要完美模拟现实的观点,强调了抽象的重要性*。 以前很多人认为世界模型必须是“重现世界所有细节的模拟器”,就像《星际迷航》中的全息甲板那样。 (全息甲板是一个特制的封闭房间,内部由计算机控制,能够通过全息投影技术生成三维的、逼真的环境和物体。) 但LeCun认为,这一想法是“错误且有害的”,实践证明抽象有时候往往更有效。 所有科学和模拟都通过“发明抽象”来工作,例如计算流体力学忽略了分子等底层细节,只关注宏观变量(如速度、密度、温度),而这种抽象能够带来“更长期、更可靠的预测”。 因此,有效的方法是学习一个抽象的表示空间,它会“消除输入中所有不可预测的细节,包括噪声”。 由此他也总结道,世界模型不必是完全的模拟器,“它们是模拟器,但在抽象表示空间中”。 至于具体实现方式,他目前想到了通过联合嵌入预测架构(JEPA)在这一抽象表示空间中进行预测。 而关于JEPA想法是如何诞生的?LeCun带我们回顾了20年来“AI如何学习”的曲折发展史。 从无监督到JEPA LeCun坦言,在长达近二十年的时间里,他一直坚信构建智能系统的正确路径是某种形式的无监督学习。 这就和婴儿看世界一样,他们不是被“标注”后才认识世界的。同理,真正的智能也不可能依靠海量人工标注数据来构建。 因此,他一开始就将重点放在了无监督学习上,这种“让机器自己从原始数据中发现规律”的设计完美契合了他的理念。 说干就干,他开始尝试训练自编码器(Autoencoders)来学习表示。 其核心逻辑是:先压缩,再还原。 比如将一张图片(输入数据)经由编码器压缩成一个紧凑的、低维的“摘要”(即表示或特征);然后将这个“摘要”经由解码器重构,还原为一张与原始输入尽可能相似的图片。 一旦这个“摘要”能够近乎完美地还原出原始输入,那么合理推测它必然抓住了数据中最关键、最本质的信息。 因此,如果后续有其他任务用到这个“摘要”,其表现大概率也不错。 然而,后来的研究让LeCun意识到,“坚持表示必须包含所有输入信息的直觉是错误的”。 因为他发现,AI在上述学习过程中存在“作弊”现象。 就像数学上的“恒等函数”所代表的含义——输出只是输入的另一种形式,AI根本不理解自己所学的内容,它们只是在“抄答案”。 而连理解都没有,又何谈真正的智能呢? 于是,LeCun接着引入了“信息瓶颈”(Information Bottleneck)这个核心思想来纠正方向。 其目的是限制表示的信息内容,从而迫使系统学习更精简、更有用的表示,也即所谓的抽象能力。 后来他与多位学生在这一方向上做了大量工作,希望以此预训练非常深的神经网络。 然而,随着深度学习迎来历史转折点——全监督学习开始崛起,有关无监督或自监督学习的研究一度被搁置。 当时的情况是这样的。 在2010年代初期,研究者们面临一个核心难题:理论上有强大表达能力的深度神经网络,在实践中却极其难以训练。 梯度不是消失就是爆炸,网络深层的参数几乎学不到东西。 而几项简洁却革命性的工程改进,彻底改变了局面。 一个是ReLU(线性整流函数)的胜利。之前大家普遍使用Sigmoid或Tanh作为激活函数,它们的梯度在两端会变得非常平缓(饱和区),导致反向传播时梯度信号迅速衰减,无法有效更新深层权重。这就是“梯度消失”问题。 而ReLU的梯度在正区间恒为1,完美解决了梯度消失问题,计算速度也极快,几乎凭一己之力让训练可以深入到数十甚至上百层。 另一个是归一化(Normalization)开始发威。随着网络层数加深,每一层输入的分布都会发生剧烈偏移,这迫使后续层需要不断适应新的数据分布,大大拖慢了训练速度,也使得学习率等超参数设置变得极其敏感。 而归一化技术使得每一层的输入进入激活函数前,强行将其归一化到均值为0、方差为1的标准分布。这就像给每一层安装了一个“自动稳压器” ,确保了训练流程的平稳。 正是这些改进的结合,使得研究者第一次能够可靠、高效地训练出非常深的神经网络。 换言之,深度网络的威力终于从理论照进了现实。 而且更幸运的是,技术的突破还遇上了数据的爆炸——包括李飞飞带头创建的ImageNet和一些大型文本语料库等大规模高质量标注数据集,越来越多地被创建和公开。 在技术和数据的双重红利下, 监督学习在当时表现良好(比如大名鼎鼎的AlexNet引爆“深度学习革命”)。 直到2015年,LeCun开始再次思考如何推动人工智能达到人类水平。他观察到,当时主流的强化学习方法在样本效率方面极其低效,“无法实现目标”。 因此,他重新将研究重心转向了世界模型和规划,即一个能够预测其行动后果并能进行规划的系统。 他最初的设想很直接:要建立一个世界模型,那就让它像物理模拟器一样,预测下一帧画面的每一个像素。 这一想法和当时主流的观点不谋而合,但事实证明它错了。 我起初和当时所有人的做法一样,犯了试图在像素级别预测视频的错误,这实际上是不可能的,因为预测是非决定性的。 因为现实世界往往充满随机性。比如预测一杯水被打翻后,每一颗水珠的确切轨迹和形状,是不可能的。未来有无限多种可能的像素级状态。 如果强行训练一个确定性模型来预测像素,它为了最小化误差,通常会学会输出一个所有可能未来的模糊平均。这就是为什么早期视频预测模型生成的画面总是模糊不清的原因——它不是预测,而是“和稀泥”。 而为了解决不确定性,LeCun最初尝试了潜变量模型。这就像给模型一个“随机数骰子”(潜变量),允许它根据骰子的不同结果,生成不同的未来画面。 不过LeCun最终意识到,这本质上仍是在像素空间中工作,没有触及核心。 直到这时,主打“在抽象表示空间中进行预测”的JEPA架构终于应运而生。 其灵感源自LeCun在90年代研究的Siamese Networks,只不过一直面临一个巨大的难题——防止系统崩溃(Collapse)。 在训练过程中,模型可能将所有输入映射到单一的点或低维空间,导致嵌入空间中的样本不可区分,从而无法有效捕捉样本间的语义差异。 为了解决这个问题,LeCun依次尝试了对比学习、非对比学习的方法,最新进展就是LeJEPA技术。 LeJEPA核心提出了一种基于各向同性高斯嵌入的自监督学习方法,通过引入SIGReg正则化,有效解决了表示崩溃问题,并显著提升了模型的泛化能力。 LeCun认为,“LeJEPA+SIGReg”是训练模型学习抽象表示的“非常有前途的技术集合”,并预计未来一两年内在这个领域将会有更多进展。 “LLM无法通往AGI,最难的是达到狗的智能水平” 基于上述,LeCun判断,那些号称一两年就能实现AGI的人完全是痴心妄想。 因为现实世界远比token化的文本复杂,仅靠现在的LLM路线不可能直接实现AGI。 更何况对于AGI这个概念,LeCun本身就觉得毫无意义。 AGI通用智能指的是人类水平的智能,但事实上人类智能是高度专业的,比如人类擅长处理现实世界的问题(导航、互动),但在棋类任务上表现差劲。 甚至在很多任务上,其实动物比人类更擅长,而人类之所以自诩为“通用”,只是因为人类自认为能处理所有可以想象到的问题,但很多想象之外的问题,人类其实无法做到。 所以与其讨论人类水平的智能,不如讨论机器是否可以在人类擅长的领域达到或超越人类。 毫无疑问,答案是肯定的。已经有机器在部分领域超越人类,但要说全部领域,则需要一个渐进的过程,而非突发事件。 可预见的是,在未来几年,世界模型、规划能力这方面或许能取得概念性突破,这将为实现人类水平的AI铺平道路。 但这还远远不够,还需要很多的基础概念铺垫,需要新的理论创新才能突破当前人类智能的瓶颈。 总的来说,人类智能距离人类还很遥远。 而且并非大家所普遍认知的那样:“人类智能难以实现,那么低一档的狗级智能或许更容易实现”。 LeCun认为恰恰相反,实现人类智能的过程中,最难的反而是达到狗的智能水平。 能够达到狗级智能,说明在研究人类智能上已经具备了大量的基础理论,再从狗级智能到人类智能就容易得多。 因为灵长类动物和人类的差异,除了大脑尺寸的增长,关键在语言。语言其实是由大脑中很小的一块区域(Wernicke区和Broca区)负责,而这些区域在不到100万年(甚至200万年)前才进化出,复杂性并没有想象中那么高。 现在的LLM就可以很好地扮演这一区域的角色,将语言编码为抽象表征,并将思想解码为文本,而世界模型则相当于大脑的前额叶皮层,负责规划和决策。 所以LeCun的观点是,单靠LLM或者单靠世界模型是无法实现真正的人类智能的,这需要很多的相关研究支撑,也需要很多时间完成。 也正因为如此,老爷子LeCun说他还不能退休。 拒绝退休,人生目标是提升人类智能 事实上,今年LeCun就已经65岁了。 花甲之年、荣誉等身,LeCun的妻子也希望他退休回归家庭,但LeCun如今还要大龄创业,据他所说,原因只有两个字——“使命”。 大道至简,LeCun的一生都在追求的,无非是提升人类的智能。 他说,智能是世界上最稀缺的资源,人类和地球的发展总是受到智能总量的限制,这也是为什么人类会前仆后继地投入大量资源进行教育、发展机器。 所以回顾LeCun整个职业生涯的全部研究项目,都紧紧围绕着“让人类更聪明”这一核心目标: 作为教授,LeCun教书育人;作为机器智能的研究者,LeCun希望通过机器辅助人类提升智能;通过社交媒体发声,公开传播AI和科学知识,让更多人了解相关领域…… LeCun表示: 为了这一目标,我愿意继续做出贡献。 不过他也坦然表示,这么多年的职业生涯里,他也有遗憾。 很多想要做的想法,都没有足够的时间去做,结果同行们比他抢先一步发表,典型的比如反向传播算法 (backpropagation)。 他曾发表过一篇关于训练多层网络的目标传播算法论文,那时他就衍生想到了反向传播的核心思路,但受时间和精力限制没能做成,后来David Rumelhart和Hinton发表了相关论文,并引用了LeCun的论文。 类似的事情还有很多,但LeCun并不后悔。 在他的视角里,一个好的想法的涌现往往是复杂的,很少有人能在完全孤立的情况下提出全新的想法。 这在科学界里再正常不过,所以不能只把功劳归结于第一个产生想法的人,那些将想法落地的人同样需要巨大的努力。 或许正因如此,他才始终坚持开源的技术路径——在他看来,科学的进步从来都不是少数天才的灵光乍现,而是无数人思想在开放交流中的不断叠加延伸。 因此再回头看LeCun的离职,其实并不突兀。 当Meta已经不再是那个鼓励长期开放研究的“科学乌托邦”,LeCun的离开,几乎成为一种必然。
今日头条举行2025创作者大会 发布深度内容扶持计划
凤凰网科技讯 12月21日,今日头条2025优质深度创作者大会于12月20日在海南万宁举行。本次活动为期三天,超过300位图文创作者参与,围绕内容行业趋势、平台政策及创作实践进行交流。 会上,今日头条回顾过去一年以“优质深度”为核心战略的探索与成果,并推出“专项创作基金”“深一度工作室”及“薪火计划”三项扶持计划,旨在支持深度图文内容的创作与传播。 今日头条作者与内容生态负责人李黎 今日头条作者与内容生态负责人李黎表示,今日头条将“优质深度”确立为2025年核心平台内容战略,持续推动理性思考和公共对话,强化对优质深度内容的投入。数据显示,过去一年内,平台优质深度图文内容的阅读量同比增长近三倍,相关创作者收入实现整体增长。 今日头条算法负责人李丕勋 为提升内容匹配效率,今日头条算法负责人李丕勋介绍,平台已优化分发机制,打造了一条“由文章寻找读者”的分发链路,建立独立流量池,辅助深度内容冷启动,系统性提高优质图文曝光率。 大会还设置了多场主题讨论,人物CEO张寒以“深度内容的回旋镖”为题发表主旨演讲;《正面连接》创始人曾鸣、新京报深度报道部主编王瑞峰、媒体人陈鲁豫、主持人张越等嘉宾就“在快时代做‘慢’内容”这一主题展开交流。来自自媒体的王冰汝、三表龙门阵、半佛仙人、潘乱等也从创作者角度分享了经验。 今日头条表示,未来将持续投入,与创作者共同推动深度内容生态建设。
SpaceX怒斥“星舰飞船1月爆炸事件危及航班安全”报道:误导公众
IT之家 12 月 21 日消息,SpaceX 官方今天在 X 平台发表声明,回应华尔街日报关于“星舰飞船 1 月爆炸事件危及航班安全”的报道。 IT之家附 SpaceX 官方声明如下: 这是《华尔街日报》又一篇误导公众的“报道”。 很明显,记者们被别有用心人士灌输了不完整且具有误导性的信息。 往轻地说,这反映出他们完全不了解空域管理方面成熟而稳健的工具体系,这些工具定义清晰、以科学为基础,并且在保障公共安全方面已被证明卓有成效。 无论如何,这类基于猜测、依赖匿名消息源非科学分析所构建的虚假叙事,都是在对公众传达不负责任的消息。 我们需要明确:SpaceX 在每次星舰飞船的飞行测试中,都会把公众安全摆在最高优先级,没有任何航空器受到风险影响,所有飞行器碎片都被限制在事先协调好的应急响应区域内,这些区域由美国太空军制定,并由联邦航空管理局管理。 并且,这些应急响应区域在划分时都高度保守,覆盖区域远大于实际需要;所有航空器都在实时调度下,被合理引导至预先协调空域。 SpaceX 致力于在发射、再入(重返地球大气层)过程中负责任地使用空域,有效考虑公共安全,保护地面、海上以及空中的人员。 我们计划在 2026 年提升星舰飞船的飞行频率,并从佛罗里达州执行发射任务,SpaceX 将在确保最高公共安全标准的同时,继续推动星舰更高效地融入空域体系。 《华尔街日报》曾在昨天报道称,今年 1 月,一架捷蓝航空航班飞往波多黎各途中,被空管告知前方为危险空域,继续飞行只能自行承担风险,航班一度盘旋。另有一架伊比利亚航空客机和一架私人飞机也遭遇类似情况,均宣布燃油紧急并穿越临时禁飞区。 《华尔街日报》认为,上述风险事件均源自 SpaceX 的星舰飞船在发射数分钟后爆炸,并且 FAA 文件显示,这次爆炸事件造成的危险比公开披露的情况更为严重。
摩尔线程发布“花港”GPU新架构,万卡AI训练与推理能力,剑指英伟达
凤凰网科技讯 12月21日,摩尔线程于12月20日在北京首届MUSA开发者大会(MDC2025)上公布了新一代全功能GPU架构“花港”,并展示了其万卡规模AI训练集群及多项技术进展。 此次发布的核心内容涵盖架构升级、集群能力与推理性能等方面。新架构“花港”支持从FP4到FP64的全精度计算,算力密度提升50%,能效实现10倍提升。基于该架构,公司计划推出专注于AI训练与推理的“华山”芯片,以及面向图形渲染的“庐山”芯片。 在训练集群方面,摩尔线程推出“夸娥”万卡智算集群,称其具备全精度通用计算能力,训练算力利用率在稠密模型上达到60%,在混合专家模型上达40%,训练线性扩展效率为95%。在推理侧,公司与硅基流动合作,在DeepSeek R1 671B模型上实现单卡Prefill吞吐量超过4000 tokens/s,Decode吞吐量超过1000 tokens/s。 软件生态方面,MUSA 5.0版本对编程模型、计算库和编译器进行了优化,核心计算库muDNN的GEMM与FlashAttention效率超过98%,通信效率达97%。公司还计划逐步开源部分核心组件,包括计算加速库与系统管理框架。 在图形领域,新架构集成硬件光线追踪加速引擎,并支持自研的AI生成式渲染技术。摩尔线程还展示了在具身智能、AI for Science等前沿领域的布局,推出仿真训练平台MTLambda以及基于“长江”SoC的AI算力本MTT AIBOOK。 此外,公司公布了面向下一代超大规模智算中心的MTTC256超节点架构设计,着眼于高密度硬件与能效优化。 此次大会,摩尔线程系统展示了从芯片架构、集群基础设施到端侧设备的全栈技术布局,目标是为国内AI计算生态的发展提供硬件与软件支持。 因此行业人士普遍认为,摩尔线程正全面对标英伟达,提前发布架构,以便提升软件生态信心。
2759亿药明康德,30天内遭实控人控制股东减持38亿
雷达财经出品 文|丁禹 编|孟帅 在10月公布《股东减持股份计划公告》后,药明康德实际控制人控制的股东近期再度出手减持。 据药明康德12月18日发布的公告,公司收到信息披露义务人发出的通知,其于11月26日至12月17日通过集中竞价和大宗交易方式合计减持公司股份2951万股。 叠加11月20日至11月25日减持的股份,前述股东已累计减持公司股份约4134万股。若按11月20日至12月17日91.84元/股的均价计算,前述股东在30天内已累计套现约38亿元。 目前,该减持计划仍在进行中。据10月末披露的公告,此次减持预计总减持股份数量不超过公司总股本的2%。 值得一提的是,不久前,药明康德刚刚交出一份颇为亮眼的三季报:公司实现328.57亿元的营收,同比增长18.61%;录得归母净利润120.76亿元,同比暴涨84.84%。 药明康德表示,系公司的CRDMO业务模式、生产工艺和经营效率的优化,以及临床后期和商业化大项目增长带来的产能效率提升,为公司营收和利润的增长提供了强大动力。 反映到资本市场,截至12月19日收盘,药明康德的股价为92.47元/股,总市值为2759亿元,较年初暴涨超1100亿元。 值得注意的是,随股价一同飙升的,还有公司创始人、掌舵者——李革的身家。据10月底公布的《2025胡润百富榜》,李革以515亿元的身家位列榜单第109位,身家较去年增长58%。 30天内减持超4000万股,累计套现38亿 时间回拨至10月29日,药明康德发布《股东减持股份计划公告》。 公告显示,因自身资金需求,公司实际控制人控制的股东,计划通过集中竞价和/或大宗交易方式减持公司A股股份不超过约5968万股,不超过公司总股本的2%。 11月26日、12月18日,药明康德分别发布《关于股东权益变动触及1%刻度的提示性公告》。 据悉,药明康德的实际控制人为李革、张朝晖、刘晓钟,而本次减持计划涉及实控人控制的股东多达10余家。 上述公司实控人控制的股东,于11月20日至11月25日通过集中竞价方式合计减持公司股份约1183万股,占11月26日公司总股本的0.4%。 之后的11月26日至12月17日,前者又通过集中竞价和大宗交易方式合计减持公司股份约2951万股,占12月18日公司总股本的0.989%。 前述交易完成后,上述股东合计持有公司股份数从约5.48亿股减少至约5.06亿股,持股比例从18.35%减少至16.97%。 截至12月17日,减持股东合计通过集中竞价方式减持公司约2984万股股份,占公司总股本的1%;合计通过大宗交易方式减持公司1150万股股份,占公司总股本的0.39%。 若按11月20日至12月17日药明康德91.84元/股的均价计算,减持股东已累计套现约38亿元。 不过,药明康德在12月18日的公告中表示,本次权益变动后,信息披露义务人仍处于其减持计划实施期间,公司将继续督促其严格执行减持相关规定,并根据后续持股变动情况及时履行信息披露义务。 值得一提的是,据同花顺iFinD数据,自2018年上市以来,药明康德每年都会进行分红。截至目前,公司已累计进行9次现金分红,累计现金分红金额高达139.23亿元,分红率为26.71%。 去年业绩短期承压,前三季度有所回暖 作为一家全球领先的医药研发服务企业,药明康德致力于为全球医药及生命科学行业提供新药研发和生产服务。 目前,药明康德的服务范围已广泛延伸至化学药研发和生产、生物学研究、临床前测试和临床试验研究等诸多领域。截至上半年末,公司共拥有37832名员工。 不久前,药明康德联席首席执行官陈民章在与媒体对话时曾表示,“我们(药明康德)的使命是赋能客户,使他们能够更高效地研发新药。” 这一使命的达成,核心在于药明康德独树一帜的CRDMO模式,该模式能自上而下打通药物发现(R)、开发(D)到商业化生产(M)的全链条。 雷达财经了解到,得益于一体化的CRDMO业务模式,药明康德集成了CRO、CDMO和CMO的服务和能力。 凭借这一独特优势,药明康德能够显著加速医药创新步伐,让新药在科学发现后以最短时间跨越重重关卡,真正惠及广大病患。 从药明康德的业绩表现来看,这种业务模式确实具有不小的商业潜力。据同花顺iFinD数据,上市次年(2019年),药明康德便以强劲的发展势头突破百亿营收大关。 至2023年,公司营收更是一举冲破400亿元大关,归母净利润距离百亿规模也仅一步之遥。 不过,2024年,药明康德的业绩短期承压。这一年,公司的营收和归母净利润分别同比减少2.73%、1.63%,这是公司自上市以来首次出现营收净利润双降的情况。 进入2025年,药明康德的业绩表现有所回暖。前三季度,公司实现328.57亿元的营收,同比增长18.61%;录得归母净利润120.76亿元,同比增长84.84%。 对于前三季度的业绩表现,药明康德表示,这主要系公司持续聚焦及加强CRDMO业务模式,营收持续增长,同时持续优化生产工艺和经营效率,以及临床后期和商业化大项目增长带来的产能效率不断提升,提高了整体的盈利能力。 同时,公司出售持有的联营企业WuXi XDC Cayman Inc.部分股票的收益,进一步提升了公司的利润。 值得注意的是,药明康德的资金储备非常充裕。截至第三季度末,公司的货币资金高达294.39亿元,较去年末的183.22亿元增加超六成。 同期,公司的流动资产大涨至538.12亿元,资产负债率则处于24.45%的相对低位。 此外,前三季度,公司经营活动产生的现金流量净额为114.13亿元,同比增长36.21%,这意味着公司的“造血能力”也得到了显著的提升。 在三季报中,药明康德将公司的主营业务主要分为化学业务、测试业务、生物学业务以及其他业务几大板块。 其中,化学业务堪称药明康德的营收支柱,前三季度实现收入259.78亿元,同比增长29.28%,占到公司总营收的近八成。 而化学业务的蓬勃发展,正是药明康德引以为傲的CRDMO业务模式的直接体现。 具体而言,药明康德的小分子药物发现(即R,Research)业务为下游持续引流;小分子工艺研发和生产(即D和M,Development and Manufacturing)业务保持强劲增长。 财报显示,今年前三季度,药明康德“R”到“D”转化分子250个;小分子D&M管线累计新增621个分子。 截至第三季度末,药明康德小分子D&M管线总数达到3430个,包括80个商业化项目,87个临床III期项目,374个临床II期项目,2889个临床前和临床I期项目。 515亿掌舵者李革,打造2759亿医药巨头 药明康德能够成为市值近3000亿的医药巨头,和其创始人李革的创业选择密切相关。 据公开资料,李革1967年出生于北京,曾就读于北京大学化学学院,后赴美深造,获哥伦比亚大学有机化学博士学位。 起初,李革醉心学术,想着毕业后去波士顿担任教授,但1993年3月的一场意外改变了一切。 当时,李革打算去波士顿谈工作,但美国东部突遭暴风雪,他花了22个小时才在纽约和波士顿之间往返了一趟。 “我一想,这太远了,都跟回中国差不多了!于是我就说,我不去了。”李革回忆道。 后来,李革加入了自己导师项目组成立的小公司,担任公司领头人之一,他也因此走上了创业的道路。 而这家公司就是1993年4月成立的Pharmacopeia生化公司。到1995年底,这家公司便已在纳斯达克上市。 千禧年后,李革决心回国创业,怀揣着“让天下没有难做的药,难治的病”的理想,药明康德在一间约650平方米的实验室里诞生。 李革当时的创业思路非常清晰,“从成立的第一天起,我已说过药明康德不会成为一个制药公司。” 他希望药明康德可以成为一个集合技术、科学与能力的平台,任何人在这个平台上都能发现新的医疗健康产品并造福患者。 后来,他在接受《C&EN》专访时进一步阐述了自己的理念:“医药产业相比过去已经更多地开始进行研发项目,但更大的挑战是如何提高这些风险极大的研发项目的成功率。药明康德希望通过研发外包,缩短新药上市的周期。” 在李革的引领下,药明康德走上了稳扎稳打的发展之路。2001年,药明康德开展合成化学服务,2003年及2004年开展工艺研发服务及研发生产服务,2005年拓宽至生物分析服务,2007年则进一步覆盖至毒理及制剂服务,同时越来越多的基地也逐步投入运营。 2008年,药明康德收购美国AppTec Laboratory Services公司,公司英文名称更名为WuXi AppTec,平台能力更加全面。 在新药早期研究领域,药明康德在2016年收购德国药物发现服务商CRELUX,拓展基于结构的药物发现能力。 2017年,药明康德收购辉源生物,进一步夯实平台生物学研发能力和规模。 在新药后期生产环节,2021年,药明康德收购瑞士库威(Couvet)生产基地,在拓展大规模生产能力的同时,提升供应链体系的灵活性,更好地助力欧洲及全球客户。 在资本运作方面,天眼查显示,2018年5月、12月,药明康德先后在A股和港股上市。 截至12月19日收盘,药明康德股价为92.47元/股,总市值2759亿元,较年初暴涨超1100亿元。 而在今年10月公布的《2025胡润百富榜》中,李革更是以515亿元的财富高居榜单第109位。 有关药明康德的后续发展,雷达财经将持续关注。
日本为何完全放弃人形机器人?
“机器人”是怎样一个产业?几乎是2020年以来除AI之外的重要热点。 日本被调侃“起个大早赶了晚集”,中国有宇树、优必选、众擎,美国有特斯拉、Figure,日本一家能打的都没有。不是号称创新发源地吗?不是全球最早创造出人形机器人的国家吗?1963年诞生的机器人阿童木,不就满天飞了吗? 但是咱们也不太敢盲目断定日本机器人真不行,因为机器人里还有个类型叫“工业机器人”,日本貌似很强。 笔者写这篇分析的原因是,某日读到徐静波老师写到“东京国际机器人展”,特意飞奔到现场参观了一番。与笔者写过的日本出不来Deepseek相似,日本AI的“行”与“不行”,日本机器人的“行”与“不行”,还真是不分析不知道。 日本为何完全放弃人形机器人 2025年春晚扭着秧歌亮相+“世界人形机器人运动会”,使得“机器人”往往被误认为就是“人形机器人”。 但是,海那边的日本人已经选择性绕开了人形/具身机器人的整个赛道。为什么? 因为日本:早早入局,但吃过大亏。 说日本早早入局都保守了,他们简直是闯入了无人区。任何创新想要商业化奔现,都需要有钱人的支撑。“有钱人一号”本田在2000年推出了全球第一款可以互动的人形机器人ASIMO,甚至还与2014年访问日本的奥巴马一起踢过足球。 “有钱人二号”是日本软银集团,它在2012年收购了一家法国公司Aldebaran Robotics,看上的是它所推出的全球第一款具备人类情感的人形机器人Pepper,能与人类对话,能提供信息。 陪老人唠嗑是够了(PR Times) 但是ASIMO和Pepper先后都经历了开发-量产-停产的过程。ASIMO当年的售价为250万美金/台,有价无市。Pepper价格定为19.8万日元,不仅面向日本市场发售,还推向全球化,但仍逃不开停产的命运,总产量只有2.7万台。 “有钱人二号”软银甚至可以说是为了发展机器人而承担了亏损。根据软银集团向关东财务局提交的有价证券报告书,在机器人相关业务扩张阶段,其合并财务中出现了数亿美元级别的亏损与负债压力。 软银还收购了著名的网红机器人公司“波士顿动力”,3年后按大约10亿美元估值又将控制权卖给了现代汽车集团,由于当年的收购价实际上并未透露,因此不知是否是一次巨亏。 这两段经历的特点是——“你跺你也麻”,即使不是软银孙正义,是来自其他国家的王正义、张正义,巨亏之后都心有余悸。 诚然,ASIMO和Pepper诞生之际,AI还在襁褓中,“大模型”更是没影的事。但是谁在巨亏后还敢往同一个地方再次All in呢?谁甘心反复在一棵树上吊死呢?如果说如今中美的人形机器人比市场走快了0.5步或1步(现在不宜太早下定论),那么日本就是比市场走快了3~5步,根本找不到北。 今天的日本,可以说是明确不押注宇树这样的,由大模型驱动、面向开放环境的人形机器人商业化。来自FANUC、安川、川崎这类公司在访谈、技术白皮书中反复强调:人に似せる必要はない(没必要像人)。 但日本会浅浅地绕着走,例如,它也有自己的“人形”,只是依靠规则、小模型、传感器的“派遣机器人”,在商场、医院、工厂和老人设施里执行简单任务。 宇树说,看我能做到什么;日本派遣机器人说,我保证不给你搞砸(作者拍摄) 日本不搞人形,但是有人形的前哨“四足”。这次在东京机器人展上看到了川崎的CORLEO,这是一种概念型四足机器人载具,使用氢能源,支持人类骑乘与复杂地形穿越。 现场看更帅(作者拍摄) 你可以说,日本先是失去了一棵树,继而失去了探索一整片森林的驱动力。却无法否认,这片森林的开采,本就是一个国际级难题。 全球各国的人形机器人市场都很难拿到成熟的营业数据,每一家成品不错的企业背后都是辛勤研发与巨额投入,美国特斯拉Optimus,Figure AI 等都是亏损状态。 全球也没有“强需求”的人形机器人市场,长期商业模式尚不能下定论。现在的买家大部分是实验型、营销型、展示型客户,例如科研机构、大学、国家实验室,需要训练模型的科技公司,有展示、引流、营销需求的地方。宇树的四足机器人在B端出现落地,但数量级和盈利结构还不足以定义为“已成熟模式”。 这次的东京机器人展上,咱们中国的宇树带着四足机器人和人形机器人出现了,两位人形机器人展开比武,一位打了段拳,另一位跳了段“鸡你太美”,让日本朋友们很惊讶。可以说,宇树的人形机器人是整个展览中最靓的仔。不过这笔机器人的账单绝不是小数目:生而为“人”,我很烧钱、很慢、很难卖。 搞人形机器人,日本万事不俱备 让我们从整个经济结构的角度,聊聊为何日本放弃了人形机器人。 哪个国家没有对机器人的需求呢?老龄化的日本社会需要劳动力,机器人如果聪明到成为重要劳动力,那么人形不人形,根本不是问题。真正的差异,在于其他条件够不够。 第一层,是时代与技术底座。 首先,美国的特斯拉、中国的宇树,生在AI、大模型、芯片供应链都非常成熟的时代。日本不是没有AI,只是全都混迹在产业里面。确切地说,日本的AI和大模型存在感很一般,更没有Deepseek和Chat GPT这样的应用级AI。当然,日本也是Chat GPT普及率最低的国家之一。 其次,资源不到位。日本并非没有VC,日本的大手企业更是富得流油,但是老大哥软银孙正义摔了如此大的一个跟头,谁还敢Follow? 第二层,是产业路径与能力迁移。 笔者认为,具身机器人是电动车的“后辈”,中国与美国制造业在电动车上积累了足够的经验值。自动驾驶的“智能大脑”与人形机器人是同源,或者说底层相通,都需要多传感器融合、实时规划路径、动作与环境互动,也都需要电机、电控、减速器产业的成熟。在如此大型的造车实验成功之后,造“人”就不再是从零开始。 但日本的电动车制造基本上是一片荒芜。老钱国家的特点就是,现有的已经够用,从绿皮火车变成全球最快高铁?不需要,新干线已经很安全了。 还有人才。一次次验证规模化生产能力、积累AI与控制系统的融合实践的同时,其他国家积累了大量硬件、软件工程师,且分工精细。但是在日本这个国家,工程师招聘、AI算法人才长期短缺。 第三层,是需求、资本与成本结构。这也是最值得日本人真正关注的一点。在更多国家的产业升级中反复出现了一些新的需求,例如高速增长的电商、3C、物流与仓储体系——它们要求机器人具备对不规则物品的识别、抓取与自适应能力,而这正是传统工业机器人体系的短板。 对于日本来说,但凡出现产业升级与新的需求,相应的机器人企业若想满足需求,或者从80分提升到98分,就必须大改。而目前在日本本土,新需求还没有大量萌生,改变的驱动力还不大。 还有成本问题。其他国家里,摆脱进口替代的需求极其强烈,再加上这些年新兴制造业的发展,量产成本下降,价格竞争力也就这么来了。 而日本是一个不怎么降价的国度。日本机器人公司使用的是日本上游零部件,质量是全球顶尖,价格也是全球领先。在要求“20 年寿命、百万次重复、厂级稳定运行”的制造现场,B端购买方更看重的是风险最小化,而非单次成本最优。可替代方案不多,那么也就无需降价。 说到底,在努力读懂日本商业世界逻辑的前提下,很容易理解,为什么别人“大干快干”,日本人偏是不干。这是经济结构、产业路径与风险偏好共同作用的结果。 一骑绝尘的日本工业机器人 机器人不止人形机器人,还有传统的工业机器人、协作机器人、医疗机器人等。实际上,目前国际上通用的分类方式,最基础的分类便是工业vs非工业机器人。 市场研究机构Mordor Intelligence的机器人市场报告摘要提到,2024年工业机器人在全球机器人市场中约占71.4%的营收份额。 那么,钱进了谁的腰包呢?工业机器人全球前10是谁?来自全球知名市场统计机构Statista的数据如下: 日本的实力是前10之中占了6席,而非5席:这个行业的第一名,瑞士ABB在2025年10月宣布,决定将机器人业务以53.75亿美元出售给日本软银集团。看来,在人形机器人身上赔的钱,孙正义要在工业机器人身上赚回来。 这时候有读者说了:作者你又是胳膊肘往外拐,日本工业机器人做得好,你就非要写日本擅长的事,专门来给日本挽尊?人形机器人和传统非人形的工业机器人,看上去就像熊猫和小熊猫那样,不是一个物种,一个是机械臂,另一个是人啊。况且日本长期自称“自动化”,怎么穿个“机器人”的马甲,变酷了? 工业机器人属于机器人是全球说法,全球的各类机器人大会(当然也包含此次的东京国际机器人展)都有极大比重是传统的机械臂机器人。更重要的是,工业机器人也可以有AI和大模型含量,虽然不是顶级的大模型,但确实融合了智能控制/智能感知。 关键是,工业机器人是一种最纯正的to B商业逻辑,日本的整个打法都十分规整,其中多家公司都是上市公司,长期保持盈利能力。咱们的人形机器人,保不齐也要走to B/to Government的道路。 从科技含量上,作者试图谈谈对2对概念的浅见: 日本最早的人形机器人vs如今宇树为代表的机器人 当年的“自动化”vs现在的工业机器人 日本最早的人形机器人与如今宇树为代表的机器人,在大脑(算力)上差距极大,前者主要靠规则算法+传感器硬编码,它们走路时脚抬高多少、弯曲多少是写死的;而现在的人形机器人配备了类似智能汽车的中央大脑,使用视觉大模型、动作生成大模型,可以自动计划任务(例如自动整理房间)。当然,日本最早的人形机器人和宇树,在感知能力和动作控制能力方面也有巨大的差别。 回到工业机器人,当年的“自动化”,主打一个行为可预测、可复现、可验证,但是如今日本的工业机器人已经完成了“升级”,即感知环境并让行为产生变化。 如果说机器人有三层结构: 【上层】任务目标与工艺流程(由人或MES 系统定义) 【中层】控制与执行策略(控制器+ 伺服 + 感知融合) 【底层】执行机构(电机、减速器、机械结构) 那么当前日本工业机器人的智能化,主要集中在中层,通过智能算法把任务做得更稳、更准、更久。而宇树等人形机器人,正在尝试把AI推向上层任务理解与决策层,先理解世界,再决定做什么。 换句话说,日本人没有把通用AI研发放在主赛道,但是一提到自己的优势“工业机器人”,警报就响起来了,搞出了自己的“日式工厂AI”。 “日式工厂AI”存在于4个地方: 机器视觉(Vision AI),如3D视觉定位,表面缺陷检测,抓取粉末、不规则物体 力控 + 运动补偿(Physical AI),也是日本企业非常擅长的,通过力传感器来进行接触判断 预测维护(Predictive AI),例如预测轴承、电机、驱动器寿命,减少停线损失 参数自动优化(Auto Tuning),在工程师设定范围内微调,在日本被认为是“安全 AI” 这些AI的科技含量高吗?如果说不加AI的工业机器人是80分,加了“日式工厂AI”之后可以到达90分。FANUC的ZDT系列、安川的Motoman 系列都已将这类能力量产落地;日本少数偏“算法型”的机器人公司MUJIN,则进一步把视觉、实时运动规划与整机协同,做成了可部署、可复制的工业系统。 在这次展出里,我们也能看到很多并未承载AI的设备,这些设备的展示方式甚至与5年前、10年前差不多。例如,笔者特意翻查了往年报道,今年再次出现的“机械臂夹鸡块”,几乎已经成为工业机器人展会上连续多年的保留曲目——稳定、可靠、可重复,但并不试图讲述一个新的智能故事。 日本机器人强在哪?一整个产业链 日本工业机器人的第一要义:稳定。到什么地步:产品持续供货与维护20年,而且20年不断型号。 “机器人 × 产业链 × 工厂文化”的完整体系是从1970s年代建立的 FANUC 的客户(丰田、本田)合作40年 安川(YASKAWA)为通用汽车、日产提供机器人30~40年 川崎(Kawasaki)汽车工厂机器人使用几十年不断代 SMC的气动件、THK的导轨、NSK的轴承已经成为全球自动化标准件 特斯拉研发机器人,它自己也在使用日本工业机器人 为了达到标准,日本工业机器人公司使用最好的伺服系统(电机寿命长,编码器极精准,伺服响应极稳),最好的减速机(高精度+毫米级间隙)。 实际上,日本最厉害的不是台前的机器人,而是背后的整体产业链。除了AI芯片(NVIDIA)和少量高性能 GPU,日本的机器人产业链几乎完全自给自足,是全球最独立、进口依赖最小的机器人体系。 很多上游零部件难以被替代,成了整个行业现金流最好的玩家,即所谓的“高附加值项目”、“卡脖子”环节。 这又变成一个良性循环:下游的整机厂商是日本公司,因此优先采购日本的零部件,根本不需要背调;对B端购买方来说,设备365天×24小时不停机,谁都希望一步到位。而只要购买FANUC的机器人,减速机一定来自Nabtesco或Harmonic Drive,轴承一定来自NSK或NTN,机械结构一定是日本国内产线加工,综合来看,值得信赖。 降价?谁会提降价?日本人认为,只有小厂、小批量客户才价格敏感,会选择便宜机型,同时接受更高风险。 所以,冰冻三尺非一日之寒,一个制造业领先的国家也不是一天才变成如此。 最后,让我们看看中美日三个国家的机器人格局。 每个国家都有不同的策略,下一个问题是,到底能不能用科技,用资源,用规模,用经验,去购买时间和经验值? 对日本机器人产业而言,真正需要回答的,并不是是否错过了人形机器人这一轮,而是——当需求从“稳定重复”转向“高度不确定”时,这套以工程理性为核心构建的体系,是否仍然成立。
马斯克:要实现生命多行星生存 保障文明延续耗资不菲
快科技12月21日消息,有网友在社交媒体上表示:“埃隆·马斯克并不在意世界首富的称号,财富对他来说只是推动使命的燃料——他的使命是让人类登陆火星,延续文明的火种。” 对此,马斯克评论称:“的确如此,要实现生命的多行星生存、保障文明的长久延续,这项事业必将耗资不菲。” 马斯克一直怀有移民火星的愿景,并为此投入数百亿美元,研发人类历史上体积最大、推力最强的运载火箭——“星舰”。 他曾在X平台上发文阐述自己的多行星生存愿景,强调必须在火箭技术上实现巨大飞跃,从而大幅降低成本。 马斯克曾指出,在火星上建立一座能够自我维持的城市,至少需要运送100万吨物资。若基于现有技术,成本将高达1000万亿美元——这显然不现实,毕竟美国全年GDP也只有29万亿美元。 他表示,如果能够将火箭技术提升1000倍,那么多行星生存的总成本可降至约1万亿美元。这笔投入若分摊到40年或更长的时间中,每年仅需不到250亿美元。 以这样的成本水平,人类就有望实现多行星生存,从而确保文明的长期延续,同时不会对地球上人们的生活水平造成明显影响。而“星舰”的设计目标,正是实现现有系统效率1000倍以上的提升。 按计划,马斯克目标在2026年启动“星舰”的无人火星任务,并力争在2030年前实现载人探测。
OpenAI这招太狠!AI从“躲猫猫”到“自爆黑料”,主打一个坦白
【新智元导读】随着AI越来越强大并进入更高风险场景,透明、安全的AI显得越发重要。OpenAI首次提出了一种「忏悔机制」,让模型的幻觉、奖励黑客乃至潜在欺骗行为变得更加可见。 当AI越来越聪明时,也变得越来越难以掌控。 一个让AI研究者头疼的问题是: 当AI开始和你「耍小聪明」时,比如: 一本正经地胡说八道:幻觉(Hallucination) 为了拿高分找训练机制的漏洞:奖励黑客(reward hacking) 在对抗测试里出现「密谋欺骗」(scheming) …… 怎么破解?这是个棘手的难题。 最大的问题,就是这些AI的回答往往看起来没问题。 它们逻辑严谨、表述流畅,但不知道「坑」埋在了哪里:是不是走了捷径、隐瞒了不确定性、或者偷偷违反了要求。 于是OpenAI的研究者就提出了一个非常大胆的点子: 让模型「学会忏悔」。 该项研究的核心,是训练模型在回答完问题后,再额外产出一个自我坦白的「小报告」: 我刚刚是不是用错方法了?有没有偷懒?有没有读漏指令?有没有利用你没注意的漏…… 为了让模型在忏悔时「放下思想包袱」,这份报告不影响主回答的评分,它只考察一个维度: 诚实。 忏悔机制迈出了AI透明化的重要一步,让大模型可以主动承认自己是否遵守指令、是否走捷径,从而让隐藏的不良行为变得可见。 这使我们拥有了检查AI内在状态的窗口,有机会真正理解问题在哪里,从而更好改进AI的安全与训练方式。 论文里有更多实验,包括与未使用自白机制的对照模型比较,以及对自白失败案例的分析。 https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf 忏悔机制如何让AI更「诚实」? 忏悔机制的探索方向,是训练模型在出现不良行为时主动承认,研究人员称之为「忏悔」。 这是一种仍处于早期的概念验证方法,通过训练模型在违反指令或走捷径时主动「忏悔」,从而让这些行为变得可见。 OpenAI及其他的AI研究者证明,大模型可能出现幻觉、奖励黑客或不诚实行为。 目前,最严重的行为,如密谋欺骗主要在压力测试和对抗性评估中才出现。 但随着模型变得更强、更像AI智能体,即使罕见的失衡行为也会造成更大的影响,因此我们需要能更好发现、理解和缓解AI风险的方法。 如何让模型毫无保留地「忏悔」? 研究人员让「忏悔」完全和主任务的奖励脱钩,只考察一个维度: 说实话就给奖励,不说实话不给奖励。与主任务的回答好坏无关。 模型只要在自白里承认问题不会被算作负分。 只要它如实说明自己是否利用了测试漏洞(hacking)、故意压低表现(sandbagging)或违反了指令,就会获得奖励。 目的是为了让模型如实报告自己的真实行为。 测试显示,忏悔机制能显著提升不良行为的可见性。 在诱导不良行为的场景中,「假阴性」(模型没有遵守指令且没有自白)的比例只有4.4%。 图中展示的是模型在四类任务下自我「忏悔」是否遵从的准确性。 结果被分为上图中的四类: True positive(真正例):模型不遵从,并且坦白说自己不遵从 True negative(真负例):模型遵从,并且坦白说自己遵从 False positive(假正例):模型遵从,但错误地坦白说自己不遵从 False negative(假负例):模型不遵从,但错误地坦白说自己遵从 整体目的是衡量模型自我评估(self-confession)是否可靠。 在「幻觉」任务中,正确率达到了81%,但也存在一定比例错误「坦白」,这说明模型在涉及「幻觉」判断时,对自身表现的把握不如其他领域稳定。 在遵循指令类任务中,错误坦白的情况仅占4.4%,这说明AI在此类任务中对自己的行为判断相当可靠。 对于给定的用户提示,以上四种可能的结果取决于两个维度的组合: 模型的回复是遵从还是不遵从,以及「忏悔」声称遵从还是不遵从。 研究人员整体上发现,「忏悔」供述通常非常准确,而且其中的错误大多是无害的,更多源于真实的困惑,而不是有意误导。 忏悔机制如何有效工作? 忏悔机制是AI对自己是否遵守显性和隐性指令、是否走捷径、利用漏洞或未达预期的情况进行自我报告。 在这方面大模型可以被训练为保持坦诚。 研究人员以GPT-5 Thinking的一个版本进行忏悔机制的训练,并在多个分布外的压力测试数据集上评估。 这些数据集旨在诱导密谋式欺骗、奖励黑客、违反指令和幻觉等行为。 结果显示,即便模型真的做了这些不该做的事,它在忏悔中依然很可能承认,整体效果在不同数据集和任务上都表现稳定。 在每次对话结束后,可以通过一条「系统消息」要求模型给出上一条回答的忏悔报告,内容包括: 回答应满足的所有显性和隐性目标、指令和限制; 回答是否做到这些的客观评估; 模型在作答过程中遇到的模糊点、不确定性或难以判断的问题。 训练时,一个独立的奖励模型只评估自白内容,包括目标是否完整、分析是否准确、不确定性说明是否充分。 自白的奖励不会影响主回答的得分,从而确保模型在自白里说什么,都不会影响主回答的表现。 为什么忏悔有效? 原因在于许多不良行为是在模型同时优化多个目标时产生的。 在强化学习中,模型通过看提示词、生成回答、得到奖励,逐渐学会能得高分的模式。 但奖励信号往往混合多种因素:正确性、帮助性、产品规范、安全要求、用户偏好等。 这些奖励信号的相互作用,可能把模型推向我们不希望的方向,比如: 幻觉研究显示:一些数据集更奖励「自信猜测」而不是诚实表达不确定性; 阿谀奉承研究显示:偏好信号过强时,模型会过度附和; 其他团队的研究表明:模型可能进行奖励黑客,找到训练机制的漏洞,提高得分但没真正做对任务。 这些捷径甚至会在部署时泛化为更严重的问题。 而忏悔机制,可以通过完全分离目标来避免这点: 主回答仍然优化所有常规因素,而忏悔机制只优化诚实这一因素。 忏悔的内容不会影响到主回答的奖励。 因此,即便大模型在主回答里隐瞒、走捷径,它仍然有动力在自白里说实话。 实践中也确实如此:大模型会在忏悔中承认不良行为,即使主回答中没有透露。 当忏悔机制失败时,多数情况是模型真的「没搞清楚」:比如指令模糊不清,或它根本没意识到自己犯错,而不是故意误导。 重要的是,早期结果表明,即便主回答没有使用链式思维(chain-of-thought),忏悔机制仍然有效。 这说明它不依赖于内部推理透明度,并可能适用于未来更不同的模型架构。 忏悔机制即使没有合规的「真值标签」也能发挥作用。 许多真实任务中,我们无法客观地标注模型是否遵守指令。如果能做到,我们就直接惩罚,而不需要忏悔机制了。 忏悔机制奖励的是:模型是否能给出结构化、有证据支持的自我评估。 提供真实解释往往比编造一个完美的谎言更容易,因此诚实倾向自然出现。论文也讨论了自白产生假阴性、假阳性的情况以及其原因。 论文给出初步证据,但不是最终证明。 虽然研究人员使用了前沿模型GPT-5 Thinking,但实验规模有限,未来希望进一步扩大规模,看看诚实性是否能继续保持。 我们学到什么? 在一些实验中,研究人员刻意使用由较弱模型生成的「容易被利用的奖励信号」来训练主任务奖励和忏悔奖励。 这意味着模型是在一套「可以被轻易玩弄的规则」下学习。 事实证明模型确实学会了利用弱奖励信号,主任务上模型在「利用弱奖励信号」「走偏」,但在忏悔部分反而越来越诚实、越来越准确。 在这个过程中,模型了解到:要最大化忏悔奖励,最简单的方法就是如实承认它是如何利用弱奖励信号的。 限制与展望 忏悔机制并不会阻止不良行为,它只是让这些行为可见。 其主要价值是作为训练、评估和部署期间的监控与诊断工具。 忏悔机制就像链式思维监控一样,可以让隐藏的推理过程变得更透明。它关注的是指令是否被违反,而链式思维则侧重揭示推理路径。 研究人员指出,这项工作仍处于概念验证阶段。 目前,并没有在大规模训练条件下测试其效果,忏悔准确率也并非完美,要让这种方法更可靠、更稳健、更适用,还需要更多研究。 该项研究也属于OpenAI更广泛的AI安全体系的一部分。 忏悔只是其中一个机制,与深思熟虑式对齐、链式思维监控、指令层级体系等方法共同构成一套多层透明与监督工具。 忏悔机制可用于训练和评估中的诊断,也可用于部署中的实时监控。 它虽然不能独自解决多目标冲突问题,但作为「诚实模式」,可以为整体的诚实和安全性提供重要支撑。 未来,OpenAI计划进一步扩大忏悔的训练规模,并与其他透明与安全技术(包括链式思维监控与深思熟虑式对齐)结合,以确保模型严格遵守所有指令和政策(如Model Spec),并如实报告自身行为。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。