行业分类:
加载中...
头条分类:
加载中...
特斯拉新年OTA大更新:新增手机遗落提醒等十余项功能
凤凰网科技讯 1月1日,特斯拉官方今日正式向用户推送了年度假日更新。据官方信息显示,此次OTA带来了十余项新功能,涵盖娱乐交互、用车便利性及行车记录等多个维度,让车主在新年伊始即能体验“开新车”的感觉。 在此次更新清单中,针对“痛点场景”的实用性升级尤为引人关注。针对现代人手机不离身的习惯,特斯拉新增了“手机遗落提醒”功能,当车辆检测到手机遗留在车内时会及时向车主发出警报(需手机支持UWB超宽带技术),有效避免了回头取物的麻烦。在行车安全数据方面,行车记录仪的功能被进一步拓宽,现在不仅能记录视频,还能同步记录车速、方向盘转角等关键驾驶细节,为复盘驾驶行为或处理事故提供了更严谨的数据维度的支持。此外,对于养宠人士,新版本支持在苹果手机上直接查看“爱犬模式”下的车内实时温度,并增加了车门未关提醒,进一步提升了离车后的安全感。 在座舱娱乐化体验上,特斯拉继续发挥其“电子消费品”的特质。新上线的“Tesla 照相亭”让车内空间秒变社交场所,支持自定义装扮与滤镜自拍;备受期待的“喷漆车间”功能则允许用户在车机UI中自由更改车辆显示的颜色,配合更加丰富的节日灯光秀和“锐舞洞穴”模式,极大地丰富了停车休息时的交互乐趣。 回顾近年来的技术迭代,特斯拉始终保持着高频的OTA节奏。数据显示,从2022年至今,特斯拉几乎每年都保持着10次以上的版本推送频率,累计优化功能近百项。从早期的红绿灯倒计时、车道级导航等本土化刚需,到不断通过算法优化气囊点爆时机等底层安全逻辑,这种“小步快跑”的软件迭代模式,已成为其维持产品竞争力和用户新鲜感的关键手段。 此次假日更新现已陆续向各车型推送,车主无需支付额外费用即可通过OTA完成升级。
DeepSeek开年发布新论文:提出全新mHC架构,梁文锋现身作者名单
IT之家 1 月 1 日消息,北京时间今天下午,DeepSeek 公布了一篇新论文,提出名为 mHC (流形约束超连接)的新架构。根据介绍,该研究旨在解决传统超连接在大规模模型训练中的不稳定性问题,同时保持其显著的性能增益。 这篇论文的第一作者有三位:Zhenda Xie(解振达)、Yixuan Wei(韦毅轩)、Huanqi Cao。值得一提的是,DeepSeek 创始人兼 CEO 梁文锋也在作者名单之列。 IT之家附摘要部分大意如下: 最近,以超连接(HC)为例的研究通过扩展残差流宽度和多样化连接模式,扩展了过去十年建立的无处不在的残差连接范式。虽然产生了显著的性能提升,但这种多样化从根本上损害了残差连接固有的恒等映射属性,从而导致严重的训练不稳定性和受限的可扩展性,并且还会产生显著的内存访问开销。 为了应对这些挑战,我们提出了流形约束超连接(mHC),这是一个通用框架,可将 HC 的残差连接空间投影到特定的流形上,以恢复恒等映射属性,同时结合严格的基础设施优化以确保效率。 经验实验表明,mHC 对于大规模训练是有效的,可提供切实的性能改进和卓越的可扩展性。我们预计,mHC 作为 HC 的灵活且实用的扩展,将有助于更深入地理解拓扑架构设计,并为基础模型的演进提出有希望的方向。 论文链接 Hugging Face:https://huggingface.co/papers/2512.24880 Arxiv:https://arxiv.org/abs/2512.24880
2nm芯片量产落地!台积电悄悄“掀桌”,三星英特尔慌了
新智元报道 编辑:元宇 【新智元导读】台积电悄悄按下了「2nm」量产启动键,标志着先进芯片制程正式迈入2nm时代,拉开了新一轮半导体技术竞赛的序幕。 台积电2nm制程芯片已投入量产! 没有盛大的产品发布,只是在官网的技术介绍页面上低调提了一句: 台积电2nm(N2)技术已按计划于2025年第四季度投入量产。 简单的一句话,背后是半导体技术物理极限的一次重大突破,标志着台积电2nm级制程进入量产阶段,全球科技迈入了2nm芯片的新时代。 据台积电官方介绍,其N2技术采用了第一代纳米片晶体管(nanosheet transistor)技术。 与已经非常优秀的N3E工艺相比,N2技术在性能与功耗方面实现了全节点的显著提升: 在同样功耗下,性能(速度)提升10%–15%。 在同样速度下,功耗降低25%–30%。 这意味着我们手中的智能手机、驱动AI世界的庞大算力、以及未来一切智能设备,都即将迎来一场性能革命。 位于台湾高雄的晶圆二十二厂(Fab 22)是台积电2nm制程的生产基地 此前台积电已多次表示N2芯片将于2025年第四季度按计划进入量产阶段,此举也意味着该项计划现已兑现。 由「鳍」到「片」 突破3nm极限 一切变革,都始于最微观的结构。 过去十年,从22nm到3nm,芯片行业一直依赖着一项名为「鳍式场效应晶体管」(FinFET)的关键技术。 你可以把它想象成一栋栋竖起来的「小鳍」,电流就像在这些鳍片构成的通道里穿行,而栅极(Gate)从三面包裹着它,像一只手一样控制着电流的通断。 这个结构非常成功,曾支撑了摩尔定律的指数级迭代。 但当工艺逼近3nm,物理极限的墙壁也随之而来: 「小鳍」变得越来越薄,漏电现象就像一个无法堵住的窟窿,让功耗与性能的平衡也越来越难以为继。 台积电的N2工艺采用了一项全新的革命性技术——环栅(Gate-All-Around,GAA)纳米片晶体管(nanosheet transistor)。 如果说FinFET是栅极从「三面」控制电流,而GAA纳米片晶体管的栅极可以将整个电流通道「四面」完全包裹起来。 该结构将原来的电流通道由竖立的「鳍」变成了水平堆叠的「纳米片」,栅极可以从四面「360度无死角拥抱」通道,好处也是显而易见。 首先,它降低了功耗。 由于改善了静电控制,可以更精准地命令数以亿计的晶体管「开启」或「关闭」,大大减少了漏电,从而在根本上降低了功耗。 其次,单位空间内可以实现更强的性能。 这种堆叠的纳米片结构,让工程师们可以在同样的空间里,塞下更多的晶体管,最终提高晶体管密度。 相对于纯逻辑电路的设计,N2P(N2系列的延伸)工艺的晶体管密度比前代N3E提升了约20%。 这表明芯片可以变得更小,或者在同样大小下,集成更强大的功能。 此外,N2还在供电网络中增加了超高性能金属-绝缘体-金属(Super-High-Performance Metal-Insulator-Metal,SHPMIM)电容器。 据台积电公开资料及媒体转述,SHPMIM相对前代电容容量密度提升逾2倍,Rs/Rc降低约50%,从而提高了功率稳定性、性能和整体能源效率。 GAA纳米片晶体管负责从源头「节流」,SHPMIM电容器负责为性能「开源」,两者结合,共同成就了N2工艺在性能与功耗上的双重飞跃。 雄心勃勃的量产蓝图 双线作战,剑指AI与未来 台积电将N2工艺的量产地选在了位于台湾高雄的全新工厂——晶圆二十二厂(Fab 22),以及紧邻其位于台湾新竹全球研发中心的晶圆二十厂(Fab 20)。 两地并行扩产,展现出台积电在先进制程芯片上的激进布局。 通常,一项新工艺的产能爬坡,会先从技术相对成熟、尺寸较小的移动芯片开始,一步步摸索,稳扎稳打。 但这一次,台积电选择了在高雄和新竹两座全新的晶圆厂扩充先进制程产能。 这些先进制程芯片很可能服务于高端智能手机、高性能计算(AI/HPC)等多个领域。 这是一次罕见的「双线作战」。 一边是苹果等巨头每年需求量数以亿计的手机芯片,另一边是英伟达等客户设计的、尺寸巨大、结构复杂的AI和服务器芯片。 同时驾驭这两种截然不同、且都对良率要求极为苛刻的产品线,其难度也将呈指数级增加。 台积电CEO魏哲家在十月份的财报电话会议上表示: 「N2进展顺利,将于本季度晚些时候进入量产,且良率良好。我们预计在智能手机和高性能计算(HPC)、AI应用的推动下,2026年将实现更快的产能爬坡。」 支撑台积电这份自信的,是其背后排起长队的客户。 据市场普遍预期,N2将首先覆盖高端手机与HPC/AI等需求。 从苹果的下一代iPhone、Mac芯片,到英伟达、AMD的未来AI加速器,几乎所有顶尖科技巨头都对N2工艺表现出了「浓厚兴趣」,同时开启两座晶圆厂的产能也就势在必行了。 这盘大棋背后也透露了台积电对未来市场格局的精准布局: 智能手机是基本盘,而AI与HPC,则是它未来十年最大的增长引擎。 从N2P到A16 决胜未来十年的终局之战 魏哲家表示,台积电将在持续增强的战略下,推出N2P作为N2家族的延伸。 N2P在N2的基础上进一步提升了性能和功耗表现,计划于2026年下半年起进行量产。 A16是台积电面向HPC/AI的下一步先进制程(与N2家族在架构与生态上紧密相关)。 它采用了超级电轨(Super Power Rail)背面供电技术,主要针对复杂的人工智能和高性能计算处理器,同样计划2026下半年起实现量产。 从N2的架构革命,到N2P的持续优化,再到A16引入的背面供电技术,台积电的技术路线图已经清晰,而其N2工艺进入量产,无疑是半导体行业的一个关键节点。 它标志着被誉为「后摩尔定律时代」最关键技术之一的环栅(GAA)纳米片晶体管架构,已由行业领导者成功导入大规模生产。 这不仅巩固了台积电在先进工艺制造领域的领先地位,也为全球依赖高性能计算的产业,从消费电子到人工智能,提供了下一阶段发展的坚实基础。 但领导这场先进制程半导体竞赛的并非台积电一家巨头。 当台积电迈入2nm(N2)门槛时,其主要竞争者——三星与英特尔等也在同步推进新一代晶体管技术。 2022年6月,三星宣布采用GAA架构成功量产3纳米制程芯片 早在台积电之前,2022年6月,三星宣布已在其3nm制程中率先将GAA(环栅)晶体管架构投入量产,成为全球首家在先进制程节点上实现GAA商用的晶圆厂。 这一「抢跑」也体现了三星在尖端制程竞争上的技术实力与战略决心。 与此同时,英特尔正在其Intel 18A节点中引入RibbonFET(GAA晶体管)与PowerVia(背面供电)两项关键技术。 据报道,该节点已于2025年进入早期生产阶段,并预计在2026年逐步扩大产能、实现更广泛的商业化应用。 2025年10月,英特尔CEO陈立武在亚利桑那州Ocotillo园区亲自展示了代号为Panther Lake的Intel Core Ultra系列3处理器晶圆,这也是英特尔首次公开展示基于18A(1.8nm级)工艺节点开发的客户端芯片。 英特尔18A与台积电N2虽同属GAA世代,但前者更激进,后者更稳健。 英特尔以「RibbonFET+PowerVia」的组合推进性能与供电架构革新,率先应用于高复杂度CPU,试图在下一代制程竞赛中先发制人。 而台积电则是先用N2实现量产服务于大规模客户,而将进一步的技术突破放到N2P/A16等后续节点。 此次台积电N2节点的量产,更像是正式拉开了后FinFET时代、以GAA为核心的新一轮先进制程技术竞赛的序幕。
DeepSeek梁文峰发表新论文
2026 年刚开年,DeepSeek就放出了一项重要技术进展。 1月1日,DeepSeek发表论文《Manifold-Constrained Hyper-Connections》,提出一种全新的模型连接结构 mHC(流形约束超连接),直击当前大模型训练领域中长期存在却难以攻克的核心问题:模型越大,训练越不稳定。 该论文由DeepSeek团队完成,创始人兼CEO梁文锋也出现在作者名单中。 为什么大模型越来越“难训练”? 目前主流的大模型,几乎都建立在“残差连接”之上。这种结构的好处是让信息在深层网络中更顺畅地传递,是 Transformer 能够成功的关键之一。 但随着模型规模不断扩大,研究者们开始尝试更复杂的连接方式,比如 Hyper-Connections(超连接),希望让模型具备更强的表达能力。 问题也恰恰出在这里。 论文指出,这类结构虽然在理论上更灵活,但在实际训练中容易出现 梯度爆炸、信号失真、训练不稳定 等问题。在部分实验场景中,信号甚至会被放大上千倍,导致模型难以收敛,训练成本急剧上升。 DeepSeek 的解法:给“连接”加上约束 针对这一痛点,DeepSeek 提出了 mHC(流形约束超连接) 方案。 简单来说,mHC 并不是完全推翻原有结构,而是给超连接增设一道“约束”,将原本自由度极高的连接矩阵,限制在一个数学层面更加稳定的“流形空间”中。 这一设计带来的效果十分显著:既保留了超连接的强大表达能力,又恢复了类似传统残差结构的训练稳定性,同时还能有效避免信号在层与层之间出现无限制放大的情况。用论文中的表述来讲,就是让模型在“表达能力”与“数值稳定性”之间,重新取得平衡。 实测结果:更稳、更准,代价更低 在 27B 参数规模的模型测试中,mHC 结构的表现堪称亮眼。在 BBH、DROP 等多个推理类基准任务中,其性能显著超越传统结构;整个训练过程稳定性拉满,未出现明显的梯度爆炸现象;额外增加的计算开销仅约 6.7%,完全处于工程可接受范围之内。 论文还指出,在更大规模模型中,mHC的技术优势还会进一步放大,也意味着该结构对未来超大模型的研发具有较强的扩展潜力。 一次偏底层、但很关键的推进 在外界看来,mHC 并非“看一眼就能用”的功能更新,而是一项偏向底层架构、蕴含先进工程哲学的技术改进。 但恰恰是这类深耕底层的研究工作,决定了大模型能否继续向更大规模演进。 在算力、数据逐渐逼近物理与成本极限的当下,如何让模型“跑得稳、跑得久”,已经成为比“堆参数”更重要的核心命题。DeepSeek 此次的技术尝试,或将成为下一阶段模型架构演进的重要方向之一。 如果说过去几年,行业奋力攻克的是“能不能做大模型”,那么现在,研究者们开始认真思考的是:大模型还能不能继续成长,如何健康地成长。
海外部分EQB车型暗藏电池安全风险,奔驰提醒车主别把电充满
IT之家 1 月 1 日消息,据外媒 Carscoops 今日报道,奔驰向部分 EQB 纯电 SUV 车主发出警告:不要把电池充满。奔驰已明确要求将充电上限控制在 80%,以降低潜在的电池安全风险。 奔驰解释称,涉事车辆在极端情况下可能发生所谓的“热事件”,即电池电芯短路并引发起火。此次受影响车辆总数为 169 辆,主要集中在 EQB300 4MATIC、EQB350 4MATIC 以及少量 EQB250 车型。奔驰强调,问题仅存在于 2022 至 2023 年生产的早期 EQB,后续车型所使用的电池已进行强化,不在召回范围内。 值得注意的是,这并非奔驰首次因起火风险对 EQB 采取限制措施。2025 年初,奔驰曾在美国召回超过 7000 辆同类车型,并在软件更新完成前要求车主同样限制充电至 80%。 奔驰还提醒,车辆在行驶中可能会通过仪表警告提示电池温度异常,然而停放状态下的车辆也可能在无任何提示的情况下发生问题。 IT之家从报道中获悉,对于此次召回,奔驰并未选择为车主更换电池,而是计划在 2026 年初为车主提供一次软件更新,车主需前往授权服务中心完成。 在使用层面,这一限制对 EQB350 的影响尤为明显。该车型在满电状态下的续航仅为 366km,限制至 80% 后续航降至约 290km;若再预留电量安全空间,实际可用续航可能仅约 242km。
为何2026年是OpenAI的“生死之年”?
1月2日消息,据《旧金山观察家报》报道,在经历了过去三年由ChatGPT引发的全球狂热后,OpenAI正站在一个十字路口:它必须在这一年证明自己不仅能制造轰动性的演示,还能构建一个可持续盈利的商业帝国。 在完成了数轮巨额融资并达到千亿美元级别的估值后,投资者对它的耐心正在从“宽容的期待”转向“苛刻的审计”。 2026年,OpenAI必须向华尔街展示清晰的盈利路径,而不仅仅是烧钱换增长。随着训练前沿模型的成本指数级上升。GPT-5级别的模型训练成本据传已突破十亿美元大关,单纯依靠订阅费和API调用能否覆盖这一天文数字般的支出,成为了财务报表上最大的悬念。如果无法在今年实现正向现金流或明确的IPO计划,资本市场的风向可能会迅速逆转。 行业内关于“缩放定律”(Scaling Laws)是否失效的争论将在2026年见分晓。虽然o1系列模型引入了推理能力,但竞争对手Google DeepMind和Anthropic已经迅速缩小了差距。 Google的Gemini 2.0在多模态和长窗口处理上表现强劲,而Meta通过收购Manus等公司补齐了Agent短板,并通过开源Llama模型不断侵蚀OpenAI的护城河。 如果OpenAI不能在2026年推出具有代际差优势的下一代模型(如GPT-5或更高级的Agent系统),其“技术霸主”的光环恐将褪色,产品也将陷入同质化价格战的泥潭。 随着AI深入医疗、金融等关键领域,公众和监管机构对“幻觉”和数据安全的容忍度降至冰点。OpenAI不仅要应对来自《纽约时报》等媒体机构的版权诉讼,还需在日益分裂的全球地缘政治中寻找平衡。 如何在保持技术领先的同时,安抚日益焦虑的公众情绪,将是考验奥特曼政治智慧的一道难题。 2026年对于OpenAI而言,就像是iPhone发布前的苹果,或者是互联网泡沫破裂前的网景。 这是一家定义了时代的公司,但历史表明,先驱者并不总是最终的胜利者。这一年的每一个战略选择,都将决定OpenAI最终是被写入商业教科书的成功案例,还是成为科技史上又一个“小时了了,大未必佳”的注脚。
又是量化基金,第二个DeepSeek时刻到来了?
九坤投资旗下的至知创新研究院发布了开源编程Agent模型IQuest-Coder-V1。至知研究院在AI领域名气不大,但这个模型的benchmark数据直接对标了行业顶尖水平。 母公司是量化私募,发布时间是1月,这两个特征组合在一起,很容易让人想起去年同期的DeepSeek R1。 事实上,去年DeepSeek R1发布的时候也是相同的情况,一个知名度不高的公司,发布了一个行业顶尖的模型。 那么IQuest-Coder-V1会是下一个“DeepSeek时刻”吗? 暂时还不好下结论。 根据JetBrains的《2025 开发者生态系统现状报告》,全球85%的开发者已经在使用AI工具,全球41%的代码由AI生成,但这些工具大多停留在辅助层面。 从OpenAI到Anthropic,各家在2025年底密集推出的agent产品,都将代码作为突破口。 所以至少可以肯定,编程Agent就是下一个风口。 01 IQuest-Coder-V1不是一个简单的代码补全工具,而是一个能够自主完成软件工程全流程的代码大语言模型。 过去的AI编程助手的作用是自动补全,你写一半代码,它帮你接下去。而IQuest-Coder-V1则是能够从零开始理解需求、设计架构、编写代码、测试调试,甚至进行多轮迭代优化。 IQuest-Coder-V1有三个很关键的技术点。 第一是40B的参数规模。相比GPT-5和Gemini 3等动辄数千亿参数的模型,40B只是它们的几十分之一左右。 也就是说,IQuest-Coder-V1可以在性能稍好的消费级硬件上运行,而不需要专业的数据中心级别算力。 第二个特点是Loop架构。 这个名字很直白,模型会循环迭代自己的输出。就像程序员写完代码会回过头检查、修改、重构一样,Loop架构让模型在生成代码后能够反思和改进。 但Loop架构不是简单的多次调用,而是将迭代优化的过程内化到模型架构中。简单概括就是IQuest-Coder-V1会超额完成任务,以确保最终输出的结果覆盖用户的需求。 Loop版本让模型“走两遍”相同的神经网络,就像你读文章时会回头重读关键段落,第二遍往往能发现第一遍没注意到的问题。 第三个特点是code-flow训练范式。 传统的代码模型学习的是代码片段,学习的是静态的语法和API调用模式。用大白话来解释,AI可以完美复刻它所学习的代码,却不理解为什么要这么写。 但IQuest-Coder-V1学习的是软件如何一步步演化出来的,学习的是动态的逻辑演进。这让模型不仅理解“这段代码是什么”,还理解“这段代码为什么这样写”、“下一步应该怎么改”。 IQuest-Coder-V1使用32k高质量轨迹数据进行强化学习训练,这些轨迹通过multi-agent role-playing自动生成。 系统会模拟用户、Agent、Server三方交互,用户提出需求,Agent编写代码,Server返回执行结果,整个过程无需人工标注。训练目标不是单次代码生成,而是完整的软件演化过程。 这些技术设计在benchmark上得到了验证。在SWE-Bench Verified这个衡量真实软件工程能力的测试中,IQuest-Coder-V1达到了81.4%的准确率,超过了Claude Sonnet 4.5的77.2%。在LiveCodeBench v6上的表现是81.1%,在BigCodeBench上是49.9%。 IQuest-Coder-V1来自九坤投资创始团队发起设立的至知创新研究院。这个研究院独立于九坤的量化投研体系,其职能是研究多个AI应用方向。 九坤投资本身是中国最早一批量化私募之一,成立于2012年,目前管理规模超过600亿人民币,和明汯、幻方、灵均并称量化“四大天王”。 创始人王琛拥有清华大学数学物理学士和计算机博士学位,师从图灵奖唯一华人得主姚期智院士。联合创始人姚齐聪是北京大学数学学士、金融数学硕士。 两人都来自华尔街顶级对冲基金千禧年(Millennium),2010年看准中国股指期货上市的机遇回国创业。 九坤从2020年开始建设名为"北溟"的超算集群,内部设有AI Lab、Data Lab和水滴实验室。 这些基础设施原本服务于量化投资业务,现在也为大模型研发提供了算力支持。 量化机构拥有大规模算力集群和数据处理能力,这与大模型训练的资源需求相匹配。同时在人才结构上,量化投资和AI研究都需要数学、计算机背景的研究人员,这使得量化机构进入大模型领域时有一定的基础。 从量化投资到开源大模型,这条路径并不突兀。 量化机构本身就拥有大规模算力集群和海量数据处理能力,这与大模型训练的需求高度契合。更重要的是,量化投资和AI研究在人才结构上有很大重叠,都需要数学、计算机、物理背景的研究型人才。 因此从发展角度看,IQuest-Coder-V1更像是九坤在AI方面的自然延伸,并非简单跟风。 02 但不可否认的是,IQuest和DeepSeek,两者有着惊人的相似性。 它们都来自中国量化基金,都展示了在资源受限情况下通过工程创新实现技术突破的能力。但仔细观察会发现,两者选择了完全相反的方向。 DeepSeek追求的是“广度”。从DeepSeek-V3到R1,梁文锋团队的目标是打造通用对话能力,要做中国的GPT。 它要回答各种领域的问题,要能写诗、讲故事、分析时事、解决数学题。这是一个横向扩张的路径,覆盖尽可能多的应用场景。 IQuest-Coder-V1追求的是“精度”。它专注在代码这个垂直领域,在SWE-Bench这样的专业测试上做到极致。它不关心能不能写诗,只关心能不能像真正的程序员一样理解需求、设计系统、解决bug。 有意思的是,就在IQuest-Coder-V1发布的同一天,DeepSeek团队也有新动作。 包括创始人梁文锋在内的19位研究者发布了关于mHC(manifold-constrained hyperconnection,流形约束超连接)架构的论文。这篇论文解决的是超连接网络在大规模训练中的不稳定性问题。 虽然DeepSeek团队在研究工作上保持一定的更新频率,然而在产品方面,他们却显得有些落后,至今仍然没有拿出R2和V4。 2025年,AI领域的竞争焦点是对话能力和推理能力,各家比的是谁能更好地回答问题,谁的推理过程更清晰。到了2026年,这个焦点已经转向Agent能力,比的是AI能否自主完成复杂的多步骤任务。 Agent能力的核心是“执行”,而不仅仅是“理解”和“回答”。 就拿代码举例,一个对话型AI可以告诉你如何修复代码中的bug,但Agent能直接帮你改好代码、运行测试、提交修改。这是完全不同的能力层级。 DeepSeek团队在研究层面确实很活跃,不断发表论文推进底层技术。可一旦落实到产品就会发现,DeepSeek仍然主要是一个对话型AI。用户提问,它给答案,这是它的主要使用场景。 DeepSeek目前还没有推出真正的Agent产品,没有像IQuest-Coder那样能自主完成整个软件开发流程的能力。 诚然,DeepSeek在Alpha Arena这样的AI炒币/炒股比赛中表现很亮眼,证明了量化基金训练出的模型“真的懂市场”,能读懂K线、解析新闻、做出交易决策。 而量化投资的本质是用算法理解市场规律,寻找价格波动中的模式。进一步说明DeepSeek具有“理解复杂系统”的能力。 但需要指出的是,即使在金融市场表现出色,这种能力仍停留在“理解”和“分析”层面。DeepSeek可以分析市场、给出建议,但它作为产品还没有发展出完整的自主交易能力。 从炒股到写代码,幻方和九坤的AI都在展示同一种倾向,就是更强的执行导向。这或许能解释为什么量化基金能在AI领域做出成果,因为他们的基因就是“让算法自主决策”,而不是“让算法回答问题”。 现在关于AI的竞争不只是比谁的论文更多,更重要的是落地,是谁能把技术转化成用户可以直接使用的工具。 市场已经等了太久,梁文锋该发新产品了。 03 IQuest-Coder-V1对标的是Claude Opus 4.5。这个定位很明确,81.4%对80.9%的benchmark数据也确实亮眼。 再加上Anthropic对华态度的强硬,也让人们对Quest-Coder-V1投入了更多的希望。但“取代Claude Opus 4.5”这个问题需要更冷静的分析。 Claude Opus 4.5的优势不只在模型能力,更在于完整的产品生态。它有原生的VS Code扩展,有Claude Code这样面向终端的交互式开发工具,支持MCP协议的工具生态,有企业级的安全合规标准,还有无数真实项目打磨出的用户体验。这些都不是一个刚发布的模型能够在短期内复制的。 更重要的是用户习惯。Claude发布得早,程序员群体已经习惯了它的“工作方式”,知道什么时候该信任它,什么时候该介入,如何高效协作。 这种使用习惯的养成需要时间,需要在无数次试错中建立起来。一个新模型即使benchmark数据更好,也需要相当长的时间来培养用户信任。 benchmark和实际应用之间确实存在差距。 虽说SWE-Bench Verified测试的是在真实代码仓库中解决issue的能力,这比简单的代码补全要复杂得多。然而即使在这样的测试中表现出色,也不等于在日常开发中就能无缝替代人类程序员。 实际工作中的需求往往是模糊的,在产品经理与开发者的沟通过程中,需求往往会改变很多,而这些都是benchmark上没有的。 不过IQuest-Coder-V1的机遇在于另一些维度。它是开源的,这意味着企业可以自己部署,可以根据需要调整和优化,不需要担心数据被第三方服务商获取。对于金融、医疗、国防等对数据安全有严格要求的行业,这是实实在在的价值。 这种开源代码大模型的体验,完全区别于Claude用户。Claude的用户更多是习惯了云服务、愿意为便利性付费、对数据隐私没有极端要求的开发者。IQuest-Coder-V1的潜在用户应该是需要数据自主可控的企业、想要深度定制的技术团队、或者就是喜欢折腾开源工具的开发者。 就比如做像九坤和幻方这样做量化的,他们的算法就是企业的命脉,不可能上传到公有云。 当然,开源也有开源的问题。没有专门的产品团队来打磨用户体验,没有客服来解决使用中的问题,遇到bug只能自己想办法或者等社区修复。这些都是开源模型相比商业产品的劣势。 有一种观点认为,像是IQuest-Coder-V1这样带有一定agent功能的代码大模型,可能是通向通用agent以及AGI的第一步。 这个观点的逻辑在于,代码是结构化的、逻辑清晰的任务,相比其他开放性任务更容易验证对错。测试通过与否,这种二元反馈为agent提供了明确的学习信号。 更重要的是,编程任务本身需要的能力是通用agent所需的核心能力。 从SWE-Bench这样的benchmark来看,它测试的不只是代码生成,而是理解需求、规划步骤、调试错误、迭代改进等能力。这个过程和解决其他复杂任务的模式是相通的。 代码环境提供了一个相对可控的训练场,一旦在这里证明了它的Agent能力,扩展到其他领域的技术路径就会更清晰。 所以,九坤可能也在下一盘大棋。
华虹半导体拟斥资82.68亿元收购华力微97.4988%股权
IT之家 1 月 2 日消息,华虹半导体于 2025 年 12 月 31 日发布公告,该公司计划通过发行股份方式,向华虹集团等 4 名交易对方购买其合计持有的华力微 97.4988% 股权,并拟向不超过 35 名符合条件的特定对象发行股票募集配套资金。 根据官方披露的信息,华虹半导体拟以 43.34 元 / 股的价格,向华虹集团、上海集成电路基金、大基金二期、国投先导基金等 4 名交易对方合计发行股份 1.91 亿股,购买其合计持有的华力微 97.4988% 股权。标的资产评估值为 84.8 亿元,增值率为 323.59%,本次交易价格为 82.68 亿元。 同时,公司拟向不超过 35 名特定对象发行股份(锁定期 6 个月),募集资金不超过 75.56 亿元,用于华力微技术升级改造项目,华力微特色工艺研发及产业化项目,补充流动资金、偿还债务及支付中介机构费用。 IT之家曾于 2025 年 8 月报道,为解决企业 2023 年 IPO 时承诺的同业竞争事项,华虹半导体正在筹划以发行股份及支付现金的方式购买上海华力微电子控股权并配套募集资金。 华虹半导体与华力微同属华虹集团集成电路制造业务板块,此次华虹半导体拟收购华力微与其在 65/55nm 和 40nm 存在同业竞争的资产(华虹五厂)所对应的股权。 图源:华虹半导体官网 华虹半导体通过华虹宏力在上海金桥和张江建有三座 8 英寸晶圆厂(华虹一厂、华虹二厂、华虹三厂),技术覆盖 1μm~90nm 节点。 华虹宏力参股的华虹半导体(无锡)一期包含一座月产能 4 万片的 12 英寸晶圆厂(华虹七厂),覆盖 90~65/55nm 节点;而 65/55~40nm 的二期(华虹九厂)也已于去年末实现建成投片。 IT之家查询股价信息,华虹半导体早盘股价上涨 10.36%,现报 82 港元。
硅谷CEO看傻了:大批名校生连夜退学,10后高中生靠AI融资千万!
新智元报道 编辑:Aeneas 好困 【新智元导读】再不辍学,就来不及改变世界了!某公司CEO震惊发现,自己周围的18岁年轻人都在辍学。还有更可怕的呢,有一群05后、10后CEO,驾照还没拿到,就拿到百万美元融资了。 美国大学生,正在掀起一股辍学潮。 最近,Box CEO Aaron Levie在a16z采访中表示,自己被一群特殊的创业者震惊了。 「我眼看着周围19岁、20岁的大学生,几乎每个人都在辍学!」 为什么? 因为借助AI,他们能以成百倍的速度创建公司。他们中不少人直接从MIT、斯坦福等名校辍学,用AI工具在几周内做出了传统公司数月才能做出的产品。 这位CEO直接瞳孔地震:这些年轻人,正在用我们这代人难以想象的速度重塑世界。 大学生集体「叛逃」 AI太香了 美国大学生的这股辍学潮,在今年是愈演愈烈了。 一位创始人在LikedIn上发帖称,这个世界的规则已经变了 《纽约时报》早就报道过,一大波二十多岁的年轻人正在纷纷退学,齐聚硅谷创业,因为只要有片刻的迟疑,就会错过浪潮。 福布斯也报道称,仅2025年,就有数十名来自哈佛和MIT的学生选择辍学。 比如这位22岁的华裔少年Steven Wang,从哈佛退学8个月后,就成功创办了跟投平台Dub。 现在,Dub已获得超过1700万美元融资,投资者包括Uber CEO等硅谷重量级人物。 对于从哈佛退学,他的评价是,「这是我做过最正确的决定」。 高中时,VR浪潮兴起,16岁的他与两位朋友共同创立了VR教育公司Realism,并因此从高中退学。 「我们获得了MIT加速器项目的支持,筹集资金后搬到了波士顿,三个青少年挤在一间一居室公寓里生活了一年。」 2019年,17岁的Steven去苹果面试,带着自己为新款Apple Watch制作的模型设计图,随后获得全职工程项目经理的offer。 在苹果工作8个月后,他决定重返高中。毕业后,他被哈佛录取。 在哈佛求学期间,他被哲学课深深着迷了,本想更深入地探索学术世界。然而,那段时间恰逢一个激动人心的股市时期,模因股票和加密货币迅速崛起,让他重燃对投资的兴趣。 大一下学期,他在一个商业课程中开发了一个项目,让散户投资者可以自动复制其他投资者的交易。 在演示的那一天,他邀请来了Realism的投资人。后者表示,「无论你接下来要干什么,我们都会投资」。 21年6月,在哈佛求学仅8个月后,Steven决定退学。如今的Dub,已经拥有25人的团队。 放弃藤校,这群00后赚回1000亿 从名校辍学创业,在美国不是什么新鲜事了。在大学宿舍里诞生出价值百亿的独角兽,有时只需脑门一热。 给你20万美元,条件是辍学、去创业,你愿意吗? 硅谷投资大佬Peter Thiel发出这个邀请后,从2011年至今天,「蒂尔奖学金」已经送出超过1亿美元。 而这些20岁出头的年轻人,放弃了哈佛、布朗、卡内基梅隆等名校学位,却创办了总价值超过1000亿美元的公司,包括价值400亿美元的Figma,290亿美元的Scale AI,以太坊和Plaid。 2012年,19岁的Dylan Field坐在布朗大学的宿舍里,构思着一个协作设计工具的想法。后来,这个被称为Figma的产品,成为Adobe的强劲对手。 最近,Figma成功上市,菲尔德的身家飙升至50亿美元。 当初决定辍学时,他的母亲十分焦虑,担心没有学位会影响儿子的职业前景。 在CMU读本科时,Lucy Guo对学校的教学方式十分不满,「几天的编程比赛比教授教得都多」。 2014年,她决定辍学,跟在Quora工作时认识的Alexandr Wang共同创办Scale AI,当Meta以140亿美元收购该公司,它的估值飙至290亿美元。 Lucy Guo成为史上最年轻的白手起家女亿万富翁,而Alexandr Wang,最近则是和小扎一起把Meta搅得天翻地覆。 另外三位年轻人——Brendan Foody、Adarsh Hiremath、Surya Midha,是AI招聘平台Mercor的联创。今年2月,该公司估值飙升至20亿美元。 「我感到极端的紧迫感和存在性恐惧,害怕错过AI热潮。」Midha这样说。Hiremath则是在哈佛大学度过一年后,感受到了回报递减。 对他们来说,等待四年毕业后再创业,可能会错过改变世界的窗口期。 辍学、去写Prompt! 这届10后CEO杀疯了 甚至,你都不需要等到大学! 只要会写Prompt,就能在高中课间操盘一家拥有5万用户的初创公司。 华尔街日报的这篇文章,盘点了一群还没考驾照,但已经有自己公司的高中生。 与其他兢兢业业的科技创始人一样,Nick Dobroshinsky每天都在与时间赛跑。 但他的时间表,却很不相同—— 从早上8点到下午2点55分,他必须坐在华盛顿州瑟马米什的高中教室里,听老师讲课。 今年15岁的Dobroshinsky,不仅是一名高一学生,更是AI金融工具BeyondSPX的掌舵人。 这款工具拥有超过50,000名月活跃用户(MAU),甚至获得了上市公司的主动背书。 而这一切的起点,源于八年级期末的一次思考: 有哪些问题,可以用AI来降维打击? 放学铃响,变身CEO 将时钟拨回二十年,19岁的比尔·盖茨正在为了微软通宵达旦,同样年轻的扎克伯格还在哈佛宿舍里敲击着Facebook的雏形。 在那个年代,通往硅谷巅峰的入场券,是「天才般的编程能力」。 如今,Dobroshinsky所代表的则是AI时代的全新范式。 他不需要精通C++或Java,因为他拥有地表最强的「外包团队」:Anthropic的Claude、OpenAI的ChatGPT和Google的Gemini。 他没有招聘任何员工,也没有组建技术团队。他所做的,是指挥AI模型生成代码、构建架构—— 整个项目里,Dobroshinsky亲自写的代码只有10行! 就连市场营销,也被丢给了AI。 Dobroshinsky编写了一套Reddit机器人(Bot),潜伏在各大投资论坛。 如果有人发帖问「最好的中小市值股票分析工具是什么」,机器人就会立刻冲上去安利BeyondSPX。 Dobroshinsky早期开发BeyondSPX时做的笔记 这种极简主义的打法,果然效果拔群。 BeyondSPX专注于生成中小市值上市公司的研报,填补了大型投行看不上的市场空白。 上市公司Greystone Logistics甚至被这份AI生成的独立分析折服,将其作为官方新闻稿发布。 Greystone的顾问Brendan Hopkins回忆道:「报告写得太棒了,我们必须发出来!」 他当时完全不知道,这份报告背后的操盘手,还在为明天的几何考试发愁。 昨天还在倒卖硬糖,今天就在颠覆供应链 旧金山风投家Kulveer Taggar敏锐地发现: 创业者的年龄曲线正在断崖式下跌,而这个拐点,恰恰与ChatGPT和Claude的爆发期重合。 如今的AI,赋予了青少年极高的学习和执行杠杆,让他们觉得既然能玩转TikTok算法,搞定软件分发也不是难事。 17岁的Raghav Arora是另一个典型的例子。 他的创业启蒙,是在新加坡读书时倒卖稀缺的美国糖果给同学,并通过把控供应链赚取50%的差价。 这门生意让他赚了不少零花钱,但代价是被学校留校察看了三天。 而这次经历也教会了他两件事:分销的门道,以及「去中介化」带来的暴利。 如今,Arora已经从高中辍学,定居南加州。 的新公司GetASAP不再倒卖糖果,而是利用AI预测农产品库存,直接从农民手中采购果蔬,并运送到美亚两地的商店。 目前,这家48人的初创公司已经拿到了由General Catalyst领投的340万美元种子前轮融资。 你们去淘金,我负责卖铲子 当大多数同龄人还在沉迷游戏时,14岁的澳洲八年级学生Alby Churven已经看透了游戏的本质。 起初,他在网上卖足球袜,开发Roblox游戏。 「老实说,一开始纯粹是为了搞钱。但做着做着,我真的爱上了这行。」 Churven的第一个项目Finkle是个游戏化的教育App,但他很快就发现这个想法很难规模化,于是果断弃坑。 像所有老练的连续创业者一样,他迅速Pivot(转型)到了备用方案:一个能生成App和网站代码的AI工具。 如果不远的将来,AI编程工具真的会催生整整一代新创始人,那么Churven希望自己是那个「卖铲子」的人。 他最近申请Y Combinator的视频在X上获得了数百万浏览。 虽然申请结果未定,但他已经独自飞往旧金山,与风投们谈笑风生。 「我想抓住这个机会大赚一笔,」Churven毫不掩饰自己的野心。 VC新烦恼:想投个天才,还得先过家长这关 面对这群嘴里可能还戴着牙套的CEO,硅谷的资本家们陷入了前所未有的纠结。 知名风投Neo的创始人Ali Partovi曾领投了爆火的AI编程工具Cursor,但他对高中生创业保持着审慎的态度。 的确,高中是构思点子的好时期,但大学才是建立人脉的战场——那里有对初创公司成功至关重要的联合创始人和早期员工。 毕竟初创公司不仅需要代码,更需要能吸引比你更聪明的人加入。 对此,Partovi的策略是:密切关注,保持联系,然后等他第二次创业时再投。 Google Ventures的一位合伙人最近面试了一个由两名20岁和一名17岁少年组成的团队。 他意识到,这笔投资不仅需要做商业尽职调查,还得做「家访」。 他甚至在想,如果真的要投资,是不是得先和那位未成年人的父母聊聊,确认这个孩子在情感上是否准备好承受创业的残酷重压。 如今,在AI的赋能下,年龄不再是经验的壁垒,而变成了某种「原生优势」。 这群拿着实习驾照的少年,正在用这一代人特有的直觉和AI赋予的超级杠杆,向硅谷的旧秩序发起冲锋。 对于他们来说,期末考试可能很可怕,但颠覆一个行业? 那不过是几条Prompt的事。
SpaceX宣布史上最大卫星降轨行动:超4000颗卫星降轨
快科技1月2日消息,今日凌晨,马斯克旗下的SpaceX公司宣布,将降低数千颗“星链”(Starlink)卫星的轨道高度,以降低碰撞风险。 “星链”工程副总裁迈克尔·尼科尔斯表示,公司正“启动卫星星座重大重组计划”,将所有目前运行在约550公里(342英里)高度的卫星,降低至约480公里(298英里)轨道。 此举旨在把卫星转移到更不拥挤的轨道层,降低碰撞风险,并能在卫星发生异常或失效时,让卫星更快地脱离轨道、进入大气层烧毁,从而减少太空垃圾的产生。 尼科尔斯透露,今年内约有4400颗星链卫星将参与此次轨道高度下调。 降低卫星轨道高速,除了为卫星创造更安全的运行空间外,还与太阳活动周密相关。 太阳活动大约以11年为一个周期,活动强弱会直接影响地球高层大气的密度。 下一个太阳活动极小期预计出现在在2030年代初,随着太阳活动极小期的临近,高层大气密度将降低,这意味着卫星在相同高度下的自然轨道衰减时间将延长。 通过降低轨道高度,可在太阳活动极小期,将原本可能长达四年以上的轨道衰减时间,缩短至数月,轨道衰减速率提升超过80%。 不过,SpaceX的星链作为目前太空中最大规模的卫星网络,与其它卫星发生碰撞的概率也在显著增加。 有报道显示,从2024年12月到2025年5月底的半年内,“星链”卫星执行了超过14万次变轨机动,以避免在太空中“撞车”。 此外,早在2021年,SpaceX发射的“星链”卫星先后两次接近中国空间站,对中国空间站上的航天员生命健康构成威胁,我国空间站因此实施两次紧急避碰。
史上最先进的制程!台积电1.4nm明年试产:1nm时代快来了
快科技1月2日消息,台积电2nm制程量产计划已按时间表正常推进,由于市场需求旺盛,台积电的晶圆供应一度紧张,这家半导体巨头计划再新建三座工厂以满足客户需求。 与此同时,台积电1.4nm工艺的进度也在顺利进行中,据称台积电正加速推进其1.4nm制程工厂的建设进度,从目前的情况来看,台积电发展势头依旧向好,按照这一节奏,1.4nm工艺的风险性试产工作预计将于2027年启动。 所谓风险性试产,是指新产品在正式大规模量产前进行小批量试产,主要目的是识别生产过程中的潜在问题(比如良率、性能),评估稳定性,以降低后期量产的风险,确保产品能顺利、高效地投入市场。 据悉,台积电1.4nm制程工厂的地基工程已于2025年11月初动工,新厂位于中国台湾中部科学园区,规划建设四座厂房及配套办公楼。 初期建设投资预计达到1.5万亿新台币,工厂全面建成投产后,量产目标定于2028年,据估算,四座工厂首年合计将为台积电带来160亿美元的营收,同时还将创造8000至10000个就业岗位。 目前尚未披露哪些客户计划采用其1.4nm制程工艺,此前有报道称,苹果已拿下台积电2nm初期半数以上的产能,用于生产A20和A20 Pro芯片,由此不难推断,这家iPhone制造商大概率会抢占1.4nm新技术的先机。 值得一提的是,1.4nm工艺的初期良率预计不会超过20%,随着时间推移,良品率有望逐步攀升,届时市场需求也会随之激增。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。