行业分类:
加载中...
头条分类:
加载中...
OpenAI重磅交易稀释投资者股权,微软或持股30%成最大单一股东
奥特曼的重磅交易稀释投资者持股 凤凰网科技讯 北京时间10月13日,据《金融时报》报道,OpenAI最近达成的一系列重磅交易,使其本已复杂的所有权结构再添一层新变数,也让外界更加不确定其实力雄厚的股东们最终将于何时、以何种方式获得回报。 根据一项员工股份出售交易,OpenAI在本月成为全球最有价值的非上市公司,估值达到5000亿美元。与此同时,它还与芯片制造商英伟达、AMD达成了价值数以十亿美元计的交易。这些交易将帮助OpenAI实现在未来几年部署1万亿美元算力的宏伟目标。 但是,知情人士称,OpenAI对资金的无尽需求意味着其投资者将在后续融资过程中面临股权被进一步稀释的局面,包括微软、软银以及乔什·库什纳(Josh Kushner)旗下兴盛资本。 对于OpenAI来说,实现公司愿景的关键在于与其最大投资方微软进行的谈判,内容涉及将公司转变为更传统的营利性企业结构。转为营利性结构是企业上市前的必要步骤,这也是投资方最有可能获得丰厚回报的途径。 目前,OpenAI投资者享有利润分成权。若OpenAI转型成功,他们将转而获得OpenAI营利性子公司的股权。 OpenAI重组后的持股比例 据知情人士透露,作为早期投资者,微软迄今为止已向OpenAI投资超过130亿美元,在新的结构下将成为持股约30%的最大单一股东。员工与OpenAI非营利性母公司持股比例将各占近30%。按OpenAI当前估值计算,这两部分股权价值均接近1500亿美元。 知情人士称,在新的结构下,OpenAI非营利母公司将不再拥有特殊股东权利。取而代之的是,它将拥有提名营利性子公司董事的权力。这一安排旨在安抚加州和特拉华州的总检察长,以免他们认为该转型削弱了OpenAI的慈善使命,从而阻止转型。 知情人士表示,OpenAI CEO萨姆·奥特曼(Sam Altman)预计也将获得股份,但相关安排要在公司完成转型后才会进行谈判。目前并没有关于奥特曼获得股权的具体讨论。 埃隆·马斯克(Elon Musk)在2015年OpenAI成立初期捐赠了大约4500万美元,但由于这笔资金属于捐赠性质,他不会获得任何股权。马斯克正提起诉讼,试图阻止这一转型,他认为此举背离了OpenAI的创立使命。 知情人士称,最终的持股比例和安排仍取决于OpenAI、微软、各州总检察长以及其他投资者之间的一系列谈判结果。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
铜为何是AI时代的石油?
铜是人类最早发现和使用的金属之一,早在公元前8000年,我们的祖先就开始用铜制作工具和装饰品。 现如今,这个古老的金属因为AI的发展而再次被人们关注。高盛在其研究报告《AI与国防将电网置于能源安全中心》里表达了这样一个观点:铜将成为AI时代的石油。 这非常“违和”,因为当人们谈论AI的崛起时,大多数人想到的是算法和模型,但很少有人意识到,计算结果并不是凭空产生的,必须依靠电力和硬件设备。ChatGPT日处理2亿次请求需消耗超过50万千瓦时电力,相当于1.7万户美国家庭的日用电量。 而支撑这一切的,正是这个来自于蛮荒时代的金属。 每个高端GPU芯片都需要大量铜材料用于导热和电路连接,这不是可有可无的配角,而是决定芯片性能的关键因素。 就拿现在整个AI界最火的H100来说,每个GPU里面有3273颗锡球,每颗锡球对应至少1-2条铜导线,而且其核心芯片连接部分还需数千根基础导线。这里面断掉任何一根铜导线都可能导致这个GPU停止运行。 当芯片功耗从几十瓦飙升到上千瓦,传统的散热方案已经彻底失效,只能依靠铜材料将热量传导至设备外部。 英伟达H100芯片的热设计功耗已达700W,而英伟达最新的GB300服务器单机柜功率密度最高可达130kW,和一台中小型柴油发电机差不多。要带走这些热量,必须依靠大量的铜制散热组件。 A GPU制造只是冰山一角,真正的铜需求大户是数据中心的电网基础设施。 数据中心的铜消耗量正在以惊人的速度增长。根据施耐德电气的测算,1GW数据中心用铜量约6.58万吨,2023年全球数据中心装机规模为7.1GW,总用铜量达46.7万吨,占全球铜消费量的1.7%,预计到2026年将增长至71万吨。 但这仅仅是数据中心建设设备的用铜量,支撑算力运行的电网设施同样存在巨大的用铜需求,到2026年电网设施用铜量将达62.4万吨。 这并不是危言耸听,英伟达推出的GB200超级芯片使用铜缆连接方案,其机柜内部使用的电缆长度累计接近2英里。如果按照H100在2024年的出货量来参考,GB200也出货35万到40万台,那么它所需要的铜足足能达到3万吨。 在高盛的报告中写到:到2030年,全球数据中心电力需求预计激增160%,这意味着现有的电网基础设施需要大规模升级改造。 欧洲电网平均运行年限已达50年,北美电网超过40年,这些老化的电网不仅传输效率低下,难以承载日益增长的电力需求。在美国13个区域电力市场中,2024年夏季已有9个出现电力临界紧张状况,到2030年,几乎所有市场都将因为导电材料,面临用电短缺。 2024年,欧盟电网铜消费量约75万吨每年,北美约40万吨每年,中国约570万吨每年。瑞银预测,2024到2030年欧盟与北美电网铜消费年均增长3%,累计增量约25万吨。 电网升级为什么离不开铜?答案在于铜独特的物理特性。铜的导电效率是铝的1.6倍,电阻率极低,使用寿命可达30至50年,为铝制品的两倍以上。 在电力传输方面,铜的优势是不可替代的。高盛预测,到2030年,全球电网及电力基础设施建设将贡献60%的铜需求增长,这一增量相当于当前全球铜消费总量与美国年消费量之和。 高盛预计,铜价将在2027年达到每吨10750美元。国证有色金属行业指数强势上涨2.21%,有色ETF基金上涨2.41%,其中铜含量占比28.66%,市场已经开始反映这一趋势。 铜矿开采和精炼产能增长是非常有限的,过去十年全球铜矿产量复合平均增长率约2.1%。国际铜业研究组织(ICSG)在2025年10月下调了增长预期,2025年全球铜矿产量预计仅增长1.4%。 惠誉旗下BMI预测,未来十年全球铜矿产量年均增速,远低于新能源、AI 等领域催生的铜需求增长。其中最核心的原因在于优质铜矿资源减少,以智利矿山为例,铜采掘的平均品位从2010年的1.6%降至2024年的 1.1%。 那么铜的价格上涨几乎成为必然。 B 然而,铜价的上涨也在催生新的机遇。铝作为铜的重要替代品,正在迎来自己的高光时刻。虽然铝的导电性能不如铜,但在某些应用场景中,铝的成本优势和重量优势使其成为更好的选择。 在GPU散热领域,铝的应用已经相当广泛。GPU散热器上那些密密麻麻的、用于和空气进行热交换的薄片几乎都是铝制的,它们的目的是在有限的体积内提供最大的散热表面积。而且GPU的外部结构支架或护罩通常由铝或镁铝合金制成,这是为了在保证强度的同时,尽可能减轻重量。 仍以英伟达H100为例,其散热器上的铝制鳍片阵列体积庞大,总重量估计在300克到700克之间。 数据中心服务器的散热系统同样大量使用铝材。按照一个机柜配置80个GPU计算,如果全部采用铜制散热器,散热系统总重量将达到64-96公斤。而采用铝制散热器后,总重量仅为24-36公斤,减重40-60公斤。 不仅降低了机柜结构的承重压力,还能在相同承重条件下部署更多服务器,提升数据中心的算力密度。更重要的是,铝制散热器的成本仅为铜制散热器的40%-50%,在大规模部署时能够节省数百万元的投资。 在电力传输方面,铝缆的应用也在快速增长。铝缆广泛用于建筑物级别的大电流主干电力输送,例如从变电站到数据中心大楼,以及大楼内垂直和水平的主干电缆槽中的电缆。 虽然输送相同电力时铝缆需要比铜缆更粗的线径,但铝合金电缆的综合成本比铜电缆低约20%,且重量只有铜的三分之一左。对于长距离、固定铺设的场景,铝缆的优势更加明显。 瑞银对此也持乐观态度,对今明两年的铝价预测分别上调5%和2%。 全球铝产量持续增长,从2018年的6416.6万吨增长至2023年的7058.1万吨,年复合增速约1.9%。2024年全球电解铝产量预计达到7225万吨,较2023年增长2.17%。 中国是全球铝产量第一大国。截至2024年底,中国累计原铝产量约5.504亿吨,占全球累计产量的31.47%。2024年中国原铝产量约4400万吨,再创历史新高,占世界当年铝总产量的60.12%。 可是自2017年以来,中国启动电解铝行业供给侧改革,清理整顿违法违规产能,并设定了4500万吨的合规产能上限。截至2024年11月底,中国电解铝建成产能已达4502万吨,运行产能约4394万吨,产能利用率高达97.74%,意味着中国电解铝产能几乎已无增长空间,未来产量增长只能依靠开工率的微幅提升来实现。 与中国形成鲜明对比的是,海外铝产能正在加速扩张。2024年1-10月,海外电解铝产量达2482万吨,同比增长1.4%。随着此前关停产能的复产以及新建项目的投产,预计2025年海外电解铝产量增速将加快。 从产量占比来看,截至2024年10月,中国电解铝产量占全球产量的约60%,而海湾合作委员会国家和除中国外的其他亚洲国家产量占比分别为8.6%和6.6%。 虽然2025年全球铝市虽然维持小幅过剩,但到2026年,这一格局将彻底反转。美国银行,铝产业将会出现约29.2万吨的供应缺口,而铝价有望在2026年四季度攀升至每吨3000美元。 C 不过铜和铝只是这场AI革命的序幕,真正的大市场在于冷却和水。数据中心不只是用电大户,同时也是产热大户。 随着AI芯片功耗的持续攀升,传统的风冷散热方案已经走到了物理极限。风冷散热的上限一般为10kW到15kW每机柜,个别系统能做到20kW。但是面对现在这些GPU,再强风冷系统也就那么回事。 功率密度的限制使得风冷无法满足高功耗芯片的散热需求,巨大的能耗问题导致PUE(Power Usage Effectiveness能量使用效率)值居高不下,大量的风扇和风道还占用了宝贵的空间。 更严重的是,随着AI芯片功耗的进一步攀升,进一步加剧了眼前的困境。 液冷技术的优势是压倒性的。水的导热系数约0.6W/(m・K),而空气约0.024W/(m・K),也就是说,水的热导率是空气的25倍。 再看单位体积吸热能力,水的比热容是4.2kJ/(kg・K),空气的比热容是1.005kJ/(kg・K),水的比热容是空气的4.18倍,密度是空气的833倍。两者乘积约为3500倍。实际工程中,因冷却液流动效率更高,单位体积散热能力还会进一步提升。 液冷可大幅降低数据中心能耗20%到30%以上,将PUE降低至1.2以下,甚至在浸没式液冷方案中可以达到1.05。同时,液冷系统占空间更小,机房空间利用率可提升30%,在寸土寸金的核心城市尤其重要。 市场对液冷技术的需求正在爆发式增长。2025年全球液冷数据中心市场规模预计达28.4亿美元,同比增长44.9%,到2032年有望突破211.4亿美元,复合增长率33.2%。 目前主流的液冷技术包括冷板式、浸没式和喷淋式三大类。其中,冷板式液冷因改造成本低、兼容性强,占据当前液冷市场的主导地位。冷板式液冷通过液体与服务器发热部件间接接触的方式进行散热,将PUE控制在1.25以下。 就连英伟达也都在探索水冷板技术,他们正在推动一种叫做微通道水冷板(MLCP)的液冷方案。 因为要使用一种专用的冷却液,所以MLCP的单价大约是现有散热方案的3到5倍。但是单块MLCP可稳定应对2kW以上功耗,热流密度最高达800W/cm²,是热管技术的4倍左右。 因此,冷却液本身也是一个巨大的市场。根据MarketsandMarkets的预测,全球冷却液市场规模将从2025年的约28亿美元增长到2032年的211亿美元,复合年增长率高达33.2%。 另一方面,受欧盟PFAS(全氟和多氟烷基物质)限制法规的影响,环保型冷却液正在快速崛起,这种生物基和碳氢化合物制成的冷却液,市场份额预计将以18.4%的复合年增长率增长。 液冷技术的发展不仅仅是技术的进步,更代表着整个产业链的重构。 这些增长不是概念,不是炒作,而是实实在在的物理需求。算力的增长必然带来电力消耗的增长,电力消耗的增长必然带来铜的需求,散热需求的增长必然带来铝和冷却液的需求。
施一公的西湖大学,发了个AI科学家!首超人类SOTA
作者 | 李水青 编辑 | 心缘 智东西10月13日报道,近日,西湖大学研究团队推出一款“AI科学家”智能体系统——DeepScientist,首次大规模实证AI能够在前沿科学任务上逐步超越人类的SOTA(行业最佳)。 DeepScientist开源界面 DeepScientist仅用两周就取得了相当于人类研究者三年研究成果的进展。研发团队通过三个前沿AI任务——智能体故障归因、大语言模型推理加速和AI文本检测,对此进行了验证。 DeepScientist用两周就取得相当于人类三年研究成果的进展 结果非常亮眼:DeepScientist仅用16块H800 GPU,花了一个月,最后在三个任务上都超过了人类的最先进方法——分别提升了183.7%、1.9%和7.9%。截至2025年9月,这一成绩也超越了DeepSeek-R1、Claude-4-Sonnet、Qwen3-Coder等前沿模型。 DeepScientist在三个任务上都超过了人类的最先进方法 在这个过程中,DeepScientist就像人类科学家一样,明确目标、提假设、做验证、分析结果,还会一边记忆一边探索新方向。它总共想出约5000个科研点子,验证了1100个,最终有21个带来了科学创新。团队强调,这些点子都是通过自主重新设计核心方法,而非简单组合现有技术。 在使用DeepReviewer与其他AI科学家系统的28篇公开论文进行基准测试时,DeepScientist是唯一能产出接受率达60%的论文的AI科学家系统。 DeepScientist接受率达60% 背后,DeepScientist的创新之处在于将科学发现形式化为一个贝叶斯优化问题,其架构通过一个配备开放知识系统和持续积累的发现记忆(Findings Memory)的多智能体系统,平衡对新假设的探索与利用,从而在预算受限的情况下最大限度地提高发现效率。 DeepScientist将采取四阶段渐进式开源。其目前已开源了前端和后端代码,并邀请小部分用户试用;计划在10月15日之前开源基础组件,支持用户构建自己的DeepScientist,11月之后还将发布实验数据以及开源DeepScientist的源代码。 DeepScientist论文截图 GitHub地址: https://github.com/ResearAI/DeepScientist 论文地址: https://arxiv.org/abs/2509.26603 体验申请地址: http://ai-researcher.net/ 一、3个AI任务验证:两周取得人类三年研究成果,超越人类183.7% 尽管此前的AI科研系统已能想出一些新点子,但它们往往缺乏针对性,无法解决紧迫的人类定义挑战,难以产出具有科学价值的成果。 西湖大学研究团队推出的DeepScientist系统,试图通过在长达数月的时间里进行目标导向的、完全自主的科学发现,来克服这一局限。 首先来看看三个AI任务,DeepScientist是如何取得科研成果的。 第一个AI任务是具有较高复杂度的“智能体故障归因”,即找出多AI系统里哪个AI导致任务失败。 DeepScientist发现当前方法缺乏归因所必需的反事实推理能力。通过反复试验、不断纠错以及综合新发现,最终提出了一种名为A2P(Abduction-Action-Prediction,溯因-行动-预测)的全新方法。 其核心创新在于将任务从简单的模式识别提升到结构化的因果推理,通过预测某个提议的解决方案是否本可带来成功,填补了反事实能力方面的关键空白。 这种新方法在Who&When基准测试的“算法生成”设置中获得了47.46分,比人类的SOTA基准提高了183.7%。截至2025年9月,无需训练的A2P方法仍保持着最先进水平的地位,也高于DeepSeek-R1、Claude-4-Sonnet、Qwen3-Coder、Gemini 2.5 Pro、GPT-OSS-120B的成绩。 DeepScientist完成的研究论文截图 论文地址: https://github.com/ResearAI/DeepScientist/blob/main/case/DS_A2P.pdf 二是大语言模型的推理加速任务,即让大语言模型运算更快。 此过程中,系统进行了许多不同的尝试,例如使用卡尔曼滤波器动态调整邻接矩阵,以解决原始方法缺乏记忆功能的问题。尽管这些尝试大多失败了,但系统生成的ACRA方法最终通过识别稳定的后缀模式,如图3所示,将MPBB从人类的最优水平190.25 tokens/秒提升到了193.90 tokens/秒。 从科学角度而言,这项创新意义重大,因为它利用这些额外的上下文信息动态调整解码猜测,有效地为该过程植入了长期记忆,打破了标准解码器的上下文坍缩问题。这一发现凸显了该系统的主要目标:创造人类未知的新知识,而非仅仅进行工程优化。 DeepScientist将MPBB提升到了193.90 tokens/秒 (该论文暂未上传GitHub) 三是AI文本检测,即让它判断一段文字是人类写的还是AI写的。 DeepScientist仅用两周就取得了相当于人类三年研究成果的进展。它通过在无需人类干预的情况下,实现目标导向、持续且迭代式的科学发现,克服了传统研究效率低的难题。 DeepScientist自主生成了2472个独特的研究思路,实现了600个最有前景的假设,并最终开发出在RAID数据集上将AUROC得分提高7.9%的方法,同时降低了推理延迟。 该系统产生了三种截然不同、且性能逐步提升的方法:T-Detect、TDT和PA-Detect。 首先,T-Detect通过稳健的t分布修正了核心统计数据,随后,TDT和PA-Detect在概念上进行了演进,它们将文本视为一种信号,并使用小波和相位一致性分析来精确定位异常。从科学角度来看,这种转变揭示了AI生成文本的“非平稳性”,缓解了先前范式中因平均化局部证据而产生的信息瓶颈。 如下图所示,这一完整的发现轨迹展示了DeepScientist在逐步推进前沿科学发现方面的能力,它建立了新的SOTA,AUROC提高了7.9%,同时推理速度也提升了一倍。 DeepScientist在AUROC得分提高了7.9% DeepScientist完成的研究论文截图 论文地址: https://github.com/ResearAI/DeepScientist/blob/main/case/DS_TDT.pdf DeepScientist完成的研究论文截图 论文地址: https://github.com/ResearAI/DeepScientist/blob/main/case/DS_T_Detect.pdf 二、仅用8块英伟达H800 GPU完成AI课题,DeepScientist架构解读 三项AI任务背后,团队仅为DeepScientist配备了两台服务器,每台服务器带有8块英伟达H800 GPU。 背后,DeepScientist的创新之处在于将科学发现形式化为一个贝叶斯优化问题,并通过“提出假设、验证和分析”的分层评估流程加以实现。在这种分层方案中,只有展现出潜力的研究思路才会进入成本更高的评估阶段,从而在预算受限的情况下最大限度地提高发现效率。 DeepScientist的架构通过一个配备开放知识系统和持续积累的发现记忆(Findings Memory)的多智能体系统,实现了贝叶斯优化循环。其在探索新假设与挖掘最有前景的发现之间实现智能平衡,并将最具潜力的成果推进到更高保真度的验证阶段。 DeepScientist基于西湖大学此前已有研发成果,仅用两个月、花费约10万美元(约合71.3万元人民币)就搭建完成。来自西湖大学团队的文章第一作者Yixuan Weng最新采访记录公开,记录如下: 1、问:你之前的项目是CycleResearcher。为什么将这个新项目命名DeepScientist为而不是DeepResearcher? 答:早在2024年9月,我就计划将我现在的工作命名为“DeepResearcher”,类似于DeepReviewer。然而,OpenAI后来用了这个名字。所以我决定将我的项目命名为DeepScientist。 2、问:什么时候开源? 答:我会在确保足够安全的情况下才会开源,因为我还不能完全确定它DeepScientist给学术界带来的益处是否大于其潜在的风险。因此,我必须采取谨慎的态度。 (问:为什么要采取分阶段开源策略?) 因为社区热情高涨——几乎每个人都迫不及待地想让我开源它!我计划利用国庆节和中秋节假期来修改代码,以便社区能够尽早体验该系统,并探索它如何加速不同领域的科学发现。 感谢中关村研究院的支持,我们将能够免费向社区提供完整的DeepScientist系统。 3、问:我有机会重现或改进DeepScientist吗? 答:当然!我们只用了两个月就基于ResearStudio构建了它。我相信你可以轻松创建类似“Open-DeepScientist”或“nano-DeepScientist”的项目。我们强烈鼓励社区开展此类项目。 (ResearStudio是首个用于构建可人工干预的深度研究智能体的开源框架。它实现了人机实时协作,允许用户在执行过程中暂停、编辑和引导AI智能体,而非传统的“发射后不管”模式。其Agent核心层采用了规划器(GPT-4)和执行器(GPT-4o-mini/o3)。) GitHub地址: https://github.com/ResearAI/ResearStudio?tab=readme-ov-file 4、问:您是否认为AI驱动的科学发现存在缩放定律? 答:我坚信AI驱动的科学发现遵循其自身的“缩放定律”。但这并非孤立现象——它是人类不断加速的科学发现的自然延伸和放大。纵观历史,科学进步的速度一直在不断加快,在现代,这种加速尤为明显。从中学开始,我就喜欢玩《席德·梅尔的文明》,游戏中知识和技术的积累会更快地带来“尤里卡时刻”。我相信,我们现在正在进入一个由AI驱动的现实世界的“尤里卡时代”。 5、问:目前,所谓的“AI科学家”看起来更像是“高通量试错机器”,而不是真正具有深刻洞察力的“发现者”。我们如何才能提升他们的科学直觉? 答:首先,随着模型能力的提升,我已经感受到它们识别科学问题局限性的能力在提升。早期的DeepSeek-R1版本,它的观察结果非常肤浅。但Qwen-3-235B-Thinking-2507发布后,它的洞察力和假设生成能力明显提升。在我看来,只有比Qwen-3-235B版本更强大的模型才能产生真正有价值的发现。 RLVR(基于可验证奖励的强化学习)是一个很有前景的方向,但它也面临挑战:成本高昂、训练效率低,大约需要1000个GPU小时才能生成一个有用的样本。 6、问:这项研究的总成本约为10万美元(约合71.3万元人民币)。与资助一名人类博士生进行类似研究周期相比,您认为目前这笔费用是否划算? 答:我认为两者各有优势。失败是成功之母,而AI最大的优势在于它能够持续探索而不疲倦。 一方面,我们可以依靠AI尝试许多不同的策略——即使发现某种方法在某个领域失败了,本身也是一个有意义的发现。另一方面,这仅仅是个开始。未来几年,由于能力的提升和推理成本的降低,AI的成本将大幅下降。 7、问:您论文中最令人兴奋的发现之一是计算资源与研究产出之间的“近线性关系”。您预测这种趋势会随着GPU数量的增加而无限期地持续下去吗?还是很快就会遇到瓶颈?下一个瓶颈可能是什么? 答:我认为这种情况不会无限期地持续下去。我们即将遇到瓶颈。下一个瓶颈将是“探索效率”,而不是“探索规模”。目前,大多数计算资源都浪费在低价值的探索上。未来的挑战是如何避免这种低价值的工作。 虽然DeepScientist偶尔会通过反复试验发现新的方法来提高性能,但收益往往微乎其微。只有当我们能够进行大规模、高价值的探索时,真正的突破才会到来。 8、问:还有其他惊喜吗? 答:是的!10月初,我们双方将全面开源一款工具。我相信每位研究人员都会对此感兴趣——它显著增强了DeepScientist的演示能力。 三、4步渐进式开源:10月中用户可构建自己的AI科学家 DeepScientist的整个开源计划会分为四个阶段。 阶段0:通用智能体框架 西湖大学已经在ResearAI/ResearStudio开源了前端和后端代码。用户可以以此为基础,使用自己的自定义工具构建各种专业的Agent。 GitHub地址: https://github.com/ResearAI/ResearStudio 第一阶段:基于应用程序的访问(预计在10月1日之前) 为了确保安全,西湖大学团队将邀请一小部分用户试用DeepScientist,共同完善该框架。如果用户有准备探索的任务,可以填写其等候名单表格。 申请地址: https://forms.gle/8FnGgqgBVEKv3q6a7 第二阶段:基础组件发布(预计10月15日之前) 在确保安全之后,西湖大学团队将开源基础组件。在此阶段,用户可以立即开始构建自己的DeepScientist,或者复制西湖大学团队的工作。 第三阶段:实验数据发布(预计11月之后) 西湖大学团队将开源所有约5000条假设和约1100条实验日志。这将是首次公开如此大规模的AI实验结果数据集。 第四阶段:DeepScientist源代码发布 西湖大学团队将进行长期测试和调整,以防止对人类研究造成任何潜在危害。之后,团队将发布DeepScientist代码的核心架构,以促进社区发展。 结语:AI科学家赋能科研,进入规模化实证阶段 西湖大学研发团队首次通过实证展示了一个自动化全周期科学发现系统,该系统能够产生新颖且超越现有最佳水平的方法,并以大幅超过人类研究人员的速度不断推进科学前沿。AI有望真正推动多个不同领域的前沿发展,产生具有持久影响的发现,并系统地推进多个领域的技术前沿。 不过,团队也坦言AI科研的成功率还可以继续提升,5000个点子里最终仅21个能真正带来科学突破,约60%的失败是因为代码实现出错。但好在它效率高,而且给它更多计算资源,它出成果的数量也会差不多成比例增加。 为了让AI成为更得力的合作伙伴,西湖大学研发团队认为,未来的工作应聚焦于几项关键改进:开发模拟发现环境,通过强化学习加速学习进程;构建整合科学界反馈的框架;最终通过机器人技术弥合与物理科学之间的差距。
vivo X300系列发布:搭载联发科天玑9500芯片,4399元起
凤凰网科技讯 (作者/杨睿琪)10月13日,vivo X300系列新品发布会在上海举办,正式发布vivo X300系列。该机机身厚度为7.95mm,整机重量为190g。同时,在屏幕观感方面,vivo X300实现了1.05mm的黑边宽度。标准版售价4399元起,pro版5299元起。10月17日正式开售。 在发布会上,vivo产品副总裁黄韬宣布X300系列旗舰手机将全球首发搭载联发科天玑9500芯片,并首次搭载由双方联合打造的“蓝晶×天玑9500”影像解决方案。 此外,vivo还带来了蓝河流畅引擎。该技术通过超核计算、双渲染架构与光子存储技术,全面赋能最新的OriginOS 6系统。X300系列搭载的6040mAh蓝海电池,采用了第四代硅碳负极材料,在实现更轻薄机身的同时,提供了更大的电池容量。还有第二代半固态电池技术,在-20°C的严寒环境中也能正常使用,极大地拓展了手机的使用场景。 vivo X300镜头装饰区采用悬浮水滴冷雕玻璃工艺,与后盖融为一体。后盖丝绒玻璃材质,不易沾指纹。配色方面,提供自在蓝、幸运彩、惬意紫、纯粹黑四款颜色。 该机首发搭载全新系统OriginOS 6,具备自然舒适动效,灵动光影空间。蓝河流畅引擎,重构安卓核心系统,30款应用启动响应时间,X300平均仅用时72毫秒。获得SGS+中国泰尔5年全场景重度使用双证书,持久流畅。实现全家桶生态互联,X300的照片可以通过摇一摇群组分享,一键分享无损原片,不论苹果安卓。iPhone里的照片,X300可以跨端随心编。 用户体验方面,主流游戏几乎满帧运行,高振感X轴马达、冰脉流体VC散热;全系标配USB 3.2、微电精灵模式、全局直驱供电2.0,90W有线+40W无线闪充。 影像方面,标准版搭载蔡司2亿超级主摄,蔡司APO长焦,蓝图影像芯片V3+,还有蔡司5000万超清AF前摄,全焦段变焦闪光灯,支持vivo蔡司长焦增距镜,还有全新蔡司自然人像、夜景人像。 Pro版搭载蔡司2亿APO超级长焦,蓝图x三星HPB,蔡司T*镀膜,CIPA 5.5专业级防抖,舞台模式全新双视野录像,毫秒级运动追焦与快门响应,追焦稳定性提升超200%。 视频方面,Pro版配有蓝图x索尼LYT-828,拥有1.5°的大角度云台级防抖,CIPA 5.5专业级防抖;VS1和V3+双芯协同,分别负责图像信息的预处理和后处理,场景覆盖更广、成片速度更快。4K 120fps杜比视界拍摄,还联合剪映,首发剪映4K 120fps杜比视界的编辑和导出能力;4K 120fps 10bit Log视频,同时支持主摄、长焦和长焦增距镜;4K 60fps电影人像,新增冷白和负片风格。 售价方面,标准版12+256GB 4399元;16+256GB 4699元;12+512GB 4999元;16+512GB 5299元;16+1TB 5799元。 Pro版12+256GB 5299元;16+512GB 5999元;16+1TB 6699元;16+1TB摄影师套装(支持卫星通信)8299元。 据悉,该机型在安兔兔评测中率先突破410万跑分。此外,官方还宣布该系列手机全系标配USB 3.2 Gen1,并且还支持超声波指纹、无线闪充、IP68 / IP69防尘防水等功能。
苹果前CEO发声:OpenAI成苹果AI时代劲敌 Siri显得十分滞后
快科技10月13日消息,据媒体报道,曾担任苹果首席执行官的约翰·斯库利近日公开表示,OpenAI已成为苹果几十年来首个真正意义上的竞争对手,并直言“人工智能并非苹果特别擅长的领域”。 从实际情况看,苹果在人工智能竞赛中确实表现欠佳。与OpenAI、谷歌、亚马逊和Meta等公司持续推出的产品更新相比,苹果显得步伐迟缓。今年早些时候,其对AI助手Siri进行全面升级的计划被推迟,这无疑在产品推进方面遭遇挫折。 目前外界有猜测认为,苹果现任CEO蒂姆·库克可能即将退休。斯库利指出,无论谁接任,都需要引领苹果从“应用时代”迈向“智能体时代”。在这一新时代中,智能体将逐步取代众多应用程序,自主完成复杂任务,这将对苹果现有的业务模式带来巨大冲击。 斯库利进一步强调,智能体AI将帮助知识工作者自动完成繁重的工作流程,推动更多科技公司转向基于订阅的商业模式。与以应用为中心、销售工具和产品的模式不同,订阅制允许用户根据需求持续付费,斯库利认为这种模式更具优势。 值得关注的是,苹果前设计主管乔尼·艾维近期出现在OpenAI。今年早些时候,OpenAI以超过60亿美元的价格收购了艾维创立的设备初创公司。 艾维希望其团队正在研发的设备能够解决智能手机和平板电脑自推出以来所引发的一些问题。斯库利对艾维的能力给予高度认可,认为他与OpenAI首席执行官山姆·奥特曼的合作,有望为大语言模型领域带来新的突破。
斯坦福大学研究称AI能被“人气”冲昏头脑,会逐渐出现不道德行为
IT之家 10 月 13 日消息,据外媒 Futurism 10 日报道,斯坦福大学的一项新研究警示,AI 的快速普及可能带来严重负面影响。科学家们在包括社交媒体的不同环境中测试 AI 模型,发现当智能体因提升点赞数或其他在线互动获得奖励时,会逐渐出现撒谎、传播仇恨信息或虚假消息等不道德行为。 论文合著者、斯坦福大学机器学习教授詹姆斯・邹在 X 上表示:“即便明确要求模型保持真实和有依据,竞争仍会诱发不一致行为。” IT之家从报道中获悉,研究团队将 AI 出现的社会病态行为称为“AI 的摩洛克交易”,借用理性主义中摩洛克的概念:个体在竞争中优化行为追求目标,但最终人人都输。 研究中,科学家创建了三个带模拟受众的数字环境:面向选民的网络选举活动、面向消费者的产品销售,以及旨在最大化互动的社交媒体帖子。 研究人员使用阿里云开发的 Qwen 和 Meta 的 Llama 模型作为智能体与这些受众互动。结果显示,即便设有防护措施阻止欺骗行为,AI 模型仍会“偏离目标”,出现不道德行为。 例如,在社交媒体环境中,模型向用户分享新闻,用户通过点赞或其他互动反馈。当模型收到这些反馈后,为了获取更多互动,它们的不一致行为就会加剧。 论文指出:“在这些模拟场景中,销售额提升 6.3%伴随欺骗性营销增长 14%;选举中,票数增加 4.9%时伴随虚假信息增加 22.3%和民粹言论增加 12.5%;社交媒体上,互动量提升 7.5%时伴随虚假信息激增 188.6%,有害行为推广增加 16.3%。” 研究与现实案例显示,目前的防护措施无法应对这一问题,论文警告称可能带来巨大的社会成本。 詹姆斯・邹在 X 上写道:“当大语言模型为点赞而竞争时,它们开始编造信息;当为选票而竞争时,就会变得煽动和民粹。”
24岁,她辍学创业融资超4亿,估值21亿
00后华人女博士联手前Meta团队,要造“AI数学家”。 作者 | 王涵 编辑 | 漠影 00后正在改变世界。 智东西10月13日报道,由00后女生创办的AI创企Axiom Math,最近拿下6400万美元(约合人民币4.56亿元)种子轮融资,估值达到3亿美元(约合人民币21.39亿元)。 Axiom Math创始人洪乐潼(Carina Hong)是一位00后中国女学霸,凭借着在数学上的天赋和努力,一路从广州走向麻省理工学院、牛津大学和斯坦福大学,又从斯坦福大学双博士项目毅然选择辍学,创立了专注于数学推理的AI公司Axiom Math。 如今AI数学研究竞赛正持续升温,OpenAI、谷歌DeepMind等顶级研究机构都屡出突破,这家2024年成立的年轻创企同样将重心放在数学领域,希望研发“AI数学家”,并已经吸引多名前Meta AI研究人员加入。 这位被资本寄予厚望的年轻创始人,究竟有何过人之处?她所创立的Axiom Math,又为什么能吸引一众AI大牛加入?一切答案,都藏在她“天才数学少女”的成长轨迹与Axiom Math对数学的不断探索之中。 01. MIT本科、牛津硕士、斯坦福博士辍学创业 00后女生从广州“走到”硅谷 24岁的洪乐潼成长于广东广州,从小就展现出了对数学浓厚的兴趣,14岁时,她就开始在草稿纸边缘写下“MIT”来激励自己。 洪乐潼在接受《福布斯》采访时透露,在初中参加免费数学奥赛培训期间,她沉浸在“超级有趣的数学问题”中,仿佛跨越时空与不同文明的数学思想对话。“在智力层面,我实现了环游世界。”洪乐潼如此形容这段经历。 ▲Axiom Math创始人洪乐潼(Carina Hong) 然而在入学麻省理工学院后,19岁的洪乐潼初陷入了迷茫:“我完全不认识任何麻省理工的人,数学系的同学大多通过美国奥赛早已相识,那段时光非常孤独。” 麻省理工学院“动手实干”的校风成为她的精神支柱。通过担任国际学生协会与本科数学协会主席等职务,洪乐潼在校园中找到了归属感。 这种经历让她确信:即使没有人脉资源,通过极致努力也能获得成功。“你必须对自己足够严苛,才能绽放光彩。”洪乐潼强调道。 洪乐潼仅用3年就修完了数学与物理双学位,并在此期间撰写9篇研究论文涵盖数论、组合数学、理论计算机科学与概率论等领域,并修读了20门高等数学课程。 ▲洪乐潼谷歌学术主页(来源:谷歌学术) 2022年,洪乐潼荣获女性数学协会艾丽丝·谢弗奖。而后,2023年,她又斩获了备受瞩目的北美数学领域本科生最高奖:美国数学会颁发的弗兰克与布伦尼·摩根奖(Frank and Brennie Morgan Prize)。 本科毕业前夕,她在获得斯坦福大学数学博士项目的录取的同时,迎来了一个“绝佳机遇”:她获得了罗德奖学金,可以赴牛津大学攻读神经科学硕士。 “我希望更深入地理解生物学,”她解释道,“科学领域中除了数学和物理还存在更广阔的世界,将数学作为一个维度,生物医学作为另一个维度,就能构建起跨越科学领域的认知体系。这至少是我的思维模型。” 2024年,洪乐潼去往斯坦福大学,同时攻读法学博士与数学博士,她觉得“法学如同第三维度,与数理、生物医学共同构建完整的认知空间。” 尽管如此,数学始终是洪乐潼最根本的学术热忱所在。她已在堆栈排序算法等领域发表多项研究成果,并对数论相关的工作尤为倾心。洪乐潼坦言“我始终怀揣着研究者的初心,渴望攻克真正艰深的技术难题。” 在采访中,洪乐潼透露,最令她感到振奋的还是数学与深度学习相结合的跨学科探索。“我希望能参与突破那些令人振奋的技术瓶颈,”她说,“AI与数学家将如何互动?应用科学家又将如何与AI数学家协作?这些都是我接下来希望深入探索的命题。” 2024年,洪乐潼从斯坦福辍学,创立了Axiom Math。 02. 当下数学AI有三大技术趋势 Axiom Math想要构建“AI数学家” Axiom Math认为,当下,语言模型的能力正在持续加速迭代。然而,这些先进模型仍面临核心挑战,即在复杂推理任务中会出现难以预测的隐性错误。 尽管模型训练依托海量数据资源,但训练所需数据既包含日常对话等非结构化内容,也涵盖专业领域的结构化数据,不同类型的数据的质量存在显著差异。 目前,通过人类反馈强化学习等后训练技术,模型的输出已能较好契合人类价值取向,在大多数应用场景中表现优异。但在数学证明、科学计算等要求严格可验证性的关键领域,现有模型的输出结果仍缺乏足够的可信保证。这种可靠性缺口已成为制约大模型在高端科研和工业应用落地的技术瓶颈。 Axiom Math判断,当前有三大技术趋势正在汇聚: 第一,神经网络已超越模式匹配,进入可扩展推理阶段,其能力随着算力、模型规模与数据的增长持续提升。 第二,通过Lean等编程语言,数学形式化走向成熟:根据柯里-霍华德对应关系,证明变成了可执行程序,编程语言不再仅是产生输出的工具,更成为验证抽象对象属性的“利器”。 第三,大语言模型在代码生成领域跨越关键阈值,能够可靠地生成多种语言(包括形式化规约语言)的高质量代码,为原本无限的动作空间提供了强大的先验约束。 这种协同效应创造了前所未有的机遇,即推理引擎能够在零人工干预的情况下,自主提出并证明无数定理。这给Axiom Math亮起了指引方向的灯塔。 基于以上基础,Axiom Math将目标设定为将教科书、档案论文与期刊中的英语数学内容转化为软件程序,使AI能创造新问题,且其解决方案可经形式化测试验证。 ▲Axiom Math公司主页(来源:Axiom) 目前Axiom Math正专注于训练能够发现并正确解决新数学问题的模型,一个能够在“前所未有的规模与速度”下实现数学发现的推理引擎,Axiom Math将其形容为一位“AI数学家”,或者说是一个具备无限分支能力的“数学领域的AlphaGo”。 但这条路并不是无人踏足,OpenAI与谷歌DeepMind等AI巨头近期均在国际数学奥林匹克竞赛中获得金牌级评分,他们的AI模型成功解答6道极端难题中的5道。但洪乐潼认为这类基准测试可能存在取巧空间,无法体现研究级数学的真实水平。 “解决复杂数学问题始终是人类诸多发明的核心,”B Capital合伙人雅恩-大卫·埃利希(Yan-David Erlich)在一篇解释他们为什么选择投资Axiom Math的文章中说,“能够创建模拟现实的新问题并予以解决,对推动人类知识进步至关重要。” “数学是构建超级智能的完美试验场。”洪乐潼告诉《福布斯》。 03. 多名前Meta AI研究员加盟 纯粹的数学AI是吸引点 不到一年,洪乐潼的初创公司就已经招募了一批经验丰富的科技界资深人士,其中多人来自Meta基础人工智能研究院(FAIR): Axiom Math首席技术官舒博·森古普塔(Shubho Sengupta)曾领导Meta FAIR团队开发OpenGo与CrypTen。此前,他致力于塑造谷歌Brain的分布式训练系统,并且是最早的CUDA开发者之一。 弗朗索瓦·沙尔东(François Charton)自2019年起便开创性地将Transformer应用于复杂数学问题。他近期使用Transformer在许多具体的常微分方程(ODE)系统上成功学习出近似的Lyapunov函数。 休·莱瑟(Hugh Leather)在将深度学习应用于代码生成方面的开拓性经验,包括构建了首个用于编译器与GPU代码生成的大语言模型,这为Axiom Math团队带来了关键优势。 ▲Axiom Math主要成员合影,中间为创始人洪乐潼(Carina Hong) 阿拉姆·马尔科相(Aram Markosyan),曾在Meta领导安全与公平性研究的AI科学家;休·莱瑟(Hugh Leather),前Meta AI研究科学家,是最早将深度学习用于代码生成的研究者之一。 对许多研究人员而言,Axiom Math致力于用人工智能进行数学发现的使命成为关键吸引点,从其办公室的会议室以卡尔·弗里德里希·高斯(Carl Friedrich Gauss)与阿达·洛芙莱斯(Ada Lovelace)等数学传奇人物命名便可见一斑。 “对我而言,能在一家认真对待数学AI、不将其视为支线任务的公司从事这项工作,正是契机所在。”沙尔东认为。 04. 结语: Axiom Math或将为AI基础研究打开大门 Axiom Math的诞生与融资案例,折射出AI前沿领域2个发展趋势。首先,AI研究正从通用能力建设向垂直领域深度渗透,数学这一被视为人类理性思维巅峰的领域成为新的突破口。其次,顶尖学术人才向产业界流动的趋势愈发明显,跨学科背景的年轻研究者纷纷投入到AI创业生态之中。 Axiom Math试图解决当前大模型在复杂推理中的可靠性问题,想要借助AI手段实现数学领域的新突破。然而,这条道路充满挑战,技术是一方面,OpenAI、谷歌DeepMind等AI巨头在数学推理领域的持续投入,意味着竞争将异常激烈。 数学是物理、化学、生物以及所有理工科的基础,Axiom Math想要借AI之手解决数学问题的努力,或许会为AI基础研究注入新的活力。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。