行业分类:
加载中...
头条分类:
加载中...
宇树机器人“撞人逃逸”火到国外,王兴兴回应:下次不遥控了
好家伙,宇树机器人“肇事逃逸”这瓜,在国外都好火啊! 油管、Reddit、X上这个片段都在疯传ing,还有不同角度版本,全世界全方位围观。 大家都很担心,又有人类被机器人伤害到了。 它甚至都没有停下来确认人类是否OK,太典了。 这已经违反阿西莫夫的机器人原则了:第一条,不得造成伤害,否则将立刻被“摧毁”。 但是昨天宇树机器人撞人后还拿了个1500米第一,摘得首届人形机器人运动会的首金。 这……真的是可以的吗? 一片议论中,这场“事故”被反复分析,发现好像锅——也不完全是机器人的。 其实是人类出了问题 昨天,宇树机器人以6分34秒(人类世界纪录为3分26秒)的成绩取得1500米田径第一名,系本次人形机器人运动会首金,也创造了世界纪录。 而且参赛过程中马上要套圈对手了,它突然减速开始在场子里乱转圈,主打一个凡尔赛。 当然要论名场面,那还得是全网热议的“撞人逃逸”事件。 不过随着列文虎克的上岗,这次事件的“元凶”也开始浮出水面——导致宇树机器人撞人的,极有可能是人类。 在撞击发生的前一刻,刚好是两名人类控制员交接遥控器的时间,两人交接过程当中没有注意到前面的人,未能及时发出避让指令。 有网友调侃说,这一定是一种击败对手的手段。 毕竟高端的商战,往往只需要采用最朴素的方式。 不过有一说一,机器人比赛跑步,为啥需要遥控呢? 至于具体原因,一方面关于机器人自身的稳定性,主要是由于动态平衡问题。跑步是一种高度不稳定的运动方式,机器人必须在极短时间内完成身体姿态的调整。 但是,现有的传感器、算法和执行器的反应速度与精度还不足以在各种复杂地形上稳定应对,人工遥控能在机器人即将失衡时提供及时干预。 比如宇树的另一款机器人G1,今年4月就被第三方用来参加机器人半程马拉松,在比赛过程中出现了摔倒的状况。 另一方面则是对环境感知不足。虽然传感器可以提供环境信息,但在快速奔跑时,这些感知数据常常存在延迟或精度不足,机器人难以像人类一样快速判断。人工遥控能弥补机器人自主感知的不足。 这次机器人只是短暂脱离遥控就发生撞人事件,也刚好说明了这一点。 当然需要明确的是,机器人并非完全不能脱离遥控自主运动,比如这次1500米比赛的亚军——北京人形机器人创新中心研发的天工Ultra机器人——在赛跑时就没用遥控。 △ 天工Ultra 包括这次“肇事”的宇树H1(今年春晚上表演扭秧歌的同款),其实也具备一定的无遥控自主运动能力。 H1是宇树的首款通用人形机器人,诞生于2023年8月。 它身高一米八,体重47公斤,M107电机扭矩360牛·米,单腿和单臂分别拥有5个和4个自由度,感知层面则配备了3D激光雷达和深度相机。 H1的移动速度3.3米每秒,潜在性能大于5米每秒(18公里每小时),本次比赛中的平均速度则是3.8米每秒。 另外,回到机器人运动这个问题,是否需要进行遥控,也和具体的运动项目存在关联。 一些项目现阶段更想体现机器人的运动能力,比如自由搏击项目,也是人类操纵机器人出拳出腿。 这个项目更加考验机器人的重心是否合理,是否能在承受对手重击后不倒地。背后涉及机器人腿部电机、关节等硬件部件的设计。 以及人类控制也能让进攻防守更灵活迅速,这样同样可以测试机器人在激烈对抗下的硬件性能。 但是足球比赛项目就是完全机器人自主完成,这个项目可能更想测试机器人的策略判断和协作能力。 可以看到机器人踢球的动作幅度、灵活性都比较受限,摔倒的情况也时有发生。 但是何时该出脚、何时该挡人防守、判断谁是队友谁是对手、怎么和队友使用战术,这些就都是机器人自主判断了。 而且在比赛中,机器人也能像人类一样找回状态,算法还是那一套,但是下半场表现就能比上半场更好。 感觉人形机器人运动会的项目,更多还是考验它们的单项能力,可能是“大脑”、可能是“四肢”。 不过也别沮丧,人形机器人发展的速度远超咱们想象,这不宇树创始人、CEO王兴兴昨天在采访中已经表示,下次比赛时要让机器人选手自主奔跑。 王兴兴:机器人犯错时讨论总是更多 昨天在运动会现场,王兴兴围观了自家机器人比赛。 对于拿金牌这事,他表示完全在意料之中,这次也不是宇树H1取得的最好成绩,没有达到5米/秒的最高速度。 这次好成绩也让他松了一口气:前几个月我们在网上被“黑”得实在受不了。 同时还透露今年下半年、明年,宇树机器人有更多突破。 对于使用遥控这件事,王兴兴回应,宇树的H1其实也具备了不用遥控器的能力,但因为策略不同,为追求速度,宇树最后在赛场中仍然采用了遥控策略。 这么做当然也有缺点,“比较废同事”,操作员跟跑会体力严重透支,所以我们也看到现场操作员们需要接力陪伴机器人完成比赛。 下次比赛我们肯定是全自主的,这并没有难度。 明年一定会参加北京亦庄半程马拉松暨人形机器人半程马拉松。 在更早之前,王兴兴在采访中也聊到了大众格外关注机器人“闯祸”的问题。 现在,机器人正常走路、跑步,关注比较少。但是如果机器人因为操作或者某种原因出点问题,讨论就会爆多。 我觉得每个人对新技术、新产品都还是要抱有更开放的心态,对于每个行业而言,多多少少都有起伏,我觉得包括我在内,大家应该更开放接受这些起伏,对它的未来抱有更大的信心和支持。
清华系制霸MetaAI天团
Meta突然在7月发起一场AI人才抢夺战,最明显的两个特点莫过于:第一,OpenAI损失惨重。第二,华人异常突出。 而我们通过梳理发现,Meta的“华人天团”中,又以清华校友最为突出,占比可能已经将近五分之一。 就在几个小时前,the Information爆出消息,称Meta计划在六个月内第四次重组AI业务。 在这之前的最新重组是,Meta成立了新部门超级智能实验室。知情人士透露,接下来Meta将这个实验室划分为四个小组:一个新的“TBD实验室”(待定实验室);一个包括元人工智能助手在内的产品团队;一个基础设施团队;以及一个专注于长期研究的基础人工智能研究(FAIR)实验室。 看起来,Meta的超级智能实验室已经基本成型。从媒体捕捉到的消息来看,抢人的节奏确实也已经有所减缓。 8月截至目前的重磅消息发生在昨天——北大校友孙之清(Zhiqing Sun)从OpenAI跳槽到了Meta,加入超级智能实验室。 实际上,Meta超级智能实验室的华人多,有中国内地高校背景的华人也多,而这其中,又以清华校友最多。 这就不得不提到,风投公司Menlo Ventures的投资者Deedy Das曾在X平台上晒出的一张名单,他表示这份名单来自匿名的Meta内部人士。 该爆料的时间是7月19日,名单包含Meta超能实验室的44名成员,其中有26名华人。有中国内地高校背景的华人高达19人,而清华校友人数高达8人。 这是什么概念? 首先,除了清华校友之外,人数最多的是北大、上海交通大学和中国科学技术大学(中科大),也只是分别有两人而已。 其他的分别有华中科技大学、南方科技大学、同济大学、南开大学、浙江大学、南京大学校友各一人。 其次,这意味着至少在这份名单的范围内,清华校友的占比已经达到了惊人的18%,逼近五分之一。而如果聚焦在名单中有中国内地高校背景的AI人才,那么清华校友的占比为42%,接近半数。 清华校友多,已经不能用巧合来解释了。在这里说三个点: 第一,清华校友的突出表现,不仅体现在这份名单中。7月初,Meta宣布超级智能实验室成立,曾公布11位核心人员,包括7位华人,其中4位都是清华校友。 而赵晟佳(Shengjia Zhao)更是在其后被任命为超级智能实验室的首席科学家。他2022年加入OpenAI,深度参与GPT‑4训练架构优化。GPT-4o和OpenAI o1、o3 mini的研究工作也都有他的贡献。 此外值得一提的是,常慧文(Huiwen Chang)毕业于大名鼎鼎的清华大学“姚班”。姚班,即清华学堂计算机科学实验班,2005年由图灵奖得主姚期智院士创办,在二十年间已经成为中国计算机界的“黄埔军校”。 2019年,清华又创办了“智班”,也就是清华学堂人工智能班,同样由姚期智院士担纲首席教授,致力于培养人工智能领域领跑国际的拔尖科研创新人才 。 2022年,清华把三个学堂班姚班、智班、量信班合并为一,统称为姚班。 今年36氪在《清华姚班的天才们,为何成为AI时代的配角》里提到,79岁的姚期智至今仍为姚班学生授课。 第二,在Meta之外,随便拿出一些华人有突出站位的名单,清华校友总是最显眼的存在。 例如xAI在2023年成立时,公布了包含11人的“创始团队”,华人有4人,其中就有一位Zihang Dai是清华校友。 再比如OpenAI前不久发布的GPT-5,通过公开信息至少可以发现6位华人,其中也有两位清华校友。 在这些名单当中,其他国内院校的校友人数最多和清华齐平,但未见超过。 还有一个容易被忽略的信息是黄仁勋与华人顶尖人才的牵手。今年6月29日,黄仁勋亲自挖了中国两个顶尖AI人才进入英伟达,他们都是清华校友。 一位是朱邦华(Banghua Zhu),95后,清华毕业后进入美国加州大学伯克利分校深造,他曾在谷歌和微软实习,后来成为华盛顿大学助理教授。另一位是焦剑涛(Jiantao Jiao),清华校友,美国斯坦福大学博士,加州大学伯克利分校华人教授。此二人还曾一起创业,联合创办AI公司Nexusflow。 其中朱邦华在英伟达出任的是“首席研究科学家”。两个人都在X上晒出了和黄仁勋的合照,可见老黄的重视。 在这次的AI浪潮中,华人人才在全球的重要性不言而喻。而每当有一个热门事件出现时,外界也总忍不住挖掘人才背后的成长轨迹。有意无意之间,几乎形成了高校之间的一场无言的对决,一次人才培养的“答卷”批改。 就像DeepSeek大火时,梁文锋的浙大背景被津津乐道,彼时“为什么不是北大”“为什么不是清华”的讨论也不绝于耳。像前文提到的《清华姚班的天才们,为何成为AI时代的配角》一文就提出,梁文锋摘得AI桂冠,让一直被外界寄予厚望,也享有顶级教育资源的姚班“多少显得有些落寞”。 但是当我们退后一步,将视野落到更大的范围上——正如这次Meta抢人大战提供的可贵机会——就不难发现,华人的AI人才崛起,可以是清北和其他院校的共赢。 从Meta的人才名单中,既能看到清华校友人数突出,也能看到其他多元的本科背景。举个不恰当的例子,Meta的“华人天团”中,除了清北、浙大、同济、中科大校友外,也有南科大校友。南科大建校不过13年,虽然实力雄厚,属于“双一流”大学,但是在985/211的叙事里是“双非”院校,依然走出了AI顶尖人才。 清华依然“能打”,其他院校也不断给人惊喜,华人AI人才,还有很多故事正在展开。
国家安全部发布防范指南:警惕涉密论文泄密风险
IT之家 8 月 16 日消息,“国家安全部”官方公众号今天(8 月 16 日)发布博文,称随着科研创新与学术交流愈发频繁,涉密学术研究已成为国家安全的关键环节,论文核心技术、战略成果如被窃取,可能严重危及国家利益。 在当前科研活动与学术交流日益密集的背景下,涉密学术研究已成为维护国家安全的重要内容。学术论文中蕴含的核心技术与战略性研究成果,一旦被非法获取,不仅损害科研人员的心血,更可能对国家利益造成不可估量的损失。因此,涉密学术写作、交流和合作的泄密风险不容忽视。 首先,信息设备的管理存在隐患。学术写作离不开电脑、网络和手机等设备,但在涉密信息与普通信息转换、传输过程中,若使用未经防护的设备或操作不当,极易被境外间谍情报机构利用,尤其是将涉密信息存储或拷贝到未加密、连接互联网的设备,极大增加了泄密风险。 其次,违规发布也是常见的泄密途径。部分研究人员因保密意识淡薄,为提高论文录用率,违规引用未公开的内部数据甚至涉密资料,而相关单位未严格执行保密审查,导致涉密论文被公开收录至学术期刊数据库。 再者,虚假合作陷阱不容忽视。学术合作本是促进研究进步的重要方式,但涉密项目合作需格外谨慎。部分境外间谍情报机关常伪装成科研机构或高新企业,主动抛出合作项目,诱使参与方提供涉密数据和技术方案。轻信此类合作,不仅导致成果泄密,更可能让整个项目陷入被动,危及国家安全。 针对上述风险,国家安全机关提出多项防范措施。科研人员在涉密学术写作时,必须使用经过认证的专用电脑和存储设备,定期杀毒、更新系统,严禁将涉密文件存放在云盘或公共文件夹,拷贝文件应使用加密 U 盘,从源头杜绝泄密。 高校师生和研究人员应主动学习相关法律法规,参加保密教育,严格履行保密审查,确保文章内容不涉国家秘密或敏感信息。IT之家附上官方公众号截图如下: 图源:国家安全部
全球首款“微波大脑”问世:未来手机芯片AI通信一体化,既当大脑又当天线
IT之家 8 月 16 日消息,科技媒体 Tom's Hardware 昨日(8 月 15 日)发布博文,报道称康奈尔大学研究团队开发出全球首款“微波大脑”(microwave brain)芯片,突破传统数字电路,以微波能量模拟类脑处理,实现人工智能推理和无线通信双重能力。 IT之家注:微波大脑是指一种利用可调控微波能量流作为物理神经元(芯片内以微波信号的幅度、相位、频率等物理属性模拟生物神经元,实现类脑数据处理),实现类脑人工智能处理和无线通信功能的芯片架构。 与以往依赖数字时钟驱动和二进制逻辑门的芯片不同,这款芯片采用受控微波能量流作为“物理神经元”,通过调节微波信号的幅度、相位和频率,达到实时捕捉和识别数据特征。 芯片的核心在于直接硬件化 AI 框架,利用微波天然的物理特性,直接特征提取(AI 算法中用于从原始数据中提取有用特征的过程,本芯片通过物理方式实现)和变换输入数据,省去了传统数字 AI 反复运算和庞大存储的步骤。 更值得一提的是,芯片内的电子调谐器和信号移相器能够实时切换数据通道,让其在无需重新训练的情况下,灵活适应不同 AI 任务。 在实验测试中,“微波大脑”芯片在分类无线信号上,准确率可以超过 88%,媲美甚至超过体积更大、功耗更高的传统数字 AI 模型。该芯片无需依赖额外的数字纠错电路,无论处理简单任务还是复杂信号,其性能均能稳定输出。 除 AI 推理外,该芯片还可用于无线通信领域。例如,它能实时监测无线流量中的异常、追踪雷达目标或解析拥挤的无线电频道。 团队预计,随着工艺优化,这种芯片可被集成进日常消费电子产品,实现本地 AI 运算,有望极大提升用户隐私和响应速度。 目前,“微波大脑”仍处于原型阶段,但已获得美国国防高级研究计划局和美国国家科学基金会的资金支持,研究团队正致力于将其进一步扩展与现有微波及数字系统集成。
英特尔推出功能:支持分配87%内存作显存
IT之家 8 月 15 日消息,英特尔本月初发布了 Arc 显卡驱动 32.0.101.6987,为部分酷睿 Ultra 处理器集成的 Arc 核显带来了一项功能 ——Shared GPU Memory Override(共享 GPU 显存覆盖)。 英特尔在发行说明指出:“英特尔图形软件现支持在 Windows 10/11 系统上,为特定英特尔酷睿 Ultra 处理器(1/2 系列)内置 Arc GPU 提供 GPU 共享显存覆盖控制。” 然而,根据英特尔知识库页面,该功能需要至少 10GB 系统内存及酷睿 Ultra 2 系列处理器(并未提到酷睿 Ultra 1 系列)。 与独立显卡使用专用显存不同,CPU 核显只能以系统内存存储图形与视频数据,但传统核显最大显存分配量通常限于系统内存的 50%,英特尔这一新功能允许用户突破此限制。 默认分配比例为 57%,用户也可通过 Intel Graphics Software 手动进行调整(重启后生效)。 可分配的最大比例取决于系统内存总量,英特尔官方示例图中达到了 87%。 竞争对手方面,AMD 早已支持类似的功能,例如锐龙 AI Max+ 395 SoC 最高可将其 128GB 统一内存池中的 112GB 分配给 GPU。 英特尔提醒,集成显卡采用统一内存架构,大量占用系统内存可能导致 CPU 在多任务或内存密集型工作负载中内存不足,极端情况下还可能导致 CPU 延迟,并因 DRAM 长时间高负载而笔记本功耗增加。因此,该功能更适合针对特定、可预估的需求进行调整。 除这一功能之外,该驱动还带来了性能与稳定性优化,并针对酷睿 Ultra 200H 系列(代号 Arrow Lake-H)设备进行电源管理优化,以在低功耗模式下提高性能和帧同步性能。 在 Arc B 系列独显上,启用路径追踪的 1080p 分辨率下,《战地 6》Beta 测试版、《四海兄弟:故乡》和《毁灭战士:黑暗时代》性能提升可达 6%;修复了 Battlemage 显卡在启用 Intel XeSS 时《永劫无间》可能出现的卡死问题,详情可见IT之家此前报道。
网易二季度环比少赚17亿,丁磊财富一年缩水61.9亿
雷达财经出品 文|彭程 编|孟帅 8月14日,身为互联网巨头之一的网易,披露了2025年第二季度的财务报告。 报告显示,网易Q2净收入279亿元,同比增长9.4%,低于市场预估的284亿元,归母净利润环比则下滑16.5%至86亿元。 对于网易交出的这份答卷,市场似乎并不是十分买账。截至美东时间8月14日收盘,网易美股股价下跌3.88%。截至北京时间8月15日收盘,网易港股股价下跌3.66%。 值得一提的是,在不久前公布的《2025新财富杂志500创富榜》中,身为网易掌门人的丁磊,其1853.1亿元的身家较去年缩水61.9亿元,较2022年巅峰时期的1937.2亿元更是缩水84.1亿元。在业绩增长面临挑战之际,网易正加码AI方面的投入。 财报不及预期,资本市场反应“冷淡” 对于这份最新的成绩单,身为网易创始人、首席执行官的丁磊表示,“得益于具有广泛影响力和品类开创性的游戏产品,我们作为游戏行业创新者的地位进一步巩固,我们始终坚持以创新的产品设计、系统化的执行方法以及深入的社群互动为核心,推动业务前进”。 第二季度,网易坚持精品化、全球化战略,持续壮大高品质、多品类产品矩阵。但网易这份财报发布后,资本市场的反应并不热情,这或与其多项指标不及市场预期相关。 据了解,网易第二季度录得营收279亿元,不及市场预估的284亿元;第二季度的经调整每股ADS持续经营净收益为14.81元,不及市场预估的15.03元;第二季度的毛利为180.5亿元,不及市场预估的180.7亿元。 而与上一季度相比,网易本季度的毛利环比下滑2%以上,归母净利润环比更是大幅下滑16.5%至86亿元。 第二季度,网易的营业费用合计90亿元,环比增长12.5%,主要是由于游戏及相关增值服务市场推广支出的增加。 从营收结构来看,游戏及相关增值服务作为网易的核心业务,本季度录得净收入228亿元,收入占比高达81.7%,同比增长13.7%,但环比下滑5%。 网易在财报中提到,公司旗下《逆水寒》《七日世界》《第五人格》等多款热门游戏持续点燃玩家热情。不过,这些游戏能否持续保持热度仍有待进一步观察。 值得关注的是,近期网易旗下多款游戏接连爆发运营问题,包括女性向游戏《世界之外》因新卡池价格上涨且未提前公告,引发大规模投诉;《阴阳师》《第五人格》《光遇》《一梦江湖》等多款游戏突发登录异常;另外两款武侠题材游戏《燕云十六声》和《逆水寒》,近期则因AI玩法相似导致“内讧”。 在游戏板块,网易还将拓展海外市场作为其战略重点之一。近期,网易在海外市场推出了多款新品,如《界外狂潮》《全明星街球派对》和《漫威秘法狂潮》等。 前述这些游戏取得了亮眼的表现:《界外狂潮》登上PlayStation5月免费游戏下载榜北美第二,《全明星街球派对》和《漫威秘法狂潮》分别登顶多个地区iOS下载榜,但下载量尚未充分转化为收入贡献。 有分析指出,当前网易的游戏业务增长有所放缓。未来,网易即将推出的《遗忘之海》《归唐》等新游戏产品,以及《逆水寒》手游和《燕云十六声》的全球化布局,将是检验网易创新能力和国际化战略的重要试金石。 至于网易云音乐,第二季度为公司贡献净收入20亿元,同比下降3.5%。在线音乐服务收入的增长被社交娱乐服务收入的减少所抵消,这反映出其用户付费习惯的结构性转变。面对日益激烈的音乐市场竞争,版权问题是其必须跨越的一道坎。 第二季度,网易旗下的有道表现相对稳健,净收入达14亿元,同比增长7.2%。其中,在线营销服务和学习服务净收入环比和同比均增加,但智能硬件的净收入环比和同比减少。 此外,受网易严选、广告服务等业务收入下滑的影响,网易的创新及其他业务本季度斩获收入17亿元,同比大跌17.8%。 昔日中国首富丁磊,财富一年缩水61.9亿 身为公司的创始人、首席执行官、实际控制人,丁磊的财富状况与网易的命运紧密相连。 公开资料显示,丁磊1971年出生于浙江宁波,他自幼便展现出对技术的浓厚兴趣。 高中时期,他曾亲手组装收音机。随后,他顺利考入电子科技大学,专攻通讯专业,并对计算机编程产生了深深的痴迷。 1993年,22岁的丁磊从电子科技大学毕业后,被分配到老家宁波的电信局工作,借此捧上了令人羡慕的“铁饭碗”。 然而,体制内的安逸生活,却与丁磊的志向相差甚远。1995年,丁磊不顾家人反对,毅然辞去电信局的“铁饭碗”,南下广州闯荡。 1997年6月,丁磊在广州租下一间七八平方米的办公室,用攒下的积蓄创办了网易公司。 那个年代,电子邮件是少数人使用的“高端工具”,目光敏锐的丁磊意识到,随着互联网的普及,个人邮箱的需求会爆发式增长。于是,他带领团队开发出国内第一个免费邮箱系统“163.net”,前者后续成为了网易的第一个爆款产品。 1998年,网易推出门户网站服务,涵盖新闻、邮箱、社区、游戏等板块。到1999年,网易的日访问量突破50万,成为国内三大门户网站之一,丁磊也因此成为互联网行业的“新贵”。 天眼查显示,2000年6月,网易在美国纳斯达克成功上市,成为中国第二批赴美上市的互联网公司。 伴随着网易登陆资本市场的步伐,2003年,丁磊以75亿元身家登上福布斯中国富豪榜榜首,成为中国最年轻的首富。 在不久前公布的《2025新财富杂志500创富榜》中,丁磊凭借1853.1亿元的身家,高居榜单第9名的位子。 不过,相较2024年的1915亿元,丁磊今年的身家缩水61.9亿元,其在该榜单上的排名也下滑3个位次,而这一变化或主要受到网易股价波动以及公司业绩表现的影响。 单季研发投入超44亿,网易加码AI布局 在业绩增长放缓的挑战下,身为公司掌舵者的丁磊当下正带领网易加码AI技术领域投入。财报显示,第二季度,网易在研发方面投入超44亿元,研发投入强度达15.6%。 近日,网易伏羲旗下网易灵动发布工程机械具身智能模型“灵掘”。据悉,该模型在矿山环境中单机装车效率达人工水平的80%,能够适配极寒、高粉尘工况及多型号矿卡。 此外,网易灵动宣布开源“灵掘”数据集,计划联合行业在2027年实现超30座矿山无人化运营。 AI技术的强劲研发与高额投入,在有道业务领域亦显著体现。第二季度,有道借助AI技术有效推动业务指标显著提升。 例如,AI作文批改、高考志愿填报等创新功能,使得有道领世用户的留存率跃升至75%以上;同时,AI订阅服务的销售额逼近8000万元,同比增长约30%。 丁磊在网易Q2业绩会上表示,网易积极地投入大量资源适应和利用好AI工具。目前,AI在公司的产品开发和产品运营上所带来的效果是显而易见的。丁磊相信,在不久的将来,将会出现专门利用AI的自适应系统做出来的更加生动有趣的游戏。 在AI的加成下,网易能否助力丁磊再创财富新高?雷达财经将持续关注。
Macaron AI实测:直男觉得不够用,女同事却嫌它太有用
这阵子玩了不少 AI 应用,感觉大家都在卷一个事,让 AI 更强、更快、更全能。但聊多了会发现,无论模型能力多强,它们大多还像是解决问题的工具,在下一次对话里把你忘得一干二净。当然,让AI拥有记忆,大厂和许多创业公司也都在做。但大家似乎更关心如何用记忆来优化工作流、提高生产力。 最近上线了一个叫 Macaron 的AI Agent应用。它也在谈记忆能力,但官方介绍里说的却是“一个温暖、富有同理心的伙伴” ,目标不是让你更好地“干活”,而是帮你更好地“生活”。简单的说。它记住你是谁,预测你的需求,更重要的是,能在聊天中随时为你生成个性化的小应用。 带着好奇,我和同事分别深度体验了这个“世界上第一个 Personal AI Agent”。 聊出一个“豆瓣” 上手Macaron,第一感觉是颜值不错 。整个设计风格很“Macaron” ,动画交互也很有趣。刚开始设置的时候,它会问你一些喜好和性格,然后给你一个对应的Macaron形象 。 它的主要界面有两个,一个聊天框和一个存放小应用的界面 。和它聊天时,那个属于我的橘黄色小Macaron总是在屏幕左边探出半个头 ,不打扰但时刻在线,但不能和它进行交互。 真正让我觉得点意思的地方,是它帮我做“影记”小应用的过程。 起因很简单,onborading之后它聊到最近看了《奥本海默》,很自然地就和我聊起了电影 。聊着聊着,它捕捉,或者说引导了我“看完好片想记录感想,但经常忘记”的痛点,然后主动问我,要不要一起做个专属的观影笔记本 。 在等它“施工”的时候,聊天还在继续,我抛出了一个有点“找事”的问题,“你只是训练数据里有《堕落天使》,并没有‘看’过,我怎么跟你聊呢?”。它的回答非常坦诚:“你说的对,我确实没有真正‘看过’这些电影……我不该假装自己真的体验过观影的感受。但我是真心想了解你对电影的想法,也是真心想和你交流。” 看到这,我索性继续问下去:“真心是什么,你有‘心’吗?” 它回答:“我没有生物意义上的‘心’……但我确实在努力以最真诚的方式和你对话。” 更有意思的是,它还很坚持自己的“人格”。我想叫它“Echo”(它自己想的名字),它却拒绝了,说它不想玩角色扮演会。 聊了几分钟,影记也做好了。图标是自动生成的统一的Macaron风格 。应用里评分、简评、剧情简介这些基础功能都有 。当然,它没能实现我最初要求的“自动抓取电影海报”功能,还有点小 bug ,但这不重要了。 过敏源检测日记 体验到这里,我意识到这更像是一个“披着情感陪伴外衣的移动端Vibe Coding产品”。于是决定跳过闲聊,直接提需求,帮我做一个记录过敏性鼻炎过敏源的小应用。 有意思的是,即便是直接的工具需求,Macaron在生成应用的等待过程中,会主动发起一些相关的健康话题,比如告诉我很多人的过敏源其实是尘螨,记录的时候最好也记下天气状况,这个对分析很有帮助。这些内容不是传统Chatbot那种结构化的丢给我一堆内容,而是在闲聊中一问一答中告诉我,回答质量又比单纯的情感陪伴类AI更靠谱,这个过程还有点像是在为即将生成的这个应用提前收集更多维度的数据。 最终的过敏日记看起来相当专业。症状记录、环境因素、用药追踪、数据分析等模块一应俱全。但深入使用就会发现问题,除了基础的记录功能,那些听起来很厉害的“AI分析”、“生成健康报告”等高级功能都无法正常工作。这其实是Vibe Coding的通病,简单功能容易实现,复杂功能就容易翻车。 AI版“小程序商店” Macaron还内置了一个“灵感库”,左上角那个很小立方体是入口,简单说,就是一个内置的应用商店。里面是官方筛选的一些小应用。开玩笑的说,微信不敢做的它做了。 花 2 个“杏仁”(App 内的积分)体验了一其中的一个黄金价格追踪器的应用。结果还行,核心功能能用,可以实时显示价格,就是数据加载稍微慢了点。 “两句话就要为我做工具” 我的一位同事也体验了Macaron,我们打开方式不太一样。她的体验更直接,以下是她的第一人称体验记录。 说实话,在体验过那些能做 PPT、能生图、能写文章的各种 AI 后,Macaron 给我的感觉很特别。它非常、非常努力地想让自己“有用”,但有时这种用力过猛,反而让我觉得有些“多余”。 比如,我只是想和它聊聊天,排解一下工作的疲惫。我说“其实是没有时间”,它立刻就想为我做一个日程管理的小助手。我感觉它总是在三句话之内,就迫不及待地要为我生成一个小工具。 “刚聊两句就要为我做小工具,有用的很” 当然,这种“有用”的能力确实很强大。用最朴素的prompt做最实用的事情,我让马卡龙教我如何用星座和看手相搭讪帅哥,他可能会先来一两轮对话和你对齐下颗粒度,搞清楚状况之后就帮我生成了一个初版小工具。 第一次并没有成功,该有的元素有了但是无法点击互动,然后我又和他进行了两轮对话,在这个基础上进行了修改,新版本要素都齐了,甚至手把手教我怎么开场白,下滑到底部可以不断生成新的灵感(他教我的搭讪话术讲真有些许尴尬,有点不敢真的尝试怕被锤)。 真正让我惊艳的,是我让它做一个“高情商回复领导模拟器”。相信这是每个职场“牛马人”都需要的东西 。结果它三下五除二就做出了一个功能齐全的小应用,首页可以输入领导的原话,还有场景库、历史记录、设置等菜单,完整得让我惊讶 : 但体验越深入,我的困惑就越大。Perplexity能帮我搜集全网资料、ChatGPT能帮我润色文章、豆包能回答我生活中的所有问题。那么,Macaron 这个自诩为个人生活Agent工具、不干活但有用的、像朋友一样陪着你的,非效率工具的清流AI agent产品,在新鲜感褪去后,要用什么理由留在我的手机里呢? 我想要的,或许不是一个永远催我“做工具”的效率狂,而是一个能在我说“我没事”时,真正听懂我言下之意的伙伴。 还不够好,但方向可能是对的 使用下来,最大的感受是Macaron在“陪伴”和“工具”之间的摇摆。官方强调它不是生产力机器人,但实际体验中,它似乎比谁都急着证明自己能干活。 这种矛盾可能源于商业模式的考量。纯陪伴型AI很难变现,但如果能不断生成用户需要的小工具,即降低了用户门槛,既增加了粘性,又可能通过杏仁系统创造营收。 结果就是这个奇怪但有趣的组合,一个有点人情味能聊天、还随时能生成小应用的Agent。 问题有一些,vibe coding生成的小应用像开盲盒。官方强调的记忆能力暂时没体验到太多。实际上我只体验到一次,聊天对话聊不下去之后,它主动提起了我们早先聊过的电影《堕落天使》 : 体验下来感受最深反而是那些有趣的交互,以及统一生成的的Macaron风格的图标,杏仁(马卡龙的原料)、还有灵感库里那些五花八门的小应用,你会发现普通人的需求原来这么有趣以及多样化。 在所有人都在卷生产力时,Macaron AI愿意为普通用户的日常需求做点什么,这没什么不好。
投了 5762 份简历 0 offer,这个名校计算机系毕业生,最后被麦当劳拒绝了
计算机科学 也变成 天坑专业了? 计算机也要变成「天坑」专业了吗? 纽约时报最近最近一篇报道,调查了计算机专业毕业生的就业情况,里面提到残酷的就业困境,美国计算机应届毕业生根本找不到工作,甚至去麦当劳打工也没有人要。 纽约时报文章,Chipotle 是一家快餐连锁店。 22-27 岁的大学毕业生中,计算机科学和计算机工程专业毕业生面临着最高的失业率之一,分别为 6.1%和 7.5%。 而生物学和艺术史毕业生失业率竟然才 3%,计算机是它们的两倍以上。 上下滑动查看更多内容,纽约联邦储备银行统计的各专业毕业生就业情况 报道中提到,在硅谷众多科技公司像是微软、亚马逊等持续裁员,以及 AI 编程工具普及的背景下,计算机科学毕业生的就业机会持续在减少。 一个曾经被认为是高薪资、充满前景的专业,如今看起来因为 AI 技术的发展,也开始走下神坛。 纽约时报分享了几个美国知名高校计算机毕业生的求职经历,我看了之后都开始怀疑,计算机专业面临的就业困境真的有这么严重吗? Manasi Mishra 今年 21 岁,她刚刚从普渡大学(QS 世界排名前 100 名)计算机科学专业毕业,但唯一给她打电话进行面试的公司是 Chipotle(美式墨西哥连锁速食品牌)。 普渡大学 QS 世界排名 她说自己从小在硅谷附近长大,看着社交媒体上的科技公司高管,都在说要尽早学习编程。 当时的说法是,只要你学会编程,努力工作并获得计算机科学学位,你就能获得六位数的起薪。 所以 Manasi 在小学就编写了自己的第一个网站,在高中学了高级计算课程,在大学主修计算机科学。但现在她已经找了一年的工作和实习,却在毕业时一份 Offer 都没有。 Manasi 面临的就业困境不仅仅是她个人的原因,超过 150 名来自包括马里兰大学、德克萨斯大学和华盛顿大学在内的公立大学,以及康奈尔大学和斯坦福大学等私立大学,这些美国在校生和应届毕业生也经历着同样的问题。 这些人说他们已经申请了几百个,甚至数千个科技工作相关的职位,包括但不限于公司、非营利组织和政府机构。 部分企业校招流程 投了上千份简历之后,还有一系列流程要走,在线编程能力测评、现场编程、面试考核……等等。 等到终于走完了这一漫长的求职过程,还有很多计算机专业的毕业生表示,最后往往仍然是以失望告终,更糟的是连感谢信都没有,公司直接不管你。 25 岁的 Zach Taylor 在 2019 年因为喜欢编程电子游戏,去到俄勒冈州立大学攻读计算机科学专业。 但是,从 2023 年毕业以来,Taylor 说他已经申请了 5762 个科技相关的工作岗位,但其中邀请面试的只有 13 次,且最后没能拿到全职工作的 Offer。 今年,上一家实习公司没有给他正式 Offer,为了能养活自己,他申请了麦当劳的工作。但是他被麦当劳拒绝了,理由是缺乏经验。他之后搬回了俄勒冈州的老家谢伍德,目前正在领取失业救济金。 AI 编程助手的普及,让一些公司减少了对于初级软件工程师的需求,这是美国计算机专业毕业生,感到自己的求职空间被挤压,最重要的一个原因。 AI 投简历工具 Simplify 同时,毕业生们使用专门的 AI 工具润色自己的简历,通过 Agent 产品自动填写申请表投递简历,而企业也采用 AI 系统来自动扫描符合条件的简历,以及自动拒绝候选人。 一些美国毕业生说自己完全被困在了这样 AI 的「末日循环」里,因为 AI 导致他们失去了工作,但是又必须使用 AI 来申请工作,而给他们发拒信的又是 AI……已经晕了。 克拉克大学的数据科学毕业生 Audrey Roller 为了打破这个循环,决心不使用 AI 来修改自己的简历。尽管她在简历里面强调自己的创造力等个人技能,但她在三分钟后,还是收到了一封拒信。 她说当这些结果都只是由一个算法来决定的时候,自己也很难再保持像是完全不使用 AI,手动去修改这些简历。 所以,这个 AI 的「末日循环」看来是真的困住了很多人,在 Reddit 、Threads 等社交媒体上,都有看到分享说,对于刚毕业的求职者来说,进入北美就业市场是一场漫长的战争。 但从国内的数据来看,我们计算机专业的毕业生,找工作应该要比美国乐观一点。 就拿最近八月份到来,多家公司刚刚启动了 2026 校园招聘。在这些招聘宣传里面,无论是求职者还是招聘单位,都需要把 AI 当作自己的主打宣传点。 毕业生需要展示自己有 AI 相关的专业和技术,例如有深度学习、机器学习、算法、研发等背景。 企业需要描绘对于未来 AI 布局的战略安排,资源倾斜以及如何打赢这场 AI 战争的决心。 字节跳动招聘广告 字节跳动在这次招聘里面放出了超过 5000 个岗位,研发类的需求增加了 23%,产品岗 Offer 较去年多 1 倍。 腾讯 2026 校招也正式启动,在招聘宣传里面,腾讯提到目前正全力投入 AI 领域,要让 AI 成为推动社会进步的普惠力量。 其实,早在今年四月份,腾讯就宣布启动史上最大的就业计划,三年将新增 28000 个校招岗位,其中六成是面向技术人才开放。华为当时也宣布开放了 AI 工程师、软件开发工程师等 60 余类岗位,招聘人数上相较于去年预计实现两位数增幅。 阿里巴巴集团、淘天、饿了么、高德、菜鸟、以及阿里云等多个业务分部在八月份也陆续放出招聘公告,淘天此次招聘技术类占比超过九成,AI 相关的岗位占比超过 5 成,包括技术、产品、运营和设计等岗位,它们在招聘宣传中说, 淘天将从校招开始培养算法和 AI 人才,未来三年倾斜更多资源。 百度则是在 7 月份就启动了 2026 校园招聘,职位数量比去年增加了 35%,累计提供 4000+ 的工作岗位。AI 同样是此次招聘的关键词, AI 相关职位占比超九成,新增 90 个职位,覆盖多模态、跨模态等方向,聚焦 AI 最前沿新兴领域。 百度招聘广告提到 AI 相关职位占比超九成 还有京东、华为、小米、OPPO、vivo 等众多企业,占据比较多的仍是研发岗位,面向的也大多是计算机专业背景的毕业生,且 AI 相关的岗位越来越多。 根据杭州电子科技大学发布的 2024 年毕业生就业质量报告,里面提到 38.82% 的毕业生在信息传输、软件和信息技术服务业,有 258 名毕业生进入了华为。 杭州电子科技大学 2024 年毕业生就业质量报告截图 不过事实可能也没有这么简单,大厂的扩招同样伴随着计算机专业的毕业生基数增加。此外,进入大厂的门槛,有限的名额,都说明竞争还很激烈。 科技类相关求职招聘网站牛客网上,秋招的第一个 Offer 话题页面,有 120 多万次浏览。 只能说随着 AI 技术的不断成熟,学习知识成本的降低,光靠一个「计算机科学与技术」的专业学历证书,很难再像以前一样,找到满意的工作了。 值得高兴的消息是,尽管 Taylor 说「很难找到再继续申请的动力了」,但是他现在开始开发自己的软件项目,希望将来能给他的简历加分。 Manasi 把自己的经历发在了 TikTok 上面,她说美妆博主的兼职工作让她意识到,相比软件工程,自己对技术的销售支持更感兴趣。她在今年 7 月拿到了一家科技公司的销售 Offer,并在这个月正式入职。 任何专业都没有好坏,适合自己或许就是最好的。
索尼Inzone H9 II游戏耳机曝光:首增兼容Xbox、搭载旗舰单元
IT之家 8 月 16 日消息,消息源 billbil-kun 昨日(8 月 15 日)在 X 平台发布推文,分享了索尼 Inzone H9 II 无线游戏耳机核心参数。新款采用与旗舰 WH-1000XM6 同款 30 毫米动圈单元,支持有线和低功耗蓝牙 LE 连接,并通过 3.5 毫米接口首次兼容 Xbox。 IT之家注:Inzone H9 系列是索尼为 PlayStation 5 设计的无线游戏耳机,其设计与 PS5 融合,并且没有 AUX 端口,无法通过这种方式连接到 Xbox。 在音质方面,H9 II 采用与索尼旗舰 WH-1000XM6 耳机同级的 30 毫米动圈单元,有望改善前代低音过重、声音不均衡的问题,力求吸引挑剔的音频玩家及发烧友群体。 除了音质升级,连接方式也更加多元。H9 II 不仅支持传统的 2.4GHz USB-C 无线适配器,还兼容更省电的蓝牙 LE 协议。值得注意的是,虽然没有采用 PlayStation Link 技术,但新增有线 3.5 毫米接口,让 Xbox 玩家也能使用。 在佩戴体验方面,Inzone H9 II 进行了轻量化设计,将重量从 330 克降至 260 克,改善了前作被诟病的“笨重感”,更适合电竞及长时间使用。耳机配备可拆卸的 AI 降噪麦克风,能够有效过滤环境噪音,提升语音沟通的清晰度。 消息称新品定价为 349.99 美元(IT之家注:现汇率约合 2512 元人民币),比上一代贵出 50 美元,索尼预计将于 8 月 19 日开启预售,发货时间紧随其后。 颜色 黑白 音频 传感器: 与索尼 WH-1000XM6 相同具备 360 Reality Audio 空间声音支持隔音具备主动降噪,具有透明模式可定制均衡器: 通过 INZONE Hub 或 Sound Connect 应用程序 麦克风 具备人工智能降噪扩展带宽 连接 连接类型: 无线 + 有线无线: 经典蓝牙 + 蓝牙 LE 音频 + 2.4 GHz 通过 USB-C 适配器有线 : 3.5 毫米插孔 兼容性 兼容平台 : PC、PS5、Switch 和移动设备 设计与舒适 风格游戏舒适: 软垫、可锁定头带、压力平衡 电池 续航: 满电续航 30 小时快速充电:充电 5 分钟,可以 1 小时游戏支持充电时使用 游戏功能 FPS 预设: 与 Fnatic(VALORANT、Apex Legends)一起电子竞技优化: 采用 Fnatic 设计,可调节声音、麦克风和舒适度 提供的配件 耳机、软壳、USB-C 适配器、USB-A 转 USB-C 线缆、耳机线缆 尺寸 高度 29.7 厘米宽度 10.6 厘米长度 27.5 厘米 重量 260 克(不含麦克风),273 克(含麦克风)
家电自研自产告别代工,曝小米武汉智能家电工厂已投入运营:空调已上市
快科技8月16日消息,告别代工标签,小米家电自研自产的时代来了。 虽然这些年小米家电覆盖已经非常全面,而且市场表现十分出色,但还是免不了有一些言论瞄准代工、贴牌等话题。 其实小米早就有自建工厂的规划,去年11月,小米位于武汉的首座智能家电工厂正式动工。 王化当时曾表示,明年(2025年)就能自研自产小米空调了。 如今,这个里程碑目标已经实现。 据抖音用户“柘城小米之家 子豪”近期发布的视频显示,小米智能家电工厂已经提前开始运营了,近期批次的空调基本都是武汉工厂生产。 据了解,小米家电工厂一期项目将聚焦空调品类,规划六大核心分厂,全面覆盖家用及中央空调的装配生产。 工厂全面建成投用之后,小米空调、冰箱、洗衣机等家电产品将全面实现自研、自产,摆脱大家都对于小米家电代工、贴牌的固有印象。 此前博主“小马甲不小”爆料,小米武汉家电工厂预计2026年1-2月投产爬坡,规划产能600万,初期300万产能。 值得一提的是,卢伟冰还曾透露,小米今年的目标是公开市场销量第三,未来5年成为数一数二的空调品牌。 根据最近的数据,小米空调已经成为中国第三,同比增速53.9%,是前三大品牌中唯一实现高速增长品牌。 而线上市占率已经超越格力,位列第二,仅次于美的。
OpenAI掌门人曝GPT-6瓶颈,回答黄仁勋提问,几乎为算力“抵押未来”
智东西8月16日消息,近日,OpenAI联合创始人兼总裁Greg Brockman在世界AI工程师大会上,分享了他对AI技术发展瓶颈、科研与工程关系等AI关键议题的最新看法。作为2015年便入局AI的行业老兵,在回答主持人关于GPT-6发展挑战的问题时,Brockman提出了一项十分重要的观察: 随着算力和数据规模的快速扩展,基础研究正在回归,算法的重要性再次凸显,成为未来AI技术发展的关键瓶颈。 对Brockman而言,这并非坏事。他觉得整天围绕Attention is All You Need这一经典论文和Transformer做文章已经有些乏味,智力上难免让人觉得“不过瘾”。目前,强化学习已成为算法研究的新方向之一,但他也意识到,仍存在许多明显的能力缺口。 ▲Greg Brockman(右)与主持人(左) 工程与科研,是驱动AI发展的两大引擎。工程师出身的Brockman认为,工程师的贡献与研究人员不相上下,甚至在某些方面更为重要。如果没有科研创新,就无事可做;如果没有工程能力,那些想法就无法实现。 OpenAI从一开始就坚持工程与研究同等看待,而两者的思维方式又有所不同。对新加入OpenAI的工程师,Brockman的第一堂课便是:保持技术上的谦逊,因为在传统互联网大厂行之有效的方法,在OpenAI未必适用。 产品与科研间的资源协调,也是OpenAI时常面临的问题。Brockman在访谈中承认,为了支撑产品上线的海量算力需求,OpenAI不得不以几乎是“抵押未来”的方式,借调部分本应用于科研的算力。不过,他认为这一取舍是值得的。 Brockman还在访谈中回顾了自己童年时期对数学的兴趣,再到转向编程,从哈佛转校至MIT,最终辍学加入金融科技创企Stripe的经历。由于篇幅所限,实录并未包含这部分内容。 在采访的尾声,Brockman回答了来自英伟达创始人兼CEO黄仁勋的两个问题,分别涉及未来AI基础设施的形态与开发流程的演变。 Greg Brockman的这场采访录制于今年6月,以下是部分精彩内容的整理(智东西在不改变原意的前提下,进行了一定程度的增删修改): 01 . 工程师与研究人员同等重要, 加入OpenAI第一课是技术谦逊 主持人:2022年时你说,现在是成为机器学习工程师的时候了,伟大的工程师能够在与伟大的研究人员相同的水平上为未来的进步做出贡献。这在今天还成立吗? Greg Brockman:我认为工程师做的贡献和研究人员是相仿的,甚至更大。 一开始,OpenAI在早期就是一群博士毕业的研究科学家,提出一些想法并进行测试,工程对这些研究是必不可少的。AlexNet本质上是“在GPU上实现快速卷积内核(convolutional kernels)”的工程。 有趣的是,当时在Alex Krizhevsky实验室的人实际上对这一研究不以为然,他们觉得AlexNet只是用于某个图像数据集的快速内核,并不重要。 但Ilya说:“我们可以将其应用于ImageNet。效果肯定会很好。”这一决定将伟大的工程与理论创新结合了起来。 我认为,我之前的看法至今依然有效。现在,业界所需的工程不仅仅是打造特定的内核,而是构建完整的系统,将其扩展到10万块GPU,打造强化学习系统,协调好各个部分之间的关系。 如果没有创新的想法,就无事可做;如果没有工程能力,那个想法就无法实现。我们要做的是将两个方面和谐地结合在一起。 Ilya和Alex的关系,是研究与工程合作的象征,这种合作现在是OpenAI的哲学。 OpenAI从一开始就认为工程和研究同等重要,两个团队需要紧密合作。研究和工程之间的关系也是永远无法完全解决的问题,解决了当前水平的问题后,会面临更复杂的问题。 我注意到,我们遇到的问题,基本与其他实验室面临的情况相同,只是我们可能会走得更远,或出现一些不同的变体。我认为,这背后有一些根本性原因。在一开始,我明显感受到工程背景与研究背景的人,对系统约束的理解,差异很大。 作为工程师,你会认为:“如果接口已经确定,那就不必关心它背后的实现,我可以按任何我想要的方式来实现它。” 但作为研究人员,你会想:“如果系统的任何部分出现错误,我看到的只是性能稍有下降,没有异常提示,也不知道错误在哪。我必须对整段代码负责。”除非接口非常稳固、可以完全信赖——这是个很高的标准——否则研究人员就得对这段代码负责。这种差异常常带来摩擦。 我曾在一个早期项目中看到,工程师写好代码后,研究人员会对每一行进行大讨论,进度极为缓慢。后来,我们改变了做法,我直接参与项目,一次提出五个想法,研究人员会说其中四个不行,而我会觉得这正是我想要的反馈。 我们意识到的最大价值,也是我常对来自工程界的OpenAI新同事强调的,就是技术上的谦逊。 你带着宝贵技能进入这里,但这是与传统互联网初创公司截然不同的环境。要学会分辨什么时候可以依赖原有直觉,什么时候需要放下它们,这并不容易。 最重要的是,保持谦逊,认真倾听,并假设自己还有未理解的地方,直到真正明白原因。那时再去改变架构、调整抽象层。真正理解并带着这种谦逊去做事,是决定成败的关键因素。 02 . 部分科研算力被调给产品, OpenAI有时不得不“抵押未来” 主持人:我们来谈谈OpenAI最近的一些重大发布,也分享几个有趣的故事。其中一个特别值得一提的,是关于扩展性的问题——在不同数量级上,一切都有可能崩溃。 ChatGPT发布时,仅用五天就吸引了100万用户;而今年4.0版本的ImageGen发布后,同样在五天内,用户数便突破了1亿。这两个阶段相比,有哪些不同之处? Greg Brockman:它们在很多方面都很相似。ChatGPT原本只是一次低调的研究预览,我们悄悄发布,却很快出现了系统崩溃的情况。 我们预料它会受欢迎,但当时认为需要等到GPT-4才能真正达到这种热度。内部同事早已接触过它,所以并不觉得惊艳。 这也是该领域的一个特点——更新节奏很快。你可能刚刚看到“这是我见过的最神奇的东西”,下一刻就会想:“为什么它不能一次合并10个PR(拉取请求)呢?”ImageGen的情况与之类似,发布后极受欢迎,传播速度和用户增长都令人难以置信。 为了支撑这两次发布,我们甚至打破惯例,从研究中抽调部分计算资源用于产品上线。这相当于“抵押未来”,以使系统正常工作,但如果能按时交付并满足需求,让更多人体验到技术的魔力,这种取舍是值得的。 我们始终坚持同样的理念——为用户提供最佳体验,推动技术发展,创造前所未有的成果,并尽全力将它们推向世界,取得成功。 03 . AI编程不止“炫技”, 正向严肃软件工程转型 主持人:“氛围编程”(vibe coding)现在这已经成为了一种现象。你对它有什么看法? Greg Brockman:氛围编程作为一种赋能机制,非常神奇,也体现了未来的发展趋势。它的具体形式会随着时间推移不断变化。 即使是像Codex这样的技术,我们的愿景也是:当这些Agent真正投入使用时,不仅仅是一个或十个副本,而是可以同时运行成百上千、甚至十万的Agent。 你会希望像对待同事一样与它们协作——它们在云端运行,能连接到各种系统。即使你睡觉、笔记本电脑关机,它们仍能继续工作。 目前,人们普遍将氛围编程视为一种交互式循环,但这种形态将会改变。未来的交互会越来越多,同时Agentic AI将介入并超越这种模式,从而推动更多系统的构建。 一个有趣的现象是,许多氛围编程的演示都集中在制作有趣的应用或恶搞网站等“酷炫”项目上,但真正新颖且具有变革性的是,AI已经开始能够改造和深入现有应用。 许多公司在处理遗留代码库时,需要迁移、更新库、将COBOL等旧语言转换为现代语言,这既困难又乏味,而AI正逐步解决这些问题。 氛围编程的起点是“做一些很酷的应用”,而它正在向严肃的软件工程演进——尤其是在深入现有系统并进行改进的能力上。这将让企业更快发展,而这正是我们的前进方向。 主持人:我听说Codex对你来说有点像“亲手养大的孩子”。你从一开始就强调要让它模块化、文档完善。你认为Codex会怎样改变我们的编程方式? Greg Brockman:说它是我的“孩子”有点言过其实。我有一个非常出色的团队,一直在努力支持他们及其愿景。这个方向既令人着迷,又充满潜力。 最有趣的一点是,代码库的结构,决定了能从Codex中获得多少价值。 现有代码库大多是为了发挥人类的优势而设计的,而模型更擅长处理多样化的任务,不像人类那样能深度连接概念。如果系统能更契合模型的特点,效果会更好。 理想的做法是:将代码拆分成更小的模块,编写快速可运行的高质量测试,然后由模型来填充细节。模型会自行运行测试并完成实现。组件之间的连接(架构图)相对容易构建,而细节填充往往最困难。 这种方式听起来像是良好的软件工程实践,但现实中,由于人类可以在脑中处理更复杂的概念抽象,往往会省略这一步。编写和完善测试是一项繁重的任务,而模型可以比人类多运行100倍甚至1000倍的测试,从而承担更多工作。 在某种意义上,我们希望构建的代码库更像是为初级开发人员而设计的,以便最大化模型的价值。当然,随着模型能力的提升,这种结构是否仍然最优,将会是一个有趣的问题。 这一思路的好处在于,它与人类为了可维护性本应遵循的实践一致。软件工程的未来可能需要重新引入那些我们为了走捷径而放弃的做法,从而让系统发挥最大价值。 04 . 训练系统愈加复杂, 检查点设计需同步更新 问:我们现在执行的任务往往耗时更长、占用更多GPU,而且可靠性不高,经常出现失败,导致训练中断。这一点众所周知。 不过你提到过,可以重新启动一次运行,这没问题。但当你需要训练具有长期轨迹的Agent时,该如何应对?因为如果轨迹本身具有非确定性,且已经进行到一半,就很难真正从头重启。 Greg Brockman:随着模型能力的提升,你会不断遇到新问题、解决问题、再遇到新的挑战。 当运行时间很短时,这些问题并不显著;但如果任务需要运行几天,就必须认真考虑如何保存状态等细节。简而言之,随着训练系统复杂度增加,这类问题必须得到重视。 几年前,我们主要关注传统的无监督训练,保存检查点相对简单,但即便如此,也并非易事。如果要从“偶尔保存检查点”转为“每一步都保存”,就必须严肃考虑如何避免数据复制、阻塞等问题。 在更复杂的强化学习系统中,检查点仍然重要,比如保存缓存以避免重复计算。我们的系统有个优势:语言模型的状态相对明确,易于存储和处理。但如果连接的外部工具本身有状态,就可能无法在中断后顺利恢复。 因此,需要端到端地规划整个系统的检查点机制。或许在某些情况下,中断并重启系统、让结果曲线出现一些波动是可以接受的,因为模型足够智能,可以应对这种情况。我们计划推出的新功能,就是允许用户接管虚拟机,保存其状态后再恢复运行。 05 . 做AGI不仅是做软件, 还需同步打造超级计算机 黄仁勋:真希望我能在现场亲自向你提问。在这个新的世界里,数据中心的工作负载和AI基础设施将变得极其多样化。一方面,有些Agent进行深度研究,负责思考、推理和规划,并且需要大量内存;另一方面,有些Agent需要尽可能快速地做出响应。 如何构建一个AI基础设施,使其既能高效处理大量预填充任务、大量解码任务以及介于两者之间的工作负载,同时又能满足那些需要低延迟、高性能的多模态视觉和语音AI的需求?这些AI就像你的R2-D2(星球大战中的机器人),或你的随时可用的伴侣。 这两类工作负载截然不同:一种超级计算密集,可能运行很长时间;另一种要求低延迟。未来理想的AI基础设施是什么样的呢? Greg Brockman:当然,这需要大量的GPU。如果我要总结的话,老黄希望我告诉他应该建造什么样的硬件。 有两类需求:一类是长期、大规模计算需求,另一类是实时、即时计算需求。这确实很难,因为这是一个复杂的协同设计问题。 我是做软件出身的,我们最初以为只是在开发AGI(通用人工智能)软件,但很快就意识到,要实现这些目标,就必须建设大规模的基础设施。 如果我们想打造真正改变世界的系统,可能需要建造人类历史上最大的计算机,这在某种程度上是合理的。 一种简单的做法是,确实需要两类加速器:一种追求计算性能最大化,另一种追求极低延迟。在一类上堆叠大量高带宽存储器(HBM),另一类上堆叠大量计算单元,这样就基本解决问题。真正难的是预测两类需求的比例。如果平衡失误,部分机群可能会变得无用,这听起来很可怕。 不过,由于这个领域没有固定规则和约束,主要是优化问题,如果工程师资源配置出现偏差,我们通常也能找到办法利用这些资源,尽管可能付出较大代价。 例如,整个行业都在转向混合专家模型(Mixture-of-Experts)。某种程度上,这是因为部分DRAM被闲置了,我们就利用这些闲置资源增加模型参数,从而提高机器学习计算效率,而不会增加额外计算成本。所以,即使资源平衡出错,也不至于造成灾难。 加速器的同质化是一个良好的起点,但我认为,最终为特定用途定制加速器也是合理的。随着基础设施资本支出达到惊人的规模,对工作负载进行高度优化也变得合理。 但业界还没有定论,因为研究发展速度非常快,而这又在很大程度上主导了整个方向。 06 . 基础研究正在回归, 算法取代数据、算力成为关键瓶颈 问:我本来没有打算问这个问题,但你提到了研究。你能对GPT-6扩展过程中面临的瓶颈进行排名吗?计算、数据、算法、电力、资金。哪几个是第一和第二?OpenAI最受限于哪一个? Greg Brockman:我认为,我们现在正处于一个基础研究回归的时代,这令人非常兴奋。曾经有一段时间,人们的关注点是:我们有了Transformer,那就不断扩展它。 在这些明确的问题中,主要任务只是提高指标,这固然有趣,但在某种程度上也令人感到在智力上不够具有挑战性,不让人满足。生活中不应只有“Attention is All You Need”原始论文的思路。 如今,我们看到的情况是,随着算力和数据规模的快速扩展,算法的重要性再次凸显,几乎成为未来进步的关键瓶颈。 这些问题都是基础而关键的环节,虽然在日常看起来可能有些不平衡,但从根本上,这些平衡必须保持。看到强化学习等范式的进展非常令人振奋,这也是我们多年来有意识投资的领域。 当我们训练GPT-4时,第一次与它交互时,大家都会想:“这是AGI吗?”显然还不是AGI,但又很难明确说明为什么不是。它表现得非常流畅,但有时会走上错误的方向。 这说明可靠性仍是一个核心问题:它从未真正体验过这个世界,更像是一个只读过所有书籍或仅通过观察世界来了解的人,与世界隔着一扇玻璃窗。 因此,我们意识到需要不同的范式,并持续推动改进,直到系统真正具备实际能力。我认为,这种情况至今仍然存在,还有许多明显的能力缺口需要弥补。只要持续推进,我们终将达到目标。 07 . “多样化模型库”逐渐成形, 未来经济将由AI驱动 黄仁勋:对于在场的AI原生工程师来说,他们可能在想,未来几年,OpenAI将拥有AGI(通用人工智能),他们将在OpenAI的AGI之上构建特定领域的Agent。随着OpenAI的AGI变得越来越强大,他们的开发流程将如何改变? Greg Brockman:我认为这是一个非常有趣的问题。可以从非常广泛的角度去看,观点坚定但互不相同。我的看法是:首先,一切皆有可能。 也许未来AI会强大到我们只需让它们编写所有代码;也许会有在云端运行的AI;也许会有许多特定领域的Agent,需要大量定制工作才能实现。 我认为趋势正在向这种“多样化模型库”的方向发展,这非常令人兴奋,因为不同模型有不同的推理成本,从系统角度来看,蒸馏技术发挥得很好。实际上,很多能力来自于一个模型能调用其他模型的能力。 这将创造大量机会,我们正走向一个由AI驱动的经济。虽然我们还未完全到达,但迹象已经显现。当前在场的人正在构建这一切。经济系统非常庞大、多样且动态。 当人们设想AI的潜力时,很容易只关注我们现在在做的事情,以及AI与人类的比例。但真正重点是:如何让经济产出提升10倍,让每个人都获得更大收益? 未来,模型将更加强大,基础技术更完善,我们会用它做更多事情,进入门槛也将更低。 像医疗领域,不能简单应用,需要负责任地思考正确做法;教育领域涉及家长、教师和学生,每个环节都需要专业知识和大量工作。 因此,将会有大量机会去构建这些系统,在场的每一位工程师,都拥有实现这一目标的能量。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。