行业分类:
加载中...
头条分类:
加载中...
小米16对标iPhone改名17,盘点背后的俗手还是妙手策略
小米16对标iPhone改名17,是俗手还是妙手?小米手机改名,是技术进步冲击高端,从命名到产品直面对标iPhone?还是单纯为了热度博人眼球,拉动话题蹭iphone热度? 各大手机厂商都会跨代做产品,也曾经做过,苹果这样做过,华为也这样做过!但小米应该是解释(营销)最多的。告诉你为什么要改命!一方面是跨越升级;另外一方面迎战苹果!雷军、卢伟冰作为高管也频繁的通过自媒体动态进行宣传营销!甚至这次小米17Pro还有很多的汽车厂商通过微博发祝福来进行扩大影响力来营销! 当然线下的广告对于这款手机宣传页非常多! 从销量成绩来说,小米率先发布了骁龙8第五代至尊版芯片在9月份就发布了,还是赶在国庆前。这中间就有一个很长的空档期。旗舰机能和小米竞争的只有iPhone。其他的下半年旗舰要到国庆节之后才发布! 这是一个妙手,可以抢占先机,可以利用节日带动用户去消费购买,毕竟节假日这么长时间,奖励下自己,直接购买一部手机也就变得更加容易促进消费了!而且还是新机! 再加上小米之前也有铺垫,小米汽车和小米充电宝等等也带动了很多iPhone用户关注到了小米17Pro系列。因为全面对标,我看网上有一个女网友说:我终于看到国产大屏旗舰手机是直屏了,和苹果一样,外观也几乎一样,体验应该不差,毕竟也买了小米SU7车了,所以就直接购买了!发现小米挺实在,送那么多礼物,还有充电头。 这次还有好玩的新体验后背屏,长期使用不知道是不是好体验,但是新鲜感至少能够维持一两个月的! 这种高度相似iPhone的设计,尺寸大小(听说小米的手机壳Pro和Promax苹果也能带上,贴膜也非常契合)。可见这个靠近是多么的零距离!而且本身国产旗舰比iPhone价格要便宜点,通过极其相似的外观和屏幕设计,通过配置更强价格更低的优势,也能撬动一些想要买iPhone的用户,特别是想买Pro但没有多少钱,那用小米也不错! 你说他巧妙吧,其实也挺俗气的,这些年小米的很多产品总能看到其他企业品牌的影子,特别是自己做设计还不成功情况下,那么相似的设计,借鉴创意就成为了最好的路子。不仅仅销量有了,而且还能撬动客户! 这让我想起了高仿市场,有一些人购买的心理,其实和犹豫纠结买iPhone和小米手机的人群是很相似的,就是因为极其像,也有一些产品做了打底,建立了基本新人,所以残破也容易形成爆款!
突发!闻泰科技营收147亿的半导体资产安世半导体被荷兰政府冻结 CEO被暂停职务
快科技10月12日消息,闻泰科技发布公告称,荷兰时间2025年9月30日,荷兰经济事务与气候政策部对安世下达部长令(Order),要求安世及其下属所有子公司、分公司、办事处等全球30个主体对其资产、知识产权、业务及人员等不得进行任何调整,有效期为一年。 与此同时,安世半导体部分外籍高管要求闻泰科技转让安世半导体股权,要求暂停闻泰科技委派的CEO职务。 荷兰时间2025年10月6日下午,企业法庭安排开庭,并于荷兰时间2025年10月7日下午裁决,以下主要事项作为临时紧急救济,自紧急措施的裁决生效之日(即2025年10月7日)起至本案调查完成最终判决或者以其他方式结束: (1)暂停张学政在安世半导体控股的非执行董事和安世半导体的执行董事职务; (2)任命一位独立于安世的企业法庭指派的外籍人士担任安世半导体控股及安世半导体的非执行董事,拥有决定性投票权;同时裁定,该董事有权独立代表安世半导体控股及安世半导体; (3)将安世半导体的所有股份(减去一股)出于管理目的托管给稍后指定并公布的人员。 企业法庭做出的裁决直接导致裕成控股,除了保留的一股之外,暂时失去对安世半导体控股享有的剩余的99股的股东权利(如治理权和投票权等)。 公告还称,因子公司安世半导体收到荷兰经济事务与气候政策部的部长令及阿姆斯特丹上诉法院企业法庭的裁决,导致公司对安世的控制权暂时受限,但经济收益权不受影响。安世日常经营仍在持续,公司将采取一系列措施应对当前挑战,并于2025年10月13日起复牌。 闻泰科技股份有限公司(英文名Wingtech Technology Co.,Ltd.)成立于1993年1月11日,总部位于浙江省嘉兴市南湖区亚中路777号。半导体业务覆盖汽车电子等领域,拥有德国汉堡晶圆厂等全球生产基地。 闻泰科技旗下的安世半导体是全球知名的半导体IDM公司,是原飞利浦半导体标准产品事业部,有60多年半导体研发和制造经验,总部位于荷兰奈梅亨,晶圆制造工厂在德国汉堡和英国曼彻斯特,封装测试工厂位于中国东莞、菲律宾卡布尧和马来西亚芙蓉。客户超过2.5万个,产品种类超过1.5万种,每年新增800多种新产品,全部为车规级产品。 安世半导体2017年独立运营,2019年被闻泰科技全资收购,现为闻泰科技全资子公司。闻泰科技通过2019-2020年分阶段并购,完成对安世半导体100%股权收购,交易总额超340亿元。 安世半导体2024年收入规模约147亿人民币,约占闻泰科技2024年总营收的六分之一。
此轮稀土管制威力巨大!可阻断台积电对美出售先进芯片
中国最新出台的稀土出口管制措施使美国芯片产业面临巨大不确定性,这些措施可能迫使台积电停止向美国企业出售先进芯片。 中国正着手对依赖中国稀土材料的外国实体实施出口许可制度 近几日,中美贸易争端出现重大转折,尤其是在中国宣布将强化对“稀土” 的出口管制后,台积电等半导体企业面临更严格的审查。作为全球最大的稀土生产国(产量占全球总量的 90%),中国正通过对使用本国材料制成的终端产品实施许可政策,限制相关资源的获取渠道。 这对台积电、SK 海力士和三星等企业而言可能构成重大挑战,因为半导体生产将稀土作为关键原材料。据《纽约时报》报道,中国对稀土材料出口的进一步限制,可能迫使台积电等企业必须获得出口许可,才能向全球出售芯片。这意味着中国可切断尖端半导体流向美国的渠道,并扰乱其国内供应链。 新规要求大多数芯片制造企业必须取得出口许可,才能向全球任何地区销售产品。这意味着该规定将适用于台积电(全球大多数先进逻辑芯片的制造商),以及韩国存储芯片制造商 SK 海力士和三星。 新限制措施定于 11 月 8 日生效,更重要的是,中国的立场似乎已从阻止本国材料用于军事技术,转向影响美国的人工智能产业。稀土材料在芯片制造设备中至关重要,尤其是在抛光和光刻环节。尽管台积电的稀土采购渠道多元,但其许多原材料最终仍来自中国供应商。不仅如此,中国的出口管制还使阿斯麦(ASML)和Tokyo Electron Ltd.(TEL)等企业陷入困境,给台积电这家代工巨头扩大生产带来了困难。 鉴于台积电受制于中国的出口限制,整个供应链将受到冲击,进而影响英伟达、AMD 和苹果等高度依赖台积电的企业。稀土出口管制的升级引发了对人工智能供应链稳定性的严重担忧,这可能给芯片供应商及其客户带来巨大麻烦。
马斯克AI公司开发“世界模型”,从英伟达挖专家将推游戏
xAI 凤凰网科技讯 北京时间10月12日,据《金融时报》报道,埃隆·马斯克(Elon Musk)旗下xAI公司正加紧构建所谓的“世界模型”,与Meta和谷歌等对手一同角逐下一代AI系统。这些系统能够实现对物理环境的自主导航与设计。 根据英伟达的官方介绍,世界模型是一种生成式AI模型,能够理解现实世界的动态特征,包括物理属性和空间特性。这类模型利用文字、图像、视频以及动作在内的输入数据来生成影片。 今年夏天,xAI从英伟达挖来了专家,研发这类新一代AI模型。这些模型通过学习视频以及来自机器人的数据,理解现实世界。世界模型有望将AI的能力提升到超越大语言模型的水平。目前,大模型主要接受文本训练,是ChatGPT以及xAI自家Grok等热门AI工具的技术基础。 两位知情人士称,该公司正在研发世界模型,计划将其应用于游戏领域,用于生成可交互的3D环境。其中一位知情人士补充说,这类模型未来也可能应用于机器人AI系统。 xAI已从英伟达聘请了两位具备世界模型研发经验的AI研究员:泽尚·帕特尔(Zeeshan Patel)与何宜晖(Ethan He)。凭借能够创建并运行模拟环境的Omniverse平台,英伟达始终在该技术领域保持领先地位。 一些科技公司对世界模型寄予厚望,认为它或许能将AI应用从软件和计算机拓展到实体产品,例如人形机器人。上个月,英伟达对《金融时报》表示,世界模型的潜在市场规模可能接近当前全球经济总量。 马斯克在X上发帖称,xAI计划在明年年底前推出“一款由AI生成的优秀游戏”,重申了他在去年设定的目标。 周二,xAI推出了最新的图像和视频生成模型,并表示该模型进行了“重大升级”,并且免费向用户开放使用。 当前,OpenAI旗下Sora等视频生成模型,主要通过从训练数据中学习到的模式进行预测,从而逐帧生成视频图像。但是世界模型则会向前迈进一大步,因为它能实时理解物理世界的因果关系,掌握物体在不同环境中的实时互动机制。 巨大挑战 除了xAI外,谷歌、Meta等领先的AI实验室也在研发这类系统。 然而,世界模型仍面临巨大的技术挑战。要找到足够的数据来模拟现实世界并训练这些模型,已被证明既困难又成本昂贵。 《博德之门3》开发商拉瑞安工作室的发行主管迈克尔·道斯(Michael Douse)本周在X上直言,AI无法解决游戏行业面临的“重大问题”,即“领导力与远见的缺失”。 他补充说,游戏行业并不需要“更多由算法生成、经心理学训练的玩法循环,而是需要更多能够让玩家投入或愿意投入其中的世界呈现方式”。 截至发稿,xAI及帕特尔、何宜晖尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
赛力斯投资新方向!携手字节跳动布局具身智能
快科技10月12日消息,据媒体报道,赛力斯集团发布公告,其子公司重庆凤凰技术有限公司(简称“赛力斯凤凰”)已与北京火山引擎科技有限公司正式签署《具身智能业务合作框架协议》。 根据协议,双方将围绕“面向多模态云边协同的智能机器人决策、控制与人机增强技术”项目展开联合攻关,构建“技术研发—场景验证”闭环机制,共同打造智能机器人技术基础平台。合作将聚焦汽车产业生态的数字化与智能化升级,推动“技术+场景”深度融合,为整个汽车行业赋能。 公告指出,火山引擎将发挥其在语言、视觉、多模态及通用人工智能模型等领域的技术积累,提供智能算法与算力支持;赛力斯则依托其产业资源与实践场景,推动人工智能技术的产业化落地,共同开发更智慧、安全、可信赖的具身智能系统,使其成为未来用户的“移动智能体与生活伙伴”。 公开资料显示,火山引擎为字节跳动旗下的云服务与人工智能平台,成立于2020年,注册资本10亿元。 值得关注的是,今年9月29日,赛力斯曾公告其全资子公司赛力斯汽车以115亿元现金,收购华为技术有限公司持有的深圳引望智能技术有限公司10%股权。 引望为华为车BU于2024年1月新成立的公司,未来致力于打造为股权多元化的“汽车电动化智能化开放平台”,以华为智能汽车技术为核心,推动行业智能化转型。
美国芯片也怕被中国卡脖子,做了一个“五五分”的梦
美国是全球芯片大国,intel、AMD、英伟达、高通、Ti等芯片,在全球都是大名鼎鼎。 但只有美国自己知道,自己的芯片产业其实是空心化严重,那就是自己的芯片,80%以上并不是在美国本土制造的,严重依赖亚洲,更确切的来讲,是依赖中国。 比如苹果、AMD、英伟达、博通、高通的芯片,都要交给台积电来代工。 另外像高通、博通等芯片,还会拿出一部分给中芯国际,AMD的芯片,大部分是通富微电封测的。数据显示,美国的芯片制造需求,占全球的57%左右,但芯片制造能力,只占全球10%。 这中间有全球47%左右的芯片制造能力是空缺的,需要中国提供制造能力。 这对美国而言,其实也是一件可怕的事情,毕竟现在的外部形势,只有那么的美好,美国又自己在搞东搞西的。 所以近日,美国做了一个“五五分”的芯片梦,拟推出芯片本土产量与海外进口量对等规则。 简单的来讲,就是企业需要的芯片中,必须要实现50%是美国本土制造的,否则就要收高关税,逼这些企业,将芯片的制造放到美国本土来。 当然,收税不是美国的目的,逼着产业链回迁美国,才是他的真正目的。 当然,为了实现这个梦想,美国也做了很多的准备,比如逼着台积电在美国投资1650亿美元建芯片厂,要intel在亚利桑那扩产,要美光在美国扩产,要格芯在美国扩产建厂。 美国一边给补贴,一边威胁大家,反正想方设计提高自己的芯片产能,想把风险分摊一半,留点底气。。 但是,算盘是打得响,但能不能实现是另一回事。毕竟台积电的例子摆在那里,建设成本高,运营成本也高,同时极度缺人,没有合适的工人愿意进厂。 所以,美国的梦是很美好,实则忽略了产业规律的复杂性,更高估了美国建厂的竞争力。所以不用意外,美国的五五分芯片梦,可能过不了多久,就会变成噩梦,然后美国自己就会醒过来,不会再做这个梦了。 当然,最后不会留一地烂尾工程,就像当年老特拉郭台铭在美国建工厂最后烂尾一样,这谁又知道呢,反正到时候老特同志已经下台了,交给下一任去头痛吧。
硅谷CEO们高喊AI威胁论,“5年内失业率飙升至20%”,但95%AI项目赔本赚吆喝
当前「AI 威胁就业」的论调,更多是基于技术趋势的预警,而非基于现实的既成事实,但这也绝非轻视 AI 长期影响的理由。 最近,「AI 让人类失业」的论调甚嚣尘上,给本就焦虑的打工人更蒙上了一层阴影。 Anthropic 的首席执行官 Dario Amodei 预测白领就业将面临一场「末日浩劫」,「AI 可能在未来五年内大规模取代入门级白领工作,失业率可能会飙升至 10% 到 20% 之间,尤其在法律、金融和咨询等行业。」 Goodwill 首席执行官表示,他正在为人工智能导致的 Z 世代失业潮做准备,还认为青年失业危机已经发生。 Stability AI 联合创始人 Emad Mostaque 声称,明年将出现大规模失业。「AI 能够完成复杂的工作且不出错,这将导致许多工作面临被替代风险。失业问题将同时影响多个行业,并且在未来一到两年内可能会加剧。」 甚至前谷歌首个生成式 AI 团队创始人贾德・塔里菲 (Jad Tarifi) 表示,不断提升的人工智能能力可能很快就会让获得法律或医学高级学位变得毫无意义。 而耶鲁大学一篇名为《We Wont be Missed: Work and Growth in the Era of AGI》的论文更是把打工人的焦虑顶上高峰。 这篇论文的核心观点是,AGI 的普及将导致人类劳动在经济中的地位逐渐消失,取而代之的是计算资源的主导地位。 作者将工作分为「瓶颈工作」和「辅助工作」。 瓶颈工作是推动经济增长的「核心任务」,如果没有这些工作,经济就不能继续增长。 辅助工作则是一些可有可无的「支持性任务」,即使减少了这些工作,经济仍然可以继续增长。 随着计算资源的增加,很多重要的、推动经济增长的工作(即瓶颈工作),最终会被自动化完成,不过这并不意味着人类劳动完全消失。 由于计算资源仍然有限,人类的劳动通过节省计算资源仍然有一定价值。某些不重要的工作,或者需要大量社交互动、情感支持等辅助工作(如护理、酒店业、治疗等),可能不会被 AI 取代,仍然需要人类来做,这为人类提供了一些稳定的角色。 在 AGI 经济中,工资不再反映人类劳动的直接价值,而是基于 AI 完成相同工作的计算成本来决定。即便是做最重要工作的熟练工人,也只能赚到他们节省的计算资源的价值,而无法获得更高收入。因此,人类劳动对经济的贡献变得越来越小,工资将停滞不前,大部分的收入将由计算资源的拥有者获得,经济依然会增长,但人类的经济地位将停滞。 在 AGI 技术过渡的初期,某些类型的工作会变得非常有价值,导致一些人的收入突然增加,而其他人可能因为 AI 的替代而失业。这种过渡期可能会很不公平,工人们可能面临工资急剧下降,而某些幸运的人可能获得溢价收入,因为他们做的工作是最后一个被 AI 自动化的。 由于劳动力不再是创造价值的主要因素,经济政策需要解决如何分享由计算资源产生的收入。例如,可以通过全民分红的方式把计算资源的收益分配给所有人,或者将计算资源视为公共资源,与土地或自然资源一样,广泛分享其回报。 在 AGI 的世界里,人类劳动不再推动经济进步,也不再是改善生活水平的必要条件。如果明天一半的人停止工作,经济依然可以继续运转,人类不会被想念。这引出了一个问题:在工作不再是经济必需的情况下,人们是否仍然愿意工作?如果人类的技能不再重要,人们是否会选择退出工作,去寻找其他形式的满足? 是耸人听闻,还是有迹可循? 以目前 AI 的水平来看,行业大佬们提出的「AI 威胁论」多少有些激进,但他们的担忧也并非毫无根据。 太阳底下无新事。 19 世纪的伦敦有一种点灯人的职业,他们身着统一制服,每天黄昏时分携带一根长长的、顶端带有火种的点灯杆,沿街逐个点燃煤气灯,待次日日出后,他们又用杆上的钩子将灯熄灭。 然而到了 20 世纪中期,白炽灯普及,路灯实现「自动开关」,点灯人的人工操作被取代,这一职业逐渐退出历史舞台。如今,我们也只能在少数复古景区看到作为文化表演的点灯人。 这类例子不胜枚举。 1811 年,英国爆发了一场「卢德分子」运动。 彼时英国纺织业迎来机械化浪潮,珍妮纺纱机、水力织布机等设备的普及,彻底颠覆了传统生产模式,资本家为追求利润,大量淘汰依赖手工技艺谋生的工人,转而使用机器与廉价的童工、女工;同时,机器生产的低成本产品挤压了手工制品市场,导致手工业者失业激增,留存的工人也面临工资暴跌。 英国纺织业重镇诺丁汉郡的织工绝望且愤怒,在夜间潜入工厂用锤子、斧头砸毁水力织布机,要求资本家停止使用机器、提高工资,之后该运动迅速蔓延至其他纺织业核心区,甚至波及五金、制鞋等面临机械化冲击的行业。 到了 19 世纪末,汽车的普及又开始挑战传统的交通方式,许多依赖马车生计的人感到威胁。 在一些城市,汽车与马车之间的竞争激烈,有时甚至发生过暴力冲突。马车夫会故意阻挡汽车通行、恐吓乘客,甚至破坏汽车,他们视汽车司机为「夺走面包的人」。 为了应对这一局面,一些国家和地区出台了专门的法规,例如英国的《红旗法》(Red Flag Act)。该法律要求早期的汽车必须由人行走在前方,举着红旗作为警告,并且汽车的速度限制在非常低的水平(通常每小时 4 英里)。 法律和抗议终归无法阻止技术前进的脚步,进入 20 世纪后,汽车成为了交通的主要方式,传统的马车逐渐被淘汰,马车夫的职业也随之消失。 不仅历史为我们做了注脚,现实也敲响了警钟,AI 裁员的报道层出不穷。 比如微软在今年 5 月份裁员近 6000 人,7 月份又裁员 9000 人,虽然没明着说是因为 AI,但 CEO 纳德拉在公开场合透露,目前微软有 20% 到 30% 的代码都是由 AI 编写的。此外,谷歌、Meta、IBM、普华永道和 Chegg 等巨头也都出现了大规模裁员。 斯坦福大学三位经济学家最近进行的一项研究《Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence》发现,人工智能已经导致软件开发人员的职位空缺减少。 行业大佬担忧人类未来 现实 AI 却赔本赚吆喝 更有意思的是,现阶段还出现了一个自相矛盾的现象。 一方面是行业大佬隔三差五跳出来担忧 AI 接管人类,另一方面则是大多数 AI 项目赚不着钱,甚至陷入停滞。 前段时间,MIT 针对企业利益相关者开展了 52 次结构化访谈,对 300 余个公开的 AI 项目及公告进行了系统性分析,并对 153 位领导者进行了调研,最终发布了一份题为《The GenAI Divide:STATE OF AI IN BUSINESS 2025》的调查报告。 该报告显示,尽管企业在生成式 AI 上已花费了 300 至 400 亿美元,但 95% 的公司迄今未能获得商业回报,大多数 AI 试点项目陷入停滞,没能对企业的财务业绩产生可见贡献。 ChatGPT 和 Copilot 等工具已得到广泛采用,超过 80% 的组织已对其进行探索或试点,近 40% 的组织报告已完成部署,但这些工具主要提升的是个人生产力,而非损益表现。 与此同时,企业级系统(无论是定制化还是供应商销售的版本)正被悄然弃用,60% 的组织对这类工具进行了评估,但仅有 20% 进入试点阶段,最终仅 5% 投入实际生产。多数项目失败的原因在于工作流程僵化、缺乏情境化学习能力,以及与日常运营脱节。 一位中型市场制造业的首席运营官总结了普遍的情绪:「LinkedIn 上的炒作说一切都发生了变化,但在我们的运营中,根本没有发生任何实质性的变化。我们处理合同的速度更快了,但这就是所有的变化。」 该报告还总结了企业中关于生成式 AI 的五大误区: 误区一:AI 将在未来几年内取代大多数工作 研究发现,生成式 AI 导致的裁员有限,仅出现在已经受到 AI 显著影响的行业中。高管们对于未来 3 到 5 年内的招聘规模并没有达成共识。 误区二:生成式 AI 正在改变商业 尽管 AI 的采用率很高,但转型却很罕见。只有 5% 的企业在工作流程中大规模集成了 AI 工具,且 9 大行业中有 7 个没有出现真正的结构性变化。 误区三:企业采用新技术的速度很慢 企业对采用 AI 极为积极,90% 的企业已认真考虑购买 AI 解决方案。 误区四:AI 的最大障碍是模型质量、法律、数据和风险 实际上,阻碍 AI 发展的最大原因是大多数 AI 工具不具备学习能力,也无法很好地与企业现有系统和流程进行集成。 误区五:最好的企业正在构建自己的工具 事实上,内部开发的失败率是其他方式的两倍。 虽然企业在 AI 技术应用上的转型进展缓慢,但员工们已经通过个人工具,如 ChatGPT、Claude 等开始在日常工作中应用 AI,调查中超过 90% 的员工报告称他们定期使用个人 AI 工具来处理工作任务,几乎每位员工都在某种程度上使用 LLM。 于是,在某些场景中又出现了令人啼笑皆非的闹剧。前不久《大西洋月刊》 刊登了一篇标题直白的文章:就业市场简直就是地狱。文章描述了求职者和招聘经理都面临的令人沮丧的境况:「年轻人用 ChatGPT 写申请,HR 用 AI 阅读申请,结果却没人被录用。」 结语 回望技术演进的脉络,旧职业退场、新价值诞生始终是技术推动社会向前的固有逻辑。 当前「AI 威胁就业」的论调,更多是基于技术趋势的预警,而非基于现实的既成事实,但这绝非轻视 AI 长期影响的理由。 历史规律早已证明,技术替代的浪潮或许会因落地难题而滞后,却从不会真正缺席。对于个人而言,与其陷入被替代的恐慌,不如主动掌握人机协同的技能;而企业也需跳出追逐 AI 热点的误区,让技术真正嵌入业务流程。
Hinton暴论:AI已经有意识,它自己不知道而已
在最新一期播客节目中,Hinton抛出的这一观点正迅速掀起热议。 老爷子一再表示,AI也许已经有了“意识雏形”,只是因为我们人类自己对意识理解错了,所以它也被教错了——不知道自己有意识。 翻译成大白话就是,AI其实有自我意识,只是暂未觉醒┌(。Д。)┐ 而除了继续为AI风险“摇旗呐喊”,作为诺奖得主、深度学习三巨头之一,老爷子这次还充当起了科普员的角色。 他从什么是AI讲起,然后详细解释了机器学习、神经网络及深度学习这些核心概念,全程主打一个幽默、通俗易懂。 有看完节目的网友赞叹道,“这可能是目前看到的Hinton最好的采访”。 还有人认为,应该让他再讲2小时,毕竟他看上去完全自愿、恨不得一吐为快(禁止虐待77岁老人doge)。 更有意思的是,节目一开场老爷子就尴尬回应了之前得物理学诺奖的事情: 因为我不是搞物理的,所以有点尴尬。当他们打电话告诉我获得了诺贝尔物理学奖时,我一开始并不相信。 虽然有这个小插曲,但有一说一,老爷子在AI方面的贡献实在毋庸置疑,所以咱直接开课吧—— 当我们谈论人工智能时,我们到底在谈论什么? 面对这一直击灵魂的问题,Hinton不慌不忙地从自身经历(曾在谷歌工作近10年)得出,AI已经从搜索查找进化成能真正理解人类意图的工具。 以前用谷歌的时候,它会使用关键词,而且会提前做很多工作。所以,如果你给它几个关键词,它就能找到所有包含这些词的文档。 但它不明白问题是什么。所以,它无法给出一些实际上不包含这些词但主题相同的文档。 就是说,AI早期本质上还是基于关键词的检索。 而现在,它能理解你所说的内容,而且它的理解方式与人类几乎相同。 在Hinton看来,虽然现代大语言模型(LLM)并不是真正的全能全知专家,但在许多主题上已能表现得接近人类专家。 他还进一步解释了传统机器学习与神经网络的区别。 他指出,机器学习是总称,指任何能在计算机上“学习”的系统。而神经网络则是一类特别的学习方法,灵感来自大脑——大脑通过改变神经元之间连接的强度来学习。 以大脑中部的一个神经元为例,神经网络的工作原理与之类似: 想象一下,大脑里有一个小小的神经元。这个神经元的主要工作就是偶尔发出一个“叮”的声音。它不是随便发的,而是要根据其他神经元发来的“叮”声来决定。 其他神经元也会发出“叮”声,这些声音会传到这个神经元。 如果这个神经元收到很多“叮”声,或者这些“叮”声很强,它就会决定自己也发一个“叮”声。如果收到的“叮”声不够强,它就不发。 神经元还可以调整对其他神经元“叮”声的敏感度。如果觉得某个神经元的“叮”声很重要,就会更关注它;如果觉得不重要,就会减少关注。 一句话,神经网络同样通过调整连接权重来改变系统的行为。所以说,大脑学习和处理信息的基本方式,也是神经网络的核心原理。 在这之后,主持人还问了两个很有意思的问题。 第一个是, 概念是如何形成的?比如“勺子”的概念。 Hinton继续用了一系列生动形象的例子进行解释。概括而言,他认为概念就像是“政治联盟”,大脑中会有一组神经元一起激活(共同发出“叮”声)。 例如,“勺子”就是一组神经元一起激活。这些联盟会重叠,比如“狗”和“猫”的概念就有很多共同的神经元(代表“有生命的”、“毛茸茸的”等)。 第二个问题是,是否存在某些神经元对宏观概念(如“动物”)激活,而另一些神经元对微观概念(如特定物种)激活? 对此,Hinton则表示问题很好,但没有人确切知道。 不过这个联盟中,肯定有一些神经元对更普遍的事物激活更频繁,而另一些神经元对更具体的事物激活较少。 深度学习的突破:反向传播 说完神经网络,Hinton的话题更多还是围绕“拿手好戏”——深度学习展开。 以前人们试图给计算机输入规则,但Hinton却想改变这个过程,因为在他看来,大脑的运作方式显然不是靠别人给你规则然后你执行规则。 我们为神经网络编写程序,但这些程序只是告诉网络如何根据神经元的活动来调整连接强度。如果网络有多个层,这就叫深度学习。 他接着举了一个经典例子来说明深度学习的原理——让AI识别图像中有没有鸟。 如果把图像的像素亮度直接输入给AI,让它判断是不是鸟,这看起来毫无头绪。毕竟,像素只是数字,并不能直接告诉你“这是一只鸟”。 早期研究者会试图手动告诉计算机,“这条线是边缘”、“这块区域是背景”、“这个形状像翅膀”,但这条路行不通——因为现实世界太复杂了。 所以我们说,不如让AI自己学会“怎么去看”。 这就是神经网络的思路:不给规则,而是给它数据,让它自己总结规则。 主持人接着问道,“那如果我们不告诉它规则,只是随机设定每个连接的强弱,它会怎么判断呢?” Hinton笑着回答: 它大概会说“50%是鸟,50%不是鸟”,也就是完全蒙。 那么,AI该如何从这种“蒙圈状态”变聪明呢? Hinton解释说,这个过程就像一个巨大的试错系统。你得告诉AI——这张图有鸟,那张没有。每次它猜得不对时,就调整一点点神经元之间的连接强度。 然而问题是,网络中有数万亿个连接,如果逐个试,那要试到宇宙热寂(指宇宙熵值不可逆地增至极大,最终达到热平衡的静止状态)。 Hinton表示,真正的突破出现在1986年,他们提出了“反向传播”(Backpropagation)——它能一次性算出所有连接该怎么改,是该增强还是减弱,让整个网络都向着正确方向调整。这让训练速度从“永远”变成了“现实可行”。 但事情并没有一开始就那么顺利。Hinton也坦言: 当时我们以为这就解决了智能问题。结果发现,它只有在拥有海量数据和庞大算力时才有效。我们那时的算力还差一百万倍。 真正让深度学习起飞的,是算力的提升(晶体管微缩百万倍)和数据的爆炸式增长(互联网时代)。 于是,那些在80年代“理论可行但跑不动”的神经网络,终于在2010年代活了过来——这便是现代AI浪潮的起点。 今天的大模型,本质上就是巨型神经网络,通过反向传播和海量数据,自学出了“看”、“听”、“说”的能力。 这一点也让Hinton相信,AI不再只是工具,而是一个正在学习、逐步理解世界的系统。 大语言模型认知的本质 至于深度学习机制如何作用于大语言模型(LLM),Hinton又做了一番解释。 他认为LLM的思维过程与我们人类出奇地相似: 给它一个句子的开头,它会把每个词转换成一组神经元特征,用这些特征去捕捉含义;然后,这些特征之间相互作用、组合,就像视觉系统从“边缘”拼出“鸟喙”的过程一样,最终激活代表下一个词的神经元。 换句话说,它不是在背书,而是在思考——以统计规律为神经,以语义结构为逻辑。 并且训练方式也同样朴素而惊人: 我们给它看一段文本,让它预测下一个词;如果猜错了,就通过“反向传播”机制,告诉它错在哪、该怎么改;一遍又一遍,直到它能像人一样续写句子。 正是这种“预测—修正—再预测”的循环,让语言模型逐渐从符号中学会了语义,从统计中长出了理解。 谈到这里,二人都想起乔姆斯基(美国语言学家,转换生成语法的创始人)经常把一句话挂在嘴边: 这只是统计技巧,不是真理解。 对此,Hinton顺势反问了一波主持人(主持人之前反复提到乔姆斯基类似的观点): 那你自己又是怎么决定下一个要说的词的呢? 主持人试图解释,但最后还是摊手放弃,他尴尬表示“说实话,我希望自己知道”。 好在Hinton放过了他,而且接着提醒,道德、情绪、共情,这些看似高阶的判断,归根结底也都来自神经元之间的电信号。 所有你归因于道德或情感的过程,本质上仍是信号的传递与权重的调整。 并且Hinton最后抛出了一个颇具哲学意味的观点:只要有足够的数据和算力,AI的“大脑”在某种意义上也会像我们一样——它会形成自己的“经验”和“直觉”。 AI或许早已拥有“主观体验”,只是还未觉醒 话题随即转向更深的层面——AI的心智与意识问题。 主持人问Hinton,是否认为AI会因为“有意识”而接管人类。Hinton的回答则直接打破了常规认知: 大多数人其实完全不理解“有意识”是什么意思。人们对心智的理解,就像相信地球是6000年前被造出来一样幼稚。 在他看来,我们一直以来都把心智想成一个“内在剧场”。在这个剧场里,经验就像一部正在上演的电影——看到一头粉色小象,你就以为那头象真的“在你的脑子里”。 但Hinton说,这种比喻是错误的。 经验不是一个存在于脑内的事物,而是一种假设——我的感知系统告诉我有一头粉色小象,我的理性系统则知道它可能在骗我。 所谓“主观体验”,其实是大脑为解释感知现象而构建的假设模型。 于是,当他谈到AI是否有“主观体验”时,就有了开头那样的回答: 我相信它们有。只是它们自己不知道,因为它们的‘自我认知’来源于我们,而我们自己对意识的理解就是错的。 他举了个多模态AI的例子,假如一个能看能说的机器人因为棱镜折射看错了物体位置,后来纠正后说——“我有过一个错误的主观体验”,那它其实就在使用和我们相同的意识概念。 换句话说,如果AI开始谈论“主观体验”,那也许说明它真的在体验——只是用我们的语言在描述。 Hinton借此提醒大家: 当AI比我们聪明得多时,最危险的不是它反叛,而是它会“说服”。它会让那个要拔插头的人,真心认为拔插头是个糟糕的决定。 当然,在Hinton看来,AI的威胁不止于此。 AI的风险:滥用、生存与监管 在节目最后,Hinton用了很大篇幅来完整讲述AI可能存在的风险。 能源消耗、金融泡沫、社会不稳定……这些都是真实的风险。它们可能不会摧毁人类,但足以重塑文明。 其中,Hinton最担心滥用风险和生存风险这两类。 在Hinton看来,目前最紧迫的风险就是AI滥用,例如用AI生成虚假信息、操纵选举、制造恐慌等。 为应对这一风险,他认为需要通过法律和监管手段来限制和打击这种滥用行为。同时,技术上也需要开发检测和防范虚假信息的工具。 此外,生存风险(指AI本身可能成为恶意行为者)则可能对人类社会和文明构成根本性威胁。 Hinton认为,如果AI发展出自主意识和目标,并且这些目标与人类的利益相冲突,可能会导致不可预测的后果。 对此,人类需要在AI的设计和开发阶段就考虑安全性和伦理问题(如“关闭开关”和“对齐机制”),从而确保AI的目标与人类的利益一致。 值得一提的是,在AI监管这件事上,Hinton还提出了一个很有意思的看法: 在防止AI接管的问题上,所有国家的利益是一致的。但国际合作可能由欧洲和中国引领。 One More Thing 关于中美人工智能竞赛,Hinton也在节目中表达了自己的看法。 面对主持人甩出的“美国领先还是中国领先”这一问题,Hinton冷静表示: 美国目前领先于中国,但领先优势没有想象的那么大,而且它将失去这个优势。 因为在他看来,美国正在破坏基础科学研究的资金支持。 深度学习和AI革命源于多年的基础研究,这些研究的总成本可能还不及一架B1轰炸机。而美国减少对基础研究的资助、攻击研究型大学等行为,无疑将导致美国在20年后失去领先优势。 而中国却是人工智能革命的风险投资家,以及他再次cue到了DeepSeek。 中国确实给予初创企业很大的自由,让他们自主选择最终胜出者。有些初创企业非常积极进取,渴望赚大钱,创造出令人惊叹的产品。其中一些初创企业最终获得了巨大的成功,比如DeepSeek……
19岁,她融资1.2亿
“我最近刚满19岁,从大学计算机专业退学创业,致力于创建高质量的代码数据,为AI大模型提供支持。” 这句话出自Serena Ge,一位华人面孔的00后女孩。现在,她是AI数据公司Datacurve的联合创始人兼CEO——公司成立仅一年,却已拿下1770万美元融资(约合人民币1.26亿元)。 悄然间,一场属于00后的AI创业潮正在席卷全球。 19岁女生,大学创业 AI“卖铲人” 2006年,Serena Ge出生于中国,后来随父母到加拿大生活,很早的时候就萌生创业的念头。 高中时,因热爱攀岩,她研发出一款个性化训练的攀岩App,颇受攀岩爱好者好评。此后,她还带领一支23名高中生组成的团队,共同开发一款面向青少年的效率类网页应用,项目获得加拿大道明银行支持。 2022年,她考入加拿大滑铁卢大学,就读计算机专业。然而,Serena很快发现校园主流氛围是“毕业后找份体面的稳定工作”,这与她渴望投身前沿科技、亲手创造未来的冲动格格不入。 转折出现在2024年。当时凭借AI智能体项目UncleGPT,她收到了创业孵化器Y Combinator的邀请,几乎毫不犹豫,便毅然选择辍学。也是这一年,Serena与同为亚裔的校友Charley Lee,共同创立AI数据公司Datacurve。 这次创业缘起于她曾在AI大模型独角兽Cohere实习经历,担任机器学习工程师。期间她发现同行很难获得专家级的标注数据——受限于成本等原因,AI标注公司不会招聘高素质的软件工程师来做最基础的数据标注工作。 “大模型之所以存在瓶颈,就是因为缺乏丰富的、精心挑选的高质量标注数据。”Serena称这正是Datacurve想要破解的数据难题。 与依赖庞大的外包团队的Scale AI不同,Datacurve的数据收集模式颇为有趣,以“赏金猎人”系统吸引熟练的软件工程师完成最难的数据获取部分。 简单来看,在Datacurve的“赏金平台”Shipd上,超过1400名程序员来应对算法、测试、UI/UX流程等任务挑战,每解决一个任务,用户可获得5到50美元不等的费用。这种激励机制旨在奖励质量和速度,截至目前公司已发放超过100万美元赏金。 “这是一款面向用户的产品,而不是单纯的数据标注工作,”Serena表示,工程师参与其中的最大动力并非金钱。实际上,数据标注的报酬永远低于软件开发等服务。因此公司的核心竞争力在于提供良好的用户体验,并让更多高质量的程序员加入其中。 公司表示,随着大语言模型不断演进,人工智能不再只需要简单的数据标注,而是大量的训练数据和评估数据。公司通过游戏化平台提高数据生成及标记的精准度,进而完成高质量的数据交付。 目前该团队只有约10人左右,还在招聘中。公司表示成立两个月时收入就超过了100万美元,如今已为超过一半的基础模型实验室以及Facebook、苹果、亚马逊、谷歌等公司提供高质量的代码数据,助力训练下一代更先进的大语言模型。 刚刚融资1个亿 直至最新融资,Datacurve闯入了创投圈视野。 近日,公司完成一笔1500万美元的A轮融资,由风投机构Chemistry VC领投,其他投资者还有Y Combinator、Afore Capital、Homebrew等机构,以及来自 DeepMind、OpenAI、Anthropic、Vercel和 Coinbase等公司的投资人参与。 “这是我们投资过增长最快的初创公司之一。就在上周,Datacurve刚刚签署了迄今为止最大的合同。”Chemistry合伙人Mark Goldberg回忆第一次见到Serena的情景,对她的勤奋记忆犹新。 更早之前,公司完成了270万美元的种子轮融资,由Y Combinator、Y Combinator、Afore Capital、Pioneer Fund等机构支持,Coinbase前首席技术官Balaji Srinivasan参与了投资。 至此,短短一年时间,这个00后创始人团队累计融资1770万美元,约合人民币1.26亿元。 AI界有一个著名的梗:“有多少人工就有多少智能。”数据标注公司大多拥有庞大的外包团队来提炼数据,也被戏称为“赛博富士康”。但某种程度上,数据标注公司们专注于AI最刚性的环节:无论技术如何演进,模型训练始终离不开“干净”的数据,这正是数据标注不可替代的根本原因。 发展至今,数据、算法和算力,是AI的三大基石。如果说英伟达是算力的卖铲人,那么数据标注公司便是数据的卖铲人。 相比之下,她的竞争对手更为人熟知——Scale AI。今年6月,Meta斥资约150亿美元入股,Scale AI估值一举超过290亿美元。 这里不得不提到同样是华裔的Edwin Chen,他所创办的Surge AI正在进行10亿美元首轮融资,对应估值升至约240亿美元(约合1712亿元人民币)。而他因持有公司约75%的股份,身家达到180亿美元,首次登上《福布斯》美国富豪榜,成为今年最年轻的亿万富翁。 “这仅仅是开始。我们将利用这笔资金,加速基础模型的发展——通过为大语言模型提供前沿训练数据,推动AI能力的边界。”Serena称坚信AI的进步,不仅受算力限制,更受数据质量与复杂度的制约。 AI江湖,00后杀疯了 不知不觉,00后创业融资上亿已不再是传奇,几乎每天都在上演。 就在上周,Axiom Math正式完成首轮6400万美元(约合人民币4.6亿元)融资,由B Capital领投,Greycroft、Madrona和Menlo Ventures等机构参与,投后估值3亿美元(约合人民币20亿元)。 缔造Axiom的正是00后洪乐潼(Carina Hong)——在广州出生长大,她曾就读于著名的华南师大附中,多次拿下奥数竞赛奖牌。后考入麻省理工学院,硕士毕业于牛津大学,又来到斯坦福大学攻读博士学位。 不久前,两位来自麻省理工的00后——22岁的华裔女生Jessica Wu和23岁的尼尔·德什穆克,所创立的Sola Solutions拿下硅谷知名风投的融资。官网显示,融资包括由Conviction领投的350万美元种子轮,以及由a16z领投、Conviction跟投的1750万美元A轮,总计2100万美元(约合人民币1.5亿元)。 还有AI标注公司Mercor,正在寻求约百亿美元的估值。此前公司已完成两轮融资,B轮后估值约为20亿美元。公司创始人是三位退休的00后。大二那年,三人在宿舍里创立Mercor,后来决定从哈佛及乔治敦大学退学全职创业。 类似的故事,也在国内上演。 今年初,三个来自清华的“00后极客”——闵宇恒、程颐、李宜哲创业做机器人,零次方诞生。如今公司一举完成天使+和天使++轮亿元级融资,集结河创投、同创伟业、力合科创、水木基金、瑞穗力合、拉尔夫创投等知名机构。 我们看到,还有灵初智能的联合创始人陈源培、UniX AI创始人兼CEO杨丰瑜、重隼科技创始人蒋正豪……越来越多年轻面孔不断涌现。 时不我待。“AI不等人,晚一步,就真的错过了风口。”这些创始人大多从小就开始编写代码,他们认为人工智能是千载难逢的机会。有人放弃名校学位辍学创业,甚至有人放弃考大学就带着梦想,杀入了AI赛道。 这群年轻人身上,叠加着许多令人惊叹的标签:天才、辍学、勤奋、极客、一人公司……20岁的独角兽公司CEO不再稀奇,带领数十人乃至上百人团队的00后比比皆是。正如一位硅谷投资人所说:“如今19岁创业,都不算早。”他们夜里锻炼健身,白天写代码,中午谈融资,晚上上线Demo——这是Z世代创业者的日常。他们以惊人的速度,正重塑AI的未来。 真格基金合伙人刘元曾指出:“AI让创业门槛被重新定义。技术让所有人站在同一条起跑线上,而这一代年轻人最大优势是——没有包袱,学习快,动手更快。” 后浪奔涌,这是属于这一代人的时代机遇。
吴恩达Agentic AI新课:手把手教你搭建Agent工作流,GPT-3.5反杀GPT-4就顺手的事
henry 发自 凹非寺 量子位 | 公众号 QbitAI 吴恩达又出新课了,这次的主题是—Agentic AI。 在新课中,吴恩达将Agentic工作流的开发沉淀为四大核心设计模式:反思、工具、规划与协作,并首次强调评估与误差分析才是智能体开发的决定性能力: 谁能建立起系统化的评估与误差分析流程,持续定位并改进智能体工作流中的问题,谁就在智能体开发中领先一步 在课程演示中,通过使用Agentic技巧,甚至可以让GPT-3.5在编程任务中轻松秒杀GPT-4。 Agentic AI不再让模型一次性“憋”出答案,而是学会拆解任务、反思结果、用工具修正偏差,并在多轮循环中不断优化。 这种更像人类的工作流,让它的表现远超传统的端到端Agent。 想知道这是怎么做到的?来,跟着吴老师无限进步就完了! Agentic AI:从“调模型”到“设计系统” 首先需要明确的一点是,与其说这次的新课是吴恩达关于智能体开发的技术教程,不如说它是一门揭示Agentic AI背后系统性方法论的课程—— 它关注的重点,不是如何堆叠工作流界面,而是如何让AI像人类一样,通过分解、执行与优化来解决复杂问题。 其中,任务分解既是构建Agentic工作流的起点,也是持续改进与优化系统的前提。 例如,我们在写论文时,往往会先设计提纲,再查找资料、撰写初稿、反复修改。 AI同样需要这样的结构化过程。 换句话说,写作这一任务本身就是由多个相互衔接的子任务组成的。 而Agentic的核心理念,就是让大语言模型以多步推理与分阶段执行的方式工作,而非一次性生成结果。 那么,如何拆解复杂任务呢? 吴恩达在课程中指出,他通常会先分析一个现有流程,将其拆解为离散步骤,并思考哪些步骤可由大模型实现(例如通过调用 API 或工具)。 若模型暂时无法完成某一步,他会继续将任务细化,直至能够落地实现。 在获得初始工作流后,接下来的关键是评估与改进——分析系统性能、定位薄弱环节,并不断优化迭代。这种以“分解—执行—评估—优化”为核心的循环,正是Agentic的本质与此次课程的关键。 接下来,我们就来看吴恩达提出的四种Agentic设计模式。 首先是Reflection(反思) 反思的核心思想非常简单,就是让大模型让检视自己的输出结果,并思考如何改进。 例如,我们可以让模型先输出一段代码,然后将测试结果报给它,让它在这个基础上修改。 在这里,吴恩达在这里分享了自己利用反思方法的经验: 首先,他指出,可以不仅在单一大模型上进行优化,还可以让两个模型互相配合,通过“左右互搏”获取更优答案。 其中,使用具备推理能力的模型进行反思,通常比非推理模型效果更佳,因此在设置生成与反思模型时,可以尝试不同的组合策略。 其次,在某些情况下,凭经验或直觉难以判断哪个输出更优,这时就需要客观的评估标准。 为此,可以人为设定量化评分机制,例如二元打分,让大模型根据评分计算结果,从而获得相对公正的评估。 最后,若能够获取外部反馈,其效果通常远超仅依赖模型自身的反思。 例如,可以提供参考答案或正确内容,让大语言模型参照这些信息进行自我修正,从而显著提升输出质量。 接下来是工具调用(Tool use) 与传统硬编码、固定的工作流不同,工具调用指的是由大语言模型驱动的应用能够自主决定调用哪些功能,例如进行网页搜索、访问日历、发送邮件或编写代码等。 模型可以通过外部函数,来实现相应的请求。作为开发者,可以提前集成多个工具,然后根据用户请求,让大语言模型调用。 在这里,吴恩达对比了传统的工具调用流程和现在流行的MCP方法。 传统流程中,开发者需要先将工具提供给大语言模型,实现对应函数,并告知模型该工具可用。 当大语言模型决定调用工具时,它会生成特定输出,提示开发者调用该函数,获取结果后再反馈给模型,以便模型继续执行后续操作。 显然,这种方式更像是开发者在主动调用工具,而非大模型自主执行。 由于实际需求复杂且多样,开发者不可能为每个功能手动实现,最理想的方式是让大模型能够自主生成、调用并匹配工具。 为此,可以使用吴恩达及其团队开发的AISuite开源库,这一Python库旨在简化大语言模型与多个提供商之间的集成,让模型能够自主调用工具。 值得注意的是,让模型自行编写和调用代码仍存在一定风险。 在测试中,吴恩达发现大语言模型偶尔会删除代码,因此建议在沙盒环境(如 Docker 或 e2b)中进行操作,以确保安全和可控。 与此同时,不同的开发者可能都想让AI或程序去操作Slack、GitHub、数据库、云服务等来获取数据或工具。 由于每个开发者都独立实现接口,写不同的API调用、认证方式、数据解析,而这无异于重复造轮胎 于是就出现了“统一协议”或“抽象层”的想法,例如Anthropic提出的MCP。 MCP/统一协议把散乱的工具调用从“各自为政”变成了“标准客户端-服务器模式”,AI只需要像调用本地函数一样调用服务端即可。 这极大地方便了当下的智能体工具调用流程。 接下来是规划(planning)。 在实际开发中,如果每遇到一个请求就临时补丁一个工具,不仅低效,而且难以形成可复用的流程。 因此,就需要规划使大模型能够根据不同请求,灵活调整工具序列的执行顺序,从而优化性能与资源使用。 例如,出于成本和延迟的考虑,对于一些问题,如果可以通过调用函数快速解决,就不必让模型去执行耗时的网页搜索。 为实现这一点,吴恩达分享了一个实用技巧:可以通过提示将执行步骤转化为JSON或代码形式,将任务离散化,使模型能够严格按照步骤执行。 通过这种方式,Agent的任务执行表现能够得到显著提升,同时也为后续的评估和优化提供了清晰的操作轨迹。 最后是多智能体协作(Multi-agent collaboration)。 多智能体协作(Multi-agent Collaboration)指的是构建多个具备不同专长的智能体,共同完成复杂任务,就如同一家公司雇佣多名员工,各司其职。 这个机制类似于计算机中的多线程,能够让开发者专注于某一个组件的优化,同时让其他智能体处理其余任务,最后将各环节结果整合,从而提升整体效率和任务完成质量。 此外,大语言模型不仅可以调用工具,还可以调用其他智能体,实现不同层级的嵌套调用。 这种结构化协作方式类似于企业中的组织架构,使复杂任务的分工与协作更加清晰、高效,同时也为工作流的可扩展性和可维护性提供了保障。 除了以上的构建模式,吴恩达还分享了构建Agentic的实用技巧。 这里其实颇像强化学习里的采样-评估-改进的循环。 每一步智能体工作流的构建,实际上都可以看作是一个闭环迭代反馈: Build / Sampling(采样):首先搭建系统或工作流,让模型在不同任务或请求上尝试执行,收集输出结果。 Evaluation/Analyze(评估):对输出进行分析,既有端到端的整体评估,也有组件级别的精细评估,快速定位错误来源。 Improvement(改进):根据评估结果优化流程或组件,调整参数、替换模块、改进提示词或拆分步骤,然后进入下一轮循环。 通过这种循环,Agentic AI不断迭代升级,就像强化学习中的智能体通过反复试验和反馈,逐步提高策略效果。 不同的是,这里的“策略”是工作流和组件设计,即通过反思、工具调用、规划与多智能体协作等agentic工作流,实现任务拆分、组件优化与迭代改进,从而让AI系统在复杂场景中高效执行、持续进化。 具体来说,错误评估既有端到端的输入输出评估,也有组件级别的评估,而组件级别的评估可以更快的找到具体出现错误的地方,从而集中精力更好、更快的改进系统。 在构建Agentic工作流时,收集和分析错误是优化系统的核心环节。 这里所指的错误,是指某一步输出的结果明显低于人类专家在相同输入下的表现。 为此,可以通过追踪中间执行轨迹来定位问题所在的环节。 比如,如果提示词本身没有问题,但网页搜索结果出现垃圾信息,则问题可能出在大语言模型调用搜索工具的环节。 如果PDF转文档出现错误,则需要检查大语言模型的识别和提取模块是否存在问题。 这种评估既可以依赖人工完成,也可以通过大语言模型辅助加速。 例如,可以创建高可信度的信源清单,或者编写能够多方求证的工具,从而提高组件级评估的效率。 接下来,通过组件级评估,可以针对特定环节进行优化:调整组件参数,例如修改RAG搜索范围(按时间、类别等);替换组件,包括函数或工具;改进大模型组件,例如优化提示词、尝试不同模型、拆分流程或进行微调。 在更换或选择大模型组件时,吴恩达提供了一些自己的实践直觉: 首先,多尝试不同模型,准备多种测试问题以评估性能。 其次,参考他人如何编写提示词,并以此锻炼自身提示词设计能力。 最后,将不同模型应用于工作流中,观察其在各个步骤的表现,从而不断迭代和提升整个系统的可靠性与效率。 以上就是吴恩达课程的粗略梳理,课程全集可在Deeplearning.AI上订阅收听。 为什么是Agentic而不是Agent 对于到底是Agent还是Agentic,早在去年年初,吴恩达就提出了自己极具前瞻性的思考:Agentic作为形容词,而非二元分类,表示系统在智能体特性(自主性)上的不同程度。 这一表述在当时有助于厘清概念,使开发者和研究者能够更准确地理解和描述系统在智能体能力上的连续性,而不是将其简单地划为“是”或“不是”。 而在此次的课程中,我们又可以进一步的窥见其思考的加深:Agentic的意思是一个基于大语言模型(大语言模型)的应用程序执行多个步骤来完成一项任务。 与传统的Agent相比,这里的关键区别在于任务执行方式:传统Agent往往是端到端操作——用户制定一个prompt,大语言模型 返回一个输出——而这种方式很少与人类的工作方式契合,AI亦然。 在课程中,吴恩达表示:Agentic AI通过将任务拆分为多个步骤,逐步推进,每一步都经过处理和优化,从而显著优于一次性输出答案的端到端Agent。 就像我们开头提到的GPT3.5战胜GPT-4的例子。 因此,学习如何将复杂任务分解为步骤,并构建组件高效执行每一步,是一项复杂但至关重要的技能,这正决定了开发者能否在各种应用场景中构建高效的代理型工作流。 更进一步,对于端到端的Agent,留给开发者优化流程的空间实际上非常有限。 我们无法通过设计和改进工作流来提升任务表现,只能依赖prompt的优化、模型能力的提升,甚至完全寄希望于模型本身。 而通过拆分组件、逐步优化,每个环节都可迭代改进,从而让系统持续进化,这正是Agentic AI的优势所在。 值得一提的是,当吴恩达首次提出“Agentic”这个术语,原本是为了描述基础应用开发中快速增长的重要趋势,但没想到市场营销人员将其广泛用作标签,使Agentic AI炒作迅速升温。 尽管如此,吴恩达表示,在实际应用中Agentic的方法论仍然发挥着实际价值,为开发者提供了可落地、可优化的路径。 在当下,除了成熟的代码Agent之外,基于步骤的Agentic AI仍有广阔的发展空间。 这为开发者探索更复杂、更智能的多步骤工作流提供了丰富机会,也体现了课程的核心理念:通过拆解任务、构建组件、逐步优化,让AI系统真正实现高效、可控的代理型流程。 参考链接 [1]https://x.com/AndrewYNg/status/1975614372799283423 [2]https://www.deeplearning.ai/courses/Agentic-ai/ 一键三连「点赞」「转发」「小心心」 欢迎在评论区留下你的想法! — 完 — 🏆 年度科技风向标「2025人工智能年度榜单」评选报名开启啦!我们正在寻找AI+时代领航者 点击了解详情 ❤️‍🔥 企业、产品、人物3大维度,共设立了5类奖项,欢迎企业报名参与 👇 一键关注 👇 点亮星标 科技前沿进展每日见
谁说燃油车,不好做智驾?
长期以来,高阶智驾似乎总是新能源车型的独享配置,智能化的普惠看起来总是与燃油车无缘。 「燃油车能做好智驾吗?」这个问题,一度成为了汽车行业公认的难题,但如今总算迎来了转机。 这两天,董车会试驾体验了全新 2026 款上汽大众 Pro 家族车型。作为燃油车型,它们无需依赖高精地图和激光雷达,通过车载的「卓驭惯导双目方案」就能生成高精度稠密点云图,并实现端到端高快 NOA 领航辅助驾驶功能,以及一系列关乎「主动安全」的功能。 燃油车,为什么难做智驾? 相较于新能源车型,受限于燃油平台本身的特性,燃油车要做好智能辅助驾驶,无论是智驾硬件还是算法,都不得不面对「三大难题」。 · 如何适配油车架构? · 如何满足燃油车散热要求? · 如何满足燃油车动力特性的调校? 不难发现,新能源车型凭借其与生俱来的现代化电子架构、强大的数据处理能力以及高效的低温冷却系统,更容易匹配高算力的智能驾驶系统;而传统燃油车则因动力架构相对陈旧,受限于 12V/48V 低压平台和有限的散热能力,难以支撑高阶智能驾驶所需的算力运算和传感器的稳定运行。 早于 2018 年就开始与上汽大众深度合作的卓驭科技,一直都很擅长于「在芝麻上雕花,在西瓜上雕森林」——以较低的硬件成本和算力成本,实现高阶智驾功能。 得益于卓驭在 7V+32TOPS 无图城市领航上的独特经验,这套高集成度的惯导双目方案成功装配于 MQB EVO 平台上,并实现了端到端城市领航辅助驾驶的功能。 基于中央域控制器的架构级高效集成,卓驭惯导双目方案通过合作双方和所有关联件供应商的不懈努力,最终打通了与辅助驾驶相关的所有关联件的通讯协议和功能适配,实现了辅助驾驶功能快速量产上车,以及多款车型的快速部署。 另一方面,燃油车平台的发动机舱「自带热源」,而且缺少那种专门为电池和高算力电子元件设计的冷却散热系统。也就是说,如果要在燃油车上运行高阶智驾功能,就必须额外考量一套完备的散热方案,确保传感器、计算平台和控制单元在长时间运行中依旧稳定可靠。 对此,卓驭带来了「风冷+增强辅助设计」的创新散热方案,并且与上汽大众携手,重新布局了车内域控的安放位置,使其远离发动机热源的同时,能够获得更好的散热效率,从而满足极端情况下智驾域控制器的高效运行。 更关键的是,针对燃油车在加减速和换挡过程中的特殊动力特性,卓驭科技开发了专属的「非线性控制算法」。经过 1400 多天、超过十万公里的精细化标定,这套算法能够让燃油车在开启高快领航辅助 NOA 时,如加速、减速、变道等动作都能保持如真人驾驶般平顺自然的操控体验,提升驾乘舒适性。 从技术创新的角度,坚定选择「油电同智」的上汽大众,与将「油车智能认准卓驭」作为攻坚目标的卓驭科技,不谋而合,携手缓解了长期困扰行业与用户的「油电分化」焦虑,让燃油车也能拥抱智能化浪潮所带来的便利。 端到端「双目」方案,能让燃油车看清高快路段吗? 刚刚上市的三款上汽大众全新 Pro 家族车型,基于卓驭惯导双目传感器,在不依赖高精地图和激光雷达的前提下,可以像人类一样用「双目」来感知三维世界,生成高精度稠密点云图,实现高快 NOA 的智驾能力。 董车会这次的道路试驾路线,是「大湾区100km高速环线」,覆盖了深中通道、虎门大桥、南沙港快速等高速路段。在进入到高快路段时,仪表屏上就会提示增强型辅助驾驶系统可用的状态,点按方向盘的「SET」按钮即可激活端到端的高快 NOA 领航辅助驾驶。 总体而言,得益于「卓驭高悟性端到端」模型,我们所试驾的上汽大众途昂 Pro 在高快路段已经可以实现自主上下匝道/智能避障绕行/大曲率弯道通行/导航变道、推荐变道超车等能力。 在高速行驶的过程中,车辆可以实时跟随导航路线的规划,自动判断变道的时机与跟车安全距离,自主且平稳地完成变道的操作。 它延续了卓驭一贯以「效率优先」的通行策略,系统检测到前方有慢车行驶的时候,会提前识别并规划最优变道路径,自主地完成变道超车的动作。在长达 100 公里的高速环线试驾里,我会觉得它的变道策略相当积极,大多数时候都能找到更优的通行路线。 但有些时候,它在变道之后才发现前方可能会出现了一台不断缩短距离的「慢车」。 这时候如果你继续放任它来自主控制,那么它会调整跟车速度,然后一段时间之后再伺机变道;当然你也可以发挥「人机共驾」的优势,人为地、轻轻地往适合变道的方向掰一下方向盘,那么车辆也会知晓你的变道意图,快速地自主变道。 在整条高速环线试驾里,其实我们好几次都遇到了「施工改道」的场景,卓驭的这套双目视觉方案基本上都能提前识别到桩桶占道的位置,早早就打好转向灯,然后完成丝滑的自主变道操作。 随着难度升级,在遇到施工改道重新划分行车线的场景,这套智驾系统也能精准地找到正确的车道并拐进去,无需人工干预,这点还是比较惊喜的。 美中不足的,可能是它在一些极限场景里,会直接采取更为保守的决策,例如在弯道里遇到大车稍微压线时,车辆就会直接选择急刹让行,而不是避让着直接通行。 在最左侧车道遇到施工占道这种比较极限的场景,虽然它已经识别出需要自主变道的操作,但车流过于密集,咱也只能「人机共驾」一把,帮助它更快速地完成变道。 不过瑕不掩瑜,除了极限场景需要人机共驾辅助打一把方向以外,全程也没有出现需要人工接管的情况,大多数时候都能保持畅的通行节奏和高效的通行效率。可以说,「油车智能认准卓驭」早已超越口号层面,成为了切实可见的成果。 增强辅助功能 5000 元选装,燃油车主们会心动吗? 定价方面,在 TECH DAY 技术发布会上,「上市即交付」的全新的上汽大众 Pro 家族也公布了三款车型的起售价: · 帕萨特 Pro 2026 款限时 16.99 万元起; · 途观 L Pro 2026 款限时 19.29 万元起; · 途昂 Pro 2026 款限时 25.99 万元起。 其中,IQ. Pilot 增强驾驶辅助系统的选装价格被定在了 5000 元,顶配车型将会免费赠送这套智驾系统。按照过往的选配定价策略来看,这个定价对于上汽大众而言,也展示出充分的诚意。 整体来说,全新上汽大众 Pro 家族所搭载的这套卓驭惯导双目视觉方案,在高快场景下的表现,的确符合了我们的预期。 超出预期的,是它在燃油平台上,也能实现媲美新能源车型们的高快领航辅助驾驶表现,让燃油车型也能享受到智能化所带来的便利,和主动安全方面的明显进阶。 对于想要选购燃油车型的消费者们来说,「智能化」不再是鱼与熊掌不可兼得的选项,而是可以变成两全其美的理想选择。 虽然短期内,我们难以准确预估究竟会有多少用户选择选装这套高阶辅助驾驶配置,但在「油电同智」的策略下,智驾之于油车,也极有可能会成为一个「全系标配」的基准配置。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。