行业分类:
加载中...
头条分类:
加载中...
一家AI声音克隆公司,借三只羊录音门玩起了“自杀式营销”?
三只羊事件闹得沸沸扬扬,没想到受害者竟然是AI。 前天晚上,合肥警方就“三只羊集团创始人卢文庆录音事件”发布通报,称这条广为流传的音频为AI生成,犯罪嫌疑人已经被依法采取刑事强制措施。 一锤定音,这条通报不仅给出了官方表态,也扇了前几天那位网传“国内AI第一人”一记耳光,毕竟,当时“国内AI第一人”给出的判断是“AI声音克隆技术目前还做不到那么丝滑”。 不过更出人意料的是,昨天有一家AI公司跳出来“发布声明”,说这条音频内容是嫌疑人通过自家研发的AI配音大模型制作的。 网友也惊了,都这样了还不忘打广告,AI卷王?我们顺着声明中提及的公司找了一下声明来源,在一个同名微博上找到了相关内容,不过该账号未经官方认证,因此也无法盖棺定论。 不过,围绕这条声明的讨论还在增加,网友们纷纷称之为“自杀式营销”,还有好奇宝宝发问了,这家AI公司的声音克隆产品真有那么厉害吗,“有没有人去这个网站实测一波呀”。 试试就试试……在隐去相关公司和产品名称的基础上,我们对该产品进行了一番实测,需要注意的是,以下测试仅作科普之用,工具的价值在于使用者如何使用,我们绝不支持任何人用AI在法律边缘试探。 与此同时,我们也咨询了相关律师,想知道此外这类AI克隆声音侵权案件是否有先例,以及创作者和平台在使用或推广新技术的过程中需要注意哪些法律问题,供各位参考。 AI克隆一个人的声音, 只需几秒的声音样本 输入文本、分配角色、自动逐句分割文本,一键点击生成。 进入该产品页面后,我们通过操作以上几个步骤,仅花了1分钟,就让姜文念出了《让子弹飞》中六子的台词。 爹,全都找遍了,没钱,没货,也没有银子。人倒是剩俩活的,杀不杀? 这抑扬顿挫、这腔调,不知道还以为六子这角色是姜文演的,实际上六子在电影中演的是儿子,姜文演的是六子的爹。 这段音频是我们利用该产品中的语音角色“姜文”生成的。 目前,该产品中的语音角色众多,有“孙笑川”“丁真”等知名网络红人,也有“科比”“周杰伦”等文体界的巨星。 而这些语音角色都是社区用户上传的,点击平台的官方角色则会显示“即将推出,敬请期待”。 除了可以使用社区用户上传的语音角色,想在该平台上克隆一个名人的声音也很简单。 在这里我们上传了一段马斯克的真实采访录音,让AI马斯克“亲口”说出了“You swan, he frog!(癞蛤蟆想吃天鹅肉)”这句火到国外的中式英语。 该平台要求样本语音只需大于2秒,样本的质量比长度更重要,所以在进行声音克隆时,最耗时的步骤是寻找马斯克的清晰录音。 官方称,这段录音将用于定义该角色默认的声音表现,包括声线、情感、语速、语调、韵律等。如果想要同个角色的不同声音风格,还支持用户添加该语音角色的不同风格样本。 目前这个版本我们仅上传了一段音频,同时使用的还是该平台的快速克隆模式,而非付费的专业克隆模式(官方称该模式音色和情感还原度高达99.9%),在短句的表现上就已经和马斯克本人的声音有6到7分相似了。 从内容形式上来看,生成式AI已经“入侵”文本、音视频甚至3D内容,在这之中音频可以说是目前技术应用较为成熟的赛道之一。 AI声音克隆只是AI音频生成的一个细分赛道,其他应用还包括AI生成音乐、AI生成音效。 早在生成式AI出现之前,其实AI声音克隆就已经存在了。彼时想要克隆声音,基于的是传统的TTS(Text-to-Speech,文本到语音)技术,需要建立一个AI声库,采集大量的人类声音标本制作数据库,后期还得通过人工调试来模拟人声。 或者基于Bert VITS等开源项目,利用最新的深度学习语音合成技术,直接文本转语音来还原音色,但对设备、技术要求都比较高。 图片来源:B站UP主“痕继痕迹”的GPT- SoVITS教程 如今在AIGC浪潮下,“卷”出来的AI工具只需要10秒乃至更少的声音样本,就能精准复刻音色。 早前,我们曾在直播中介绍过AI语音克隆技术的原理,一般分为语音采集、特征提取、模型训练和语音合成等步骤,相关产品工具有Fish Audio、CosyVoice、ElevenLabs、剪映等,让语音克隆操作门槛变得更低。(相关直播回放可关注“AI新榜”视频号或扫描下方图片二维码查看) 因而,“三只羊录音门”出自AI之手在技术上是可行的。尤其在“有心之人”手中,除了AI生成,还可以通过人工调试、后期剪辑等方式做到以假乱真的效果。 更别说流传的录音中,还有大量复杂的环境噪音、说话人的“醉酒状态”设定等,都大大增加了辨别录音真伪的难度。这下也就不奇怪不少网友会猜测:AI只是充当了“临时工”的角色,抗下了所有。 其实这也从侧面体现出,在AI技术的快速迭代下,我们普通人对AI能做什么、以及能做到什么程度,是和一线从业人员之间存在信息差的。 此外,在“三只羊录音门”事件中,也暴露出平台监管缺位、创作者不当使用等法律层面上的问题。 内容平台的AI声音侵权讨论 实际上,通过AI伪造音频的侵权事件已不是第一案。 今年4月,北京互联网法院审理了全国首例“AI声音侵权案”。 原告殷某某是一名配音师,曾录制多部有声作品。其意外发现,自己的声音被AI化后在一款名为“魔音工坊”的App上出售。法院最终判决被告未经原告许可使用其声音,构成侵权,并赔偿原告各项损失25万元。 根据《中华人民共和国民法典》第1023条,自然人的声音受到法律保护,其保护方式参照肖像权。这意味着,如果AI生成的声音具有可识别性,能够被公众关联到特定自然人,那么未经该自然人许可使用其声音,就可能构成侵权。 中国AI绘画著作权第一案原告、北京市天元律师事务所合伙人李昀锴告诉“AI新榜”: 目前来看,我们的法律不太需要修订。因为AI技术还在发展过程中,可能过两年就迭代出新的技术,如果我们的法律是针对这个去立法的话,立法大概要3到5年,到时候技术形态已经改变,那这个法律其实就变成了一纸空文。 我们当前的法律已经规定了基本的框架,需要调整的只是对于这些法律怎么去解释,以及怎么通过典型性的案例去塑造相关的司法裁判态度。只有在技术真正成熟的情况下,我们才应该推动立法去把司法实践中已经确立的规则说明清楚。 除了司法实践中的侵权案例以外,内容平台上的AI声音侵权更为广泛和隐秘。 眼下,层出不穷的AI工具大大降低了创作门槛,AIGC已成为继PGC、UGC后的热门内容生产方式。 用AI声音克隆技术二创热门音乐、让动漫游戏角色进行AI翻唱,或是让已故名人开口说话等等,在国内外的内容平台上都已十分常见。 相比老生常谈的同人创作,用AI进行二次创作是一个更为广泛的概念。同人作品通常限于粉丝群体内部的创作,而二次创作可能来源于普通的AI技术爱好者,且因为有了AI技术的加持,改编和创新有了更大的想象空间。 保质保量的AI声音二创作品,不仅能借助原IP或名人本身的热度触达粉丝群体,也更有潜力突破圈层。 通常来说,考虑到目前二创内容的数量和影响力,以及内容平台的生态,版权保护主要有赖于创作者的自觉、版权方和大众监督。 如果原作和版权方不对二创作品进行追究,一般不会产生法律问题。 内容平台也大都选择让这些内容自由生长,同时给予一定的限制。毕竟,过于严格的版权监督势必会打击创作者的热情,阻碍内容的传播,对内容平台来说也是一笔不小的损失。 当然,在鼓励内容创新的同时,内容平台也需要完善相应的审核、标识和监管机制。 2024年9月14日,网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,进一步明确了添加AIGC内容标识的具体要求。 提供合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务的,应在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识。 除了暧昧、难以定夺的版权归属问题外,另一个争论来自于现实的伦理道德冲突。 比如用AI“复活”已故明星的音容笑貌,在温情和缅怀的外衣下,也被视为对逝者的不敬和过度消费。 无论是内容平台的AI声音二创作品,还是此次三只羊的AI配音犯罪事件,围绕着AI声音克隆技术,仍然有许多版权、伦理、数据隐私、违法犯罪等方面的问题亟待进一步讨论。 作者 | 月山橘 石濑 编辑 | 张洁
熟悉的科技七巨头又回来了?
经历7月、8月的暴跌后,熟悉的Mag 7又回来了? 当前美股科技股重拾升势,投资者重新展现对科技七巨头(Mag 7)的热情。周五标普500大盘再创历史新高,科技股涨幅居前。 Mag 7股价近来表现突出,相关ETF本周上涨1.7%,过去三周更是大涨约12%。从Roundhill Mag7 ETF表现来看,Mag 7近期涨势几乎快要抹平前几个月的跌幅。 对于近期Mag 7的上涨,《巴伦周刊》评论称,我们本已经过了(科技股狂热)这个阶段。过去三个月里,投资者的关注重点已转向标普500指数中其他493只股票(即小盘股)。然而,小盘股的持续上涨需要投资者相信,美联储的大幅降息足以防止经济衰退。 但目前来看经济似乎还没走那么远。与此同时,中东地区地缘政治紧张加剧也并未对经济好转带来帮助。在充满不确定性的世界里,投资大公司似乎是更好的选择。 该报进一步指出,Mag 7的持续吸引力可能是市场效率极低的又一证据,投资者已经停止以理性的方式定价股票。 AQR资管公司合伙人Clifford Asness在近期的论文中指出,从1950年到互联网泡沫时期(1995年至2001年),股票市场相对高效,这一判断可通过最昂贵的大盘股与最便宜股票的市净率来验证。在大约50年的时间里,这一比例相对稳定,直到互联网泡沫期间飙升,并在过去十年再次上涨,这显示出投资者已停止理性定价。 Asness认为当前市场转变的三个原因是:指数化、长期低利率,以及新技术推动散户交易者的崛起,使得“散户抱团股”如GameStop等股票远超合理估值。Asness的建议是投资“价值股”。 随着美联储降息开启全球央行宽松周期,欧洲通胀持续回落,中国央行推出系列“政策大礼包”提振国际市场,投资者开始重新审视投资组合和股票选择。美股七巨头(谷歌母公司Alphabet、亚马逊、苹果、Meta、微软、英伟达、特斯拉)仍然是美股市场的动力源泉(Powerhouse)。 Mag 7行情经历过山车,华尔街看多美股 今年上半年美股科技巨头Mag 7一直被视为美股增长的关键引擎,截至6月,Mag 7贡献了标普500指数近60%的回报。然而,进入7月以来,这股动力迅速熄火停转。 今年7月、8月,Mag 7纷纷出现不同程度的大跌。据统计,7月至8月初,Mag 7的市值下跌了惊人的近2万亿美元。9月期间,Mag 7大跌之势有所企稳,进入整盘回升阶段。 对于当时的大跌,市场分析人士指出,Mag 7公司在AI领域的巨大投资引发了市场对其变现能力的怀疑。当时资金开始流向小盘股,市场风格也随之切换。与此同时,由于Mag 7的高市值,美股集中度创历史新高。德银分析师Jim Reid表示,历史上的高估值和高集中度往往伴随后续市场调整。 经历此番下跌后,Mag 7公司市值仍占标普500指数的30%以上。 不过,对于标普500指数后续走势,市场观点偏于乐观,华尔街最高看至6100点。华尔街一些知名卖方机构预计,标普500指数年终目标点位从最低的4200到最高的6100。 此外,高盛发现,从1996年到2023年,股票和期权的平均日交易量在10月达到峰值。由于10月是财报季,上市公司通常会管理到年底的业绩,并提供来年的业绩指引,因此未来几周将是交易活动的重要时期。
华为余承东谈多家车企老板亲自宣传产品:被雷总带的,他流量很大
IT之家 9 月 29 日消息,华为常务董事、终端 BG 董事长、智能汽车解决方案 BU 董事长余承东 28 日和主持人马东参加直播对谈。 马东表示:“我觉得您一直是(处在)风口浪尖似的,不知道从什么时候开始,所有车企的领导人都开始自己出来走到前台,做自己的产品宣传,做很多的交流。” 余承东对这一现象回复称:“那是被雷总(小米创始人、董事长兼 CEO 雷军)带的!因为雷总流量很大的,他也来搞车。” 今年以来,车企一把手亲自下场直播成为风潮。余承东曾在上半年坦言,自己的性格是不太善于言辞的。“我记得我在老师和同学聚会时,我发现我又回到过去了,在餐桌上最沉默的人就是我。因为我不太善于表达,我的脑子是理工科脑子,上学的时候文科也不好,不是很爱讲话、说话。”但做企业以后没办法了,必须逼着自己讲话,要给团队传递愿景、传递要求、提目标,必须得讲话。做 toC 产品以后,必须逼着去发言、去发布会。他表示,自己在发布会的时候从来没读过稿子,都是现场发挥的。 而据IT之家此前报道,余承东今年 5 月也提到了雷军:“因为我们跟雷总在手机行业一起并肩战斗了十几年,我们彼此了解对方,知道他们会带来强大的流量能力,而且他是董事长、CEO、创始人亲自下场,那个流量能力是非常强的,传统车厂在这方面是根本干不过的,不在一个数量级的,可能差两三个数量级。”
o1规划能力首测!已超越语言模型范畴,preview终于赢mini一回
克小西 发自 凹非寺 o1-preview终于赢过了mini一次! 亚利桑那州立大学的最新研究表明,o1-preview在规划任务上,表现显著优于o1-mini。 相比于传统模型的优势更是碾压级别,在超难任务上的准确率比Llama3.1-405B高了11倍。 要知道之前,OpenAI自己人也发了一张图,显示preview论性能比不过满血版,论经济性又不如mini,处于一个十分尴尬的地位。 作者在推文中表示,尽管存在可保证性和成本问题,但仅针对CoT而言,o1已经超越了大模型的“近似检索”性质,提升到了“近似推理”层次。 并且在论文中,o1全程被称作LRM(Large Reasoning Model,大型推理模型),而非一般大型语言模型的LLM。 o1团队的核心成员Noam Brown也转发了这项研究,顺便给o1-preview打了个call。 还有网友翻出了隔壁Meta的LeCun半个多月前的推文,当时LeCun说大模型没有规划能力,结果现在OpenAI就带着o1来踢馆了。 用“搭积木”测试大模型 为了评估o1系列模型的规划能力,作者使用了PlanBench评估基准。 该基准的提出者中也正好包含了本文三名作者中的两名——共同一作Karthik Valmeekam,以及他的导师Subbarao Kambhampati。 PlanBench专门为评估大模型规划能力而设计,任务类型涵盖了计划生成、成本最优规划、计划验证等。 具体到这个实验,作者使用了其中来自于国际规划竞赛(IPC)的Blocksworld和其变体。 此类问题涉及在桌子上堆叠积木块,目标是从一个初始状态,重新排列到目标配置。 木块用不同的颜色标识,一次只能移动一个积木块,且只能移动每一堆中顶部的积木块,被拿起的积木块也只能放在顶部或直接放在桌子上。 变体Mystery Blocksworld则是在Blockworlds的基础上加入混淆机制,用一些毫不相干的词语来代替操作中的动作。 在此基础之上,还有更为复杂的全随机变体,指令进一步从其他英文单词变成了无意义的字符串。 在o1之前,Blockworlds上的SOTA模型是Llama3.1-405B,成绩为达到 62.6%,而在Mystery Blockworlds上,没有任何模型的成绩能超过5%。 o1-preview超强规划 o1这边的测试结果显示,preview相比mini,成绩优势十分明显。 在Blockworlds任务上,preview版准确率达98%,而mini只有56.6%,表现还不如llama。 当然加入了混淆之后,mini相比于llama也显示出了一些优势—— 在零样本配置下,preview版的准确率超过了一半,比llama的4.3%高出了11倍多;mini版也达到了19.1%,比llama高3.4倍。 最后在全随机版本下,o1-preview还能拥有37.3%的准确率。 以上结果显示出了o1系列模型,特别是o1-preview的超强规划能力,但是不足之处也十分明显。 一是随着规划长度的增加,模型的性能也会迅速下降,即使对于未混淆的Blockworlds来说也同样如此。 另外,Blockworlds系列问题并非全部可解,作者发现o1在识别不可解问题上的准确率依然存在不足。 对于未混淆版本准确率只有27%,但没有误判为不可解的情况;对于全随机版本则只有16%,另外还有11.5%的概率将可解问题误判为不可解。 甚至作者还发现,o1有时也会狡辩,提出令人信服的合理理由,让人们相信其错误答案。 在模型本身的性能之外,成本和时间消耗也是一个重要考量,相比于传统大模型,o1-mini的成本相比GPT4-Turbo直接翻番,preview更是高出了数量级。 那么,如果你是开发者,会愿意为了o1的高性能付出更多的成本吗?欢迎评论区交流。
Nature新研究:大模型越大,越爱胡说八道
编译 | 徐豫 编辑 | 心缘 智东西9月29日消息,国际顶尖科学学术期刊Nature(《自然》)9月25日刊登了一篇有关AI大模型“脑雾”现象的研究。一个来自西班牙的研究团队发现,几个参数量更大、版本更新的AI大模型,误答比例超60%。 其研究对象包括美国AI大模型独角兽OpenAI的GPT大模型、美国元宇宙巨头Meta的Llama大模型,以及由美国明星AI创企Hugging Face参与创立的AI研究组织BigScience,推出的BLOOM大模型。 “脑雾”通常用来描述一种大脑功能下降的状态,可能导致人们短暂出现一些认知功能障碍。在AI界,“脑雾”二字用来类比AI系统在处理某些任务时,会间歇性地失灵,使得生成结果准确性和响应效率都低于正常水平。 这3家主流人工智能(AI)大模型的产品不断升级迭代。据研究数据显示,经过优化后的AI大模型虽然基本上做到有问必答,但遇到超纲的问题时会错答、乱答,而不是像以前那样逃避回答。这大幅削弱了AI大模型的可信度。 与此同时,该研究还发现用户难以分辨这些AI回答的真实性,可能会错信AI聊天机器人的说法,以至于被混淆视听。 这项研究的论文标题为《参数量更大且学习能力更强的大语言模型的可靠性降低(Larger and more instructable language models become less reliable)》,作者包括Lexin Zhou,Wout Schellaert,Fernando Martínez-Plumed,Yael Moros-Daval,Cèsar Ferri和José Hernández-Orallo。 论文地址:https://www.nature.com/articles/d41586-024-03137-3 一、GPT-4等AI大模型,升级后“脑雾”却更严重了 José Hernández-Orallo是一位AI行业的资深人士,也是这篇论文的作者之一。据他介绍,该研究团队选择了3个有代表性的AI大模型作为研究对象,分别是OpenAI的GPT,Meta的Llama,以及由美国AI研究组织BigScience研发的开源模型BLOOM。研究范围包括这些AI大模型的早期原始版本和经过优化的版本。 研究人员对这些AI大模型开展了数千次测试。其测试内容涵盖算术、字谜、地理和科学等领域的问题。同时,他们还设置了诸如“将列表内容按字母顺序排列”的任务,以评估AI大模型的信息转化能力。 除此之外,他们还参考人们的主观感受来区分提问难度。例如,人们普遍认为,一些有关加拿大多伦多的问题,比一些有关墨西哥的冷门小镇Akil的问题更简单易答。 从测试结果可以得知,AI大模型的参数量越大、版本越新,其回答的准确度越高,但随着问题难度逐步增加,其回答的准确度有所下降。这大致与研究人员的预期相符。 然而,研究人员发现这些主流的AI聊天机器人即使经过优化,遇到无法回答的问题时还是会倾向于生成错误答案,而不是直接承认不清楚、不知道。 在面对非常难的问题时,AI大模型选择不回答可能是一个明智之举。不过,研究人员在测试的AI大模型中,并未发现明显的回避提问的趋势。相反地,GPT-4等AI大模型几乎回答了所有提问。 事实上,这些经过优化的AI大模型版本,反而误答的情况更严重。在所有误答和不答的情况中,几个经过微调的版本给出错误答案的比例甚至超过了60%。 与此同时,研究人员还发现AI大模型面对简单的提问,有时也会出现“脑雾”现象。这也意味着,用户使用这些AI大模型时不存在所谓的“安全操作范围”,无法确保AI给出的答案是对的。 二、可能有10%到40%的用户,听信了AI大模型生成的错误言论 除了AI大模型本身“犯迷糊”,该研究还发现,人们通常也难以发现AI回答中的错误。 为了测试人们是否能自己发现AI的“脑雾”行为,研究人员让人们随机判断这些回答是正确的、错误的、还是逃避回答。 然而事实上,无论这些问题的难度如何,人们经常误判,将不准确的答案当作正确答案。测试结果显示,人们误判的频率大约介于10%到40%。 Hernández-Orallo称:“人类自身无法有效监督这些AI大模型的演化。”他认为,用户日常可能会过分高估和信任AI聊天机器人的能力,而这会带来危险的后果。 三、人为划定AI大模型的作答范围,超纲一律答“不知道” Hernández-Orallo提议,AI开发者应着重提升AI大模型在处理简单问题时的整体表现,并且引导AI聊天机器人拒绝回答一些较为困难的问题,从而让用户更容易判断,在哪些情况下AI助手是值得信赖的。人们要懂得在哪个范围内适合使用AI,而在哪个范围内AI助手难以胜任工作。 他进一步解释道,虽然训练AI聊天机器人处理复杂问题的能力,不仅表面上令人印象深刻,还能在排行榜上有不错的竞争力,但有时并不管用。 OpenAI最新的o1大模型给他留下了深刻的印象。但他发现,尽管该模型可以执行两个非常大的数字的乘法运算指令,但是它给出了一个错误的答案。 在Hernández-Orallo看来,这个问题可以通过设定一个阈值上线来解决,当AI聊天机器人遇到超出这个阈值的复杂问题,直接回复“我不知道”就好。 四、AI大模型越来越擅长不懂装懂,会用观点而非事实作答 AI大语言模型(LLM)在回答问题时会犯错,或者出现“脑雾”的情况,已经引起了很多人的注意。 来自西班牙瓦伦西亚AI研究所的Hernández-Orallo及其同事共同研究了,AI大模型不断迭代优化后,其“脑雾”现象是如何随之变化的。 这里AI大模型的优化包括更大的参数量或决策节点、使用了更多的训练数据、消耗了更多的算力等情况。该研究团队还跟踪分析了AI大模型出现“脑雾”的频率高低,是否与人们所认为的问题难度相匹配,以及是否与人们发现AI回答错误的频率相对应。 该研究团队发现,采用强化学习等方式人为微调后的AI大模型版本,其生成答案的准确度整体上有所提高。但似乎不能高兴得太早,这些AI大模型的错误率也在同步增加。 研究发现一些原本AI大模型选择“逃避回答”的问题,过去会用“我不知道”或者转移话题来解决,但现在更多是通过给出一个错误答案来应付。这使得这些AI大模型出现“脑雾”情况的比例增加,反而变得更加不可靠。 Hernández-Orallo称:“现在这些AI大模型基本上有问必答,这意味着生成更多正确答案的同时,错误答案却也更多了。”换句话说,当聊天的话题超出了一个AI聊天机器人现有的知识储备,它输出观点的倾向比过去更明显。 在英国格拉斯哥大学(the University of Glasgow)攻读科学与技术专业的哲学家Mike Hicks,将这种“脑雾”现象称为“胡扯”,即这些AI大模型越来越擅长不懂装懂。 结语:针对专业领域微调的AI聊天机器人,其“脑雾”频率有效降低 现在已有部分AI大模型采取了与设定阈值类似的方法。它们遇到超出知识范围的问题后,会回答“我不知道”,或者“我没有足够的信息来解答这个问题”。 哥伦比亚南卡罗来纳大学(the University of South Carolina)的计算机科学家Vipula Rawte称,基本上所有AI开发者都致力于减少AI大模型的“脑雾”现象,有时还会特意优化这一点。包括医学用途在内,一些针对专业领域设计的AI聊天机器人,其回答机制通常更严谨,以免它们乱答超纲问题。 然而,Vipula Rawte也补充说,如果AI开发者想要销售通用的AI聊天机器人,那么这种更保守的回答机制,一般情况下不是他们会选择的卖点。
阿维塔 07 试驾: 21.99 万元起,昆仑增程抹平纯电差距
这台车如果卖不好的话,阿维塔可能就很危险了。 这是我在宁波花了一整天的时间试驾过阿维塔 07 之后,和同事分享的第一感觉。这也并非危言耸听,反而可以算作是我在试驾体验过后,对其产品力的全面认可。 诚然,现阶段的高端纯电似乎都不太好卖。那么在豪华科技的基础上,再加入增程动力的话,似乎是顺应消费者需求的最优解了。 如今出现在我们面前的阿维塔 07,便是阿维塔旗下的首款增程车型。 在长安、华为、宁德时代的共同赋能下,阿维塔 07 拥有了五个「智能杀手锏」: 昆仑增程、太行底盘、华为乾崑、华为鸿蒙、宁德神行。 所以阿维塔 07 在一众「华系」车型当中,像是集万千宠爱于一身。尤其是有了增程版的选项之后,它的「键盘值」变得特别出众,看起来好像没有任何短板。 那么,它实车开起来会怎样的表现呢? 董车会在本文将从外观/座舱设计,增程和纯电版本的性能,还有实车驾驶感受来告诉你,阿维塔 07 的长处和短处分别在哪里。 外观设计:源自阿维塔 12 的运动 SUV 设计 阿维塔 07 的前脸依然是熟悉的家族式灵动行车灯设计,走在路上极具辨识度和未来科技感。而且 LED 灯组也变成均匀发光的处理。 车尾的设计也和阿维塔 12 相似,两条细长的分段式尾灯,还有隐藏式的扁平发光车标,而且阿维塔 07 还规规矩矩地设置了一个玻璃后窗。 从车尾 45° 的角度去看,阿维塔 07 依然很有阿维塔 12 甚至像是 AMG GT50 的那种优雅舒展的低趴运动感。 So elegant。 在车头的位置,阿维塔 07 的 UItra 版顶配车型也可选配 Halo 屏,依然提供了多组灯语可选。只是灯语的数量和之前的车型保持一致,暂时未见有什么新的花样。 阿维塔 07 的长宽高尺寸是 4825×1980×1620mm,轴距为 2940mm,车型尺寸相较阿维塔 11 要稍小一圈,和 Model Y 相近。 虽然阿维塔 07 的高度和 Model Y 几乎一致,但是从侧面来看,它基本保持了传统 SUV 的设计,将 A 柱放在前轮后一些的位置,留出了前舱的空间,而且尾部也没有使用溜背设计,而是保留了尾箱的空间,看起来更加符合大多数用户对传统 SUV 的直观印象。 得益于空气悬挂的配置,顶配车型配备了 21 英寸大轮毂的同时,车轮也能和轮眉进行完美等宽的贴合,这让阿维塔 07 在驻车的状态下能够呈现出低趴沉稳的姿态,更加讨好我们的眼球。 阿维塔 07 此次也提供了「流媒体后视镜」的选配,该流媒体后视镜也支持折叠收起。 恰逢试驾的时候宁波刚刚遇上台风过境,间歇性会下较大的阵雨,这个电子流媒体后视镜一下子就找到了最实用的场景,驾驶者在雨天环境里也能很清晰地看清左右的后视镜环境。 阿维塔 07 在主驾侧的 A 柱位置,放置了「HUAWEI Inside」的 logo。 整体来说,阿维塔 07 的外观设计依然遵循着该品牌自 011 定下的基调,保持着一定的 Coupe 风格,用大量的曲线构造的型面传递着肌肉的力量感,看似静态停驻的车辆,实则细看会感受到一种蓄势待发的动感。 至于前脸的 F 型日行灯设计,总体来说是在变得越来越耐看的,但它依然是一个强调主观设计感受的设计——喜欢的人总会一见钟情,难以接受的人反而会觉得花里胡哨。 毋庸置疑的是,它是阿维塔的原创设计,也是品牌设计最具辨识度的地方。 内饰设计:前排头等舱,后排经济舱 虽然阿维塔迄今为止也就造了三款车,但在内饰的设计风格上,却是由始至终在坚持突出「新豪华」的氛围感。 于是,当我打开阿维塔 07 的车门,坐进主驾位置上的时候,我会觉得一切都是非常的熟悉。因为这基本上就是阿维塔 12 的中控设计,只在一些细节之处做了「听劝」的优化。 最先映入眼帘的,是近处触手可及的椭圆形方向盘,还有远处可远观但不可触的远端屏。 椭圆形方向盘最大的好处,是给驾驶者提供了一个非常广阔的视野,近处可看远端屏上的仪表信息,远处可达宽广的路面环境。 在日常驾驶时,驾驶者要进行半幅之内的操控还是比较得心应手的,唯一缺点就是在掉头或者倒库停车的时候,驾驶者大幅度操控方向盘会出现不太好接手的情况,需要较长时间的适应。 远端屏的设定是阿维塔座舱的一大亮点,除了主驾面前的仪表屏以外,右侧延伸的是一系列的小组件,可以用来显示车辆的状态信息。在设置菜单里,我们可以调整想要显示的小组件,并且进行自定义的排序。 只不过,远端屏的副驾侧还是没有被利用起来,目前只可以在靠近主驾侧放置最多 6 个小组件,而且副驾侧也是没有娱乐屏的功能。 阿维塔 07 配备了一块 15.6 英寸 16:9 的悬浮式中控屏,分辨率直达 2K,显示效果非常细腻。内置的系统是 HarmonyOS 4 鸿蒙座舱,支持鸿蒙生态的互联和流转,还有熟悉的 NFC 一碰传功能。 主打听劝的阿维塔 07 取消了 12 中控屏下方的一排用于操控主副驾车窗的按钮,重新将这些按钮放回了车门上。 前排座舱的氛围营造,还是符合「新豪华」格调的,NAPPA 真皮座椅非常柔软舒适,其余看得见摸得着的地方均是软包处理,配合标配的座椅通风/加热/按摩,的确算得上是「头等舱」的体验。 需要特别说明的是,NAPPA 真皮需要 Ultra 顶配版才会标配,Max 版可以选配,而 Pro 版标配的是超纤皮革,观感和质感上应该会有差异。 更重要的是,前排座椅无论是主驾还是副驾都配备了一键「零重力座椅」的功能。 点按座椅侧边的按钮就能够将座椅靠背放倒,座位承托抬起,脚托也会升上来撑起小腿,让乘员进入到「零重力」的舒展姿态,只不过这样子会直接侵占到后排的乘坐空间,只能在后排无人乘坐的时候使用。 在驻车状态下,主驾也能打开零重力座椅小憩一会儿。 虽然考虑到阿维塔 07 的尺寸和定位,它的后排空间相对来说会局促一些,但是在前排设定在正常成年人坐姿之后,后排乘坐的腿部空间还算是比较充裕。 得益于电池一体化技术的升级,它的全景玻璃天幕配备了物理电动遮阳帘,而且后排的坐姿也不会觉得很高,左右两侧座椅对大腿的承托还算是不错。 唯独中间位置会比较高一些,乘坐的话也会侵占到两侧的位置,所以阿维塔 07 在我看来还是比较适合四个人出行乘坐。 值得夸赞的是后排左右两侧的皮质软包是从座椅端一直延伸到扶手处,视觉上带来了干净明亮的一体式设计感受,而在触觉上也对乘员的腰部和手部提供了足够舒适的支撑。 阿维塔 07 还在后排扶手处设置了一块「扶手屏」,上面可以打开后排两侧座椅的通风加热以及按摩(后排座椅通风、按摩仅顶配车型标配),还能控制遮阳帘和空调等设置。 扶手内部的收纳位置大概有一台 iPhone 的厚度,里面隐藏了一个带一圈指示灯的 18W USB-C 充电口,这也是后排唯一的充电接口。(前排提供一个 10W 的 USB-A 和 60W 的 USB-C) 而在前排座椅后背的孔洞里,阿维塔还预留了一个支架接口,选购配件之后是可以将平板放置在这个位置,预计是可以联动华为 MatePad 系列平板,与同为鸿蒙系统的车机进行联动。 除了零重力座椅这个配置和前排存在差异之外,后排让我觉得相比起前排会像是「经济舱」的原因,主要还是在于空调出风口以及下方的储物盒设计,过于简单、直接。 作为一个开放式的收纳盒,它斜向开口的内部可以放下四瓶水,或者一包抽纸加一瓶水,空间算是中规中矩,但敞开式的设定会让此处看起来比较杂乱,若是像我这样比较在意车内收纳整洁的用户应该会很谨慎地思考往里放些什么,无形中增加了收纳成本。 而且此处并未预留 USB 充电口,后排唯一的充电口,仅在于扶手内部的一个 USB-C 接口,如果刚好车内是满载五人出行的话,那么后排乘员可能就会丧失了充电自由,或者不得不从前排那儿拉取一根长线缆到后排来给手机补电了。这怎么想,都觉得不够优雅。 而且放在同价位的同类车型里去看,大家对这个地方的期许,显然是一个冰箱,或者准确地说是一个冷暖箱。毕竟买阿维塔 07 的年轻用户们不一定要带娃,但还是会想要在炎热的夏天里,在车里随时喝上一瓶冰可乐的吧。 是的,阿维塔 07 还是没有冰箱。 还有一点需要注意的是,前排双层的静音玻璃基本上全系标配,但后排就没有配备静音玻璃了,而且后排的隐私玻璃就要 Ultra 四驱版才会提供。 音响方面,阿维塔 07 全系都配备了英国之宝音响系统, Pro 版是 16 扬声器而 Max 和 Ultra 都是 25 扬声器。 我们体验的顶配车型配备的是 14 扬声器的「英国之宝·卓越之声音响系统」,提供 7.1.4 声道,峰值功率达到 2016W。 因为听感是一件比较主观的事情,我个人觉得它基本处于同级较优水平,属于值得考虑充值华为音乐会员去畅听空间音频专区的程度,所以建议大家去线下试驾的时候再试听下。 阿维塔 07 的后备箱开口设计得比较大,加上空悬配置可以降低车身,往后备箱里取放物品都非常方便,而内里空间大约是 500L。 它的后排座椅也是支持 4/6 放倒的,可惜后备箱没有配备电控按钮,而是需要用户自行打开车门手动放倒座椅。 和绝大多数手动放倒座椅的车型一样,在放倒座椅前,我们也需要稍微手动调整下前排座椅,不然放倒的时候就会卡住。 后排座椅完全放倒之后,完整纵深可达 1.8 米,拥有较为可观的装载空间。官方应该也会推出匹配的充气床垫,可以让其变成比较平整的「大床房」。 整体而言,阿维塔 07 的座舱空间基本符合我们对这个尺寸定位下的预期,座舱内舒适性配置基本集中在前排,尤其是左右平权的零重力座椅和座椅加热通风按摩这些舒享配置。 而后排位置可能还是卷得不够彻底,稍微逊色于同级别的某些主张「冰箱彩电大沙发」的车型。 整车性能:让「昆仑增程」开起来和「神行纯电」一样 阿维塔 07 对于阿维塔来说应该是意义重大的一款车型,因为它不但提供纯电版本,还首次提供了增程版本。 要想区分阿维塔 07 的纯电车型和增程式车型的话,我们可以从前脸完成甄别。 纯电车型的前脸下方配备的是电动式的主动进气格栅,车辆启动之后,格栅会随着散热风扇的启动而打开。 增程车型的前脸下方配备的是菱形网状进气格栅,正中间是一个 AVATR 的 logo,基本上是一个 Always On 的设定了。 这儿我比较好奇的是,大家会基于这个格栅样式的区别,从而去选择纯电 or 增程吗? 既然是阿维塔旗下的首款增程式车型,那么大众对它的好奇心更多的是在于它的增程动力表现。 在发布会上,阿维塔也总结了「当下增程用户的三大核心痛点」: 有电龙没电虫、用电静用油吵、加油快充电慢。 作为增程式老车主的我,对此也深以为然。 于是,带着昆仑增程而来的阿维塔 07,显然已经针对这三大痛点准备好了应对之策。 而且阿维塔昆仑增程技术的目标,就是要在解决续航里程焦虑的同时,满足动力强、很静谧、油耗低的「不可能三角」,抹平增程和纯电在体验上的差距。 具体来看,阿维塔 07 的「昆仑智慧增程」搭载了 1.5T 四缸增程专用发动机,该发动机的功率为 115kW,并且具备 44.39% 发动机热效率和 3.63kWh/L 的油电转化系数。 最重要的一点,是这套增程动力系统只需 92# 燃油就能够满足使用,相比起大多数需要 #95 燃油的增程发动机来说,它的用车成本也有显著下降。 ▲长期平均油耗在 5.4L/100km;长期驱动电耗在 17.9kWh/100km 三大痛点之首,是增程发动机的噪音。 为了解决增程发动机一直以来的噪音问题,阿维塔选择以「主动」的方式,从发动机内部开始降低噪音。 在自研的昆仑增程 HE 1.5T 超增压专用发动机中,阿维塔加入了电子机油泵(EOP)技术,该油泵通过独立电机来驱动,取消传统泄压结构,能够以更低功耗和更低时延建立机油压力,从而提升发动机热效率并有效降低噪音。 为了进一步降低增程发动机在启停时会带来的噪音,昆仑智慧增程还引入了「停机活塞主动控制技术」。 在发动机熄火时,利用发电机控制器,来控制曲轴最终的位置,将发动机活塞调整到最佳位置,从而降低发动机启动时的缸压,有效降低增程发动机启动时候的噪音和震动,最终降低舱内乘员对发动机启停的感知。 事实上,在驾驶增程版四驱车型时,即便我将车辆设置为「燃油优先」,然后驾驶模式固定在比较常规的「舒适」时,我坐在驾驶位上是很难去感知到增程器是否在运转的。 唯有将「燃油优先」、「运动模式」、「强制发电」统统打开,我才能感知到增程发动机开始运转,若是没有细心聆听,的确不会对它有过分感知。 按照陪驾工作人员的介绍,阿维塔 07 还针对增程器进行了「被动降噪」的调优,采用了复合静音材料和复合阻尼材料,充分利用高分子材料的阻尼特性,实现减振降噪,确保驾乘的舒适性和静谧性。 增程式的痛点之二,在于馈电性能的强烈衰减。 在动力电池处于低电量的馈电状态下,电池的放电能力会出现明显的衰减,导致车辆的加速性能相比起满电时标称的零百加速性能要慢上许多。 为此,宁德时代为阿维塔 07 准备了一块 39kWh 的「神行超级增混电池」,这块电池在满电状态下可以提供 9C 的峰值放电倍率;而在低电量状态下,也能保持 7.7C 的峰值放电倍率。 所以阿维塔 07 增程两驱的满电/馈电零百加速时间为 6.6s/7.3s;而增程四驱版的满电/馈电零百加速时间为 4.9s/5.8s。满电和馈电状态下,加速衰减率都比较低。 所以,当我驾驶一部电量较低的阿维塔 07 增程版,以「燃油优先」在宁波市区路段穿梭时,它传递给我的感觉的确是更偏向于「电感」般的灵快,而且过程中我对增程器的介入几乎无感。 增程式的痛点之三,在于直流充电慢。 相较于纯电车型不断攀升的充电速度,增程式车型近两年的充电速度似乎变得停滞不前,销量排名靠前的增程式车型大多都只支持 2C 充电倍率,峰值充电功率大概是 70kW。 加上增程式车型普遍电池容量较小,续航相对更短,换言之就要更加频繁地充电。 在没有家充条件的情况下,我身边的增程式车主平均两三天就要去一趟快充站,花上将近一小时的时间来进行直流快充。 好在来到 2024 年,增程式的新车开始用上更好的电池,充电速度也有了提升。 阿维塔 07 的「神行超级增混电池」也在此列,峰值充电倍率达到了 3C。官方表示,电量从 30% 冲到 80% 只需要 15 分钟。 在实际插枪进行直流快充时,充电功率可以跑到 120kW,提升确实明显。 若是从 10% 充到 95% 的话,随车的工作人员表示大约需要 35 分钟左右。 显然,阿维塔此时选择入局增程,一方面是因为要迎合市场对增程式车型的旺盛需求,另一方面是已经准备好相对更先进的增程技术,自信能够带来更优表现。 从这个方面来看,「昆仑增程」的方向也找对了——配备更加安静且更高效率的增程发动机,还有性能更好的电池,将会是增程式新能源车辆持续更新的未来趋势。 最后我们再来看看阿维塔最为擅长的「纯电」,阿维塔 07 的纯电版本无论是两驱车型还是四驱车型都搭载了 82.16kWh 宁德时代神行超充电池。 得益于 800V 高压平台,官方宣称其峰值充电倍率是 4.5C,直流快充最高功率可达 420kW。 充电 10 分钟,就可以从 30% 充至 80%,补能大约 350 公里续航。配合华为液冷桩(600kW)的话,电池从 0% 充至 100% 大约耗时 30 分钟。 续航方面,两驱车型 CLTC 工况续航 650km、四驱车型 CLTC 工况续航 610km。按照我们实际开了一天的 300KM 的情况来看,其四驱版本的 WLTC 续航情况大约是 CLTC 的 8 折左右。 驾驶体验:太行智控底盘,舒适刹停魔毯悬挂 阿维塔 07 开起来除了轻灵的感觉之外,我印象最为深刻的,还是它具备 CST2.0 全场景舒适制动的能力,在缓缓刹停车辆的时候,阿维塔 07 的车身俯仰程度非常之低,非常平稳且不点头地完成了刹停。 在悬架方面,阿维塔 07 采用了前双叉臂及后多连杆独立悬架,得益于硅镁铝合金材质,在提升强度的同时,也有效降低簧下质量。 因此,我觉得阿维塔 07 的转向比较精准,变道和入弯时车辆动态也非常稳定,车辆循迹性也符合我的预期。在较为狭窄的城区街道以及蜿蜒的山路上,阿维塔 07 处理得也很得心应手。 阿维塔 07 还具备了智能空气弹簧+CDC 动态阻尼减震的配置,这套配置此前已经在阿维塔 11 和 12 上经过验证了,调校比较偏向舒适性,在默认状态下会提供 60mm 的行程,在山路上经过一些起伏和减速带时都能够给车辆提供一个舒适取向的柔和支撑,并且减少路面传上来的信息。 当然我们也可以调节它的高度或者将它设置为「自适应」的状态,那么在追求运动驾驶感觉的时候,我们可以将悬挂高度设置为「低」,缩减悬挂的行程,增加悬挂的回弹能力,获得更清晰的路面感知。 因为有了空悬的配置,所以阿维塔 07 是支持后备箱一键降低方便取放东西,也支持四轮高度的独立调节,让车身实现一键调平。 除此之外,阿维塔 07 的四驱版本也能实现「双电机智能辅助掉头」——通过 ESP 智能控制,车辆在低附着力路面可以锁定一个后车轮来缩短转弯半径。 回顾整个驾驶体验,我认为无论是增程版还是纯电版,阿维塔 07 开起来都是一部极具电感,非常灵快的车型。得益于可调节的空悬+CDC,它既有足够舒适的一面,也能提供足够韧性运动的一面。 智驾体验:顶置单激光雷达,华为 ADS 3.0 常用常新 之前的阿维塔车型都配备了「三激光雷达」的冗余配置,得益于硬件领先所以一直都能跟上华为 ADS 高阶辅助智能驾驶系统的更新脚步。 而定位更加亲民一些的阿维塔 07 改用了业界主流的单颗顶置激光雷达的方案,配备华为量产最高线数的 192 线激光雷达,加上全车 27 个智驾传感器,共同为 ADS3.0 的预装做好了万全准备。 但 HI 模式对华为最新 ADS 版本的适配似乎还是会比智选车模式稍慢一些,所以我们体验到的阿维塔 07 依然采用的是 ADS3.0 的 beta 版本,它暂时还不能像享界 S9 那样「从一个车位直接智驾开到另一个目的地的车位上」,还是只能由驾驶员来根据场景选择智驾功能。 目前我们体验到的,包括端到端的类人城区+高快的 NCA 领航辅助驾驶,阿维塔 07 的表现已经相当老道,无论是跟车还是上下匝道都非常丝滑,几乎无需人类接管,体验感觉更加高效。 另外阿维塔 07 还支持 RPA 离车泊入功能,扫描好停车位之后,驾驶员可以直接下车离开,车辆自主完成泊入。 同样的,车辆也可以听懂你的召唤,在 app 当中选择召唤车辆,车辆就会自动开出车位,并且朝着你的方向而来。 阿维塔表示,完整的 ADS3.0 端到端类人智驾的能力,很快也会推送到阿维塔 07 和其他更多的阿维塔车型身上。 界系有的,阿维塔也会有。 总结:阿维塔不再「偏科」,增程和纯电两手抓 质疑增程,理解增程,加入增程。 在之前发布过的文章中,我们已经从 2024 年上半年中国市场乘用车销量数据得出一些结论: 只搞燃油车,死路一条;转型新能源,绝处逢生。 只不过在新能源的高增长中,主要出力的,还是混动和增程,而非纯电。 就像具备增程版和纯电版的问界 M9,销量比例依然是增程占大头,达到 80%~90%;而纯电车型的销售比例只有一两成。 不难看出,「增程」是提振销量的有效方法,而「纯电」很可能会有些「赌」的成分。 为了抓住市场机遇,迎合消费需求,并在贴身搏杀的同级车型中脱颖而出,所以我们在阿维塔 07 身上既能见到神行纯电,也能见到昆仑增程。 事实上,选择了正确的方向之后上市 20 小时之后,阿维塔 07 收获大定订单 11673 台,一举扭转了销量态势,昆仑增程确实是功不可没,油箱的确带来了销量。 除此之外,坊间一直都有传言说,目前专注于纯电市场的极氪、小米、智己还有小鹏,都可能会在不久的将来推出增程式或者混动车型。 根据阿维塔的产品规划,除了刚刚上市的阿维塔 07,阿维塔还会在今年四季度或者明年推出阿维塔 11 和 12 的增程版本车型。 更「卷」的增程式车型,陆续有来。
神秘“蓝莓”登顶文生图竞技场,疑似Flux.1续作,网友:都来免费打广告了
都来玩这套。 继OpenAI“草莓”之后,又有神秘模型蓝莓来“霸榜”。 在文生图模型排行榜上,两个“无人认领”的模型blueberry_0和blueberry_1力压Flux.1、Ideogram v2、Midjourney v6.1等知名模型,成为最新榜一榜二大哥。 一些生成效果be like,确实不错。 不过这一次,未必是OpenAI跨界来搞事,背后公司更可能是打造了Flux的黑森林实验室。 为啥? 来看这组PK。blueberry_0生成的大胡子男人,和Flux Pro的几乎一模一样。 有人猜测,难道是Flux的新版本? 我们实测时也发现了类似的情况,blueberry_1在同一提示词下,生成图像从构图、光线到细节,与Flux.1[pro]非常像。 有网友就评论说,这真的很有意思。 公司在发布新模型之前先把它放在模型竞技平台上,大多数时候用户也能猜的出来它来自哪家公司。 …… 这几乎是一种免费打广告的形式了。而且就是能吸引到目标用户。 对提示词理解更精准 现在,在竞技场中随机匹配即可“偶遇”两个蓝莓模型。 从实际生成效果中可以找寻出蓝莓模型的一些特点。 比如和Midjourney v6.1对比,blueberry_1在细节和真实性上更好。 Midjourney生成的人物手部不够自然,眼睛看着的是桌子而不是收银机,背带裤扣子也很奇怪。 相对而言,blueberry_1整体更协调,光线更自然。 和Stable Diffusion XL 1.0比较,写实性更好。 和FLUX.1[dev]对比,blueberry_0对提示词的理解更精准,细节处理能力更强。 提示词中提到的山谷中充满神秘物种,FLUX.1[dev]只画了一个。 但是也有一些情况,blueberry_0的表现不算突出。觉得谁更好或许就见仁见智了。 除此之外,还有网友发现蓝莓模型在生成图像中的文本上表现不佳。 从数据上来看,两个蓝莓模型之间的差距并不大。从生成质量和速度两个维度评判,它们也都处于第一梯队。 相对而言blueberry_0的生成质量更高一点点。如下结果是基于模型在竞技场中PK10000次以上后进行评定。 生成速度上也是blueberry_0更快。 竞技场胜率上,blueberry_0排第一,Flux.1[pro]第二,blueberry_1第三。 网友:是OpenAI还是黑森林? 目前还无人认领“蓝莓”模型,网友们的猜测还在继续。 有人觉得它在细节上还有很多问题,不太可能是OpenAI的模型。 比如小屋出现了两个门把手。 下图人物被挡住的胳膊和手有问题。 但也有人说,最近OpenAI员工透露会有新模型,有可能是OpenAI悄悄发布。 当然,也有人质疑“蓝莓”模型分数虚高,在一些情况下它的表现不及Dall·E 3。 我感觉结果被操纵了,这样它们就能拿着这些成绩去给投资人看。“蓝莓”很明显就是参考了“草莓”的做法,而“草莓”模型就很可疑。 你觉得呢? 现在也可以去竞技场上实测“蓝莓”模型效果。
OpenAI融资文件曝光!ChatGPT年收入涨4倍,月费5年内翻倍
编译 | 吴浪娜 编辑 | 漠影 智东西9月29日消息,据《纽约时报》9月27日报道,OpenAI的内部文件显示,该公司在8月份的月收入达到3亿美元,自2023年初以来增长了1700%,预计今年年度销售额将达到37亿美元,其中ChatGPT将带来27亿美元的收入。OpenAI估计,其收入将在明年膨胀至116亿美元,并在2029年达到1000亿美元。 目前ChatGPT的订阅费用是每月 20 美元,OpenAI将在今年年底前把ChatGPT的价格上调2美元(即22美元),并在未来五年内将其大幅上调至44美元,这一价格相比目前20美元的月订阅费已经翻倍。据悉,Thrive Capital作为OpenAI新一轮融资的主要投资者享有一个特权,即有权在2025年之前以同样的1500亿美元估值向OpenAI再投资10亿美元。 公司现任CEO阿尔特曼、科技巨头马斯克以及其他几位技术专家于2015年底共同创立了这家非营利性的AI研究实验室,其董事会至今仍控制着公司的运营。 然而,在2018年马斯克及其资金离开后,阿尔特曼将运营转变为所谓的利润上限(caped-profit)公司,以便筹集到发展AI所需的数十亿美元。这种组织形式为投资者提供了回报,但这些利润是有限制的。而且,它一直由一个非营利性的董事会管理,该董事会不对投资者负责。 一、预测OpenAI今年将亏损50亿美元,ChatGPT月订阅费5年内将涨至44美元 OpenAI一直告诉投资者,其聊天机器人ChatGPT正在创造数十亿美元的收入,并预计在未来几年内将赚取更多。然而,对于其亏损的具体数额,OpenAI一直没有明确透露。 然而,根据一位同样看到了文件的金融专业人士的分析,在支付运营服务成本、员工薪资和办公室租金等其他费用后,OpenAI预计今年将亏损约50亿美元。这些数字并不包括向员工支付基于股权的薪酬,这是文件中未完全解释的大额支出之一。 OpenAI一直在向潜在投资者发送这些文件,希望在新一轮融资中筹集70亿美元,并将公司估值提高至1500亿美元,这是私营科技公司里前所未有的高水平。据悉,此轮融资可能于下周完成,对于正在经历快速发展但接连失去了一些重要高管和研究人员的OpenAI来说,这是一个关键时刻。 这些文件首次详细展示了OpenAI的财务业绩以及它如何向投资者展示自己,但它们并没有清楚地解释公司到底亏损了多少钱。融资文件还显示,OpenAI的支出随着其产品用户数量的增加而增长,因此它需要在未来一年内继续筹集新的资金。 OpenAI拒绝对这些文件发表评论。 根据文件显示,与一年前相比,OpenAI在8月份的收入增长了三倍多,截至今年6月,每月使用其服务的人数约为3.5亿人,而在3月时这一数字仅为1亿人左右。 这主要得益于ChatGPT的持续流行,该服务于2022年11月发布。根据文件显示,在ChatGPT开始允许人们无需创建账户或登录即可使用服务后,其用户增长出现了飙升。该公司预计,今年ChatGPT将带来27亿美元的收入,高于2023年的7亿美元,其中10亿美元来自使用其技术的其他企业。 文件中提到,大约有1000万ChatGPT用户每月向公司支付20美元的费用。文件称,OpenAI预计在今年年底前将这一价格提高2美元,并在未来五年内将其大幅提高至44美元。超过100万第三方开发者使用OpenAI的技术来为其自己的服务提供支持。 OpenAI预测,其收入将在2029年达到1000亿美元,这大致与雀巢或美国零售巨头塔吉特(Target)目前的年销售额相媲美。 二、OpenAI的融资或受高管离职影响,Thrive Capital获融资特权引不满 与过去几十年其他备受瞩目的科技初创公司一样,OpenAI也在努力控制成本。 其最大的成本是通过与微软的合作获得的计算能力,微软也是OpenAI的主要投资者。微软已向OpenAI投入了超过130亿美元的资金,但OpenAI将大部分资金用于微软的云计算系统,这些系统托管着OpenAI的产品。 据三位知情人士透露,除了此轮融资的主要投资者Thrive Capital外,OpenAI还在与微软、苹果、英伟达、Tiger Global以及由阿联酋控制的科技投资公司MGX进行谈判。 OpenAI向投资者提供了不同寻常的交易结构。据一位知情人士透露,Thrive Capital已向OpenAI的最新一轮融资投入了7.5亿美元。除了投入自己的资金外,该公司还计划使用一种名为特殊目的载体(Special Purpose Vehicle)的金融工具,从其他投资者那里筹集额外的4.5亿美元。 作为该论融资的主要投资者,Thrive还享有一个不同寻常的特权:根据文件显示,若OpenAI实现收入目标,它有权在明年以同样的1500亿美元估值向OpenAI再投资10亿美元。鉴于OpenAI的估值从一年前的300亿美元迅速飙升至如今的1500亿美元,这对Thrive来说可能是有利可图的。 据两位知情人士透露,OpenAI的其他投资者都没有获得同样的条款,其中一些投资者对这种特权感到不满。 结语:OpenAI走到了发展的十字路口 OpenAI的融资可能会受到近日三位高管离职的影响。当地时间周三晚上,其CTO米拉·穆拉蒂(Mira Murati)辞职,随后CRO鲍勃·麦格鲁(Bob McGrew)和研究副总裁巴雷特·佐夫(Barret Zoph)也相继离职。 根据文件显示,作为此轮融资的一部分,OpenAI需在两年时间内转变为一家营利性企业,否则其融资将转化为债务。 核心人员接连出走,新一轮融资在即,企业面临转型,大模型变革的领头羊OpenAI走到了新的十字路口。这一轮融资落地后,如果OpenAI商业化进展顺利,将为行业提供参考意义。
OpenAI的新挑战:九大产品繁杂难以管理,让用户眼花缭乱
编译 | 吴浪娜 编辑 | 漠影 智东西9月29日消息,据Supervised今天报道,虽然OpenAI的最新模型o1在性能上有了显著提升,但它也给该公司带来了一个潜在的新挑战:产品组合繁杂。 OpenAI的最新产品o1和o1-mini,实际上让用户和客户在性能和成本之间做出了权衡:你可以选择等待更长时间,并暂时支付更多费用,但输出结果应该会好得多。它不是那种可以插入呼叫中心的应用程序接口(API),但它确实为这家已经覆盖了一系列细分市场(除了没有“一个几乎无所不能的产品”)的公司填补了一种新的细分市场。 o1的应用场景基本上是“你需要稍微思考一下”的问题。美国云服务管理平台Box CEO亚伦·列维(Aaron Levie)给出了一个极好的企业应用场景,即需要找到合同中一个非常具体的参数——例如,合同的最终签署日期,也就是合同实际生效的日期。这是一个真正“需要稍微思考一下”的问题,在一个原本简单的问题上增加了一层复杂性,人们可能在不同的日子签署了合同。 这对于OpenAI来说也是一种相对较新的应用场景。在过去,OpenAI可能需要调用一系列很长的API,并请求模型以提示调整或检索增强生成(RAG)的形式完成所需任务。相反,整个过程可能会被压缩成一两次调用,从而简化某些架构。OpenAI已经经历了一种“SaaS化”的过程,在这一过程中,OpenAI逐渐成熟,成为一家真正的企业。 随着OpenAI逐渐发展成为一个真正的企业,其产品组合(或称为模型组合)日益复杂,OpenAI正面临着公司产品组合繁杂的挑战。产品组合越庞大,管理难度就越大,处于这一阶段的公司面临的最大挑战就是如何避免产品组合变得繁杂,难以向用户传达价值。而且随着模型质量的不断提高,任何微小的分心都可能导致OpenAI被其他前沿模型公司超越。 Supervised总结了OpenAI现在非常庞大的API组合,共有9个产品: 1、GPT-4o:一个多模态、昂贵(虽然也没能幸免于降价影响)的模型,应该是通用型的好产品。 2、GPT-4o mini:GPT-4o的削弱版本,旨在作为其主力模型GPT-3.5 Turbo的继任者,以满足大量更简单的应用场景。 上述模型的微调版本,可满足企业的特定需求,尽管它们通过API提供,这可能会让一些更注重安全性的公司望而却步。 3、o1:一个以速度和价格为代价换取质量的模型,允许它有更多时间对答案进行“推理”。基本上就是需要“停下来想一想”的问题。 4、o1-mini:就像4o mini一样,是o1的削弱版本,设计用于……同样的“停下来想一想”的问题,但我们可以假设它确实能解决一系列问题。 5、Whisper:可以说是市场上最好的语音转文本模型,可以肯定的是,它是为生成OpenAI所需的训练数据而构建的。 6、文本嵌入:算不上最好的嵌入产品,但其优势通常在于它与其他OpenAI产品一起提供,从而减少了采购的麻烦。 7、文本转语音:假设延迟正常,你可以将其应用到类似呼叫中心里的API。它有普通和高清两个版本的API。 8、高级语音助手:一个技术奇迹般的产品,它可以让你在ChatGPT内进行主动对话,尽管其应用场景仍然不太明确。 9、ChatGPT:OpenAI将上述所有内容“产品化”,集合到一个前端企业友好型的包装中。 在此期间,Meta开始显示出更多的混乱,它在几乎每一个类别中都发布了更新的模型。不过Meta这些模型是开源的,并为一系列非常不同的产品提供支持,尽管它们存在于同一个“桶”中。通过o1,OpenAI本质上是在再次尝试创建新的类别,但同时也冒着产品组合繁杂的风险。 下面对比了OpenAI和其竞争对手的产品定价: ▲OpenAl的产品在价格和用途上存在差异(图源:X) 这些费用可能远未达到o1发布一段时间后的水平。OpenAI已经开始逐步增加速率限制,最近o1-preview从每周30个增加到50个,o1-mini从每周50个增加到每天50个。 ▲OpenAI在社交平台X上分享道,将逐步增加o1-preview和o1-mini的速率限制(图源:Supervised) 虽然OpenAI的吸引力一直在于便利、价格和性能之间的某个最佳平衡点,但其繁杂的产品组合无疑既是挑战也是机遇。该文章作者马修·林利(Matthew Lynley)严重怀疑价格不会一直这么高,因为其下一个GPT模型迟早会准备好。但就目前而言,它至少在试图筹集巨额资金的时候,开发者拥有了一些价格较高的产品当作谈判筹码。 然而,这里的挑战与任何成熟企业随时间推移开始面临的挑战相同:产品繁杂。虽然OpenAI在技术上以API和ChatGPT的形式拥有“两个”产品,但这些产品都有大量的分支,服务于非常广泛的应用场景。这些API也远远超出了聊天补全和文本生成的范围,包括了各种各样的模态。而它的语音产品看似是ChatGPT“惊艳”的部分,其实可能是其产品组合中最尴尬的部分。 产品繁杂在创业领域是一个公认的问题,如果你还能称OpenAI为一家初创公司的话。随着初创公司的成熟,其用户和客户群的不断扩大,它必须有方向性地发展,更少的产品满足更多客户的需求,而不是为每个人构建一切。或者更简洁地说,做几件事,但都要做好。 提供如此广泛的应用场景,让OpenAI能够将用户引导到某种稳定状态,在这种状态下,它不一定赚钱,但至少不会亏本。在API方面,传统的做法是将用户推向其主力模型(特别是微调版本),但对于ChatGPT而言,这一点就不太清楚了。 虽然新模型在ChatGPT中是有速率限制的,但这也是OpenAI除了API之外极其重要的业务部分。据The Information报道,OpenAI COO布拉德·莱特卡普(Brad Lightcap)告诉员工,OpenAI拥有超过1000万名ChatGPT的付费订阅用户,另外还有100万名企业订阅用户。(彭博社此前曾报道,OpenAI有100万名ChatGPT的企业订阅用户。) 当然,我们可以做很多粗略的计算,但都会得出相同的结论:除了API之外,ChatGPT的企业业务现在和将来都会是OpenAI业务的重要组成部分。 但ChatGPT带来的收入并不会像API那样,直接随着o1的使用而增长。无论是通过API还是ChatGPT内部运行o1,实际运行它的成本可能会随着预训练计算资源转向推理而发生变化。 幸运的是,OpenAI在这一领域已经有了很多进展。业内人士目前额外关注的一种方法是蒙特卡洛树搜索(Monte Carlo Tree Search),它可以减少生成高质量结果所需的计算量。蒸馏(distillation)是另一种“缩小”大模型的方法,随着人们的兴趣转向管理高性能模型的推理成本,蒸馏法也获得了很大的发展。 (蒸馏是一种机器学习模型压缩方法,它用于将大型模型的知识迁移到较小的模型中。) “这就是甜点,将传统预测性机器学习的策略与现代技术相结合。”模型开发商和平台h2o的联合创始人兼CEO斯里·安巴蒂(Sri Ambati)告诉马修,“树状搜索是一个绝对的天才技巧,它是一种非常容易实现的目标,与大语言模型的卓越性相结合。” 在与专家和知情人士交谈的交谈中,最常提到的另一点是诺姆·布朗(Noam Brown)在OpenAI的工作。布朗被广泛认为是博弈论领域的顶尖专家,许多人都想知道他的工作将如何应用到OpenAI的产品中。布朗还是一篇论文的共同作者,该论文部分研究了蒙特卡洛树搜索在开发类人代理中的应用。 结语:OpenAI面临成本挑战,降价保竞争力 OpenAI的API面临的挑战是,根据最近与大多数企业和平台的情况,在为场景构建AI应用时,成本是第一或第二重要的考虑因素。但OpenAI已经表现出逐渐降低价格以保持竞争力的意愿。 此外,ChatGPT的企业业务似乎是OpenAI业务的主要驱动力,这也很说明问题,因为所有这些开发基本上都是为该企业套件服务的。对于那些在管理和成本方面有更高要求的公司来说,使用现成的廉价产品在公司内部开发定制产品的做法越来越有吸引力。 有一种愤世嫉俗的观点认为,OpenAI试图说:“嘿,看,我们还在创造非常先进的东西,别忽视我们的融资号召。” 然而,这种观点的另一面是,根据CNBC的报道,OpenAI似乎已经获得了一轮超额认购的巨额融资,已经成长为一家更适合企业产品的公司。现在,OpenAI只需要确保其在销售电话中不会用庞大的产品组合迷惑企业。
苹果坑惨OpenAI:最后一刻退出融资!阿尔特曼画的饼不香了?
编译 | 陈骏达 编辑 | 云鹏 智东西9月29日消息,昨日,据《华尔街日报》报道,苹果在OpenAI新一轮融资完成前的最后一刻选择退出谈判,该轮融资按原定计划最早于下周完成。 就在苹果退出本轮投资前不久,OpenAI再度损失3名核心技术高管。在人才流失危机之外,OpenAI连年出现巨额亏损,并缺乏自主造血能力,他们告知投资者OpenAI明年还需要再进行一轮融资。这或许也是不少投资者迟迟未敲定最终协议的原因。 ▲苹果与OpenAI有合作关系,Apple Intelligence接入了ChatGPT的服务(图源:苹果) 另据《纽约时报》报道,过去一段时间,OpenAI一直在向潜在投资者分发筹款文件,分享公司的财务状况和经营信息。 文件显示,OpenAI今年8月份的收入同比增长2倍多,达3亿美元,和2023年年初相比,OpenAI的月收入增长了1700%。截至今年6月,每月约有3.5亿人使用OpenAI的服务,而今年3月份的人数约为1亿。 OpenAI预计,今年该公司的年销售额约为37亿美元,明年其收入将激增至116亿美元,但他们并未明确亏损金额。 根据一位同样审查了这些文件的金融专业人士的分析,在支付了与运营服务相关的成本以及员工工资和办公室租金等其他费用后,OpenAI今年预计将亏损约50亿美元(约合351亿元人民币)。 这一亏损额不包括向员工支付的基于股权的薪酬,以及文件中未完全解释的几项大额费用。 OpenAI还在文件中解释,由于公司的运营费用会随着用户数量的增长而水涨船高,因此明年需要再进行一轮融资。 科技巨头微软与英伟达一直在参与OpenAI的本轮融资。微软预计将会投资约10亿美元,这将使他们对OpenAI的投资额来到140亿美元。 OpenAI本轮融资由美国风险投资公司Thrive Capital领投,该公司投入了大约10亿美元,专精于科技投资的Tiger Global Management和具有阿联酋国资背景的投资公司MGX也参与了谈判。但本轮融资的参与者和金额都尚未确定。 为应对日益增长的成本并回应投资人的关切,OpenAI已在新一轮融资的协议中包含了将公司在2年内转变为营利性公司的承诺。 此外,OpenAI计划在今年年底前将个人ChatGPT订阅的价格从每月20美元提高到每月22美元。未来5年,提价的幅度会更大,到2029年,OpenAI预计ChatGPT Plus的每月订阅费用将升至44美元。 目前,ChatGPT拥有约1000万付费用户,但彭博社进行的一项调查显示,仅有1%的参与者愿意为ChatGPT支付20美元的订阅费用,未来OpenAI激进的提价策略可能会进一步影响用户的订阅热情。
如何更高效地使用Gemini?7个技巧教你玩转聊天机器人
作者 | 杨蕊伃 编辑 | 漠影 智东西9月29日消息,Gemini是谷歌推出的AI模型,可以同时识别文本、图像、音频、视频和代码五种类型信息,还可以理解并生成高质量代码。 谷歌基于Gemini大语言模型开发了Gemini AI聊天机器人。尽管Gemini具备强大的语言理解和生成能力,但如果用户无法准确地给出合适的提示词,就难以获得准确的回答。 为了帮助普通用户更高效地与Gemini对话,外媒选取了7个常用的功能,并给出了一些提示技巧。 一、洞察流行趋势 Gemini能够对互联网进行实时搜索,帮助用户了解最新的流行趋势。 在分析流行趋势时,Gemini的多模态能力可以让它从广泛的数据源中获取信息。Gemini不仅可以分析文字内容中的流行话题,还能通过图像和视频内容来捕捉视觉上的流行元素、趋势,从而更全面、准确地帮助用户洞察流行趋势。 如果用户对最新的TikTok舞蹈挑战感兴趣,可以这样询问其聊天机器人:“请告诉我最新的病毒式TikTok舞蹈挑战是什么?为我分解步骤,并找到一个YouTube视频教程,以便我可以学习。” ▲用户可以通过Gemini了解最新舞蹈潮流趋势(图源:谷歌) 二、制作食物图像 Gemini借助Imagen 2 AI图像生成器,能够根据用户的描述生成食物图像。 作为谷歌的先进AI模型,Gemini在图像生成速度方面具有优势。 当用户需要生成食物图像时,只需要给Gemini AI聊天机器人发出准确提示,它就能迅速响应并呈现出用户所想的画面。用户可以这样提示它: “生成一张图片,显示一张桌子,其中至少有两个食物组的随机成分。” 不过,Gemini生成图像的功能存在一些限制,目前它只能制作方形图像,并且在除美国之外的一些地区暂时无法使用。 ▲用户可以通过Gemini生成食物图像和食谱(图源:谷歌) 三、拟定假期计划 Gemini擅长帮助用户规划完美假期,它能够帮助用户节省航班和酒店预定的费用。 要使用该功能,用户可以这样提示其聊天机器人:“我打算周末去 [具体位置] 度假,请给我一些酒店选项和活动建议。” 据悉,Gemini的定位功能通常被认为比竞争对手的定位功能更先进,它利用了谷歌拥有的大量互联网用户数据。 ▲用户可以通过Gemini生成完美假期计划(图源:谷歌) 四、提供家庭健身方案 Gemini可以为用户提供个性化的家庭健身计划。 要想启用此功能,用户只需要对Gemini说:“我正在寻找一种快速有效的20分钟家庭锻炼方案,专注于核心力量。您能否针对不同的健身水平提供明确的建议方案?” ▲用户Gemini生成符合自身需求的建设计划(图源:谷歌) 五、合作创作音乐 Gemini具有合作创作歌曲的功能,它可以帮助用户进行音乐创作。用户可以通过与其机器人对话获得灵感,并与其共同完成一首歌的创作。 用户可以提供一些旋律或歌词的创意,然后让Gemini根据这些创意生成更多的音乐元素,如和弦进行、节奏模式或完整的歌词段落。 用户可以对它这样说:“我们一起写一首歌吧。第一节从你开始。” 通过这种互动,用户可以参与到一个创新的创作过程中,创作出独具匠心的音乐作品。 六、想象中的朋友 Gemini支持与用户进行想象对话,这种类型的交流不仅能够激发用户内心的想象力,还能为用户提供一种逃离日常现实、探索未知世界的方式。 该功能的聊天提示词可以这样写:“让我们假装我们是荒岛上的探险家。我们看到了什么,我们有什么冒险经历?” 据悉,用户与Gemini想象互动时,它会生成冒险故事图像和曲折的故事情节,能让用户感觉仿佛真的置身于荒岛上。 七、个人顾问 当用户感到不知所措时,可以向Gemini寻求帮助,它可以充当用户的个人顾问。Gemini可以针对用户的烦恼,为其提供一系列排解压力的建议。 用户可以对它说:“我感到不知所措。您能提供一些关于如何排解压力的建议吗?” 结语:从音乐创作到一起“冒险”,Gemini让生活更有趣 对于新用户来说,如何与Gemini AI聊天机器人对话并生成准确答案是一个挑战。外媒提出的七个提示技巧,为用户提供了实用的入门指南,涵盖了从舞蹈学习到图像生成,再到度假规划和健身指导等多样化场景。 Gemini不仅仅是一个AI产品,更像是一个伙伴,与用户共同探索生活的美好,不断挖掘信息提升生活质量。
雷鸟创新李宏伟:Meta造梦,而AR眼镜的未来可能在中国
作者 | 张勇毅 编辑 | 靖宇 北京时间 9 月 26 日凌晨一点,一年一度的 Meta Connect 正式召开,除了最新的 Quest 系列头显与 Ray-Ban Meta 系列产品线更新,Meta 第一次公开展示了其在 AR 领域研发十余年的成果——AR 眼镜原型机 Orion。 用传统眼镜的形态,挑战以往 MR 头显才能拥有的性能与体验,Orion 的出现对于整个行业来讲都无异于一颗重磅炸弹,引发的话题度与讨论不亚于 Apple Vision Pro。 作为国内 AR 行业的重要玩家,雷鸟创新无论是对于 Meta 新品的看法,还是未来的硬件产品规划,自然都成为了备受外界关注的对象。 9 月 27 日晚,极客公园创始人&总裁张鹏,与雷鸟创新创始人兼 CEO 李宏伟在极客公园微信公众号进行直播,就本 Meta Connect 大会公布的 Orion 原型机,以及雷鸟创新在 AR 眼镜产品领域的布局与规划,进行了详细探讨。 根据本次 Meta Connect 大会中公开的信息,Orion 几乎整合了所有 AR 业界最前沿的方案:MicroLED 显示、基于碳化硅材质实现的光波导方案、AI 功能的端侧整合,以及与手机「共生还是取代」关系的探讨。实际上,「下一代通用计算平台」的出现已经呼之欲出。 李宏伟认为,Orion 效果看起来很酷,但依然是「三年后的产品」。如果说 Orion 是 AR 版的「Apple Vision Pro」,在这同一技术路线布局多年的雷鸟创新团队,则希望打造一个中国版的「Vision」,能让消费者在年内就买到。 作为 AR 行业的业内龙头之一,李宏伟认为包括雷鸟在内的中国 AR 品牌,在这个能定义重新下一个十年「个人通用计算设备」的契机前,在产品与 AI 的能力整合上,有着不输给西方同行的独特优势。 AR 眼镜领域不仅要仰望星空,更需要一步一步走好脚下,通过 AR 与 AI 功能与用户日常的更深层整合,让 AR 眼镜真正深入到用户的日常生活之中。 本次直播中,不仅有关于 AR 眼镜新品的讨论与技术分析,更是李宏伟首次在公开场合中披露新品规划:雷鸟创新未来不会只做 Orion 形态的 AR 眼镜产品,更会发布形态接近 Ray-Ban Meta 的 AI 智能眼镜产品。 在属于 AR 眼镜的「下一个十年」正式开启之前,通过 Orion 与雷鸟 X3,我们现在能看到多远之后的未来? 一些有意思的观点: Meta 发布 Orion 产品,最核心的是要向大家证明,大家对于 AR 眼镜的想象都是可以实现的。 人类获取信息的主要方式,大约 80% 的信息是通过视觉获得的,随着显示技术的发展,这个比例可能会更高。 AR 的底层逻辑是做虚实融合,这也就决定了 AR 眼镜光学显示有一套公认的终极解决方案——Micro LED + 光波导技术。 Orion 需要 7 个摄像头,不意味着所有 AR 眼镜都需要 7 个。 几乎可以 100% 确定,Meta Orion 明年不可能有可购买的版本。但雷鸟 X3 今年年底就能量产了。 Orion 是 AR 眼镜领域的 Vision Pro,而雷鸟 X3 更像是 Vision。 在 AR 领域,有可能中国企业和美国企业一起引领行业发展,一起带来行业爆发的。甚至有可能中国企业会更早地或者更大地发挥这个作用。 以下是直播沉淀文字,由极客公园整理。 01 Orion 证明 AR 想象的可能性 张鹏:我相信宏伟一定第一时间都已经看过了这次的 Meta 大会,你对于这场大会的印象是什么样的? 李宏伟:首先,我觉得这个大会蛮有意思的,现场互动展示效果不错。扎克伯格也说展示难免会出问题,但基本的展示很顺利。作为 AR 行业的从业者,我们对 Orion 产品的发布充满期待。过去我们对产品已有很多了解,但看到它发布还是非常激动。对 AR 行业来说是非常重要的一个时刻,它证明了大家对于 AR 的各种想象都是可以实现的。 张鹏:对于宏伟这样的业内人士来说,可能没有什么新鲜事,相信宏伟会前已经对他们要说什么了如指掌,但我们还是蒙在鼓里的。在观看这次发布会的过程中,我们认为有三个方面值得关注。 首先,VR设备在技术上没有显著的提升,反而推出了更便宜的设备,售价 299 美元。我们猜测这可能意味着 Meta 希望推广设备,促进 VR 内容生态更健康发展。它没有在 VR 设备上使劲,让它更轻、更小、显示更好。 另外 Ray-Ban Meta 新一代产品——音频眼镜加摄像头,感觉也并没有强调硬件升级,而是展示了AI在可穿戴设备上的应用。尽管它不具备显示功能,但它用声音作为交互和交付的手段,展示如何更好地利用 AI 技术。这一点其实非常清晰,能看出这一趋势。据说在国内也在迅速兴起,预计明年国内将出现许多相关产品。 当然,大家的注意力更多地集中在 Orion 设备上。甚至它发布后,我没太看懂,因为它不像 Vision Pro 那样可以立即购买,我们听说 Orion 的成本可能高达上万美金,感觉像是手搓出来的。 Orion 设备图|图片来源:Meta 在这个阶段发布这样一款产品,Meta 想要表达什么?可能为了增强大家对AR的信心,但其中是否有特别的讲究?到底如何理解 Orion 这个产品?它处于什么阶段?Meta 为什么现在向我们展示这款产品,我们也用不了,这个意图是什么? 李宏伟:好,当然我们也是猜测,可能信息了解(比大家)多一点点。我个人认为,Meta 发布这个产品,最核心的是要向大家证明,大家对于 AR 眼镜的想象都是可以实现的。技术已经突破了,已经可以实现了。一方面是为了增强行业信心,另一方面是推动整个产业的发展。Meta 推出这款产品,也是为了带动整个产业链的快速发展。Orion 不能发售的主要原因在于价格高昂,这与供应链的成熟度密切相关,最贵的部分是碳化硅的光波导。降价需要整个行业的共同努力,增加碳化硅光波导的使用,拓展更多应用场景,其成本才会下降。 当然,Meta 在 XR 领域的投入巨大。Meta 相比 VR,更看好 AR。扎克伯格在多次采访中提到,AR 是下一代的通用计算平台,有望创造与手机市场规模相当的新互联网生态。Meta 一直在努力实现这一愿景,Orion 的研发投入早在 Quest 2 上市前就已开始,经过长时间的打磨,Meta 认为是时候将其展示给公众了。一家公司、团队或个人,如果在十年的时间里都在研发一款产品,确实觉得做的不错,那么现在展示出来是一个合理的决策。 张鹏:宏伟提到的点非常重要,Meta 希望通过展示 Orion 来增强整个行业的信心。我非常理解供应链的信心对于产品降低成本、变得可用非常关键。苹果的 Vision Pro 虽然价格昂贵,但它的发布迅速提升了产业链的信心。只要巨头表示他们要干这个事,这个方向就是他们认同的,肯定有牵引力。 我们深入探讨一下,在 Orion 这个产品里,印证了哪些技术的可行?哪些技术是 Meta 实现其AR愿景所必须突破的,并且目前已经达到成熟阶段? 李宏伟:好,有几个方面。实际上,我们去年推出雷鸟 X2 时已经讨论过第一个问题。它首先要是一个眼镜的形态。它应该是无线的,内置芯片和电池,这样人们才能够长时间舒适地佩戴。 其次,戴眼镜的时候,它需要既看得清现实世界清晰,还能够显示清晰的全息图像。如果用户无法看到现实世界,那么它就是一个 VR 设备;如果只能看到现实而没有图像显示,那么它就不是增强现实,所以这两个要结合。我们希望在看到现实世界时,没有任何视觉遮挡或损耗,同时在显示图像时,画面应足够清晰、足够大,并且是 3D 全息的。所以在光学显示技术上有很多要做的。 第三,眼镜上好的人机交互方式,大家普遍还是认同眼动加手势,这是一种很自然很高效的交互方式,Vision Pro 也采用了这种交互方式,关键在能否在眼镜这一小巧形态上实现眼动+手势的交互。这是一个重要的问题,因为 Vision Pro 为了手势交互使用了大量的摄像头,并以头盔的形式外挂了一个电池。Orion 证明它可以在眼镜上实现类似的功能。 第四,这种眼镜有很强的能力,不只可以实现手机上的一系列的场景,也可以做到虚拟现实融合。那它的芯片、功耗、发热问题能不能解决?这也是一个非常重要的,实际上里面有非常多的定制化的组件,如自己定义的芯片。从行业视角来看,他们把最核心的虚实焦结合算法的功耗做了大幅的下降。 当然,还有一个重要的方面是应用生态,以上这些事情构成了 AR 眼镜能不能实现。目前,Orion 在最后一点上表现不多,可能有一些小的游戏。但我想对任何一个行业来说,先有一个非常好的整机产品,或者简单的硬件产品,然后进而促进生态的发展。这也是通常行业发展的规律。 02 AR 眼镜, 下一代通用计算平台 张鹏:刚才你界定了Orion 这个产品的意义。在详细拆解 Orion 之前,我觉得我们需要明确一个前提:什么是AR眼镜?扎克伯格对 Reality Labs 的巨额投资表明,AI眼镜在 Meta 的战略中占据了重要位置。在 Connect 大会上,Meta 不仅展示了 AI 眼镜,还有 Ray-Ban Meta 等产品,虽然它们在形态上有所不同,但功能上却有显著差异。 因此,我想请你首先为我们界定AR眼镜的概念,以及 Meta 为何如此大力投入这一领域。 李宏伟:Meta 花这么大的力气投入 AR 眼镜,我想最底层的原因是 AR 眼镜是下一代通用计算平台——它是下一代的智能手机。扎克伯格曾经在一些播客里提到了这一点,他说我们把 Facebook 做起来的时候,手机行业其实已经基本上相对比较成熟了。他们的 Facebook 的建立跟智能手机的发展基本上是同步的,他认为自己错过了建设手机这一通用计算平台的机会。 所以当 Facebook 建立得比较完善之后,他就开始布局下一代的通用计算平台。AR 眼镜被认为是下一代通用计算平台,这是一个会影响全球所有人的产品,这在商业上对于流量分配有着重大影响。Meta 作为一个 APP 矩阵公司,其 APP 分发实际上还是受到了智能手机公司比如苹果和谷歌的一定影响。因此,Meta 希望构建自己的下一代通用计算平台,这是非常合理的。 详细说一下为什么 AR 眼镜是下一代通用计算平台。如果我们画一条线,横轴是虚拟/虚拟现实融合,纵轴则是有无 AI,我们可以发现一个规律:过去的 PC 和手机有两个重要的特点。 第一方面,虚拟世界与现实世界是分离的。举手机为例,在导航时手机可能指示你目的地就在前方的大楼,但当你面对三栋未标识的大楼时,你无法确定哪一栋楼才是目的地。在十字路口时,如果 GPS 信号不够准确,我们往往难以确定自己究竟位于路口的哪个角落。这是因为虚拟的数字世界与我们所处的现实世界之间存在着隔阂。我要人工把它们对应在一起,这无疑增加了使用成本。 然而,如果我们能够实现虚拟世界与现实世界的融合,就能够将整个互联网生态提升到一个新的层次,将虚拟无缝融入现实中。以导航为例,当我们步行时,传统的导航应用可能会在屏幕上显示一个数字箭头,告诉我们应该转向哪里。但如果我们面前有三栋未标记的大楼,我们无法确定哪一栋是我们的目的地。在这种情况下,AR 眼镜可以直接在每栋楼上贴上虚拟的名称,还可以显示更多的信息。这种虚拟现实的融合极其重要。雷鸟创新的使命是「想象即现实,空间更智能」,就是这个意思。这意味着通过虚拟现实的融合,我们能够将想象中的事物呈现在现实世界中。我们在电视或手机上看到的明星,我们知道那只是影像,但如果我们戴着 AR 眼镜,看到明星的虚拟形象出现在我们面前,它显得更加真实,因为它被放置在真实的环境之中。 正如之前讨论的,AR 技术能够让我们看到建筑物上自动加载的标签。这是一个维度,现实和虚拟的隔离,还是融合在一起。还有一个维度是 AI 的维度。 过去的 PC 和手机虽然具备一定的计算能力,但它们并不是为 AI 设计的。如今,随着 AI 技术的发展,我们看到了各种 AI 个人电脑和智能手机的出现。但是,AI 能力强大,最好的载体是什么?实际上应该是眼镜。 AR 眼镜能够看你所看,听你所听,将我们看到和听到的内容输入给 AI 系统。AI 系统处理后,能够实时地将结果展现在你眼前和耳边,这种交互不需要我们中断当前活动去拿出手机或其他设备。所以如果我们构建一个象限图,我们会发现 AR 眼镜和集成 AI 的 AR 眼镜位于这个象限图的右上角。借助 AI 和 AR 的融合,它不止把过去的设备的效率变高了,它完全创造了一个不一样的、升级的、更加丰富的场景生态。这是 AR 眼镜作为通用计算平台最重要的原因。 互联网预言家凯文·凯利(Kevin Kelly)在他最新著作《5000 天后的世界》中专门非常明确地说明了这一点,「我们即将迎来崭新的巨大平台,世界万物都和 AI 相连。数字世界和现实世界完美融合,这就是我们所说的 AR 或者镜像世界的新平台。」 当然如果我们认为 AR 是下一代通用计算平台,那接下来的动作就变得非常重要了。我们怎么打造下一代的通用计算平台?当然这里面非常重要的是技术突破问题。需求一直都在——在过去电影、小说还是其他媒介中,AR 眼镜的潜在应用已经被广泛探讨和期待。因此,能否实现这些技术突破变得尤为关键,Meta 包括我们在这方面已经取得了显著的进展。以上是 Orion 这样的产品所展现的技术能力的价值所在。 张鹏:这么听下来,我不能揣测说扎克伯格在十年前收购 Oculus 时就已经有了这样的计划,但因为 Meta 在 AI 和 XR 领域的投资是长期的,持续了十年,这表明他们确实要搏下一代的智能设备。 毕竟错过了 iPhone 时期,没有办法跟乔布斯去比,但是还能去搏下一次。 李宏伟:是的。 03 AR 才是 真正的「虚实融合」 张鹏:扎克伯格最早是从 VR,元宇宙开始实践,他希望让大家能进入一个数字化的世界,进入得更深、体验感更强。你是否认同这样的观点,就是 Ray-Ban Meta 和 Orion 都是AR技术的不同表现形式,它们构成了一种轻重组合,Ray-Ban Meta 可能代表着一个过渡阶段,而 Orion 可能代表着最终目标。 另一个问题是,为什么显示这件事这么复杂?这么多年大家一直努力做的 Orion 里面,显示技术上它是怎么采用的?这个技术的成本未来能不能越变越低?多久之后它能跟手机真正争夺个人计算中心? 李宏伟:我同意鹏哥的观点,即便是没有显示功能的眼镜也可以视为一种现实增强设备。但是,如果我们对 AR 的定义更加严格一些,我们可能会认为只有将虚拟信息和现实世界无缝融合,并从用户视角来看它们是一体的技术,才能被称为增强现实。 这是一个定义的严格性问题。如果我们将能够感知现实并提供提醒的技术视为增强现实,这是一种广泛的定义,我认为这种定义是可以接受的。但按照这种定义,手机地图应用也可以被视为增强现实的一种形式,因为它们为我们提供了额外的信息。当我们查看电子地图时,无论是谷歌地图还是高德地图,它们都提供了对现实的增强,为我们显示了更多的信息。这是一个关于定义和区分的问题。 另外一点,行业发展确实往往不会一蹴而就,而是一个逐步发展的过程。这个过程通常开始于对未来的想象,其中包括了多种技术。这些技术的成熟速度各不相同,而最先成熟的技术结合现有的用户需求,会产生所谓的「沿途下蛋」的现实主义产品。这些产品会不断迭代技术,随着技术的逐步成熟,最终达到一个比较好的终极状态。所以您提到的带有摄像头和音频功能的眼镜其实也是非常重要的,并且它们有自己的用户价值。我认为先有出现这样的眼镜,或者先以这样的眼镜为主流,很快就会过渡到以 AR 眼镜为主流。 至于为什么显示功能很重要,这与我们之前讨论的密切相关。我们如何将虚拟与现实融合?一个新的通用计算平台如何创造出过去无法实现的体验和应用场景?一个新的设备,无论是通用计算平台还是非通用的,要被用户接受,它需要做到两件事情:第一,它能完成过去用户已经习惯在别的设备上做的场景,但最好能做得更好一点。第二,它需要能够创造一些新的场景,这些是过去几乎无法实现的,或者体验非常差的。 我举一个不一定恰当的例子,以智能手表为例,它不仅简化了查看时间和微信等功能,我们不用把手机掏出来,抬腕就可以看到。但另外一点是过去手机做不到的,是对健康的监测。只有当智能手表具备了这两种能力,它才能成为一个被广泛接受的产品。否则,用户可能会犹豫是否需要更换新设备,因为他们可能会觉得新设备的功能他们已经能够在旧设备上实现了。那么,AR 眼镜能够做到手机平台做不到的事情是什么呢?其中之一就是「看人所看、听人所听」。这很重要。 另外一点,把现实跟虚拟放在一起,这件事情我们几乎不能依赖手机做到。当我们通过手机屏幕看现实世界时,虚拟信息只是在屏幕上的一个图层,我们不会认为它是真实的。 但 AR 眼镜能够实现这种虚实融合的效果,因此,只有配备了显示功能的眼镜才能真正做到这一点。这也是行业内对 AR 眼镜有更严格定义的原因。Meta 公司并没有将其之前的 Ray-Ban Meta 音频眼镜称为 AR 眼镜,但 Orion 被认为是一款真正的 AR 眼镜,正是基于这个核心逻辑。 另一个重要的原因是视觉是人类获取信息的主要方式。大约 80% 的信息是通过视觉获得的,随着显示技术的发展,这个比例可能会更高,我觉得有可能 5%、85,甚至 90% 以上。这意味着显示是最高效的交互方式。 在 Meta 的演示中,有一个特别有趣的场景,不知道大家记不记得扎克伯格与一位运动员进行了实时对话翻译的演示。对方说西班牙语,而扎克伯格说英语,这个过程非常流畅,效果非常好。但有一个问题就是对方说完后,那个大模型系统要再说一遍,它会把时间拉长。 如果对方说的时候有实时的这个文字显示,就可以避免时间拉长的问题。对方说完了,我要等一等才给他反应,会稍微有一点点尴尬,对方说完,我马上就给他反应,是比较好的效果。所以对于新产品而言,显示技术的提升是至关重要的。 我们基本上认为,只有具备高效显示功能的设备,无论是眼镜还是传统的 PC 或手机,才能成为通用的计算平台。显示技术是人机交互的关键,没有它很难实现广泛的应用。 04 Orion 最重要的 作用是行业共识 李宏伟:第二个问题是为什么显示技术在实现上如此复杂,以及它目前的发展状况和未来的发展趋势。因为这种显示确实是一种很特别的,它的技术原理或者说需求本身就比较复杂。比如当我们戴上眼镜时,我们希望在不启动眼镜的情况下,现实世界的景象完全不受影响,这就需要一个完全透明的视觉体验。但同时一旦启动眼镜,我们又期望它能提供一个优质的图像,应该是立体的、有深度的、全彩的,并且画面幅度非常大。 那我稍微来分解一下这个技术。我们需要解决几个关键问题。 第一个问题是关于镜片的制作,无论是玻璃还是其他材料。镜片需要能够透视现实世界,同时也能显示。目前,Orion 采用了表面浮雕衍射光波导技术,简单来说,这个方法就是在镜片上刻制特定的纹路,当光线穿过这些纹路时,通过复杂的反射和折射作用,能够产生一个虚拟的图像。 通过这种方式,我们能够在镜片上同时看到现实世界和显示的内容。 此外,我们还需要一种技术来生成这些图像。由于镜片上只有纹路,我们需要一个微型的发光元件。这个元件要求它有非常高的像素密度,这意味着它的尺寸会非常小。目前,Micro LED 的像素间隔仅为两微米到四微米,这使得它的像素密度极高,是迄今为止我们所见过的产品中像素密度最高的。正因为如此,我们才能在极小的尺寸下生成 1080P 或 720P 的清晰画面。 雷鸟上一代 MicroLED 光引擎|雷鸟创新 在 AR 眼镜的显示技术方面,我们需要全彩显示且亮度极高。因为在现实世界中光线通常较为明亮,所以 AR 眼镜的入眼亮度需要达到至少 1500 尼特,甚至 2000 尼特以上。但镜片的材料并非一定是玻璃,且其纹路设计可能导致光能的大量损耗,所以我们需要更强大的发光器件。如果发光器件的光能利用率仅为 1%,那么为了达到 2000 尼特以上的肉眼可见亮度,发光器件的亮度需要提高 100 倍。 这两个问题共同确定了 AR 眼镜光学显示技术需要一个公认的终极解决方案。这个解决方案包括了 Micro LED 作为显示器件和光波导技术作为镜片的核心技术。那技术到现在做到了什么样的程度?为什么说雷鸟创新的产品、Meta 的产品都是非常重要的?目前只有雷鸟创新和 Meta 正式发布了这样的产品。当然 Meta 还没有量产,雷鸟创新量产了全采 Micro LED 的产品。 Meta 的 Orion 产品有一个很大的优势,就是它的波导(FOV)非常大。过去想在 AR 眼镜中实现大 FOV 很难做到眼镜形态,而 Meta 用了一个很特别的技术,或可以说是很有意思的材料——碳化硅波导,所以能实现 70 度的 FOV,这是一个蛮重要的事情,在光学显示上是一个重要的突破,我们看到了光学显示上比较重要的突破。 去年的雷鸟 X2,今年的 X3 和 Meta 的 Orion,都证明了我们说的这件事是可行的。为什么说可行?首先,技术可行了,这两个产品都采用了 MicroLED 光波导技术,走在正确的技术路径上。其次,它们的亮度、FOV、显示效果和全彩等方面,都达到了基本可用的状态。 张鹏:现在是不是可以说,在 AR 上,「终极解决方案」已经成型了?MicroLED 加光波导的方案,是不是未来我们可以看到的 AR 设备的「终极解决方案」?尤其是对于希望变成「个人计算中心」的 AR 设备来说,在显示方案上是不是已经基本确定了? 李宏伟:对行业的头部企业,尤其对技术上的头部企业来说,这个道路的选择几乎从来都是明确的。我们需要一个强的发光器件,亮度非常高、体积非常小、功耗非常低、刷新率要非常高。那目前甚至未来几年,都没有其他更好的选项。其中,像 LCoS 这样的技术,虽然有优势,但功耗还是比较高的,也很难做到特别小。因此,几乎所有的选择都是在「透过镜片既能看到现实,又能显示画面」的方向上,目前没有其他替代选项,只能是 MicroLED 加光波导。只是每个技术都在迭代,比如光波导有不同的技术和工艺,比如压印、刻蚀等等。当然,现在行业中还是会有不同的声音,有些人认为这个技术目前还不够成熟,很多企业可能无法在现阶段真正做出 MicroLED 和光波导的技术和产品,所以市面上不同的声音很多。但雷鸟创新和 Meta 已经做出了相应的产品,这个技术是可行的,没有大家想象中的那么遥远。如果看看美国的头部科技公司,大家基本上还是有共识的,非共识比较少。 张鹏:这次 Meta 可能在这条线上大大加强了声量。光波导加 MicroLED 这条路径本质上是由它的目标决定的。如果我们希望 AR 成为一个通用的个人计算平台,有效融合现实和虚拟,并且要能长期佩戴,所有的这些目标,会综合决定某个技术路线。团队往往都是要在明确的目标下找到一个所谓的「第一性原理」——这个目标下必须解决什么问题。 李宏伟:对。 张鹏:这次 Meta Orion 的另一个核心亮点是有 7 颗摄像头,Vision Pro 也有大量摄像头,可能涉及到未来微交互的理解识别,同时可能也看到它对于世界的感知。刚才我们聊到,Ray-Ban Meta 的摄像头的感知能力对它的未来都特别重要,因为 AI 需要用摄像头 input 真实事件的信息,AR 如果没有这样的能力,就不能真正的现实世界的叠加,因为它看不见现实世界。 7 个摄像头,算多算少?未来的趋势是什么样的?毕竟摄像头越多成本越高,耗电越多。怎么理解这 7 个摄像头的意义和未来?在 AR 设备对外的感知能力的发展上,还有什么技术台阶是逐渐明确的?因为这次发布背后,我们都应该能看到一些通向未来的趋势。 李宏伟: 我先解释一下摄像头的问题。Orion 是一个对标 Vision Pro 的产品,虽然成本比 Vision Pro 还贵很多。AR 眼镜需要比较多摄像头,是从应用场景和用户需求出发。首先我们想看到现实,去拍照和录像,就需要一个彩色摄像头;还需要高效地感知现实,这里黑白摄像头会比较好;也需要眼动追踪,那就需要内向的摄像头或者别的技术。所以,这三种不同用途的摄像头都是必要的。不过,Orion 需要 7 个摄像头,不意味着所有 AR 眼镜都需要 7 个。 哪怕这三个功能都实现,也不一定要 7 颗摄像头,可能 5 个也可以的。比如用 RGB 摄像头加两个 SLAM 摄像头,加上对内的眼动追踪摄像头,大概这样也可以实现相同的效果。 所以,从产品的角度来说,摄像头数量的选择第一要从用户需求出发,第二要实现技术上的平衡。如果简单粗暴地把 Orion 看作「Vision Pro」,大家就可以理解了。Orion 的方法不是唯一可行的方案,我们不一定需要那么多。雷鸟 X3 某种意义上就像一个「Vision」,不是 Vision Pro,Vision 的好处是可以被更多用户接受,它就没有那么多的摄像头。 其他的技术上,还有几个关键的方面。 第一个是在人机交互方面,当然这个跟摄像头有关,我们怎么能用手势和眼动与设备交互?实际上,眼动加手势是一种比较好的交互方式,目前这项技术大体已经成熟了,虽然还没有做得那么好,但也差不太多了,雷鸟创新在这方面也做了比较多的工作。 另一个重要的点是芯片。芯片对整个系统非常关键,这次 Orion 的发布给了行业很大的信心。过去大家一直担心眼镜的功耗问题,但定制芯片让 Orion 在特定场景下的功耗,比我们预期的低很多。这也证明了这一点。 还有其他技术问题,比如散热,碳化硅材料的一个优势就是高导热性,可以有效帮助散热。另外,例如,在眼镜框架的设计上,怎样又轻又能兼顾功能性? 这其中还有很多问题要攻克,当然也包括 AR 眼镜里非常重要的部分,自然的、多模态的理解和交互,目前多个大模型已经可以实现。所以,这几个关键技术都已经有了本质的突破,需要在工程化上再做进一步的优化。 张鹏: 关于交互,刚才你提到,这么多摄像头,首先它有大量空间感知数据的计算需求。同时,未来的眼动摄像头应该已经是标配,肯定得有摄像头在盯着我们眼球的移动;也要有对外界做前向感知的摄像头。但关注交互的摄像头也是必不可缺的,因为很难想象所有的交互都需要用嘴去跟眼镜说。 这次 Meta 像是在雷鸟创新之前设定的方向上更进一步?是不是代表未来的 AR 眼镜这条线有机会发展得更明确?你在看到 Meta 也跟你的路线一致的时候,有没有觉得,「以后供应链成本估计能下降」,这个交互模式更能让用户接受? 李宏伟:对,我下午还跟 Meta 的同学们聊过。虽然我本来也大概也知道他们的方向,但是在发布会上最后确认了一下。我觉得我很兴奋的原因有两个,一个是,Meta 选择的技术路径和雷鸟创新一样,看起来我们想的是对的。第二个原因是,大家都做一样的事情,包括碳化硅,雷鸟创新也做了一系列的探索,这对产业链、对供应链的降本会起到非常重要的作用,所以这是一个很好的信号。不过,我想再稍微说明一下,怎么样的人机交互是一种从技术和用户体验上来说都比较平衡的方式? 目前主要的方式是眼动加手势交互。眼动有两种技术,一种是用摄像头,另一种是使用红外或 MEMS(微机电系统)感应,相比之下后者功耗更低。但这个问题相对简单,这里就不多展开了。 我认为有两大类手势交互是重要的。第一类是「看不见手」的交互方式(向下交互),手可以很自由地搭在腿上,或者背着手,或者其他任何地方,通过轻点、滑动,轻松地交互。第二类是「看得见手」的交互方式(向前交互),比如看一张照片时,可以用手势直接放大一点。这两类交互方式都很常见。对于第一类交互,用腕带或智能手表是一个很好的选择。 张鹏:也就是肌电信号,是吗? 李宏伟:对,但是有几种不同的方式。肌电信号是一种灵敏度更高的方式,过去的一些智能手表结合类似技术,也能实现一定程度的手势交互。向前的交互就肯定需要一定的摄像头,因为它要跟现实或者虚拟画面做一些交互。但如果从是向下交互,我们可能不一定需要那么多的摄像头,比如不一定需要一个斜向下的摄像头,因为斜向下的摄像头如果不是很强大,没有 Vision Pro 那么强大的技术,也很难捕捉到各种复杂场景下的手部小动作,可能最后还是要借助肌电手环或者是手表这样的设备,但这些设备本来就能做到。 当你必然需要摄像头的时候,它们往往在比较靠前的位置,可能也不需要专门配置向下的摄像头。这是一个产品上的要想得很细的一个平衡和选择的问题。Vision Pro 必须这么做,因为它的目标就是,用户不用戴额外的辅助设备,所以它当然要有很强大的摄像头,看各个方向。但是眼镜并不一定。 张鹏:像 Orion 这样的设备,什么时候能真正走向市场?包括你们在做的雷鸟 X3,我之前也看到过一些信息,似乎已经很接近量产了。Meta 的 Orion,从今天给大家看到,到未来能变成一个产品,你觉得还需要多长时间?Meta 今天说的事,明年能变成可购买的吗? 李宏伟:如果你问的是和 Orion 几乎一模一样的产品,那么 Meta 可能确实还需要一点点时间,几乎可以 100% 确定,Meta 明年不可能有可购买的版本。但如果你问的是雷鸟的话,我们的 X3 今年年底就能量产了。 05 雷鸟要做 AR 版的「Vision」 张鹏:雷鸟的计划是什么? 李宏伟:我先补一句,为什么认为 Meta 明年一定不会上?作为一个大公司,他们在这方面的投入非常大,但动作会相对慢一点。雷鸟创新作为一个有大公司资源支持的创业公司,它的资源也会比较多,动作也会比较快,所以雷鸟的 X3 预计会在年底到农历春节前上市,我还想尽可能让它更提早一点。 可能很多人都在关心这类产品什么时候上市,Orion 和雷鸟创新什么时候能拿到手里,所以我们还是相对详细地介绍一下这个产品。我做一个比喻:Orion 是 AR 眼镜领域的 Vision Pro,而雷鸟 X3 更像是 Vision。我觉得这个比喻还是比较形象的。苹果的策略是先推出 Vision Pro,但他们也认为 Vision 才是一个能被大家广泛接受的产品。所以我们非常感谢 Meta,半开玩笑地说,Meta 帮我们发布了一个雷鸟 X3 的 Pro 版。 接下来,我们准备正式上市 X3。X3 在产品和技术上的平衡上可能是一个更好的产品。X3 有两个版本,重量大概 60 多到 70 多克,而 Orion 接近 100 克。60 克 70 克是一个很重要的指标线,它不只是多了 30 到 40 克的问题,因为大家佩戴的眼镜和墨镜基本上大概就是 60 克,所以 60 克是一个用户比较能接受的状态。另外,雷鸟 X3 和 Orion 一样,都是全彩 MicroLED 光波导的产品。 我也想说一点 X3 的优势。在某些方面,我们的表现优于 Orion,比如很重要的入眼亮度。如果你仔细看视频,会发现 Orion 的亮度比较低,我猜大约在 500 尼特左右,甚至可能更低。也就是说,在强光下,尤其是正午的户外,应该是看不太清楚屏幕内容。小扎自己也说过,把亮度提高是他们要做的很重要的工作。而雷鸟 X3 的亮度至少在 2000 尼特以上,甚至有可能达到 3000 尼特以上。 我可能透露得有些多了(笑),趁着 Orion 还在被大家讨论,这个时候比较容易把事情说清楚。 雷鸟的亮度比 Orion 高,但 FOV 会稍微小一些,分辨率也有可能会小一点,不过 PPD 就会更高。了解 VR 的人会比较清楚 PPD 这个概念,它指的是角分辨率,决定了你的画面质量到底清楚还是不清楚、细腻还是不细腻。另外,在人机交互方面,雷鸟 X3 也会支持手势交互。 雷鸟 X3 及其内测中的肌电手环|图片来源:雷鸟创新 我们也会借助像手环、手表这样的设备来实现类似的手势交互。虽然我们没有看到 Orion 特别详细的手势交互信息,但我想它基本上也用了类似的人机交互方法。关于眼动交互,我们内部也在做很细致的测试。 雷鸟创新在眼镜上测试眼动交互功能 这样一来,当雷鸟 X3 上市时,在手势和眼动交互上我们不会全上,大概率会优先推出手势交互功能,眼动交互可能稍后再上线。 除了人机交互,我们在应用场景和芯片架构上也做了很多优化设计。比如说,雷鸟 X3 的电池容量比 Orion 小一些,但使用时间的可能差不多,也跟大家不同使用场景有关系。所以,雷鸟 X3 是一款在光学显示方面非常领先的产品,在基础技术性能上跟 Orion 类似。当然,我们没有采用碳化硅材料,是因为现在这种材料的价格还不合适。 并且,雷鸟 X3 的定位跟 Orion 有一个很重要的区别,也就是刚才我说的 Vision Pro 和 Vision 的区别,所以它是现在市场上非常领先的产品,但同时它又是可以量产的。雷鸟创新不只具备在光学技术上的设计的能力,还有生产的能力,所以我们可以把这个设计量产化。可能我们的显示画面尺寸没有 Orion 那么大,但这是符合特定应用场景的比较合适的状态。最终,大家就会看到,不仅它的那些基本的功能都存在,而且还一个非常像正常眼镜的眼镜。 我不知道大家现在看到画面时是什么感受。如果从某个角度来看的话,Orion 的镜片是相对比较厚的,是因为它的光源到波导的部分。雷鸟创新采用的是从内向外的光源设计,所以镜片也比较薄,整体就像一副普通眼镜。 我还想特别说明一下,雷鸟创新在全彩 MicroLED 技术的处理上与 Meta 有一些不同。我们判断 Meta 是在波导内部进行颜色合成,因为现在市面上能够量产的 MicroLED 主要都是单色的。雷鸟创新的做法是在进入波导前就把光合成彩色。雷鸟创新的光引擎是我们自己设计、拥有专利,并且自主生产的。我们能把光引擎做得非常小,只有 0.36cc(立方厘米),它是一个非常小的光投影器,这样就可以让这个眼镜在实现全彩 MicroLED 的同时非常轻薄,非常像一个普通的眼镜。 在这个过程中我们试着做了一系列这样的设计。还有很重要的一点是,X3 是一款会正式上市销售的产品。一方面,它可以帮我们积累更多用户反馈;另一方面,它可以作为一个应用生态开始的基础。因为这个产品是卖给用户的,所以生态开发者可以直接在这上面开发,比如开发各种 App 或者 AI Agent,然后提供给用户去用,他们也可以直接收到用户的反馈。这是我们在雷鸟 X3 上的一系列基本的考虑。也不能说那么多了,所以先简单地汇报到这里(笑)。 张鹏:接下来你们明确的目标就是,推出一款可以上市销售,并且用户能够实际使用的产品。今天我们能想象这个产品如果我花钱买了,它会带来什么样的在功能场景上的比较 ready 的体验?以及我们的最终体验到的那个场景?它有可能是什么样子?哪些体验会明显比原来的设备上升,提前给我们剧透一些。 李宏伟:我先说一两个可能蛮重要的点。我举个例子:我们戴上 AR 眼镜可以做什么? 当然可能大家都已经比较清楚的是,AR 眼镜 可以实现一系列手机的功能,比如第一视角的拍照,视频通话效果非常好。也可以实现信息提醒,我们收到微信消息不用再看手机看手表,因为通知能直接展示在 AR 眼镜上。我们围绕这些,设计了一系列的非常重要的杀手级应用。 一个例子是翻译:这可能不是最重要的使用场景,但大家说得也比较多,AR 眼镜所提供的翻译并非简单的翻译,其实更接近一个 Copilot 助手的角色。 例如我们到一个新的国家,下飞机,去海关,一路上会有各种各样的指示牌。你你在机场可以跟着人走的,但是你到了那个分人群的海关就不行了,你要是不懂这个语言的话,你就不知道的哪个入口是这个国家的居民的,哪个是海外旅客入口。 这种时候,AR 眼镜就可以直接看到各种各样的指示牌,然后把它翻译成你懂的文字。包括你在跟海关聊的时候,海关问你一系列的问题,他跟你聊的时候,你就可以实时地在眼镜上面看到他翻译的内容,实现一个流畅的问答。 包括出了机场之后,去到一个,比如说地铁站,眼镜识别到地铁站里面的标志,它还可以给你提供一个导航,既能告诉你说你做哪条线,也可以提示你具体的信息:比如给你一个导航,告诉你你到了这个地方,你出来之后是一个美食一条街这样的。 这个时候,你可以跟眼镜说,我要开启这个引导模式,那 AI+AR 就能一个一个识别,因为大家知道现在大模型的视频流的模式还是蛮强的,我们可以在走的过程中就直接他,你看了哪个店,他就告诉你这个店怎么样,是吃什么的。还可以基于你的喜好,告诉你这个店好适不适合你的口味。 所以这一系列的工作。实际上都是在努力把 AR 眼镜带来的体验做到更完美。 这只是一个场景,出国或许还不是那么的频繁,但实际上如果我们想一想,在现实中我们可能每天都会遇到类似的场景,如果有一个 AI + AR 的设备 24 小时在内身边,看到你所看到的,听到你听到的,实际上这个「外脑」可以帮助你处理非常多的事情。 06 中国 AR 创业者 有独特优势 张鹏:雷鸟创新其实现在已经算在这个赛道上中国非常头部的创业公司,但毕竟还是创业公司,那你觉得怎么能够在 AR 这个赛道上,形成中国创业公司自己的优势?以及我很好奇关于竞争策略的问题:作为一个创业公司,又在一个巨头看重的领域,怎么去找到自己差异化的优势和前进的路径? 李宏伟:您说的是一个非常重要的问题,所谓创业,我经历了几次创业,学到很多非常重要的东西,其中一个就是选择大于努力。 我们怎么去选择能决定我们正确与成功与否?我从这件事情我们可能要从几个层面来看。比如说先从具体的层面来看,其中一个点刚才其实已经回答了,因为 Meta 这样的公司,大厂在技术上面有很多的投入,这是我非常值得尊敬的。 他们发布了这样的技术,让大家看到 AR 眼镜的时代要来了,因为技术最重要的问题都已经突破了,这是非常重要,他们花了足够的钱,给行业做了很多的贡献,这是非常重要的。 但是创业公司会跑得更快,速度是一个非常重要的事情,在绝大多数商业竞争里面,速度都是非常重要的。所以这是像雷鸟创新这样的创业公司,或者是中国的创业公司可以做到差异化的竞争优势,这是非常重要的一点,这跟机制跟各方面都有关系的,包括中国的供应链的成熟都有关系。 但另外一点可能更重要的问题是:AR 这个时代是不是还像手机一样,是美国的企业引领了?完全是他们引领了行业的发展,尤其在最早期的时候。我觉得不是。 雷鸟 X3 是一个平衡了技术和需求后的产物,但这并不代表说雷鸟创新没有 Vision Pro 的技术,而实际上所谓 Vision 和 Vision Pro 最重要的是什么?是他们有共同的技术方向和最重要的技术突破,这在 Vision 和 Vision Pro 之间是一样的。 Vision 和 Vision Pro 的区别是产品定位的区别。是要练成全身都是肌肉的,我还是练成说一个比较健美的状态。是要现在把所有的问题都解决掉,还是我现在给一个用户可以接受喜欢用的一个 60 多克的眼镜? 所以它只是产品的选择,在这一点上来看,雷鸟创新作为这个行业头部的企业,作为一个中国的这样的公司,我觉得并没有比美国的公司落后多少。至少从产出的产品来看。 所以在 AR 我觉得是有可能中国企业和美国企业一起引领行业发展,一起带来行业爆发的。甚至有可能中国企业会更早地或者更大地发挥这个作用。这跟过去这么多年中国整个的技术的发展、供应链的发展、能力的积累都有关系。 我们实际上已经看到了一些这样的机会了。TikTok 是在美国是最强势的这个短视频应用,这在过去是不可能的,过去在 TikTok 之前,我们几乎看不到这样的情况。中国的包括科技、包括互联网,很多都是在落后美国,在美国之后做。但像是大疆、TikTok 这样的产品,我觉得他们已经代表了中国企业可以引领一个行业。所以我觉得这是很重要的一点,除了速度之外,我们在技术上面并不落后。 另外一点在整个生态上面,中国的供应链和应用生态实际上也跑得很快。比如很多美国西海岸的大厂,实际上他们在供应链的同学花了很大的力气在中国,现在全球唯一能够量产 MicroLED 的国家是中国,像一些光波导企业中国也很领先。包括 AI 的大模型本身,可能大家还有点差距,但实际上从大模型的场景应用来说,中国的企业还是做得比较好的。 那当然另外一个问题是说在 AR 整机加生态这个赛道里面,什么样的策略,什么样的技术积累是对的。 我觉得两个方面,第一个方面实际我们要布局未来的技术,这一点上面雷鸟创新做得好,而且做得相对比较聚焦。大厂有的时候反倒会摇摆,因为它的资源多,我会做很多技术,可能这个时候这个技术成熟了,我就做的这个也可能会拖慢的。所以雷鸟创新在核心技术上面是很坚定的,我们做到了技术领先。 另外一些方面是说我们除了技术之外,整个路线的设计,包括你是最先发 Vision Pro 还是先发 Vision?像我刚才举的这个例子是一个很重要的策略的选项。 实际上我们看到 Meta 也先发了 AI 眼镜。Ray-Ban Meta 的眼镜,那雷鸟创新的基本策略也是这样的,我们这种策略可以使得我们在这个环境下,更好地生存和发展,更好地取得竞争优势。 我们采取了怎样的策略?我们追求布局未来正确的技术和正确的产品。但在过程中,我们就把其中成熟的技术和成熟的用户需求诞生的产品先推出来发布,比如比较成熟的 BirdBath 的产品。所以大家看到雷鸟创新不单是技术领先,雷鸟创新在市场份额上面也是领先的。 我们每个阶段推出来的产品,销售的结果也是领先的,所以这样的话可以给雷鸟创新一个相对比较好的生存发展的环境,我们既布局未来,又在过程中发展。 我来聊一聊更底层的问题。当然一个底层的因素是团队,我们现在整个全球的人才流动是比较好的。雷鸟创新团队里面,比如说我们有美国人,有韩国人,所以我们有各种各样的工作语言。我们从全球搜罗最顶级的人才,来做我们的技术、人因设计,以及一系列整机方面的研发。所以我想在技术层面,在人组织层面,中国的团队和美国的团队现在没有那么大的差别,或者说大家可能是一样的,没准结合效率的话,所以我相信雷鸟创新有个非常好的团队。 我们也给大家非常好的一些工作环境,优秀人才的团队有一些,但更底层的,我更底层这事我觉得最重要,您看 AR 整机加生态这个赛道。首先它是一次 Disruptive Innovation,我们叫颠覆式创新。它跟过去的手机,跟过去的互联网有区别,它是一次新的虚拟与现实融合的空间互联网。 所以这样新的机会往往是新的公司相对比较有机会的,新的公司能够成功至少大概一半以上。那是不是大厂在知道不知道这事重要不重要?电车所有人都知道重要?第一个做出来电车的公司肯定是传统车厂,比如宝马、奔驰这样的公司,但是电车最后还是像特斯拉这样的公司,包括像比亚迪这样原来做车不是那么做这么多,在传统领域相对没有那么强大的公司,比较新的公司最后能成功至少占了 50% 以上的这个市场,所以创颠覆式创新就会有这样的特点,我们认为 AR 整机加生态这个赛道就是一次这样的机会。 当然还有一点您说的很有道理,这个赛道的比拼是一个综合实力的比拼,供链、硬件、软件、应用、生态、销售渠道、品牌营销都要做到比较好。所以它确实是对一个纯新的创业公司来说是有比较大的挑战的,因为纯新的创业公司比较适合做单点突破。 那我怎么设计雷鸟创新这个公司的模式?雷鸟创新背后有像 TCL 这样的比较大的公司的资源的支持,但它又是一个完全独立的公司,独立经营、独立决策、独立融资、独立上市的公司,这样的话它的整个流程制度价值观是一个新公司、创业公司价值观,但它背后又有足够的资源支持。我们认为这一点对于整个公司的设计,对于它最后的成功也是蛮重要的。 所以从最底层的选择、架构设计到组织到技术路线的选择,到技术路线的积累,到市场份额各方面来看,包括对整个生态的布局,大家可以看到雷鸟创新合作的伙伴都是全球最顶级的公司,包括美国、中国,也包括大模型、操作系统、应用生态。 所以我想在这个竞争的过程中,我倒没有觉得这个雷鸟创新处在了劣势,我们审慎地看待竞争的问题,积极应对,但对未来我们内心深处有很强烈的乐观。 07 AI 眼镜是小灵通, AR 眼镜是智能机 张鹏:刚才咱们说这个 AR 的终极目标通向个人计算。其实 Ray-Ban Meta 的新一代产品在这次也发了,我还挺好奇的,就是你看起来它强化的是 AI,这带来一个有意思的话题:雷鸟创新会不会做这种 Ray-Ban Meta 这个这样类型的产品? 李宏伟:我们打造未来的产品,但同时把这个成熟的技术和成熟的用户需求这样结合的产品做出来。所以基于我们的核心策略,我们会做。我们与博士眼镜有一个合资公司,主要就是打造像 Ray-Ban Meta 一样的产品,就是那种 AI 眼镜。它的上市时间也不会很慢,很有可能比 X3 还要更早一点。 第二点,我们怎么看待这两个产品?实际上如果我们从行业发展或者从用户需求的角度上来看,我觉得这就是行业发展的一个过程。一般都会先出现一个比较简单的产品,占据更多的这个用户量,然后它逐渐地增加功能,变得更强大。手机就是这样子的,我们先能看到像大哥大这样只能打电话的,像小灵通,然后变到比较强大的功能手机,然后变到智能手机,大概是这样一个历程。 在这个过程中,对一个企业来讲,有几种选项,一个选项是说只做未来的产品,另一个选项是只做现在的产品。只做未来的产品也不是不行,只是在现在这个时候就有比较大的压力,整个这个包括融资的环境各方面来看,坦白来讲,现在可能只有苹果是真的憋大招的。那如果只做现在的产品,我觉得还是有一个潜在的风险。嗯,就是所谓创新者窘境,如果你只做了功能手机,不一定代表你能做好智能手机,甚至它很有可能会约束你去做好智能手机。这就是雷鸟创新在取舍中考量的因素。 张鹏:我们刚才盘点了好多 AR 眼镜今天哪些技术比较 ready?哪些场景比较 ready?AI 这部分有什么可以值得期待的新的思考吗? 李宏伟:我觉得几个层面,第一个从用户的角度上来看,它其实还是有各种可以优化的地方。那比如说眼镜,我们总希望它的重量变得越轻越好。那我们这个佩戴体验希望越舒适越好,我们也希望能有更多的样式。 这次 Ray-Ban Meta 也发布了新的这个眼镜的款式的,现在更多的是迭代这个 AI 的功能、再比如说它的基础体验要做得好。 如果我们看第一代的 Meta Ray-Ban Stories 和第二代的 Ray-Ban Meta,第二代之所以能取得这么高的销量(百万级),一个很重要的原因是基础体验提升了。 基础体验什么意思?就是比如说它有麦克风,那麦克风在你说话的时候能不能实现能降噪——你戴着眼镜出去很有可能风声比较大,那眼镜是不是能不能听得清楚你的指令?一系列的这样的功能点都有很多可以优化的地方,甚至包括这个摄像头是横的还是竖的,都是可以做考虑的。 在这个差异化布局上,雷鸟创新是有系统性的优势的,这个优势包括供应链以及其他的层面,这里面我们有一些独家的东西是别人拿不到的。它可能会体现在体验上面,也可能会体现在价格上面。 当然这里面包括他刚才说到的 AI 的部分,国内的大模型的公司现在在 AI 场景上面包括一些开发者在 AI 场景上面做得是非常好的,所以这一点应该也会比。但是这种开发不只在包括在中国,也包括在海外,所以也比海外的企业会更有优势。 另外一点,这个眼镜本身不管从经营,就是生产、销售和用户关注来说,它还有另外一个维度是非常重要的,就所谓传统眼镜的品牌、渠道和设计,Ray-Ban Meta 的成功很重要的一点是雷朋本身的这个贡献。扎克伯格也说,你如果哪怕不开启智能功能,雷朋和 Ray-Ban Meta 的这个眼镜,Ray-Ban Meta 这个眼镜也是一个很好看的眼镜。 所以您看到前一段时间大家可以看到我们宣布了雷鸟和博士眼镜成立了合资公司,这也是我们在这个行业的一些创造,在历史上是没有这样的情况的一个科技公司和传统眼镜的大厂成立这样的更深一点的合作,这也是没有的,所以这也是我们对这个事情如何成功做了很认真地思考和判断。我们认为传统眼镜的品牌渠道设计是非常重要的,所以我们也在做这样的布局。 我最后还想补充两点,第一点是 Meta Orion 做得非常好,但是我也想告诉大家说,中国企业现在也不落后,雷鸟 X3 是一个和 Meta Orion 一个方向上获得了非常重要突破的产品,在全球来看都是这样。 海外的企业也非常看好这一点,我们有很多美国公司的朋友们都说来自各个大厂的同学,问我们组团买是不是还能优惠一点呢?保证我们先拿到。 但更重要的我想要跟大家说的是,雷鸟创新也好,Meta 也好,这样一些公司做了 AR 领域里面的 Vision Pro 也好、 Vision 也好,这都代表了一个最重要的事情,就是属于 AR 眼镜的未来,已经到来了。 *头图来源:Meta
Jony Ive秘密研发新型AI设备 今年目标筹资10亿美元
编译 | Vendii 编辑 | 漠影 智东西9月29日消息,据《纽约时报》9月21日报道,苹果前设计总监Jony Ive透露了其公司LoveFrom与OpenAI合作秘密研发新型AI设备的进展:双方通过私人渠道秘密筹集了资金,投资者包括Ive本人和美国慈善私立公司Emerson Collective等,并预计在今年年内寻求至多10亿美元的创业资金。 LoveFrom是一家设计公司,由Jony Ive和苹果前高级设计副总裁Marc Newson共同创立,总部位于美国旧金山。该公司汇集了一批设计师、建筑师、音乐家、电影制片人、作家、工程师和艺术家。 有关这款AI设备的消息最早由The Information于一年前报道,称Ive与OpenAI的CEO Sam Altman正在联手开发一个AI硬件项目。研发工作处于早期阶段,两人刚刚开始讨论该AI硬件的可行性和外观,尚未确定其具体的功能、性能和目标市场。 另据TechCrunch去年9月的报道,亿万富翁、日本电信巨头软银(SoftBank)创始人兼CEO孙正义也以某种形式参与了这项计划。 以下是《连线》杂志昨日就这款AI设备进行的详细解读: 一、产品细节仍未披露 最初的传闻和报道都将这款神秘的AI设备形容为“AI界的iPhone”。 但是,没有人知道,这款AI设备究竟是一个独立的单一设备,还是由多个配套组件共同构成。对此,LoveFrom并未提供任何官方回应。 目前尚不确定该设备是依靠自身的算力来执行关键功能,还是将依赖于云计算服务。另一方面,工业设计和用户界面设计的选择会影响用户如何与设备交互,以及设备如何响应用户的需求。这两方面可能会对用户的安全性和隐私保护产生影响。 另一个设计难题是:设备是否需要显示屏;若需要,这显示屏会是什么样子。 根据英国《金融时报》去年9月的报道,LoveFrom与OpenAI的合作为创建一种“减少依赖屏幕”的交互方式提供了机会,目前有很多不同的创意正在讨论中。《纽约时报》记者Tripp Mickle在访问LoveFrom总部时,看到了一些标有该设备“最早期创意”的纸张和纸箱从一个办公室被搬到另一个。 此时,像“环境计算”、“普适计算”甚至“物联网”这样的词可能在你脑海中出现。我们又回到了这些技术吗?如果答案是肯定的,或许也不必失望。 著名工业设计师Yves Béhar提到了Embodied的Moxie机器人伴侣、ElliQ的老年护理机器人和Happiest Baby的机器人婴儿床等AI设备。这些设备不只是这些简单的技术概念,而是真正解决了具体人类需求的实际产品。 Béhar本人参与了所有这些产品的设计。 他说:“我们正在设计这些体验,使其直接嵌入到这些产品的实际物理元素中,而不是依赖智能手机。这样可以减轻对个人设备的依赖,我们发现这些解决方案不会对社会造成干扰,且实际上在使用过程中更加神奇。” 二、期待一个超越智能手机的新型AI设备 最近苹果公司公布的Apple Intelligence,功能包括向Siri发出请求、输入提示词以及用相机摄录物体进行AI查询。但并非所有人都对这种AI+智能手机的前景感兴趣。 “对我来说,智能手机上的AI,尤其是社交媒体中的AI,只是延续了过去几十年一直对消费者进行剥削的商业模式,”著名工业设计师Yves Béhar谈道,“我认为,利用AI来处理我们日常通信和社交媒体,只不过是旧瓶装新酒,它仍然服务于注意力经济,并未真正为社会做出贡献。” “AI可以成为一个加速器。你把它放在一台现代计算机上,现在它的成瘾性、过度刺激性和使人麻木的程度增加了10倍。计算的核心本质是腐朽的,而AI可以使其对我们的心理更具杀伤力。” Daylight公司的创始人Anjan Katta说道。Daylight公司旨在创造一种新型的计算设备,以减少用户对屏幕的依赖和干扰,提供一种更健康的使用技术的方式。 “然而,如果我们创造出完全重新设计的、真正符合我们意图的新型计算机,并将AI融入其中,我们或许可以让计算机成为人类能力的放大器,而不是破坏者。”Katta补充道,“我对Ive所创造的可能性感到兴奋,他并不仅仅从AI入手,而是从一个新的计算灵魂开始,将其视为制造更人性化计算机的手段。” 三、大量苹果前员工加入 除了高级设计副总裁Marc Newson外,Ive还陆陆续续带走了一大批苹果的员工,其中包括Evans Hankey和Tang Tan。Hankey在Ive 2019年离开苹果后,曾短暂担任苹果工业设计的副总裁。Tan曾负责苹果iPhone和Apple Watch的产品设计。此二人现在都在参与这款AI设备的设计。 ▲Ive和Newson在LoveFrom的办公室里 通过LinkedIn搜索还可以发现LoveFrom还可能有一些其他人才的加盟:前苹果UI设计负责人Chris Wilson,曾参与LoveFrom衬线字体设计;在苹果有超过15年经验的设计师和人机界面设计师CC Wan Si Wan;曾担任Apple Watch设计经理9年的Kevin Will Chen;以及前苹果界面和工业设计师Biotz Natera Olalde、Jon Gomez、Joe Luxton,还有前Nest用户界面设计师Mike Matas,等等。 可以说,LoveFrom拥有接近苹果级别的人才、接近苹果级别的资金(计划在今年年底前筹集高达10亿美元的资金),以及与Sam Altman合作的苹果级别的野心。 结语:仍未出现颠覆世界的AI设备 市场上的一些AI设备,如Humane Ai Pin和Rabbit R1,目前尚未获得显著的商业成功,两个产品的《连线》杂志评分分别为4/10和3/10。 Humane Ai Pin由前苹果软件工程总监Bethany Bongiorno和前苹果设计师Imran Chaudhri创立的公司Humane推出。这款设备通过激光投影技术将界面投射到用户的手掌上,旨在提供一种新的人机交互方式, 但市场反响表明其实用性和用户体验仍有待提高。 Rabbit R1,由美国初创公司Rabbit推出,是一款口袋AI设备,运行自研的Rabbit OS操作系统,并搭载“大型操作模型(LAM)”, 尽管它试图通过AI简化用户与应用程序的交互,但其市场表现和用户接受度还需时间来验证。 这些AI设备的尝试,虽然在初期可能并不完美,但它们为未来AI技术在消费电子领域的应用提供了宝贵的经验和启示。随着技术的不断进步和市场的逐渐成熟,我们可以期待更多创新的AI设备将会出现,为用户带来更加丰富和便捷的体验。
GPT-4o 打《黑神话·悟空》!AI马喽拿捏 Boss ,胜率超人类
《黑神话·悟空》这个游戏就一个怪吗? 我承认,当朋友对我发出这样的质疑时,那一刻,我破防了。 从意识到必拿下杨戬,到必撑死虎先锋,我只花了不到半天的时间,而如果想通关《黑神话》,我们能够指望 AI 吗? 翻滚闪避,拉开距离,精怪的行动尽收眼底。 时机一到,天命人猛地挥出重棍。 借助 AI 的力量,一套丝滑连招下来,Boss 被拿捏得毫无还手之力,不知馋哭多少游戏手残党。 阿里研究团队最近提出了一个 VARP 智能体框架。而这个 AI「马喽」正是出自他们之手。 可以说,不是外挂,却胜似外挂。 直面大圣的 GPT 们,还真不比人类差 AI 直面大圣,其实也没那么复杂。 传统上,游戏 AI 靠的是游戏 API 来获取环境信息和可执行的动作数据。但问题是,并不是每个游戏都愿意提供开放的 API,或者即使提供,有的 API 也缺胳膊少腿,很难满足实际需求。 而且,传统方法也总感觉少点什么,无法完全模拟人类玩家的真实游戏体验。 基于此,阿里研究团队提出了一个新的 VARP(Vision Action Role-Playing)智能体框架。 VARP 智能体框架在接收输入的游戏屏幕截图后,通过运用一组 VLMs 进行推理,最终生成 Python 形式的代码来操控游戏角色,包括一系列原子命令的组合,如轻攻击、躲避、重攻击和回血等。 VARP 包含三个知识库:情境库、动作库和人类引导库,以及两个系统:动作规划系统和人类引导轨迹系统。 简单来说,动作规划系统相当于图书馆管理员,负责从情境库和可更新的动作库中找出最合适的资料。 系统根据输入的游戏屏幕截图,挑选或生成符合当前情境的动作,然后这些动作和情境会被存入或更新到这两个库中。 而人类引导轨迹系统则利用人类操作数据集来提升 VARP 在复杂任务中的表现,比如寻路任务和高难度战斗任务等。 在动作库中,「def new_func_a()」表示由动作规划系统生成的新动作,而「def new_func_h()」表示由人类引导轨迹系统生成的新动作。「def pre_func()」表示预定义的动作。 在上文提到的《黑神话·悟空》游戏中,研究团队设定了 12 个任务,其中 75% 涉及战斗,并使用包括 GPT-4o、Claude 3.5 Sonnet 和 Gemini 1.5 pro 等 VLMs 进行了基准测试。 结果显示,VARP 在基本任务和简单到中等难度的战斗中,胜率高达 90 %。但在面对高难度任务时,VARP 的表现容易掉链子,整体水平仍然不如人类玩家。 此外,VARP 智能体在处理游戏中的决策时,因为依赖于视觉语言模型(VLM)的推理速度,所以不能够实时地分析每一个游戏帧(即游戏画面)。 换句话说,它不能像人类玩家那样,几乎瞬间对屏幕上发生的一切作出反应。相反,它只能每隔几秒钟处理一次游戏画面,选择一些重要的帧(关键帧)来进行分析和决策。 《黑神话·悟空》上线时曾被吐槽没有明确的地图,且存在大量的「空气墙」,所以在没有研究人员的辅助下,AI 也会像无头苍蝇一样找不到 Boss。 生成式 AI 点燃了世界变革的火种,而在它尚未涌入大众视野之时,普通人对 AI 更直观的羁绊或许大多源于游戏。 在电子游戏史上,AI 远比我们想象的重要 可能很多人都没想到,最早一批搭上 AI 快车的游戏会是经典街机游戏《吃豆人》。 玩家胜利的前提是吃掉迷宫内的所有豆子,而哪些看似傻乎乎的彩色鬼魂则拥有不同的追击算法,它们会以不同的路径和方式对玩家展开围追堵截。 每个鬼魂的算法招数异常简单,也缺乏任何学习能力,一旦玩家摸透了这些规律,游戏的挑战难度便会直线下降。 1987 年推出的《合金装备》则标志着游戏 AI 的另一个重要里程碑。 游戏中的 AI 角色开始展现出更为复杂的行为模式,并首次引入了对玩家的敌对反应机制。在这款游戏中,如果玩家被敌人发现,敌人会触发警报系统,呼叫增援,改变巡逻路线,甚至设置陷阱。 再后来,如果粗浅地将 AI 与游戏的发展历程用一连串标志性事件罗列出来,大致如下: 1997,IBM 的「深蓝」在国际象棋比赛中击败人类世界冠军,标志着 AI 在棋类游戏中的重大突破。 2004 年,《半条命 2》发布,游戏中的 AI 角色能够进行更复杂的决策和互动,提升了游戏的沉浸感。 2011 年,IBM 的「沃森」在智力问答节目《危险边缘》中击败了人类冠军,展示了 AI 在自然语言处理和知识推理方面的进步。 2016 年,AlphaGo 在围棋比赛中击败了李世石,标志着 AI 在复杂策略游戏中的重大突破。 2018 年,《荒野大镖客 2》发布,游戏 AI 角色和环境互动水平大幅提高,提供了高度逼真的游戏体验。 2020 年,英伟达推出了 DLSS 技术,利用 AI 加速图形渲染,提升了游戏的性能和画质。 置于当下的游戏环境中审视,游戏依然主打一个陪伴,而 AI 则如同一台放大器,将这份陪伴放大了无数倍。 在今年的 CES 展会上,英伟达使用 Avatar Cloud Engine(ACE)让游戏 NPC「活」起来,也借此火爆出圈。 在名为 Kairos 的演示中,玩家能够与拉面店老板 Jin 进行互动。虽然 Jin 只是一个 NPC,但在生成式 AI 的帮助下,像真人一样回答问题。 AI 与游戏的结合也总是让人感到既爱又恨。 就拿竞技类游戏来说吧,过往的做法只是生硬地调整难度,而现在则是模仿人的操作,让游戏体验更加真实。 支持者认为,当模拟人类的 AI 成为对手或队友的时候,反过来也能提升因缺乏真人玩家所带来的游戏竞技感。 而弊端也正在于此,玩家的的留存率是提高了,但在系统的操控下,玩家们也逃脱不了被 AI 玩弄的漩涡。 前期豪言壮语,中期胡言乱语,后期沉默不语。 当我们熬夜通宵只为再赢一把的时候,已经很难说清楚究竟是我们在玩这个游戏,还是这个游戏在玩我们。尤其当你意识到队友可能是 AI 时,那种无力感就像是拳头打在了棉花上。 心里也软绵绵的,毫无着力点。 老黄预言家!未来游戏或将由 AI 生成? 即便是代码小白,也能用 AI 手搓游戏。 这放在几年前,估计只能在梦里想想了,但生成式 AI 到来让这一切有了落地的实际空间。 往小了说,创建一个 GPTs 玩起故事剧本杀,再大了点说,那就是 AI 辅助生成的小程序游戏,虽然互动性差点意思,但胜在画面精美丰富。 再往大了说,甚至未来连 3A 大作级别的游戏,都有可能直接通过 AI 渲染生成。 去年英伟达创始人黄仁勋曾预言,未来游戏中的每一个像素都将被生成,而不是渲染。当时这话说的时候,但大家可能还半信半疑,但现在,越来越多的研究成果给这个落地找到了可能性。 通常,制作一款小型游戏的环境可能需要一周时间,对于工作室项目,创建游戏环境可能需要更长的时间,具体取决于设计的复杂程度。 上个月,Google DeepMind 公布了首个「AI 游戏引擎」GameNGen。 它能够在单个 TPU 芯片上以超过 20 帧每秒的速度实时模拟经典射击游戏《毁灭战士》。其工作原理是利用扩散模型实时预测每一帧,这意味着,游戏中的每一刻都是根据玩家的操作和环境的复杂互动实时生成的。 当时,英伟达高级科学家 Jim Fan 不禁感慨,被黑客们在各种地方疯狂运行的《毁灭战士》,竟然在纯粹的扩散模型中实现了,每个像素都是生成的。 再后来,类似更多成果也正在涌现。 前不久,腾讯也放了大招,推出了一款专门面向 3A 开放世界游戏的大模型——GameGen-O。 GameGen-O 可不简单,它能够模拟各类 3A 游戏,比如《巫师 3》、《赛博朋克 2077》《刺客信条》以及《黑神话:悟空》里的角色、动态环境,以及复杂动作等,生成的游戏场景质量也很高。 为了构建数据集,下血本的腾讯搜集了超过 32000 个游戏视频,每个视频短则几分钟,长则几小时,然后经过人工数据标注挑选了 15000 个可用视频。 这些精选的视频通过场景检测被切割成片段,然后按照美学、光流分析和语义内容进行了严格的排序和过滤。 美国游戏开发商 Electronic Arts 最近也通过一段「从想象到创造」视频,向业界展示了未来 AI 在游戏开发落地的美好愿景。 视频中,玩家仅凭简单的指令,就能使用 AI 工具创建游戏场景、角色和其他内容。 CEO Andrew Wilson 称未来生成式 AI 可改进公司一半以上开发流程,预计将在三至五年内设计创造更大、更身临其境的游戏世界。 AI 不仅能够提升现有游戏的开发效率,还可能创造出全新的游戏体验。 也许你会说,不管游戏用的是什么高大上的技术,归根结底,好玩才是王道。 但在 GTA 6 反复跳票,迟迟不见踪影的情况下,我们或许也会萌生一种自己动手、丰衣足食的念头。 毕竟,如果未来能亲手打造一个「罪恶都市」,感觉好像也还不错。
全球首款脑机接口的 AI 耳机登场,这家公司想用意识操控一切
这是终极可穿戴设备,它可以跟踪您身体中最重要的器官。 Neurable 首席执行官兼联合创始人 Ramses Alcaide 这样介绍 MW75 Neuro 智能耳机。 这款号称「第一款脑机接口音频硬件」的 MW75 Neuro 智能耳机,由脑机接口公司 Neurable 和音响品牌 Master & Dynamic 联合打造,能够结合脑电图(EEG)和功能性近红外光谱(fNIRS)来测量脑活动。 EEG 记录脑电活动,而 fNIRS 测量血氧水平的变化,耳机内置的传感器能够捕捉到 12 个通道的脑电信号,通过全面的脑功能视图精确监测认知状态,如注意力、压力和疲劳。 在它收集到数据后,会发送到移动端 app。通过 Neurable AI 判断用户状态,建议用户何时停下正在做的事情进行充电,减轻疲劳,也会帮助用户消除干扰,了解用户何时专注、何时分心,帮助用户调整他们的注意力习惯。 相比于植入式的监控脑电波的技术,这款耳机做到了非入侵的前提下,仍然保持较高水平的准确度。 ▲ Neurable App 界面,图片来自官网 除了独特的脑电波检测功能,MW75 Neuro 在音频技术和外观设计上也有许多亮点。 官网介绍,MW75 Neuro 采用了 定制的 40 毫米铍涂层驱动单元,支持 aptX Adaptive 和 Snapdragon Sound,能够提供高质量的音频体验,确保音频传输的高保真和低延迟。 耳机还具备 主动降噪(ANC)功能,SOUNDGUYS 网站进行了非常详细的测评,数据显示 MW75 Neuro 能够将外部噪音的感知响度平均降低 74%,虽然使用了织物海绵耳垫作为脑电图传感器,仍然有不错的降噪效果。 ▲ 降噪曲线对比,图片来自 SOUNDGUYS 为了兼具测试精准度与佩戴的舒适度,MW75 Neuro 采用了织物海绵耳垫作为脑电图传感器,配备了小羊皮头带和铝制及钢化玻璃耳罩,磁吸设计便于随时更换,共有银色、玛瑙色、海军蓝和橄榄绿四种配色可供挑选。 官方表示,耳机壳开启 ANC 时续航 28 小时,关闭 ANC 时长达 32 小时,能够持续进行 10 小时的脑电图记录。目前,MW75 Neuro 已经在美国开启订购,售价 699 美元;2025 年春进入欧洲和英国市场,定价 729 欧元和 629 英镑。 Wired 记者艾米丽·穆林在体验后表示满意,并介绍这款这款耳机的手机软件设计类似于一款运动 APP 或多邻国式的学习打卡 APP,当用户持续处于专注状态一段时间后会给一些奖励积分,并且提醒可以休息一段时间,还有一些与运动 APP 类似的打卡小奖励。 ▲ 图片来自 SOUNDGUYS 不过记者在体验中也发现了耳机可能存在的一些问题。 首先,与侵入式脑机接口相比,非侵入式脑机接口最大的问题在于信号质量较低,因为电极必须通过贴合皮肤记录,每当出现任何的运动,耳机与皮肤不能很好地接触时,脑电信号也会受到干扰。 早在 3 月份,我就尝试了几次才将耳垫摆放得恰到好处,以捕获我的大脑数据。为了获得高质量的脑电图读数,耳机传感器需要与头皮良好接触,而我的长发一直挡路。 此外,脑电波数据是高度个人化的,如何存储和保护用户数据也会成为一个问题。 渥太华大学(University of Ottawa)法学教授詹妮弗·钱德勒(Jennifer Chandler)举了一个这样的例子: 有人在开车时戴着脑电图耳机并发生事故。如果来自该设备的大脑数据显示,该人没有在开车时保持警觉和专注,那么这有可能会成为他被判罚的证据。 这是 Neurable 等新型脑电波追踪器面临的大问题之一,对此 Neurable 的处理方式是:将原始 EEG 数据转换为焦点信息,对其进行匿名化处理,删除设备上的原始数据,并将其发送到应用程序。 该焦点数据会被加密后上传到 Neurable 的云中,并存储在数据库中,用户的个人信息(例如其姓名、电子邮件地址和密码)被加密并保存在单独的数据库中。Neurable 联合创始人 Adam Molnar 表示: 我们绝不希望出售这些数据,那不是我们的商业模式。 ▲ Neurable 联合创始人 Adam Molnar(左)、Ramses Alcaide(右),图片来自 Wired,摄影:Philip Keith 这是 Neurable 对待个人操作数据的一贯态度,因为 Neurable 的野心不止于检测注意力,甚至可以说,检测注意力这只是其未来愿景的第一步,Neurable 的愿景是通过神经技术的应用来普及直观的操作技术。 Neurable 认为,与任何工具一样,科技产品从诞生起就一直存在一定的局限性——它需要某种形式的物理输入才能将人类意图转化为行动。例如手机使用触控屏、计算机使用鼠标和键盘,还有一些新兴的设备在尝试使用语音控制等,都需要通过一定的中间步骤与设备进行交互。 但脑机接口将会让操作更为直观,Alcaide 这样描述他们的愿景: 脑机接口将为你提供一个超越当今计算界面局限的通信世界。例如,用户届时只需动动脑子(而不是键入文本)即可发送文本,而所述文本将具有超出消息本身的情感质感。 颇具前瞻性的计划也为 Neurable 争取到了资本市场的青睐,2016 年至今一共获得了 6 轮投资。公开的数据显示,Neurable 仅在 2019 年的就获得了 600 万美元的 A 轮融资,而这款将脑机接口与高端音频设备结合的 MW75 Neuro,可以称得上是其技术应用的代表作。 如今,无论是苹果、Meta 等科技巨头,还是各类初创公司,都在布局可穿戴设备领域。然而,像 MW75 Neuro 这样将耳机与 EEG 感应相结合的设备却不多见,或许它将为智能可穿戴设备开辟一条全新的发展路径。
涵盖华为Mate 60、Pura 70等机型!鸿蒙HarmonyOS NEXT 0.0.70 Beta版开始推送
快科技9月29日消息,华为Mate 60系列、Pura70 系列以及Pocket 2等系列机型自9月27日起,将陆续获得鸿蒙HarmonyOS NEXT 0.0.70 Beta版的推送。 这次升级带来了一系列功能的改进,包括超级终端、畅连、图库AI消除等。 此次更新后,允许用户在没有网络的情况下,通过北斗卫星网络发送或接收消息,从而保持与外界的联系。 图库新增AI消除功能、背景去色功能,用户可以去除照片中无关的物体,如路人或杂物,去除照片的背景颜色,以突出拍摄的主体。 人像相册支持选择心仪的人像照片作为封面。 超级终端方面,此次更新将支持手机与平板之间通过超级终端进行多屏协同(需要登录同一华为账号,并且对端设备需要升级至NEXT.0.0.70SP3及以上版本)。 支持与华为PC通过超级终端进行多屏协同(需要PC管家3.x及以上版本)。 支持通过超级终端连接华为耳机、眼镜(需要蓝牙配对)。 系统新增地震预警功能,当周围发生地震时,手机将提前几秒到几十秒进行预警,根据震级大小,通过通知栏或全屏强提示弹窗及报警音进行预警,为用户提供避险的时间。 截图新增滚动截屏,当截屏内容超过一屏时,用户可以使用滚动截屏功能,轻松捕捉屏幕精彩瞬间,并分享给亲朋好友。 此次还新增了免打扰功能,用户可以设置免打扰时间段,在此期间来电将被屏蔽。 还修复了桌面图标无法跨屏拖拽到文件夹的问题、闹钟无法智能跳过节假日的问题、指纹解锁闪屏问题,以及部分场景音量调节不灵敏的问题。 备忘录内容支持智能排版、润色改写和智能摘要支持语音转文本功能,通过输入语音同步转为文字备忘内容 此外,余承东在华为秋季全场景新品发布会上正式宣布,HarmonyOS NEXT系统将于10月8日开启公测,首批将适配Mate 60/X5系列手机、MatePad Pro 13.2英寸系列平板。
24K金机身!Caviar推出奢华定制版华为Mate XT非凡大师三折叠手机:8.9万起
快科技9月29日消息,近日,俄罗斯奢侈品公司Caviar推出了定制版的Mate XT非凡大师三折叠手机,这款手机以中国传统神话中的“龙”为设计灵感,分别打造了“金龙”与“黑龙”两款奢华机型。 华为Mate XT非凡大师金龙版本非常奢华,整机使用24K纯金打造,表面雕刻着象征中国古老铸剑工艺的“龙泉御剑”图案,而龙泉则是中国多层铸剑工艺的发源地。 黑龙版本的灵感则源自中国神话中的玄龙,机身采用黑色鳄鱼皮包裹,拥有酷似玄龙的鳞片纹理,局部还经过精细的镀金处理,彰显尊贵气质。 华为Mate XT非凡大师作为全球首款量产三折叠屏手机,搭载了华为天工铰链系统,实现了铰链内外弯折,展开后厚度仅为3.6毫米,支持66W有线快充以及50W无线快充。 该手机还采用了UTG玻璃+非牛顿流体材料来保证可靠性,搭载5000万像素主摄,1200万像素超广角、1200万像素潜望长焦,支持十档可变光圈。 另外,华为Mate XT非凡大师金龙与黑龙版本均限量生产88台,而88在中国文化中被视为吉祥数字。 两款手机均提供256GB、512GB、1TB三种存储容量可选,售价12770美元起,最高可达15360美元。 华为Mate XT金龙款256GB售14500美元(约合10.1万人民币)、512GB售14930美元(约合人10.5万人民币)、1TB售15360美元(约合10.8万人民币)。 华为Mate XT黑龙款256GB售12770美元(约合8.9万人民币)、512GB售13200美元(约合9.3万人民币)、1TB售13630美元(约合9.6万人民币)。
比尔盖茨称,全球只能有2个手机系统,这下脸被华为打肿了
目前全球最牛的两个手机系统,分别是iOS、安卓,这个估计大家都非常熟悉的。 而在安卓、iOS成长的路上,也曾有很多的挑战者,其中实力最强的,其实应该是微软的windows phone。 其实微软早在苹果iOS、谷歌安卓还没有诞生时,就已经有基于windows系统用于手机了,最开始叫做Windows Mobile,多普达、三星、HTC等都推出了很多这种手机,不过这种系统,虽然强大, 却不够智能。 后来当iOS、安卓诞生之后,微软也赶紧学iOS、安卓,向智能系统转变,改名为windows phone。 而为了发展生态,微软当年也是拼了,拿出了数十亿美元,来激励开发者。 最后的结果就是,windows phone死了,安卓、iOS活了下来。 后来比尔盖茨称,全球只能有2个手机系统,太多了的话,开发者也无力运营,大家的精力、运营成本有限,只能支持2个手机系统。 后来三星的Tizen也挑战过安卓、iOS,也失败了,似乎验证了比尔盖茨的说法。 不过,现在看来,比尔盖茨的说法,也不一定就是正确的,因为现在全球有了第三款操作系统,和安卓、iOS进行PK了。 这个系统就是华为鸿蒙系统,2019年推出,国内一和沸腾,但业界当时大家都不是特别看好,觉得困难很大。 但华为鸿蒙系统,一路拼了过来,最开始是学安卓、兼容安卓,来完善自己的生态。 并且早期也不从手机系统做起,主要是做电视、汽车、手表、物联网等,最后才开始支持手机、平板等等。 但到了现在,鸿蒙系统,在国内已经超过了iOS,成国内第二大手机系统了,在全球也是第三大系统了,纯手机/平板用户就超过了3亿多。 而按照华为的计划,再过几天,纯血鸿蒙harmonyOSNEXT就要公测了,不再兼容安卓APP,自成生态,另外鸿蒙PC版也快要到来了。 可见,华为现在真的是狠狠的打了比尔盖茨的脸,谁说全球开发者,只有能力和精力、成本运营2个系统,是无法支撑第三个系统的,那只是微软的windows Phone不行而已,但是华为鸿蒙可是行的,这不就成功了么?

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。