行业分类:
加载中...
头条分类:
加载中...
马斯克:未来战争将是无人机和AI的天下
马斯克在西点军校 凤凰网科技讯 北京时间2月7日,据彭博社报道,根据美国西点军校发布的最新视频,埃隆·马斯克(Elon Musk)在去年夏天的一次对话中表示,未来的战争将由人工智能(AI)和无人机主导。 去年8月16日,马斯克与西点军校学术委员会主任、准将谢恩·里夫斯(Shane Reeves)进行了一次40分钟的炉边对话。美国当地时间周四晚些时候,马斯克在X上转发了这次对话的视频。 “当前的乌克兰战争很大程度上已经是一场无人机战争。如果未来爆发大国战争,那很有可能是一场无人机战争。”马斯克在对话中称。 他表示,美国需要投资无人机,并提高国内无人机的生产速度。马斯克称自己经常听着军事历史的有声读物入睡,他告诫国家领导人不要自满。“各国基本上都是依赖过去的战争经验来准备未来战争,而没有针对未来可能出现的新型战争(如无人机战争、AI主导的战争)做好充分准备。”他对在场的军方人员表示。 马斯克还谈到了星链在战争中的作用。“星链是乌克兰军方通信系统的支柱,因为它不会被俄罗斯封锁,”马斯克表示,“在前线,所有光纤连接都被切断,手机信号塔被摧毁,地球静止轨道的卫星通信遭到干扰。唯一不会被干扰的就是星链。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
法院判决武汉首例AI图片创作者维权案,认可创作者享有著作权
IT之家 2 月 7 日消息,武汉东湖新技术开发区人民法院公众号 6 日通报,近日,一起“AI 生成图被侵权”的著作权纠纷案判决明确,在一定条件下 AIGC 生成内容可受著作权保护,为判断 AIGC 生成物的可版权性提供了重要参考,也清晰界定了 AIGC 领域的侵权行为。这也是武汉首例 AI 图片创作者维权案。 IT之家整理案情信息如下: 原告王某系人工智能生成内容(AIGC)创作者。2024 年 5 月 17 日,王某在小红书平台发布了一张使用“某 AI”App 创作的图片,该笔记获得 3.5 万点赞、6000 余次收藏、660 余条评论。 2024 年 6 月 20 日,王某发现武汉某科技有限公司在其抖音账号发布的 AI 绘画训练营广告中使用了与该图片一致的图片。王某于 5 月 26 日注册了该作品的版权登记,认为被告公司侵犯了自己的著作权,遂提起诉讼。 法院经审理认为,王某使用 AIGC 软件生成的图片与人们通常见到的照片、绘画无异,属于艺术领域,具有一定的表现形式,具有一定的表现形式,受到著作权法的保护。 我国著作权法所称的作品,是指文学、艺术和科技领域内有独创性并能以一定形式表现的智力创作成果,保护的是具有独创性的表达,而非思想或者创意本身。 法院认为,王某在创作过程中需要构思画面,通过关键词的撰写、输入,不断调整参数,对生成作品具有一定程度的“控制和预见”,创作过程反映了王某的构思、创作技法、审美选择,体现了王某的个性化表达。 因此,该图片凝结了王某的智力劳动成果,王某为该图片的作者及著作权人。武汉某科技有限公司未经许可使用该图片用于商业推广,侵害了王某的信息网络传播权。 法院判决武汉某科技有限公司赔偿王某经济损失及合理开支 4000 元。一审判决作出后,双方均未上诉,判决已发生法律效力,被告已主动履行义务。
苹果造了个高情商台灯机器人!能点头哈腰、眉飞色舞
作者 | 许丽思 编辑 | 漠影 机器人前瞻2月7日报道,最近,苹果内部机器人技术研究团队发布最新论文,提出了一个名为“ ELEGNT” 的框架,专门为日常互动中的非人形机器人设计既实用又能表达情感的动作。 这项研究专门设计了一款能点头哈腰、能眉飞色舞的智能台灯机器人,它可以通过各种肢体语言与用户进行互动,表达自己细腻的态度和情绪。 苹果机器人研究团队认为,在人与人之间的交流中,姿势、手势和眼神之类的非语言行为非常重要,能有意或无意地传达人类的内心状态。而为了让机器人能更自然地与人类互动,机器人的动作设计也应该融入一些表达性的元素,比如意图、注意力和情感,而不仅仅是考虑快速、高效地完成任务。 一、支持手势、语音、投影等交互,能完成多项功能和社交任务 这款台灯机器人集成了LED光源、摄像头、扬声器、麦克风、激光投影仪等,与用户的交互形式包括手势、语音、触摸和投影。 ▲台灯机器人的构成及交互形式 它能完成点头、摇尾巴、低头、坐下、躲避、接近等动作,还可以表现出紧张、失望、凝视、强调等状态。 ▲台灯机器人在运动和空间方面的表达形式 它可以完成的一系列功能任务、社交任务,例如摄影灯、感应夜灯、项目协助、创意建议、边播放音乐边跳舞等。 ▲台灯机器人可以完成多项功能任务、社交任务 “ELEGNT” 的框架结合了两种设计思路: 一是功能性驱动,专注于让机器人用最优路径完成任务(比如移动到某个位置); 二是表达性驱动,让机器人通过动作传递自己的“内心状态”,比如意图、注意力、态度或情绪,从而让互动更自然。 具体来说,这个框架包括以下三方面: 1、意图可视化:通过22个运动基元编码,将充电、避障等底层需求转化为可读的身体语言; 2、注意力引导:利用多轴关节实现类人注视行为,如预报天气时自动转向窗外; 3、情绪共鸣:开发情感状态机,让机器人能根据对话语境展现惊喜/失落等微表情。 二、六组对照实验,充当眼里有活的社交伴侣 团队还做了一系列的对照实验,比较了在多个场景下,表达性台灯机器人(Expressive Robot)和功能性台灯机器人(Functional Robot)在实现目标过程中的运动差异。 在用户对一个物品进行拍摄的时候,表达性的台灯机器人会响应用户手势灵活移动,主动帮助用户寻找拍摄最佳的光照角度,而功能性台灯机器人则移动较为迟缓。 当用户错误指令它读取无法触及的便签时,表达性台灯机器人会多次努力伸长身子试图阅读信息,再发现看不到后,略带歉意地摇头向用户表达无法完成任务。 而功能性台灯机器人在第一次尝试发现无法阅读到信息后,则直接向用户表达任务失败。 表达性机器人还可以扮演一个社交伴侣的角色,在用户寻问今天天气时,它会先认真看看窗外,告诉用户气温、干湿度状况,还兴奋得希望用户能够在这样的好天气带上他去徒步。惨遭拒绝后,垂头丧气表现得很失落。 功能性机器人就无法在面对同样的问题时,与用户、环境产生除了语言之外的互动。 表达性机器人还会积极提醒用户喝水,找到水杯把它推到用户眼前,然后抬头盯着用户喝水。在喝水完成后,继续为用户正在阅读的书籍照明。 功能性机器人依旧沉默得多,只能通过将灯光照射在杯子上对用户进行提醒。 表达性机器人还可以当一个“眼里有活”的项目助手,仔细观察用户正在进行的手工活动,主动变换角度进行照明,还可以提供教程投影。功能性机器人的光照角度就比较有限了。 表达性机器人还会随着用户播放的音乐,手舞足蹈,给足用户陪伴价值。 结语:苹果大力探索机器人与人类的情感化交互 这项研究结果表明,表达性动作能显著提升用户对机器人的好感度和互动投入感,这种效果在社交性任务中尤其明显,因为这些任务本身对功能性动作的要求较低,表达性动作的空间更大。 团队下一步计划,将根据这次研究成果整合出一个全新的生成式框架,让非人形机器人能根据不同场景自动生成既能完成任务、又能“有温度”地表达意图的动作。 从这款颇具人情味的台灯机器人来看,人形或许并非机器人发展的最终答案,任何形态的物品都可以逐渐机器人化。 而对苹果来说,它似乎正在探索一种不同于目前绝大多数机器人企业所走的、以生产力提升为导向的科技发展路径。在大多数厂商参数比拼正酣时,苹果的机器人研究团队正在悄然探索人类与机器人情感化交互的全新智能生态。
苹果机器人首次曝光!一个有情绪会蹦迪的台灯,皮克斯动画照进现实
能干活 还能卖萌 1986 年,皮克斯在一场计算机图形讨论会上放映了最新动画《顽皮跳跳灯》,片中两个蹦蹦跳跳的台灯没有表情,没有对白,只凭借扭头、伸展等等的动作,用 2 分钟就向观众展示了自己的鲜明个性和情感。 这种前所未见的动画形式,不仅震撼了在场所有人,还助力这部短片拿下奥斯卡提名,也成为了现在每一部皮克斯电影都不会缺席的吉祥物。 而将近 40 年后的今天,和皮克斯渊源颇深的苹果,成功将这个动画史上最具里程碑意义的角色,带到了现实世界当中。 有情感的「小台灯」 今天,苹果在其机器学习网站,公布了一项机器人研究成果 「ELEGNT」,目前的原型机器是一个台灯形态的设备。 ELEGNT 的名字取得非常巧妙:形似单词「elegant(优雅)」,符合这项技术的表现;而全称很长:a framework of Expressive and functionaL movEment desiGn for Non-anthropomorphic robot,翻译过来就是「一种用于非拟人化机器人的表达性和功能性运动设计框架」。 看起来有点抽象?其实核心意思很简单:苹果做的不是春晚舞台上的人形机器人,而是让一些非人形机器,比如一个台灯,懂得「肢体语言」。 这个「懂」不单单是「理解」人类的手势操作,而是机器人做出反应时,也会补充一些动作细节,让交互有「生命感」。 传统的机器人,完成指令的方式是一条直线,程序设定好的动作幅度精准到不会多出一毫米。 而 ELEGNT 是一条曲线,过程中会表达意图、显示注意力、展示态度、表达情绪,也就是说会小小地「演」一下。 比如,用户下达指令的时候, ELEGNT 会「看着」用户,时不时歪歪头和点头,仿佛自己真的在认真听讲,而实际上没有这些动作,机器人也能通过麦克风正常录音和分析。 用户问机器人天气,它会先向窗户的方向探探头,然后再进行回答,但其实它只是上网检索了一下天气数据。 左边:具有情感表达的机器人;右边:普通的机器人 如果机器人够不着需要识别的物体,它还会垂下脑袋摇摇头。 左边:具有情感表达的机器人;右边:普通的机器人 比较可爱的是放音乐的时候,机器人会跟着节拍一起蹦迪,看起来真就像是皮克斯电影的桥段。 一样的台灯形态和动作,很容易让人想起 2023 年小米发布的一个名为「皮皮灯」的产品,同样能「摇头晃脑」,有「喜怒哀乐」的情绪表达。 不过这个皮皮灯的实现原理要简单许多,主要是设定好的程序,动作幅度也比较死板,总体来说比较像噱头。 图源:知乎 @J 法老 ELEGNT 背后的技术要复杂得多,运用了大语言模型的上下文学习能力,能够「察言观色」,根据实时交互场景调整动作模式。在交互中,ELEGNT 会主动问用户远足能不能带上自己,如果被拒绝,它就会低下头,给人一种很难过的感觉。 左边:具有情感表达的机器人;右边:普通的机器人 ELEGNT 还结合人类反馈优化,目前能够生成 10 种不同的肢体语言序列,并控制好每个动作的时间和幅度,实现情感表达和任务完成效率的平衡。 当然,高度拟人化的 ELEGNT,背后也存在一定的伦理问题:可能会引起用户的情感投射,甚至依赖,尤其是在儿童和一些脆弱群体当中。 由于测试的时间太短,测试人员也不够多,无法验证 ELEGNT 表达动作会不会存在程式化的问题,长期使用有可能会导致用户审美疲劳,影响交互的有效性。 机器人也需要「人味」 从苹果的演示对比视频可以发现,ELEGNT 机器人虽然可爱,但它的效率比「打直球」的普通机器人要低很多,前者还在探头探脑的时候,后者早已经给出用户需要的答案。 左边:具有情感表达的机器人;右边:普通的机器人 这似乎和机器人的初衷有点背道而驰。让机器人进入我们的工作和生活,本应该是为了更好更快地帮我们干活,而 ELEGNT 问个天气都要等它先演一番,这么一想,苹果好像「方向错了」? 技术是冰冷的。当你还在欣喜于 Deepseek 能帮你高效完成工作,可能你已经快要被它取代;工厂里越来越多的机器人身影,意味着更多人类失去岗位。 而苹果变 AI 为 Apple Intelligence,玩一点文字游戏来掩盖技术的无情一面;而对于机器人,苹果的思路更加开阔。 Apple Intelligence 多彩的界面和 logo 也是为了显得更友好 虽然不如人形机器人那么火,但这两年「机器宠物」的概念也开始兴起:卡西欧的 Moflin 卖断货,CES 上的 Ropet 成功刷屏。这些毛绒绒的小机器人,主要的功能就是卖萌,和生成一些「情感」。 Ropet ELEGNT 就有点像电子宠物和实用机器人的结合,它能一边卖萌,一边完成任务。论文中也提到,情感优先的机器人,能够降低人类的认知负荷,让用户更乐于主动去进行交互,特别是在社交场景中。 不是只有苹果在想办法为机器人增加活人感。马斯克的人形机器人 TeslaBot,已经会和用户玩剪刀石头布;宇树科技也让机器人穿上大花袄扭秧歌,登上春晚大舞台。 TeslaBot 只是,这些外壳冰冷、动作机械的机器人,再怎么模仿人类,目前都还是差了点意思。ELEGNT 直接另辟蹊径,利用了我们对皮克斯动画角色的集体记忆,加上完成度相当不错的机器动作,首次亮相就成功走进不少人的内心。 The Verge 评论区,已经有网友对 ELEGNT 给出高度评价: 我已经不想养一只狗了,我现在想养一盏台灯。 「我爱台灯」 论文中更严谨的样本研究显示,带有情感表达的 ELEGNT ,在 6 个任务的评分中都高于没有情感表达的版本,前者几乎获得后者两倍的平均得分;并且 ELEGNT 放音乐时蹦迪的表现让人印象非常深刻。 比起人形机器人,ELEGNT 是一个更具普适性的技术,因为它可以用于那些非人形的低自由度机器人中。今天是一盏台灯,明天可能就是苹果的 HomePod,到最后可能整个家都变成迪士尼的公主城堡,每个家具都有自己的情感,一个人住也能热热闹闹的。 未来的智能家居说不定长这样 虽然这些技术目前还只是学术成果,但它们实装到产品上的日子或许不会太远。从去年开始,非常多的信息源都报道称,苹果正在开发智能家用机器人,可能会是一个带了个显示屏的 HomePod 设备,或者是带有机械臂的 iPad,有点像经典的 iMac G4,有望于 2026 或 2027 年推出。 苹果新智能家居假想图,图源:MacRumors 根据此前的爆料,这个带显示屏的 HomePod 可能会支持自动转向,始终将屏幕对准用户,并且能识别手势操作,听起来就很适合 ELEGNT 大显身手。 iPhone 一年比一年无聊,万众期待的 Vision Pro 、Apple 智能实际体验乏善可陈。据称,家用机器人很可能成为苹果的「Next Big Thing」,用来打下苹果目前表现平平的智能家居市场。 Amazon、Google 不是没有类似的探索,但用户接受度并不高,主要是因为这些设备笨重又不智能;步步紧逼的老对手三星,也已经宣布了今年正式发布家用机器人,外观同样主打「可爱风」。 三星将于今年发布智能家用机器人 Ballie 苹果这次能不能再次成功「后发制人」的问题,只有时间能作答,但至少 ELEGNT 让我久违地感觉一个苹果产品「非常有趣」。 文|苏伟鸿
硅谷大厂相继宣布加强AI智算中心建设,“缩放定律”终结了吗?
北京时间2月7日,Open AI宣布,它正在评估哪些地区适合作为“星际之门”项目的数据中心所在地,表明Open AI正继续推进这项高达数千亿美元的AI基础设施建设项目。 在一次OpenAI面向媒体的电话会议上,首席全球事务官克里斯·莱恩(Chris Lehane)表示:“随着DeepSeek的消息传出,这表明这是一场非常真实的竞争,并且事关重大。这将决定未来世界的走向。” OpenAI表示,星际之门的第一座数据中心已经落地美国德克萨斯洲,公司正在寻求在美国国内建设更多AI智算中心。有消息称,目前美国有16个州对星际之门项目感兴趣。Open AI在官方公告中指出,这项计划将在促进AI发展同时,创造数以千计的新增就业,并推动美国部分地区的再工业化。 星际之门宣布于2025年1月,是美国新上任总统特朗普支持的AI基础设施投资计划。该计划最初由OpenAI、软银和甲骨文三家公司向星际之门投资1000亿美元,此后4年将陆续投资共计4000亿美元,用来在美国本土建设AI基础设施。 不仅仅是星际之门项目正在持续推进中,近期微软、谷歌、亚马逊等云计算大厂依旧在2025年加大了公司的资本开支。谷歌预计2025年的资本开支增长超40%,将达到750亿美元;Meta的资本开支增长超60%,可能达到650亿美元;微软的资本开支增长超80%,达到800亿美元;亚马逊的资本开支增长超35%,达到1050亿美元。 硅谷云计算大厂不断升高的资本开支,多用于打造AI智算中心为代表的AI基础设施,这符合着追求大算力的缩放定律(Scaling Law)逻辑。 缩放定律是Open AI在2020年提出的观点,即AI大模型性能会随着模型参数量、训练数据量、计算资源增加而增加。随着模型参数增加,对训练数据量和计算资源的需求也呈现指数级增长。 近期,缩放定律正受到更多质疑。前Open AI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在一次技术峰会上表示,全球训练数据量正在耗尽,这可能意味着无法通过扩大训练数据量来大幅提升AI大模型性能。当可训练数据放缓或停止,即使增加计算资源和模型参数,模型性能提升也有限。这直接冲击缩放定律的假设。 同样挑战缩放定律的还有DeepSeek V3/R1的模型。DeepSeek模型具备低成本和高性能特点,它的V3模型训练成本不到600万美元,也让行业开始怀疑大规模投资算力,从而提升AI大模型性能是否有效。“DeepSeek的火爆出圈正让算力高企的门槛变得更加平滑。”艾媒咨询首席分析师张毅告诉记者,“市场对算力的态度会回归相对冷静的状态。” 不过长期而言,不少业内人士认为缩放定律依然有效。Arm CEO雷内·哈斯表示,DeepSeek对于AI产业链是一大利好,但是这还不足够。他接着评论道:“云计算大厂纷纷在2025年增加资本开支,表明我们这次还处于AI浪潮的早期阶段,更加强大AI所带来的革命性能力仍在孕育之中。” 这种观点受到多家业内券商机构回应。中信建投近期研报认为,尽管缩放定律受到技术、算力、数据影响遭遇瓶颈,但是强大的AI基础模型仍然是各厂商未来追求的主要方向。DeepSeek R1的技术报告同样强调了,更大AI基础大模型的价值:“更大基础模型所发现的推理模式,对于提升推理能力至关重要。” 不过,长期而言,Omdia分析师王珅认为,缩放定律代表的大算力训练出更好模型,进而拥有更多AI未来潜力的逻辑依旧成立。 同时,王珅表示:“DeepSeek代表着一个轻量、高性价比、专注深化AI能力的探索方向,星际之门代表着此前延续的高算力方向,两种方向在未来有何进展变化并不好判断,还需时间观察。”他认为,如果行业偏向于探索DeepSeek代表的方向,这会对原本高算力高投资的基础逻辑形成一些冲击,大规模AI智算中心建设将会减速。
马斯克顶住炮轰用AI狂砍预算,美政界被搅翻天
编译 | 陈骏达 编辑 | Panken 智东西2月7日消息,据外媒昨日报道,两位知情人士透露,亿万富翁埃隆·马斯克(Elon Musk)掌管的美国政府效率部(DOGE)正将美国教育部的敏感数据输入AI软件,以调查这一机构的项目和支出。 这些数据包括管理拨款人员的个人身份信息及敏感的内部财务数据,DOGE正在使用微软的Azure云访问AI软件,仔细检查美国教育部的每一笔支出,从合同到拨款再到差旅费用,从而削减其中的部分开支。 外媒日前还获取了相关部门的会议录音,佐证了马斯克相关团队用AI处理政府数据的事实。 DOGE是美国新任总统特朗普上任后宣布的新部门,旨在减少美国联邦政府中的官僚机构,削减开支。负责人马斯克曾放言,要用这个部门削减2万亿美元的预算。马斯克DOGE部门自1月启动以来闪电出击,用AI严查财政浪费,在美国政界搅起腥风血雨。 今日,马斯克已在X平台上发布、转发多条推文,间接回应了外媒曝光的相关事件,但没有直接回应AI工具的使用问题。他认为DOGE的行为是在阻止资金流向欺诈实体,目前媒体的报道完全将重点带偏了,甚至是在贼喊捉贼。 DOGE、微软已拒绝置评,白宫方面尚未做出正式回应。 马斯克过去已经多次在公开场合发表相关言论,认为AI能够快速理解人类难以处理的数据和信息。然而,由于这项技术的风险,许多企业和美国政府部门已经禁止员工在涉及安全问题的材料上使用AI。 在教育部,DOGE团队的目标是大幅削减支出,并最终缩减该部门及其员工规模——从而进一步推动特朗普政府将其完全废除。目前,美国教育部已有100人左右被置于带薪行政休假状态。 另一位熟悉DOGE流程的人士表示,DOGE团队计划在许多部门和机构复制这一过程——即访问政府不同部门的后端软件,然后使用AI技术来提取和筛选有关员工和项目支出的信息。 将敏感数据直接输入微软Azure这样的托管平台,会将这些数据置于系统运营商的控制之下,从而增加数据泄露或在网络攻击中被窃取的可能性。人工智能也可能出错,例如在总结数据时产生错误的“幻觉”信息。 不过,美国教育部周四已经在一份声明中阐述了他们的立场,他们认为DOGE在教育部的代表是联邦雇员,拥有必要的安全许可和背景调查权限。这些人员将帮助教育部提升其成本效益,“没有任何不恰当或不正当的事情发生”。 在教育部之外,马斯克的团队还迅速接管了负责控制政府支付、人力资源和IT的部门,即美国总务管理局技术转型服务部门(TTS),这一部门的负责人是前特斯拉员工Thomas Shedd。 外媒获得的一份录音显示,Thomas Shedd在本周一举行的一次会议上告诉员工,这一部门会成为收集政府合同的“中心场所”,以便他们可以用AI进行分析。这一分析的最终目的也是为了削减政府开支,提升效率。 据两位熟悉DOGE组织工作的人士透露,目前该部门已经利用包括AI在内的工具,在教育部确定了几十份合同,作为削减的目标。其中一位人士称,DOGE打算取消所有非运营所必须的或法律要求的合同。 就在上述消息曝光的同一日,美国地方法官因美国财政部工会团体的诉讼,而暂停了马斯克团队对财政部数据的访问权限。 结语:大多数美国人对AI治国持怀疑态度 美国上一届政府对在政府行政工作中使用AI工具持保守态度,大多数美国人对这种操作也比较迟疑。白宫前AI政策负责人Alondra Nelson称,在不清楚应该如何部署此类工具时,大多数美国人不希望AI被用于政府用途。 不过在包括马斯克在内的多位特朗普政府高管看来,这项举措似乎是利大于弊。在美国财政部因此遭受诉讼后,AI治国这一新颖但也充满风险的做法,面临着种种未知。
徕卡推出 iPhone 影像套件,没有可乐标,仅 389 美元
没有可乐标 还是贵 iPhone 16 系列的相机控制按键不好用,虽然这颗小按键通过精妙的结构集成了多种交互方式和反馈,但手指在方寸之间跳舞,就像用杀猪刀削水果。 这几乎是共识了。 一枚用于控制相机的按键,却做得不好用,不只是用户看不下去,一个老牌摄影厂商也看不下去了——徕卡推出了一款名为 Leica Lux Grip 的影像套件,旨在提升 iPhone 的专业摄影体验。 这款影像套件名为 Lux Grip,为 iPhone 提供类似单反相机的握持感,配备可自定义的功能按钮、两段式快门按钮和控制拨盘。 Lux Grip 由一个手柄以及一个连接手机的支撑部件组成,全身使用铝合金打造,支撑部件中配备了 MagSafe 磁吸结构,用于和 iPhone 进行连接。 有趣的是,徕卡经典的 M 和 Q 系列都没什么握持感可言 来到手机摄影时代,竖幅照片或视频比以前任何时候都多,由于使用磁吸连接方案,Lux Grip 没有受到物理接口的限制,所以可以由用户根据需求自由选择横向或是纵向使用,两种状态下都可以保持良好的握持和齐全的功能,而不是被限制在传统的横幅拍摄状态中。 Lux Grip 的手柄内置 300mAh 电池,可拍摄多达 1,000 张照片,并可通过 USB-C 在约两小时内充满电。 Lux Grip 是一套完整的手机影像系统,这意味着除了外置硬件外,还有一套对应的软件——Leica Lux 在 Lux Grip 通过 MagSafe 与 iPhone 连接后,Lux Grip 会通过蓝牙与 iPhone 通讯,并将信号输出给 Leica Lux 应用,这个应用模拟徕卡相机的外观和操作体验,并提供一定的滤镜和自定义参数。 Lux Grip 支持 iPhone 12 及后续机型,单台设备售价 329 美元,如果加上内置 AirTag 口袋的皮革保护套,共需 389 美元。 不过,近 400 美金的价格只是首付,Leica Lux 应用中的对应功能在购入 Lux Grip 的头一年可以免费使用,但之后需要订阅续期,价格分为每个月 6.99 美元或每年 69.99 美元两种方案。 从定价来看,Leica Lux Grip 毫无疑问是面对徕卡的忠实用户推出的,但有趣的是 Lux Grip 的任何角落都没有徕卡标志性的可乐标,只有一个黑白 logo,热衷于小红点的用户可能会相当失望。 其实,手机影像套件早已不是什么新鲜事物,各种附加镜头、滤镜组早已成为摄影爱好者的常见工具,而影像手柄更是这一领域中的主流产品。 小米几乎为每一代影像旗舰机型都精心设计了专属相机套件,力求提供更接近专业相机的操控体验;OPPO 和 vivo 也曾推出类似的设备,试图在智能手机影像的可玩性和专业性之间找到平衡。 不仅仅是手机厂商,第三方品牌同样积极入局——贝尔金在 CES 2025 上发布了 Stage PowerGrip,进一步丰富了手机影像生态,而苹果官方商城中,也早已上线了 ShiftCam ProGrip,为 iPhone 用户提供更具专业感的摄影操控方案。 无论是原厂还是第三方厂商,为什么都对手机影像套件趋之若鹜? 从厂商的角度来看,智能手机的硬件性能已经接近天花板,创新的空间越来越有限,而影像作为最能直观体现产品差异化的领域,早已成为各大厂商比拼的主战场。如今,旗舰机型的最高规格几乎都集中在影像系统上,甚至不少品牌直接将其定义为「影像旗舰」,以彰显自身在摄影领域的专业性。 在这样的趋势下,影像套件不仅是对硬件能力的延展,更是一种品牌认知上的强化。通过推出专业级的影像配件,厂商能够向市场传递一个明确信号——我们的影像系统不仅是参数堆砌,更是在操控体验和摄影生态上也做到了极致。这不仅可以提升产品的高端形象,还能让用户在选择时,对品牌的影像实力留下更深刻的印象。 而徕卡的入局,可以看作是传统影像厂商向外扩大影响力的进一步策略。 小米 14 Ultra 配备的影像套件 而从用户的角度来看,影像套件的意义远不止于实用性,它更像是一款机械键盘——虽然不是拍照的刚需,却能够极大提升体验,让摄影更具沉浸感与可操控性。 普通用户用手机拍照,更多是随手记录,但影像爱好者希望掌控画面的每一个细节,甚至在快门按下的瞬间都能获得仪式感,而影像手柄带来的物理触感,让每一次调整参数、半按快门对焦、精准构图,乃至按下快门那一刻的反馈,都在满足这种对于手感与自定义的需求,让手机摄影不再仅仅是点按屏幕,而更接近于一台相机的操作体验。 说到底,影像套件的出现,是智能手机影像竞争的必然产物,亦是用户对更高阶拍摄体验的渴望所共同驱动的选择。 文|周奕旨
刚刚,DeepSeek创造历史!超越OpenAI狂揽7.8万星
作者 | 程茜 编辑 | 云鹏 44天,狂揽7.8万星的DeepSeek又创造了历史! 智东西2月7日消息,刚刚,DeepSeek在开源社区GitHub上的Star数首次超越OpenAI。 DeepSeek-V3的Star数为7.78万,OpenAI项目中,Star数最高的是实时音频转文本模型Whisper的,为7.57万。 DeepSeek-R1的Star数也超过OpenAI其他项目,达到6.59万。openai-cookbook为OpenAI Star数第二高的项目6.15万,该项目是提供使用OpenAI示例代码和指南的官方开源项目。 这也是DeepSeek力压ChatGPT登顶美区App Store免费榜,在国内App Store免费榜同样位居第一后,创下的又一个历史时刻。 ▲DeepSeek开源项目(左)、OpenAI开源项目(右)(图源:GitHub) 在一众开源模型玩家中,DeepSeek的Star数也远超其他模型。 Meta的Llama系列模型中,2023年推出的开源模型Llama最高为5.75万,Llama 3次之为2.82万;阿里云通义千问的开源模型中,1月29日发布的Qwen2.5的Star数最高,达到1.49万;零一万物的Yi为7800;Anthropic的热门项目Anthropic-cookbook Star数为1.02万,该项目是提供样例实现参考的开源项目。 DeepSeek V3和DeepSeek R1分别于2024年12月26日和今年1月20日发布。 DeepSeek V3为DeepSeek自研MoE模型,参数量达到671B,激活参数量37B,在14.8T token上进行了预训练,该模型在多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等开源模型,并在性能上和闭源模型GPT-4o以及Claude-3.5-Sonnet比肩。 DeepSeek R1在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版,在开源DeepSeek-R1-Zero和DeepSeek-R1两个660B模型的同时,蒸馏了6个小模型,其中32B和70B模型在多项能力上实现了对标OpenAI o1-mini的效果。 当下,全球已经掀起了从芯片企业、云计算巨头到各路基础设施公司适配、接入DeepSeek的热潮,DeepSeek所展现出的卓越性能与广泛的应用潜力正在逐渐放大。
OpenAI 突然公开 o3-mini 思维链!首秀遭质疑,实测对比 DeepSeek R1,差距太明显
让我们再次感谢 DeepSeek。 今天凌晨,OpenAI 宣布公开最新模型 o3-mini 系列模型的思维链。 简单来说,用户现在可以看到 o3-mini 以及 o3-mini(high) 的「思考」过程,更清晰地了解模型是如何推理并得出结论的。 OpenAI 研究科学家 Noam Brown 在 X 平台发文称: 「在 o1-Preview 发布前,我们向大家介绍 时,看到思维链(CoT)实时运行往往是他们的『顿悟』时刻,让他们意识到这将是一件大事。 这些虽然不是原始的思维链,但已经非常接近了。我很高兴我们能与世界分享这一体验!」 随后,他进一步阐述道: 「o3-mini 是首个能够持续准确解答井字棋问题的大语言模型。虽然概括后的思维链看起来有些混乱,但从右侧可以看到,模型最终还是成功找到了正确答案。」 图片 公开了,但也没完全公开。 据外媒 TechCrunch 报道,OpenAI 仍然不会完全公开 o3-mini 的完整推理步骤,但其表示已「找到一个平衡点」,o3-mini 现在可以「自由思考」,然后整理出更详细的推理摘要。 在此之前,出于竞争考虑,OpenAI 没有完全公开 o3-mini 及其前身(o1 和 o1-mini)的推理步骤,仅向用户提供推理摘要,甚至这些摘要有时并不准确。 并且,为了提高清晰度和安全性,OpenAI 还引入了一个额外的后处理步骤,模型会首先对「思维链」进行审查,剔除潜在的不安全内容,并对复杂概念进行适度简化。 报道援引 OpenAI 发言人解释称,「这一后处理步骤还支持非英语用户,确保他们可以用自己的母语查看『思维链』,让体验更加友好和易懂。」 实际上,推理透明度在 AI 领域正在成为一个重要的竞争点,让 AI 展示完整的推理步骤,不仅能提高用户信任度,还能让 AI 更容易被研究和改进。 不过,公开思维链可能会被竞争对手利用,比如通过蒸馏技术提取模型的推理逻辑,在上周 Reddit 的 AMA(Ask Me Anything)活动中,OpenAI 首席产品官 Kevin Weil 就曾表示: 「我们正在努力展示比现在更多的推理过程——(这一变化)很快就会到来。是否展示完整的「思维链」仍未确定,因为这涉及竞争问题。但我们也知道用户(尤其是高级用户)希望看到更多细节,所以我们会找到合适的平衡点。」 相比之下,DeekSeek R1 的思维链是无条件公开透明的,其深度思考过程更是赢得了不少网友的点赞。而 OpenAI 这次的「被迫」调整,显然是为了应对 DeepSeek 及其他 AI 公司的压力。 X 网友 @thegenioo 第一时间上手实测了这次思维链的更新。他表示,「新版本不仅提供了更流畅的用户界面,还让模型的思考过程更加透明。 以下是 DeepSeek R1 与 OpenAI o3-mini(high) 在同一问题上的思考对比。 「deeepseeeeeek 有多少个 e」 DeepSeek R1 图片 OpenAI o3-mini(high) 「假设有一个池塘,里面有无穷多的水。现有 2 个空水壶,容积分别为 5 升和 6 升。问题是如何只用这 2 个水壶从池塘里取得 3 升的水。」 ▲DeepSeek R1 OpenAI o3-mini(high) 「一个人花 8 块钱买了一只鸡,9 块钱卖掉了,然后他觉得不划算,花 10 块钱又买回来了,11 块卖给另外一个人。问他赚了多少?」 ▲DeepSeek R1 ▲OpenAI o3-mini(high) 看完以上案例,我们会发现两个模型截然不同的「思维风格」。 DeepSeek R1 更像文科生,它的推理过程循序渐进,思路周密细腻,这样的好处是结果更可靠,也较少出现逻辑偏差。而 o3-mini(high) 更像理科生,推理过程简洁明快,直指问题核心。 这种差异也进一步反映在响应速度上,DeepSeek R1 的思考时间相对较长,而 o3-mini(high)则更快。 就答案而言,DeepSeek R1 的解答往往更加完整详实,比方说第一道测试题它还会特意加入了贴心的注解。相比之下, o3-mini(high) 则显得「公事公办」。 如开篇所说,此次 o3-mini 公布的并非完整版思维链,因此向公众开放后,也引发了不少质疑声。 面对争议,OpenAI CEO Sam Altman 也很快在 X 平台作出解释:「我们尝试整理原始的思维链,使其更易读,并在需要时进行翻译,但尽量保持其原始风格。」 不过,正如一位网友一针见血地指出:如果没有 DeepSeek,我们还能看到 o3-mini 哪怕是「阉割版」的思维链吗?恐怕答案不言自明。
TechInsights:去年AI PC未能提振笔记本电脑市场,相比前年低点仅增5%
IT之家 2 月 7 日消息,市场调研机构 TechInsights 今日发布报告称,2024 年 Q4,全球笔记本电脑出货量同比增长了 6%,达到 5450 万台。随着市场加速迈向 2025 年末 Windows 10 服务终止日期,商用需求依然强劲。尽管消费需求较为平淡,但在假日季(美国圣诞前后)还是有所增长,零售商和供应商大幅打折促销电脑,吸引注重价格的消费者。中国提供的政府补贴达到了预期效果,刺激了消费需求。 IT之家附各厂商表现如下: 联想稳居市场榜首,出货量 1320 万台,同比增长 7%。 惠普仍是全球第二大笔记本电脑厂商,在第二季度占据 21% 市场份额。 戴尔的市场表现仍然低迷,同比下降 1%,已连续三个季度下滑。 苹果在 10 月底推出 M4 版 MacBook Pro,推动其出货量增长至 600 万台,同比增长 1%。 华硕本季度出货量为 410 万台,继续领先宏碁。 尽管微软、芯片厂商和 PC 制造商都在大力推广 AI PC,但 2024 年笔记本电脑市场需求整体未达预期。全年出货量为 2.037 亿台,相比于 2025 年的低点仅增长 5%。宏观经济的不确定性影响了市场对 AI PC 的兴趣,而更根本的问题是,AI PC 目前缺乏足够明确的市场需求。 展望 2025 年,笔记本电脑市场预计将保持温和增长,主要由商用市场推动,原因是 Windows 10 将在 10 月正式终止支持,促使企业更新设备。
DeepSeek 被误读的 5 个真相,AI 大佬亲自揭秘
让我们再复习一遍:小红靠捧,大红靠命。 DeepSeek 已经爆火了一个春节,红起来自然是非就多。尤其在海外局势变化错综复杂的情况下,DeepSeek 的中国血统,给它招来了许多谣言。 Stability AI 曾经的研究主管 Tanishq Mathew Abraham 昨天挺身而出,以自己业内人士的身份下场,指出了 DeepSeek 极为特殊的几点: 1.性能实际上与 OpenAI 的 o1 一样好,这是一个前沿模型,标志着开源真正赶上了闭源 2.与其他前沿模型相比,DeepSeek 以相对较低的训练费用完成 3.易于使用的界面,结合其网站和应用程序中可见的思维链,吸引了数百万新用户加入 除此之外,他更是针对几大流行的谣言,写了长长一篇博文,分析解释了围绕在 DeepSeek 四周的(离谱)言论。 以下为博客文章,内容有所编辑: 2025 年 1 月 20 日,一家名为 DeepSeek 的中国 AI 公司开源并发布了他们的推理模型 R1。鉴于 DeepSeek 是一家中国公司,美国及其 AGI 公司存在各种「国家安全担忧」。由于这一点,**关于它的错误信息已经广泛传播。** 这篇文章的目的是反驳自 DeepSeek 发布以来,许多关于 DeepSeek 的极端糟糕的 AI 相关观点。同时,作为一个在生成式 AI 前沿工作的 AI 研究人员,提供更有平衡性的观点。 谣言 1:可疑!DeepSeek 是一家突然冒出来的中国公司 完全错误,到 2025 年 1 月,几乎所有生成式 AI 研究人员都已经听说过 DeepSeek。DeepSeek 甚至在完整发布前几个月就发布了 R1 的预览! 任何传播这种谣言的人,很可能并不从事人工智能工作——如果你不涉足该领域,却以为自己了解这个领域的一切,是荒谬且极其自负的。 DeepSeek 的首个开源模型 DeepSeek-Coder,于 2023 年 11 月发布。当时是业界领先的代码 LLMs(编者注:专注于理解和生成代码的语言模型)。正如下面的图表所示,DeepSeek 在一年内持续发货,达到 R1: 这不是一夜之间的成功,他们进步的速度也没有什么可疑之处。在人工智能发展如此迅速,且他们拥有一个明显高效的团队的情况下,一年内取得这样的进步在我看来是非常合理的。 如果您想知道哪些公司在公众视野之外,但 AI 领域内备受看好,我会推荐关注 Qwen(阿里巴巴)、YI(零一万物)、Mistral、Cohere、AI2。需要注意的是,它们没有像 DeepSeek 那样持续发布 SOTA 模型,但它们都**有潜力发布出色的模型**,正如它们过去所展示的那样。 谣言 2:撒谎!这个模型的成本不是 600 万美元 这是一个有趣的问题。这类谣言认为 DeepSeek 想避免承认他们有非法的幕后交易来获取他们不应获得的计算资源(由于出口管制),从而在关于模型训练成本的真实性上撒谎。 首先,600 万美元这个数字值得好好研究。它在 DeepSeek-V3 论文中有提及,该论文是在 DeepSeek-R1 论文发布前一个月发布的: DeepSeek-V3 是 DeepSeek-R1 的基础模型,这意味着 DeepSeek-R1 是 DeepSeek-V3 加上一些额外的强化学习训练。所以在某种程度上,成本已经不准确,因为强化学习训练的额外成本没有被计算在内。但那可能只会花费几十万美元。 好的,那么 DeepSeek-V3 论文中提到的 550 万美元,是不正确的吗?基于 GPU 成本、数据集大小和模型大小的众多分析,已经得出了类似的估计。请注意,虽然 DeepSeek V3/R1 是一个 671B 参数的模型,但它是一个专家混合模型,这意味着模型的任何函数调用/前向传递只使用约 37B 参数,这是计算训练成本所使用的值。 然而,DeepSeek 的成本,是基于当前市场价格估计的这些 GPU 的成本。我们实际上并不知道他们的 2048 个 H800 GPU 集群(注意:不是 H100s,这是一个常见的误解和混淆!)的成本。通常,连续的 GPU 集群在批量购入时成本会更低,因此甚至可能更便宜。 但是这里有个问题,这是最终运行的成本。在这成功之前,可能进行了许多在小规模的实验和消融,这一部分会需要相当大的成本,但这些并未在此处报告。 除此之外,可能还有许多其他成本,如研究员薪资。SemiAnalysis 报告称,DeepSeek 的研究员薪资传闻约为 100 万美元。这相当于 AGI 前沿实验室如 OpenAI 或 Anthropic 的高薪水平。 通常,当报道和比较不同模型的训练成本时,最终的训练运行成本是最受关注的。但由于糟糕的论调和错误信息的传播,人们一直在争论额外的成本使 DeepSeek 的低成本和高效运营性质受到质疑。这是极其不公平的。无论是从消融/实验的角度,还是从其他 AGI 前沿实验室的研究人员薪酬的角度来看,成本都非常显著,但这些通常在这样的讨论中没有被提及! 谣言 3:这么便宜?所有美国 AGI 公司都在浪费钱,看跌英伟达 我认为这又是一个相当愚蠢的看法。与许多其他 LLM 相比,DeepSeek 在训练中确实效率更高。是的,许多美国前沿实验室在计算上效率低下是非常可能的。然而,这并不一定意味着拥有更多的计算资源是坏事。 老实说,每当听到这样的观点,我就清楚地知道他们不懂 scaling laws,也不懂 AGI 公司 CEO(以及任何被视为 AI 专家的人)的心态。让我就这个话题发表一些看法。 Scaling laws 表明,只要我们继续将更多的计算能力投入到模型中,我们就能获得更好的性能。当然,AI 扩展的确切方法和方面随着时间的推移而发生了变化:最初是模型大小,然后是数据集大小,现在是推理时间计算和合成数据。 自 2017 年原始 Transformer 以来,更多的计算能力等于更好的性能的整体趋势似乎仍在持续。 更高效的模型意味着您可以在给定的计算预算下获得更高的性能,但更多的计算资源仍然更好。更高效的模型意味着你可以用更少的计算资源做更多的事情,但使用更多的计算资源,可以做到更多! 你可能有自己的关于 scaling laws 的看法。你可能认为即将出现一个平台期。你可能认为过去的表现并不能预示未来的结果,正如金融界所说。 但如果所有最大的 AGI 公司都在押注 scaling laws 能够持续足够长的时间,以实现 AGI 和 ASI。这是他们的坚定信念,那么唯一合理的行动就是获取更多的计算能力。 现在你可能认为「NVIDIA 的 GPU 很快就会过时,看看 AMD、Cerebras、Graphcore、TPUs、Trainium 等」,blabla。有数百万种针对 AI 的硬件产品,都在试图与 NVIDIA 竞争。其中之一可能在将来获胜。在这种情况下,也许这些 AGI 公司会转向它们——但这与 DeepSeek 的成功完全无关。 个人而言,我认为没有强有力的证据表明其他公司会撼动 NVIDIA 在 AI 加速芯片领域的统治地位,鉴于 NVIDIA 目前的市场统治地位和持续的创新水平。 总体而言,我看不出为什么 DeepSeek 意味着你应该看跌 NVIDIA。你可能有其他理由看跌 NVIDIA,这些理由可能非常合理且正确,但 DeepSeek 似乎不是我认为合适的理由。 谣言 4:模仿罢了!DeepSeek 没有做出任何有意义的创新 错误。**语言模型的设计和训练方法有很多创新,其中一些比其他更重要**。以下是一些(不是完整的列表,可以阅读 DeepSeek-V3 和 DeepSeek-R1 论文以获取更多详细信息): 多头潜注意力 (MLA) – LLMs 通常是指利用所谓的多头注意力(MHA)机制的 Transformer。DeepSeek 团队开发了一种 MHA 机制的变体,它既更节省内存,又提供更好的性能。 GRPO 与可验证奖励 – 自从 o1 发布以来,AI 从业者一直在尝试复制它。由于 OpenAI 对它的工作方式一直相当保密,大家不得不探索各种不同的方法来实现类似 o1 的结果。有各种尝试,如蒙特卡洛树搜索(谷歌 DeepMind 在围棋中获胜所采用的方法),结果证明不如最初预期的那样有希望。 DeepSeek 展示了一个非常简单的强化学习(RL)管道实际上可以实现类似 o1 的结果。除此之外,他们还开发了自己变种的常见 PPO RL 算法,称为 GRPO,它更高效且性能更好。我想 AI 社区中的许多人都在想,我们为什么之前没有尝试过这种方法呢? DualPipe – 在多个 GPU 上训练 AI 模型时,有许多效率方面需要考虑。你需要弄清楚模型和数据集如何在所有 GPU 之间分配,数据如何通过 GPU 流动等。你还需要减少 GPU 之间任何数据传输,因为它非常慢,最好尽可能在每个单独的 GPU 上处理。无论如何,有许多设置此类多 GPU 训练的方法,DeepSeek 团队设计了一种新的、效率更高且速度更快的解决方案,称为 DualPipe。 我们非常幸运,DeepSeek 完全开源了这些创新,并写了详细的介绍,这与美国 AGI 公司不同。现在,每个人都可以受益,用这些创新的办法来提高他们自己的 AI 模型训练。 谣言 5:DeepSeek 正在「汲取」ChatGPT 的知识 戴维·萨克斯(美国政府的 AI 和加密巨头)和 OpenAI 声称,DeepSeek 使用一种称为蒸馏的技术「汲取」ChatGPT 的知识。 首先,这里的「蒸馏」一词使用得非常奇怪。通常,蒸馏指的是在所有可能的下一个词(token)的全概率(logits)上进行训练,但这个信息甚至不能通过 ChatGPT 暴露出来。 但是好吧,就假设我们在讨论如何使用 ChatGPT 生成的文本进行训练,尽管这并不是该术语的典型用法。 OpenAI 及其员工声称 DeepSeek 自己使用 ChatGPT 生成文本并在此基础上进行训练。他们没有提供证据,但如果这是真的,那么 DeepSeek 显然违反了 ChatGPT 的服务条款。我认为这对一家中国公司来说,法律后果尚不明确,但我对此了解不多。 请注意,这仅限于 DeepSeek 自己生成了用于训练的数据。如果 DeepSeek 使用了来自其他来源的 ChatGPT 生成数据(目前有许多公开数据集),我的理解是这种「蒸馏」或合成数据训练并未被 TOS 禁止。 尽管如此,在我看来,这并不减少 DeepSeek 的成就。与 DeepSeek 的效率方面相比,作为研究人员,让我印象更深刻的是他们对 o1 的复制。我非常怀疑对 ChatGPT 进行「蒸馏」有任何帮助,这种怀疑完全是出于 o1 的 CoT 思维过程从未公开过,那么 DeepSeek 如何能够学习它呢? 此外,许多 LLMs 确实在 ChatGPT(以及其他 LLM)上进行了训练,而且在新抓取的任何互联网内容中自然也会有 AI 文本。 总体而言,认为 DeepSeek 的模型表现良好仅仅是因为它简单提炼了 ChatGPT 的观点,是忽略了 DeepSeek 在工程、效率和架构创新方面的现实。 应该担心中国在人工智能领域的霸权吗? 或许有一点?坦白说,现在和两个月前相比,中美 AI 竞赛在实质上并没有太多变化。相反,外界的反应相当激烈,这确实可能通过资金、监管等方面的变化影响整体 AI 格局。 中国人一直都在人工智能领域具有竞争力,DeepSeek 现在让他们变得无法忽视。 关于开源的典型论点是,由于中国落后,我们不应该公开分享我们的技术,让他们赶上。但显然,中国已经赶上了,他们实际上很久以前就已经赶上了,他们在开源方面实际上处于领先地位,因此不清楚进一步收紧我们的技术,实际上的帮助是否有那么大。 请注意,像 OpenAI、Anthropic 和 Google DeepMind 这样的公司肯定有比 DeepSeek R1 更好的模型。例如,OpenAI 的 o3 模型的基准测试结果相当令人印象深刻,他们可能已经有一个后续模型正在开发中。 在此基础上,随着像星门项目以及 OpenAI 即将到来的融资轮等重要额外投资,OpenAI 和其他美国前沿实验室将拥有充足的计算能力,以保持他们的领先地位。 当然,中国将向人工智能发展投入大量额外资金。所以总的来说,竞争正在升温!但我认为,美国 AGI 前沿实验室保持领先的道路仍然相当有希望。 结论 一方面,一些 AI 人士,尤其是 OpenAI 的一些人,试图淡化 DeepSeek。而另一方面,一些评论家和自称专家对 DeepSeek 又反应过度。 需要指出的是,OpenAI/Anthropic/Meta/Google/xAI/NVIDIA 等并没有就此完蛋。不,DeepSeek (很可能)没有在说他们所做的事情上撒谎。无论如何必须承认的是:DeepSeek 应得到认可,R1 是一个令人印象深刻的模型。
苹果折叠iPhone曝料:9.2mm厚度、5000mAh电池,2026年秋季发布
2 月 7 日消息,消息源 @QQ_Timmy 昨日(2 月 6 日)在 X 平台发布推文,分享了“苹果折叠屏产业链调研汇总”,透露苹果折叠 iPhone 外观上并非小折叠,而是类似三星 Galaxy Z Fold 系列的书本式折叠设计。 IT之家查询公开信息,该账号于 2016 年 12 月加入 X 平台,I_Leak_VN 和郭明錤(Ming-Chi Kuo)关注了此账号,此外 WccFTech、MacRumors、9to5Mac 等多家海外媒体都转载了该信息,具有一定可信度,但一些媒体也指出部分内容和其它曝料不符,因此在苹果正式发布折叠 iPhone 前,以下信息仅供参考。 原文内容如下: 1、外形:左后大折,折叠后厚度 9.2mm,单面 4.6mm。内屏相当于两部 6.1 英寸手机对折。 2、节奏:26 年秋季折叠 iPhone 上市,27 年折叠 iPad / MacBook 上市。25 年 6 月富士康独家 NPI,预计 25 年底或 26 年初达到量产水平。小折手机暂时没看到进展,大折手机是目前主推方向。 3、销量:预计 26 年 800-1000 万,27 年 2000 万。26 年富士康独家代工,27 年立讯进来。 4、屏幕:显示屏三星独家开发;UTG 蓝思独家研发,目前 90-100 美金;屏幕支撑架钛合金 / 不锈钢 / 碳纤维方案尚未确定(领益有送样),价值量十几美金。 5、转轴:苹果设计方案,目前组装完成本约 110 美金。铰链是安费诺 / 新日兴;内部零部件领益参与约 35 美金;MIM 价值量十几美金,精研有参与。 6、中框:铝合金中框 80-90 美金,富联独家 NPI,量产阶段预计蓝思 / 比亚迪电子有希望进入二供。 7、PCB:软板价值量预计增加 70%,模组板接近翻倍;SLP 预计导入 RCC,价值量增长 40%(12 → 18 美金)。 8、光学:1)前摄:采用 Meta Lens 超薄技术,技术方案来自苹果;透镜,大立光 / 舜宇 / 蓝特参与研发;模组,富士康 / LG 参与研发。2)后摄:主摄 / 超广角均采用玻塑混合,Lens 大立光为主、舜宇模造玻璃有参与。 9、电池:两片不锈钢壳电池(钢壳信维 / 领益)合计容量预计接近 5000mAh。电芯预计为 3D 叠片,ATL 独家开发。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。