行业分类:
加载中...
头条分类:
加载中...
徕卡推出 iPhone 影像套件,没有可乐标,仅 389 美元
没有可乐标 还是贵 iPhone 16 系列的相机控制按键不好用,虽然这颗小按键通过精妙的结构集成了多种交互方式和反馈,但手指在方寸之间跳舞,就像用杀猪刀削水果。 这几乎是共识了。 一枚用于控制相机的按键,却做得不好用,不只是用户看不下去,一个老牌摄影厂商也看不下去了——徕卡推出了一款名为 Leica Lux Grip 的影像套件,旨在提升 iPhone 的专业摄影体验。 这款影像套件名为 Lux Grip,为 iPhone 提供类似单反相机的握持感,配备可自定义的功能按钮、两段式快门按钮和控制拨盘。 Lux Grip 由一个手柄以及一个连接手机的支撑部件组成,全身使用铝合金打造,支撑部件中配备了 MagSafe 磁吸结构,用于和 iPhone 进行连接。 有趣的是,徕卡经典的 M 和 Q 系列都没什么握持感可言 来到手机摄影时代,竖幅照片或视频比以前任何时候都多,由于使用磁吸连接方案,Lux Grip 没有受到物理接口的限制,所以可以由用户根据需求自由选择横向或是纵向使用,两种状态下都可以保持良好的握持和齐全的功能,而不是被限制在传统的横幅拍摄状态中。 Lux Grip 的手柄内置 300mAh 电池,可拍摄多达 1,000 张照片,并可通过 USB-C 在约两小时内充满电。 Lux Grip 是一套完整的手机影像系统,这意味着除了外置硬件外,还有一套对应的软件——Leica Lux 在 Lux Grip 通过 MagSafe 与 iPhone 连接后,Lux Grip 会通过蓝牙与 iPhone 通讯,并将信号输出给 Leica Lux 应用,这个应用模拟徕卡相机的外观和操作体验,并提供一定的滤镜和自定义参数。 Lux Grip 支持 iPhone 12 及后续机型,单台设备售价 329 美元,如果加上内置 AirTag 口袋的皮革保护套,共需 389 美元。 不过,近 400 美金的价格只是首付,Leica Lux 应用中的对应功能在购入 Lux Grip 的头一年可以免费使用,但之后需要订阅续期,价格分为每个月 6.99 美元或每年 69.99 美元两种方案。 从定价来看,Leica Lux Grip 毫无疑问是面对徕卡的忠实用户推出的,但有趣的是 Lux Grip 的任何角落都没有徕卡标志性的可乐标,只有一个黑白 logo,热衷于小红点的用户可能会相当失望。 其实,手机影像套件早已不是什么新鲜事物,各种附加镜头、滤镜组早已成为摄影爱好者的常见工具,而影像手柄更是这一领域中的主流产品。 小米几乎为每一代影像旗舰机型都精心设计了专属相机套件,力求提供更接近专业相机的操控体验;OPPO 和 vivo 也曾推出类似的设备,试图在智能手机影像的可玩性和专业性之间找到平衡。 不仅仅是手机厂商,第三方品牌同样积极入局——贝尔金在 CES 2025 上发布了 Stage PowerGrip,进一步丰富了手机影像生态,而苹果官方商城中,也早已上线了 ShiftCam ProGrip,为 iPhone 用户提供更具专业感的摄影操控方案。 无论是原厂还是第三方厂商,为什么都对手机影像套件趋之若鹜? 从厂商的角度来看,智能手机的硬件性能已经接近天花板,创新的空间越来越有限,而影像作为最能直观体现产品差异化的领域,早已成为各大厂商比拼的主战场。如今,旗舰机型的最高规格几乎都集中在影像系统上,甚至不少品牌直接将其定义为「影像旗舰」,以彰显自身在摄影领域的专业性。 在这样的趋势下,影像套件不仅是对硬件能力的延展,更是一种品牌认知上的强化。通过推出专业级的影像配件,厂商能够向市场传递一个明确信号——我们的影像系统不仅是参数堆砌,更是在操控体验和摄影生态上也做到了极致。这不仅可以提升产品的高端形象,还能让用户在选择时,对品牌的影像实力留下更深刻的印象。 而徕卡的入局,可以看作是传统影像厂商向外扩大影响力的进一步策略。 小米 14 Ultra 配备的影像套件 而从用户的角度来看,影像套件的意义远不止于实用性,它更像是一款机械键盘——虽然不是拍照的刚需,却能够极大提升体验,让摄影更具沉浸感与可操控性。 普通用户用手机拍照,更多是随手记录,但影像爱好者希望掌控画面的每一个细节,甚至在快门按下的瞬间都能获得仪式感,而影像手柄带来的物理触感,让每一次调整参数、半按快门对焦、精准构图,乃至按下快门那一刻的反馈,都在满足这种对于手感与自定义的需求,让手机摄影不再仅仅是点按屏幕,而更接近于一台相机的操作体验。 说到底,影像套件的出现,是智能手机影像竞争的必然产物,亦是用户对更高阶拍摄体验的渴望所共同驱动的选择。 文|周奕旨
刚刚,DeepSeek创造历史!超越OpenAI狂揽7.8万星
作者 | 程茜 编辑 | 云鹏 44天,狂揽7.8万星的DeepSeek又创造了历史! 智东西2月7日消息,刚刚,DeepSeek在开源社区GitHub上的Star数首次超越OpenAI。 DeepSeek-V3的Star数为7.78万,OpenAI项目中,Star数最高的是实时音频转文本模型Whisper的,为7.57万。 DeepSeek-R1的Star数也超过OpenAI其他项目,达到6.59万。openai-cookbook为OpenAI Star数第二高的项目6.15万,该项目是提供使用OpenAI示例代码和指南的官方开源项目。 这也是DeepSeek力压ChatGPT登顶美区App Store免费榜,在国内App Store免费榜同样位居第一后,创下的又一个历史时刻。 ▲DeepSeek开源项目(左)、OpenAI开源项目(右)(图源:GitHub) 在一众开源模型玩家中,DeepSeek的Star数也远超其他模型。 Meta的Llama系列模型中,2023年推出的开源模型Llama最高为5.75万,Llama 3次之为2.82万;阿里云通义千问的开源模型中,1月29日发布的Qwen2.5的Star数最高,达到1.49万;零一万物的Yi为7800;Anthropic的热门项目Anthropic-cookbook Star数为1.02万,该项目是提供样例实现参考的开源项目。 DeepSeek V3和DeepSeek R1分别于2024年12月26日和今年1月20日发布。 DeepSeek V3为DeepSeek自研MoE模型,参数量达到671B,激活参数量37B,在14.8T token上进行了预训练,该模型在多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等开源模型,并在性能上和闭源模型GPT-4o以及Claude-3.5-Sonnet比肩。 DeepSeek R1在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版,在开源DeepSeek-R1-Zero和DeepSeek-R1两个660B模型的同时,蒸馏了6个小模型,其中32B和70B模型在多项能力上实现了对标OpenAI o1-mini的效果。 当下,全球已经掀起了从芯片企业、云计算巨头到各路基础设施公司适配、接入DeepSeek的热潮,DeepSeek所展现出的卓越性能与广泛的应用潜力正在逐渐放大。
OpenAI 突然公开 o3-mini 思维链!首秀遭质疑,实测对比 DeepSeek R1,差距太明显
让我们再次感谢 DeepSeek。 今天凌晨,OpenAI 宣布公开最新模型 o3-mini 系列模型的思维链。 简单来说,用户现在可以看到 o3-mini 以及 o3-mini(high) 的「思考」过程,更清晰地了解模型是如何推理并得出结论的。 OpenAI 研究科学家 Noam Brown 在 X 平台发文称: 「在 o1-Preview 发布前,我们向大家介绍 时,看到思维链(CoT)实时运行往往是他们的『顿悟』时刻,让他们意识到这将是一件大事。 这些虽然不是原始的思维链,但已经非常接近了。我很高兴我们能与世界分享这一体验!」 随后,他进一步阐述道: 「o3-mini 是首个能够持续准确解答井字棋问题的大语言模型。虽然概括后的思维链看起来有些混乱,但从右侧可以看到,模型最终还是成功找到了正确答案。」 图片 公开了,但也没完全公开。 据外媒 TechCrunch 报道,OpenAI 仍然不会完全公开 o3-mini 的完整推理步骤,但其表示已「找到一个平衡点」,o3-mini 现在可以「自由思考」,然后整理出更详细的推理摘要。 在此之前,出于竞争考虑,OpenAI 没有完全公开 o3-mini 及其前身(o1 和 o1-mini)的推理步骤,仅向用户提供推理摘要,甚至这些摘要有时并不准确。 并且,为了提高清晰度和安全性,OpenAI 还引入了一个额外的后处理步骤,模型会首先对「思维链」进行审查,剔除潜在的不安全内容,并对复杂概念进行适度简化。 报道援引 OpenAI 发言人解释称,「这一后处理步骤还支持非英语用户,确保他们可以用自己的母语查看『思维链』,让体验更加友好和易懂。」 实际上,推理透明度在 AI 领域正在成为一个重要的竞争点,让 AI 展示完整的推理步骤,不仅能提高用户信任度,还能让 AI 更容易被研究和改进。 不过,公开思维链可能会被竞争对手利用,比如通过蒸馏技术提取模型的推理逻辑,在上周 Reddit 的 AMA(Ask Me Anything)活动中,OpenAI 首席产品官 Kevin Weil 就曾表示: 「我们正在努力展示比现在更多的推理过程——(这一变化)很快就会到来。是否展示完整的「思维链」仍未确定,因为这涉及竞争问题。但我们也知道用户(尤其是高级用户)希望看到更多细节,所以我们会找到合适的平衡点。」 相比之下,DeekSeek R1 的思维链是无条件公开透明的,其深度思考过程更是赢得了不少网友的点赞。而 OpenAI 这次的「被迫」调整,显然是为了应对 DeepSeek 及其他 AI 公司的压力。 X 网友 @thegenioo 第一时间上手实测了这次思维链的更新。他表示,「新版本不仅提供了更流畅的用户界面,还让模型的思考过程更加透明。 以下是 DeepSeek R1 与 OpenAI o3-mini(high) 在同一问题上的思考对比。 「deeepseeeeeek 有多少个 e」 DeepSeek R1 图片 OpenAI o3-mini(high) 「假设有一个池塘,里面有无穷多的水。现有 2 个空水壶,容积分别为 5 升和 6 升。问题是如何只用这 2 个水壶从池塘里取得 3 升的水。」 ▲DeepSeek R1 OpenAI o3-mini(high) 「一个人花 8 块钱买了一只鸡,9 块钱卖掉了,然后他觉得不划算,花 10 块钱又买回来了,11 块卖给另外一个人。问他赚了多少?」 ▲DeepSeek R1 ▲OpenAI o3-mini(high) 看完以上案例,我们会发现两个模型截然不同的「思维风格」。 DeepSeek R1 更像文科生,它的推理过程循序渐进,思路周密细腻,这样的好处是结果更可靠,也较少出现逻辑偏差。而 o3-mini(high) 更像理科生,推理过程简洁明快,直指问题核心。 这种差异也进一步反映在响应速度上,DeepSeek R1 的思考时间相对较长,而 o3-mini(high)则更快。 就答案而言,DeepSeek R1 的解答往往更加完整详实,比方说第一道测试题它还会特意加入了贴心的注解。相比之下, o3-mini(high) 则显得「公事公办」。 如开篇所说,此次 o3-mini 公布的并非完整版思维链,因此向公众开放后,也引发了不少质疑声。 面对争议,OpenAI CEO Sam Altman 也很快在 X 平台作出解释:「我们尝试整理原始的思维链,使其更易读,并在需要时进行翻译,但尽量保持其原始风格。」 不过,正如一位网友一针见血地指出:如果没有 DeepSeek,我们还能看到 o3-mini 哪怕是「阉割版」的思维链吗?恐怕答案不言自明。
TechInsights:去年AI PC未能提振笔记本电脑市场,相比前年低点仅增5%
IT之家 2 月 7 日消息,市场调研机构 TechInsights 今日发布报告称,2024 年 Q4,全球笔记本电脑出货量同比增长了 6%,达到 5450 万台。随着市场加速迈向 2025 年末 Windows 10 服务终止日期,商用需求依然强劲。尽管消费需求较为平淡,但在假日季(美国圣诞前后)还是有所增长,零售商和供应商大幅打折促销电脑,吸引注重价格的消费者。中国提供的政府补贴达到了预期效果,刺激了消费需求。 IT之家附各厂商表现如下: 联想稳居市场榜首,出货量 1320 万台,同比增长 7%。 惠普仍是全球第二大笔记本电脑厂商,在第二季度占据 21% 市场份额。 戴尔的市场表现仍然低迷,同比下降 1%,已连续三个季度下滑。 苹果在 10 月底推出 M4 版 MacBook Pro,推动其出货量增长至 600 万台,同比增长 1%。 华硕本季度出货量为 410 万台,继续领先宏碁。 尽管微软、芯片厂商和 PC 制造商都在大力推广 AI PC,但 2024 年笔记本电脑市场需求整体未达预期。全年出货量为 2.037 亿台,相比于 2025 年的低点仅增长 5%。宏观经济的不确定性影响了市场对 AI PC 的兴趣,而更根本的问题是,AI PC 目前缺乏足够明确的市场需求。 展望 2025 年,笔记本电脑市场预计将保持温和增长,主要由商用市场推动,原因是 Windows 10 将在 10 月正式终止支持,促使企业更新设备。
DeepSeek 被误读的 5 个真相,AI 大佬亲自揭秘
让我们再复习一遍:小红靠捧,大红靠命。 DeepSeek 已经爆火了一个春节,红起来自然是非就多。尤其在海外局势变化错综复杂的情况下,DeepSeek 的中国血统,给它招来了许多谣言。 Stability AI 曾经的研究主管 Tanishq Mathew Abraham 昨天挺身而出,以自己业内人士的身份下场,指出了 DeepSeek 极为特殊的几点: 1.性能实际上与 OpenAI 的 o1 一样好,这是一个前沿模型,标志着开源真正赶上了闭源 2.与其他前沿模型相比,DeepSeek 以相对较低的训练费用完成 3.易于使用的界面,结合其网站和应用程序中可见的思维链,吸引了数百万新用户加入 除此之外,他更是针对几大流行的谣言,写了长长一篇博文,分析解释了围绕在 DeepSeek 四周的(离谱)言论。 以下为博客文章,内容有所编辑: 2025 年 1 月 20 日,一家名为 DeepSeek 的中国 AI 公司开源并发布了他们的推理模型 R1。鉴于 DeepSeek 是一家中国公司,美国及其 AGI 公司存在各种「国家安全担忧」。由于这一点,**关于它的错误信息已经广泛传播。** 这篇文章的目的是反驳自 DeepSeek 发布以来,许多关于 DeepSeek 的极端糟糕的 AI 相关观点。同时,作为一个在生成式 AI 前沿工作的 AI 研究人员,提供更有平衡性的观点。 谣言 1:可疑!DeepSeek 是一家突然冒出来的中国公司 完全错误,到 2025 年 1 月,几乎所有生成式 AI 研究人员都已经听说过 DeepSeek。DeepSeek 甚至在完整发布前几个月就发布了 R1 的预览! 任何传播这种谣言的人,很可能并不从事人工智能工作——如果你不涉足该领域,却以为自己了解这个领域的一切,是荒谬且极其自负的。 DeepSeek 的首个开源模型 DeepSeek-Coder,于 2023 年 11 月发布。当时是业界领先的代码 LLMs(编者注:专注于理解和生成代码的语言模型)。正如下面的图表所示,DeepSeek 在一年内持续发货,达到 R1: 这不是一夜之间的成功,他们进步的速度也没有什么可疑之处。在人工智能发展如此迅速,且他们拥有一个明显高效的团队的情况下,一年内取得这样的进步在我看来是非常合理的。 如果您想知道哪些公司在公众视野之外,但 AI 领域内备受看好,我会推荐关注 Qwen(阿里巴巴)、YI(零一万物)、Mistral、Cohere、AI2。需要注意的是,它们没有像 DeepSeek 那样持续发布 SOTA 模型,但它们都**有潜力发布出色的模型**,正如它们过去所展示的那样。 谣言 2:撒谎!这个模型的成本不是 600 万美元 这是一个有趣的问题。这类谣言认为 DeepSeek 想避免承认他们有非法的幕后交易来获取他们不应获得的计算资源(由于出口管制),从而在关于模型训练成本的真实性上撒谎。 首先,600 万美元这个数字值得好好研究。它在 DeepSeek-V3 论文中有提及,该论文是在 DeepSeek-R1 论文发布前一个月发布的: DeepSeek-V3 是 DeepSeek-R1 的基础模型,这意味着 DeepSeek-R1 是 DeepSeek-V3 加上一些额外的强化学习训练。所以在某种程度上,成本已经不准确,因为强化学习训练的额外成本没有被计算在内。但那可能只会花费几十万美元。 好的,那么 DeepSeek-V3 论文中提到的 550 万美元,是不正确的吗?基于 GPU 成本、数据集大小和模型大小的众多分析,已经得出了类似的估计。请注意,虽然 DeepSeek V3/R1 是一个 671B 参数的模型,但它是一个专家混合模型,这意味着模型的任何函数调用/前向传递只使用约 37B 参数,这是计算训练成本所使用的值。 然而,DeepSeek 的成本,是基于当前市场价格估计的这些 GPU 的成本。我们实际上并不知道他们的 2048 个 H800 GPU 集群(注意:不是 H100s,这是一个常见的误解和混淆!)的成本。通常,连续的 GPU 集群在批量购入时成本会更低,因此甚至可能更便宜。 但是这里有个问题,这是最终运行的成本。在这成功之前,可能进行了许多在小规模的实验和消融,这一部分会需要相当大的成本,但这些并未在此处报告。 除此之外,可能还有许多其他成本,如研究员薪资。SemiAnalysis 报告称,DeepSeek 的研究员薪资传闻约为 100 万美元。这相当于 AGI 前沿实验室如 OpenAI 或 Anthropic 的高薪水平。 通常,当报道和比较不同模型的训练成本时,最终的训练运行成本是最受关注的。但由于糟糕的论调和错误信息的传播,人们一直在争论额外的成本使 DeepSeek 的低成本和高效运营性质受到质疑。这是极其不公平的。无论是从消融/实验的角度,还是从其他 AGI 前沿实验室的研究人员薪酬的角度来看,成本都非常显著,但这些通常在这样的讨论中没有被提及! 谣言 3:这么便宜?所有美国 AGI 公司都在浪费钱,看跌英伟达 我认为这又是一个相当愚蠢的看法。与许多其他 LLM 相比,DeepSeek 在训练中确实效率更高。是的,许多美国前沿实验室在计算上效率低下是非常可能的。然而,这并不一定意味着拥有更多的计算资源是坏事。 老实说,每当听到这样的观点,我就清楚地知道他们不懂 scaling laws,也不懂 AGI 公司 CEO(以及任何被视为 AI 专家的人)的心态。让我就这个话题发表一些看法。 Scaling laws 表明,只要我们继续将更多的计算能力投入到模型中,我们就能获得更好的性能。当然,AI 扩展的确切方法和方面随着时间的推移而发生了变化:最初是模型大小,然后是数据集大小,现在是推理时间计算和合成数据。 自 2017 年原始 Transformer 以来,更多的计算能力等于更好的性能的整体趋势似乎仍在持续。 更高效的模型意味着您可以在给定的计算预算下获得更高的性能,但更多的计算资源仍然更好。更高效的模型意味着你可以用更少的计算资源做更多的事情,但使用更多的计算资源,可以做到更多! 你可能有自己的关于 scaling laws 的看法。你可能认为即将出现一个平台期。你可能认为过去的表现并不能预示未来的结果,正如金融界所说。 但如果所有最大的 AGI 公司都在押注 scaling laws 能够持续足够长的时间,以实现 AGI 和 ASI。这是他们的坚定信念,那么唯一合理的行动就是获取更多的计算能力。 现在你可能认为「NVIDIA 的 GPU 很快就会过时,看看 AMD、Cerebras、Graphcore、TPUs、Trainium 等」,blabla。有数百万种针对 AI 的硬件产品,都在试图与 NVIDIA 竞争。其中之一可能在将来获胜。在这种情况下,也许这些 AGI 公司会转向它们——但这与 DeepSeek 的成功完全无关。 个人而言,我认为没有强有力的证据表明其他公司会撼动 NVIDIA 在 AI 加速芯片领域的统治地位,鉴于 NVIDIA 目前的市场统治地位和持续的创新水平。 总体而言,我看不出为什么 DeepSeek 意味着你应该看跌 NVIDIA。你可能有其他理由看跌 NVIDIA,这些理由可能非常合理且正确,但 DeepSeek 似乎不是我认为合适的理由。 谣言 4:模仿罢了!DeepSeek 没有做出任何有意义的创新 错误。**语言模型的设计和训练方法有很多创新,其中一些比其他更重要**。以下是一些(不是完整的列表,可以阅读 DeepSeek-V3 和 DeepSeek-R1 论文以获取更多详细信息): 多头潜注意力 (MLA) – LLMs 通常是指利用所谓的多头注意力(MHA)机制的 Transformer。DeepSeek 团队开发了一种 MHA 机制的变体,它既更节省内存,又提供更好的性能。 GRPO 与可验证奖励 – 自从 o1 发布以来,AI 从业者一直在尝试复制它。由于 OpenAI 对它的工作方式一直相当保密,大家不得不探索各种不同的方法来实现类似 o1 的结果。有各种尝试,如蒙特卡洛树搜索(谷歌 DeepMind 在围棋中获胜所采用的方法),结果证明不如最初预期的那样有希望。 DeepSeek 展示了一个非常简单的强化学习(RL)管道实际上可以实现类似 o1 的结果。除此之外,他们还开发了自己变种的常见 PPO RL 算法,称为 GRPO,它更高效且性能更好。我想 AI 社区中的许多人都在想,我们为什么之前没有尝试过这种方法呢? DualPipe – 在多个 GPU 上训练 AI 模型时,有许多效率方面需要考虑。你需要弄清楚模型和数据集如何在所有 GPU 之间分配,数据如何通过 GPU 流动等。你还需要减少 GPU 之间任何数据传输,因为它非常慢,最好尽可能在每个单独的 GPU 上处理。无论如何,有许多设置此类多 GPU 训练的方法,DeepSeek 团队设计了一种新的、效率更高且速度更快的解决方案,称为 DualPipe。 我们非常幸运,DeepSeek 完全开源了这些创新,并写了详细的介绍,这与美国 AGI 公司不同。现在,每个人都可以受益,用这些创新的办法来提高他们自己的 AI 模型训练。 谣言 5:DeepSeek 正在「汲取」ChatGPT 的知识 戴维·萨克斯(美国政府的 AI 和加密巨头)和 OpenAI 声称,DeepSeek 使用一种称为蒸馏的技术「汲取」ChatGPT 的知识。 首先,这里的「蒸馏」一词使用得非常奇怪。通常,蒸馏指的是在所有可能的下一个词(token)的全概率(logits)上进行训练,但这个信息甚至不能通过 ChatGPT 暴露出来。 但是好吧,就假设我们在讨论如何使用 ChatGPT 生成的文本进行训练,尽管这并不是该术语的典型用法。 OpenAI 及其员工声称 DeepSeek 自己使用 ChatGPT 生成文本并在此基础上进行训练。他们没有提供证据,但如果这是真的,那么 DeepSeek 显然违反了 ChatGPT 的服务条款。我认为这对一家中国公司来说,法律后果尚不明确,但我对此了解不多。 请注意,这仅限于 DeepSeek 自己生成了用于训练的数据。如果 DeepSeek 使用了来自其他来源的 ChatGPT 生成数据(目前有许多公开数据集),我的理解是这种「蒸馏」或合成数据训练并未被 TOS 禁止。 尽管如此,在我看来,这并不减少 DeepSeek 的成就。与 DeepSeek 的效率方面相比,作为研究人员,让我印象更深刻的是他们对 o1 的复制。我非常怀疑对 ChatGPT 进行「蒸馏」有任何帮助,这种怀疑完全是出于 o1 的 CoT 思维过程从未公开过,那么 DeepSeek 如何能够学习它呢? 此外,许多 LLMs 确实在 ChatGPT(以及其他 LLM)上进行了训练,而且在新抓取的任何互联网内容中自然也会有 AI 文本。 总体而言,认为 DeepSeek 的模型表现良好仅仅是因为它简单提炼了 ChatGPT 的观点,是忽略了 DeepSeek 在工程、效率和架构创新方面的现实。 应该担心中国在人工智能领域的霸权吗? 或许有一点?坦白说,现在和两个月前相比,中美 AI 竞赛在实质上并没有太多变化。相反,外界的反应相当激烈,这确实可能通过资金、监管等方面的变化影响整体 AI 格局。 中国人一直都在人工智能领域具有竞争力,DeepSeek 现在让他们变得无法忽视。 关于开源的典型论点是,由于中国落后,我们不应该公开分享我们的技术,让他们赶上。但显然,中国已经赶上了,他们实际上很久以前就已经赶上了,他们在开源方面实际上处于领先地位,因此不清楚进一步收紧我们的技术,实际上的帮助是否有那么大。 请注意,像 OpenAI、Anthropic 和 Google DeepMind 这样的公司肯定有比 DeepSeek R1 更好的模型。例如,OpenAI 的 o3 模型的基准测试结果相当令人印象深刻,他们可能已经有一个后续模型正在开发中。 在此基础上,随着像星门项目以及 OpenAI 即将到来的融资轮等重要额外投资,OpenAI 和其他美国前沿实验室将拥有充足的计算能力,以保持他们的领先地位。 当然,中国将向人工智能发展投入大量额外资金。所以总的来说,竞争正在升温!但我认为,美国 AGI 前沿实验室保持领先的道路仍然相当有希望。 结论 一方面,一些 AI 人士,尤其是 OpenAI 的一些人,试图淡化 DeepSeek。而另一方面,一些评论家和自称专家对 DeepSeek 又反应过度。 需要指出的是,OpenAI/Anthropic/Meta/Google/xAI/NVIDIA 等并没有就此完蛋。不,DeepSeek (很可能)没有在说他们所做的事情上撒谎。无论如何必须承认的是:DeepSeek 应得到认可,R1 是一个令人印象深刻的模型。
苹果折叠iPhone曝料:9.2mm厚度、5000mAh电池,2026年秋季发布
2 月 7 日消息,消息源 @QQ_Timmy 昨日(2 月 6 日)在 X 平台发布推文,分享了“苹果折叠屏产业链调研汇总”,透露苹果折叠 iPhone 外观上并非小折叠,而是类似三星 Galaxy Z Fold 系列的书本式折叠设计。 IT之家查询公开信息,该账号于 2016 年 12 月加入 X 平台,I_Leak_VN 和郭明錤(Ming-Chi Kuo)关注了此账号,此外 WccFTech、MacRumors、9to5Mac 等多家海外媒体都转载了该信息,具有一定可信度,但一些媒体也指出部分内容和其它曝料不符,因此在苹果正式发布折叠 iPhone 前,以下信息仅供参考。 原文内容如下: 1、外形:左后大折,折叠后厚度 9.2mm,单面 4.6mm。内屏相当于两部 6.1 英寸手机对折。 2、节奏:26 年秋季折叠 iPhone 上市,27 年折叠 iPad / MacBook 上市。25 年 6 月富士康独家 NPI,预计 25 年底或 26 年初达到量产水平。小折手机暂时没看到进展,大折手机是目前主推方向。 3、销量:预计 26 年 800-1000 万,27 年 2000 万。26 年富士康独家代工,27 年立讯进来。 4、屏幕:显示屏三星独家开发;UTG 蓝思独家研发,目前 90-100 美金;屏幕支撑架钛合金 / 不锈钢 / 碳纤维方案尚未确定(领益有送样),价值量十几美金。 5、转轴:苹果设计方案,目前组装完成本约 110 美金。铰链是安费诺 / 新日兴;内部零部件领益参与约 35 美金;MIM 价值量十几美金,精研有参与。 6、中框:铝合金中框 80-90 美金,富联独家 NPI,量产阶段预计蓝思 / 比亚迪电子有希望进入二供。 7、PCB:软板价值量预计增加 70%,模组板接近翻倍;SLP 预计导入 RCC,价值量增长 40%(12 → 18 美金)。 8、光学:1)前摄:采用 Meta Lens 超薄技术,技术方案来自苹果;透镜,大立光 / 舜宇 / 蓝特参与研发;模组,富士康 / LG 参与研发。2)后摄:主摄 / 超广角均采用玻塑混合,Lens 大立光为主、舜宇模造玻璃有参与。 9、电池:两片不锈钢壳电池(钢壳信维 / 领益)合计容量预计接近 5000mAh。电芯预计为 3D 叠片,ATL 独家开发。
汽车博主为买小米SU7 Ultra卖掉Max创始版 雷军发文感谢
快科技2月7日消息,汽车博主闫闯发帖称,他要卖掉小米SU7 Max创始版(编号257),卖价是288888元。 他说,本来以为这个定价挺胡来的,后来一看问的人很多,有个朋友凌晨1点多就全款转过来了。 闫闯的这条微博引发关注,小米创办人雷军发文表示,谢谢支持。 据悉,小米SU7 Ultra会在2月底登场,和小米15 Ultra同台发布,这是小米SU7系列的最强车型。 此前在去年10月举办的小米发布会上,小米SU7 Ultra有过一次亮相,被誉为地表最快四门量产车,预售价格为81.49万元。 外观方面,SU7 Ultra量产版采用了与车身同色的大尺寸前唇,并在多处加入银色涂装以彰显其独特个性。 官方称,小米SU7 Ultra配置纽北调校巅峰底盘系统、闭式双腔空气弹簧,高性能阻尼可变减振器;驾驶过程中,运动模式强支撑,标准模式高舒适;可选绞牙减振器,操控上限全面提升;如此强大的底盘系统,让Ultra无需改装即可下赛道。 另外,SU7 Ultra量产版还配置激光雷达,支持高阶智驾功能,尾部增加运动套件和硕大的碳纤维固定式尾翼,并配备尾部主动扩散器,拥有0°-16°调节范围。 雷军表示,小米15 Ultra和小米SU7 Ultra都在各自领域中代表着小米的最高水准,更有着对顶级旗舰的全新思考,从这两款Ultra上,你能看到下一个阶段小米高端化征程的方向。
蛇年第一款Ultra旗舰!华硕Zenfone 12 Ultra发布:8300元起
快科技2月6日消息,今天,华硕正式发布高端旗舰Zenfone 12 Ultra,这是蛇年第一款Ultra旗舰,起售价是1099欧元,约合人民币8300元。 核心配置上,Zenfone 12 Ultra采用6.78英寸2400×1080中置挖孔屏,刷新率是144Hz,搭载高通骁龙8至尊版平台,前置3200万像素,后置5000万主摄、1300万超广角以及3200万长焦,电池是5500mAh,支持65W有线快充以及Qi 1.3标准无线充。 这款旗舰主打影像和AI,该机主摄搭载六轴防抖Hybrid云台4.0,并与华硕自研的HyperSteady电子防抖完美融合,带来超稳定的录像和拍摄效果,补偿范围达到更广的±5°,较前一代提升达66%。 并且华硕Zenfone 12 Ultra支持AI追焦录影,可自动侦测移动中的主体,确保其始终保持在画面中央,并进行缩放运镜,让专业水平的生活风格Vlog得以实现。 还有AI人像录影,它能自动对焦人、狗、猫脸,做出电影级运镜,系统提供两款散景光斑效果,营造夜拍电影感,让日常拍摄都化身为艺术杰作。 另外还有AI录像降噪、AI智能消除,其中AI录像降噪帮助你录下收音清晰的Vlog,即使身处户外、车站、咖啡厅或酒吧也毫无压力,不需要借助任何辅助设备,一台手机就能轻松降噪;至于AI消除功能,其玩法跟其它品牌机型相似,基于AI大模型,用户可移除画面中不要的对象,同时完美填补,让照片完美。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。