行业分类:
加载中...
头条分类:
加载中...
董宇辉反腐
反腐浪潮,正从互联网行业蔓延至直播电商领域,特别是头部主播的直播间。 “请不要给我们公司任何员工寄任何形式的卡、现金和礼物,如果这种事情一旦被发现会被永久拉黑,不再跟你合作了。” 今年双十一期间,董宇辉再次喊话品牌方:不要送礼。语气颇为严肃。 这并非董宇辉第一次发出警示。自与辉同行成立两年以来,董宇辉已在直播间三令五申。公司成立之初,董宇辉就立下规矩:员工不准收取供应商任何东西。据董宇辉透露,与辉同行的商务人员在入职时,被要求签一份法律合同,一旦违约,轻者罚款,严重者被开除。 即使如此,也难以完全杜绝此类情况。去年8月,董宇辉就在直播间说过,某厂商给公司的商务员工寄了礼物,最后礼物被退回,该品牌方也被拉黑了。 董宇辉的喊话,是震慑,也是警示,更是这个快速发展行业的一个缩影。特别是在双十一等狂欢大促下,头部主播直播间资源有限,品牌方争相抢夺合作机会与黄金曝光位,这种情况下,掌握关键资源岗位的人,便有了权力寻租的空间,贪腐也就随之滋生。 作为一家成立不到两年的直播公司尚且如此,更不要说这个行业里的资深头部直播间。在李佳琦、辛巴等年GMV达数百亿的直播间,内部权力与资源水涨船高,重要岗位人员利用职务之便行贪腐之事的情况,并不少见。 2023年,美腕一名招商专员利用职务之便,为某公司提供直播排期等帮助,收受109万元好处费;交个朋友的一位副总裁被其妻子控诉职务侵占,牟利达78万元等。 今年7月,广州市白云区市监局披露一起直播电商行业收受贿赂案件。据《南方都市报》报道,该案系某美妆企业向辛选一位招商人员行贿38万元。 反腐,不只是大主播们的必修课,更事关电商平台们。《南方周末》在今年618之际报道过这样一个场景: 6月17日,位于北京海淀区的人民检察院,迎来了10家电商平台的监察部门人员。他们相聚在此,是因为海淀区人民检察院向他们发放了风险提示函,对618大促的关键岗位和关键活动审核流程,提前梳理出需要关注的管理漏洞。 在海淀区人民检察院第二检察部主任孙鹏看来,那些消费券和补贴很可能是“滋生腐败和诈骗的温床”。 直播电商狂奔十余年,行业体量虽不如互联网行业,但是金钱与流量高度涌动,腐败问题也随之滋生。在这个链条上的每一个环节,都有可能因巨大诱惑而失守。 董宇辉的警惕,不无道理。 作为一分钟创造数万元GMV的头部主播,董宇辉直播间对于品牌方来说,无疑有着巨大的诱惑力。诱惑往往伴随着乱象的滋生,这也让董宇辉在处理和商家关系时,更为谨慎。 董宇辉就曾在直播间透露过几起公司内部的“贿赂”事件。 一次,有厂商向与辉同行工作人员递上一张价值三四千元的购物卡,工作人员很紧张,因为他要收了,公司就会按照廉洁处理他。后来,这位员工汇报给公司。最终,这位厂商被与辉同行拉黑了。戏剧性的是,对方事后写了一封道歉信,提到,“以前都是这样子”。 “不该是这样”,董宇辉认为。 2024年末,董宇辉在写给供应商的一封信中,再次明确提醒商家:“不要以任何形式与我司员工发生违规经济往来或礼品收受,这涉及职务犯罪,是我们公司红线问题。” 这条红线被董宇辉贯彻到细节上,就连直播间使用的样品,在用完后也常常被退回给商家。 在内部反腐机制上,董宇辉专门设立了一个举报通道,并将其放在与商家合作同等重要的位置。 今年9月,与辉同行官网上线,整个官网页面只有两个入口,一个是商家入驻,一个是廉洁举报。 他甚至在直播间教粉丝如何举报,并且承诺保护举报人信息,“对于举报的人,你的信息只有我们公司的审计能够看到,其他人都看不到,你的信息会非常保密。” 这条通道不仅针对于内部治理,还针对一些外部风险,因为一些品牌方已经因寻求“非正规渠道”的合作而反遭欺诈。 董宇辉透露,过去一年,与辉同行收到很多上当的反馈,甚至地方政府都遭遇了欺骗。有人声称“给我100万,我能把董宇辉叫来”,结果真的有人付款上当,最后钱收了,却不给对方带货。面对这类事件,董宇辉只能无奈建议对方报警。 因此,董宇辉特别强调,“如果有人以我们的名义向您收钱,您就点廉洁举报。” 董宇辉的做法,和前东家东方甄选如出一辙。 2022年7月,东方甄选刚刚走红之际,就发布声明称,任何主动贿赂东方甄选人员或者被动索贿给钱的行为,一旦发现,永久不得再入驻东方甄选。 俞敏洪也曾公开呼吁,希望商家千万不要主动给工作人员好处,如果有工作人员索要好处,请立刻举报。不管是主动行贿还是索贿,只要被发现,商品将永久拉黑。 对“与辉同行”而言,反腐工作刻不容缓。 成立两年,与辉同行员工数增长至700余人。规模快速扩张之际,董宇辉倡导的放权式管理,必然需要相应的管理制度来约束权力。在这种情况下,反腐机制的建立,自然成为完善企业管理制度的一环,也是这家年轻公司迈向成熟的必经之路。 与此同时,来自行业中的前车之鉴,也提醒着董宇辉,反腐的紧迫性。 头部主播是电商行业的稀缺资源,这意味着供需失衡,由此,掌握关键资源的人面对蜂拥而至的商家,自然就有了索贿的动机和能力。 2023年11月,李佳琦所属公司美腕,就曾发生一起招商专员的贪腐案件。 一名90后招商专员,在2020年7月至2022年9月的两年多时间里,利用商务合作谈判、商品选送、合同签订、排期沟通的职务便利,以一位商家的产品未被选上为由,伙同其他人向其提供代理服务,侵占公司费用55万元。 几乎同一时期,他还为另一家公司在商品选送、直播排期上提供帮助,多次收受对方送的好处费共计109万元。 在辛选,一名负责招商的商务专员,在一年多时间里,收取某化妆品公司38.5万元好处费。信用中国(广东广州)官网显示,这名商务专员,将化妆品公司指定的化妆品推荐给公司主播,助其产品获得27场直播服务,实际成交金额达783万余元。 由此可见,手握产品的“生杀大权”的招商专员,作为连接主播和品牌之间的关键环节,若缺乏监督,极易滋生腐败。 事实上,直播电商行业发展十余年,头部主播的贪腐问题并非是近两年的事情。 2021年9月,大主播雪梨背后的公司发布公告,称其一位员工利用职务便利,收受合作方巨大利益,中饱私囊,给公司造成巨大经济损失与名誉损害,涉嫌非国家工作人员受贿罪、职务侵占罪。 直播电商,俨然已成为互联网贪腐的重灾区之一。 今年7月,上海市杨浦区人民检察院职务和经济犯罪检察部检察官助理李博在普法栏目中表示,直播电商平台的运营岗位,如选品专员、招商专员、流量分配岗、活动策划岗、账号管理员等,他们手中掌握的对商品上架、推荐位次、流量曝光度、参与平台活动资格等的决定权或重要影响力,都可能构成刑法上的“职务便利”。 面对这一问题,各大主播团队均也已经着手构建内部监察机制。 美腕在其官网做了廉政公示,声明公司没有选品绿色通道,并欢迎举报,“举报经查实可获一次优先选品权并免除一次直播坑位费”。 此外,据美腕曾发布的声明,公司内部设立有监察部,在获得相关线索后,先由公司启动内部调查,后向公安机关报案。 交个朋友也有相应措施。有接近交个朋友的人士介绍,交个朋友会对员工进行定期廉洁教育;其次,开通举报邮箱,对于查实的举报给与奖励,并严格保护隐私。最后,对内通报查处的反腐典型案例。 面对内部贪腐,MCN行业的普遍做法是建立内部机制,并在官方通报或媒体曝光后予以回应,鲜少有主动披露的。 有着话语权的头部主播们,也几乎在这一问题上集体“失声”。而董宇辉则是打破沉默的人,他是唯一一个主动将问题置于台前的大主播,多次在直播间喊话,并公开向行业潜规则说“不”。某种程度上,董宇辉以“孤勇者”的姿态,成为反腐力度最大的头部主播。 头部主播只是电商生态的一个缩影,如果说大主播是“小平台”,那么当我们把视角放大,身处行业重要位置的电商平台方们,也不能幸免,他们同样面临内部贪腐的挑战。 据研究显示,商业腐败案件的多发领域,已从传统行业逐渐向互联网、人工智能、电商平台等行业蔓延。海淀法院联合中国互联网协会发布的白皮书显示,2020年到2024年,海淀法院共审理非国家工作人员贪腐犯罪案件350件,其中涉互联网企业内部人员贪腐犯罪案件127件,占比约36%,涉案金额3亿余元。 实际上,自2009年阿里巴巴成立廉政部开始,互联网大厂也开始了反腐行动。京东、抖音、腾讯等大厂陆续向公众通报内部反腐败进展。 譬如京东,曾在2016年双十一之际,公布多起内部腐败事件,涉事部门包括京东商城下3C、服饰家具、消费品以及微信手Q业务部等多个事业部,涉及收受供应商贿赂、索要供应商礼品等违法违规行为,涉及人员最高职位达到总监级别。 2020年6月,市场传出阿里巴巴的内网通报,淘宝直播运营负责人赵阳涉贪腐被处分。网传通报截图显示,其涉及为其关联人士和合作伙伴谋取不正当利益、接受礼品及款项等,故此,“辞退,永不录用”。 今年1月,腾讯发布反舞弊通报,2024年全年,共发现并查处触犯“腾讯高压线”案件百余起,百余人被解聘,其中二十余人因涉嫌犯罪被移送公安机关处理。 今年3月,抖音集团通报称,2024年共有39人涉嫌违法犯罪,被集团移送司法机关处理。其中,仅2024年下半年存在商业贿赂、职务侵占等舞弊行为的就有14人,涉及电商、生活服务等业务或部门员工。例如其中有电商前员工利用职务便利,为外部商家提供违规帮助,并收受好处费。 今年以来,互联网行业反腐力度持续加大,多家互联网企业通报内部反腐调查结果,涉及多位中高层管理人员。 在国际主流ESG评级体系中,反腐败、反贿赂均是公司治理板块中的重要指标,而贪腐也无疑为企业造成了巨大的经济损失。 联合国责任投资原则 (PRI) 估计,在全球范围内,腐败可能会使经营成本提高 10%,此外,腐败使发展中国家的采购合同成本增加了25%。此外,腐败问题也会影响到品牌形象、企业形象等。 直播电商体系繁杂,流程交错,在这条产业链上的每个环节,几乎都藏着寻租空间。反腐,不仅是大主播们的必修课,更是行业内所有玩家必须共同面临的战场。
迷雾里的SHEIN
对快时尚电商平台SHEIN来说,2025年预示着一个旧时代的终结。 最显著标志是,它赖以崛起的跨境小包免税红利根基正在动摇。 继美国总统特朗普于2025年4月签署行政令,宣布自2025年5月2日起终止对来自中国内地及香港的800美元以下商品的小额豁免政策以来,欧盟、英国、日本等亦均已关注该议题,并开始研究或考虑调整其低价值包裹免税门槛。 英国率先传出较为明确的动向。据《金融时报》报道,英国财政大臣蕾切尔·里夫斯(Rachel Reeves)计划在2025年11月26日公布的预算案中,拟宣布取消当前价值135英镑以下的“低价值进口”关税豁免。这篇报道在标题中即提到SHEIN,称英国财政部拟堵上SHEIN利用的税收漏洞。 欧盟委员会于2025年2月提出拟取消对价值不超过150欧元货物的关税豁免,并在同年5 月提出每件小包约2欧元的处理费方案。该方案或将于2028 年付诸实施。据称法国与德国近期已在支持或推动欧盟加快该项改革的落地。 SHEIN自创立以来一直颇依赖小额关税豁免政策。外界普遍认为,小额关税豁免政策帮助了SHEIN及拼多多旗下Temu等跨境电商平台在海外市场尤其是在欧美地区形成绝对低价优势。 尽管欧盟及英国拟取消小额豁免政策对SHEIN和Temu的影响尚待观察,但参照美国政策转变后带来的冲击,大可推知该影响或将同样深远。 彭博社旗下调研机构Bloomberg Second Measure(BSM)数据显示,SHEIN 2025年9月销售额较2024年同期下降了8.2%。这是BSM对一组匿名美国消费者交易情况跟踪后得出的结论。而据BSM数据,这是过去3年来SHEIN销售额第二差的月度业绩——最差表现来自2025年5月,彼时同比降幅10.9%,同为关税调整期间。 推高SHEIN运营成本的,还有其在海外市场因被指违规而不得不支付的高额罚款。 以刚刚过去的2025年第三季度为例,据海克财经基于当前公开信息所作不完全统计,SHEIN该时段在欧洲市场接连遭遇监管重拳,被处罚款总额达1.91亿欧元,其中包括被指违反欧盟数据隐私法规、不当使用Cookie,被法国国家信息与自由委员会(CNIL)处以1.5亿欧元罚款;被指采用误导性定价策略、虚假折扣行为,被法国竞争、消费与反欺诈总局(DGCCRF)处以4000万欧元罚款;被指使用误导性和遗漏性环保声明,被意大利竞争与市场管理局(AGCM)处以100万欧元罚款。 而新的税收政策还在酝酿中。 据路透社2025年10月15日援引意大利政府人士信息,意大利计划对中国快时尚产品征收额外税款,以保护该国时尚产业免受低成本进口产品的冲击;该人士称,罗马方面可能会对Temu、SHEIN等在线零售商征收此项费用。 SHEIN拟在法国开设首批实体店的战略规划亦遭遇阻力。 SHEIN的构想是2025年11月在巴黎BHV Marais落地第一家实体店,且将在法国多个城市至少开出5家分店。此举一改SHEIN过往依赖快闪店与店中店的轻量试水模式,体现了其在实体零售上的重要战略转变。但该举措后续遭到了来自巴黎政府官员、零售业人士、环保人士等群体的多方抵制。巴黎市长安妮·伊达尔戈(Anne Hidalgo)公开表示反对,称该计划违背了巴黎在生态和社会责任问题上的愿景。 SHEIN谋求上市之路亦颇多坎坷,迄今仍未踢出临门一脚。 自2020年前后启动上市计划,现已历时近5年,SHEIN在此期间据称已先后投石问路于美国纽约和英国伦敦,奈何均无下文,当下则已转向中国香港。先且不说SHEIN能否如愿,即便最终成功挂牌港交所,考虑到资本市场差异化及SHEIN所处行业复杂性,SHEIN上市之后仍将面临颇多不确定性。 01 上市如箭在弦 SHEIN的IPO进程,恰如它的发展史一般,颇有几分神秘色彩。为减少外界关注,SHEIN据称多次通过非公开方式递交上市申请。这致使外界难以窥其全貌。当前大量散见的公开信息多依赖外媒援引知情人士先后零碎披露。 早在2020年,市场便已传出SHEIN筹备赴美上市的消息。而外界看到的第一个实质性动作,是SHEIN于2021年11月聘请前贝尔资本管理合伙人唐伟(Donald Tang)担任集团执行副董事长。唐伟深厚的投行背景,使这一人事变动被普遍解读为SHEIN在为上市铺路。 唐伟正式加入SHEIN仅3个月左右,SHEIN的上市计划显露新动向。据路透社2022年1月25日消息,SHEIN已重启搁置两年的赴美上市计划。但1个月之后,计划再被搁置。路透社2022年2月25日援引知情人士消息称,俄乌战争导致资本市场动荡,SHEIN上市暂缓。 SHEIN官方彼时回应称公司没有上市计划。 据《华尔街日报》2022年4月援引知情人士信息披露,SHEIN在此期间完成了一轮10亿至20亿美元融资,估值由此升至1000亿美元。 这是迄今为止SHEIN估值最高点。同据《华尔街日报》报道,在2023年5月的一轮融资中,SHEIN估值已大幅缩水至660亿美元。 据路透社、彭博社等多家媒体2023年11月报道,SHEIN彼时已向美国证券交易委员会(SEC)秘密递交上市申请,在美IPO计划正式启动。SHEIN官方对此拒绝置评。 SHEIN遭遇了美方颇大阻力。据路透社报道,2023年5月,由20多名美国两党众议员组成的团体致信SEC,要求SEC强制SHEIN进行独立审计并核实其供应链问题,以此作为SHEIN在美IPO条件之一;2024年2月15日,美国共和党参议员马可·卢比奥(Marco Rubio)致函SEC主席加里·盖斯勒(Gary Gensler),要求SEC阻止 SHEIN的IPO,并称除非该公司满足一系列关键信息披露要求。SHEIN官方对此未予置评。 据路透社报道,赴美上市不利之下,SHEIN于2024年初开始与英国伦敦的财务及法律顾问接洽,探讨将上市地点移至伦敦。SHEIN官方及伦敦证券交易所(LSE)对此均拒绝置评。 从被报道在纽约递表到被披露寻求伦敦上市,不过短短几个月时间,清晰折射出SHEIN寻求快速公开上市的紧迫感。而随着欧美低价值包裹免税政策不断收紧,以及自2022年9月Temu在美国上线后带来的贴身竞争,多重压力交织下,SHEIN亟需通过上市打开新局面,即在放大品牌声量的同时,为穿越周期储备弹药。 历经10个月左右的等待,SHEIN伦敦上市计划于2025年4月取得突破。据路透社援引知情人士消息,英国金融监管机构已批准其上市申请。此前,《金融时报》曾披露SHEIN于2024年6月秘密递交文件。 但SHEIN的IPO推进节奏并没有因此加快。有分析提到,中国企业境外上市所涉及的跨境披露要求,仍是需要企业审慎处理的重要环节。 据《金融时报》2025年7月报道,SHEIN为加快伦敦上市进程,向英国监管机构施压,已向港交所以保密方式提交招股书草案,寻求在港上市,同时继续寻求中国证监会批准。港交所、英国金融行为监管局 (FCA)、SHEIN官方均对此拒绝置评。截至海克财经本文发稿,在港交所披露易网站还查询不到SHEIN申请文件。 在创始人许仰天等团队核心成员极尽低调、极少公开露面的背景下,SHEIN近年长期以新加坡总部为基点进行出海拓展,给人一种这是一家新加坡公司的印象。但据彭博社2025年8月援引知情人士消息称,为争取上市成功,SHEIN已考虑将总部迁回中国;知情人士还透露,SHEIN已就设立中国大陆母公司事宜咨询过律师。若报道属实,则显示出,SHEIN当前上市的现实需求,已压倒性超越其过往秉持的身份叙事策略需求,成为当务之急。SHEIN对此拒绝置评。 自路透社2022年1月报道SHEIN重启在美IPO迄今,3年多时间已过,SHEIN的上市一直与中美等国家和地区微妙的地缘政治紧张节奏同频共振。SHEIN一路东奔西突,压力可以想见。而这份巨大的上市压力,也映衬出SHEIN在业务层面亟待转型与扩张的内在焦虑。 02 模式或需重构 在西方主流媒体叙事中,“低价”是SHEIN最显著的成功标签。“6美元的上衣”“10美元的裙子”——相关报道中,这类语句成为对SHEIN崛起最便捷的描述方式。 SHEIN的低价来自国内长板如广州几千家服装工厂的供应链集群优势,以及欧美之前普遍通行的小额豁免关税政策。路透社在2025年4月的一篇报道中透露,SHEIN在回应该媒体问询的一份说明中提到,SHEIN中国供应商数量已从上一年的5800家增加到了7000家。 随着关税红利消退,SHEIN成本优势面临考验。 据彭博社2025年4月27日报道,在美国对小包裹征收关税前夕,SHEIN提高了它在美国从服装到厨具等所有产品的价格——具体来说,4月25日,美容和健康类商品中排名前100的产品平均价格较前一天上涨51%,家居、厨房用品、玩具平均涨幅超过30%,多件商品被下架;相比之下,SHEIN在英国的价格基本保持不变,没有商品被下架。 价格优势根基动摇,SHEIN引以为傲的敏捷供应链体系,在欧美日益严格的ESG(环境、社会、治理)标准审视下,供应链透明度、劳资问题亦已成为纳入合规考量的基本要素。 能够看到,为应对来自关税、监管、履约成本等维度的压力,在全球主要市场,SHEIN正在拉开一场供应链“近岸化”重构。 据路透社报道,SHEIN 2023年开始在巴西启动服装生产,这是SHEIN在中国以外首个生产中心。此外,越南、土耳其、墨西哥、印度等国均出现在媒体关于SHEIN探索全球供应链、仓储物流履约体系等报道中,可见SHEIN在持续多节点推进供应链多元化运营策略。 土耳其加济安泰普省(Gaziantep)商会官方网站至今还留有该站2024年11月发布的SHEIN招商合作文案。文案提到,SHEIN希望与牛仔布、针织品等成衣和纺织行业供应商、制造商建立联系,还计划与各种面料生产商达成合作。 SHEIN同时亦在强化中国供应链体系。 早在2022年1月被传即将在美上市后不久,在广州市发改委2022年1月30日印发的《广州市2022年重点建设预备项目计划》中,出现了SHEIN将在广州市增城区建立希音湾区供应链总部的消息。 而据广州市增城区人民政府、增城经济技术开发区管委会官网2024年9月30日发布的信息,广州希音湾区供应链一期项目已在增城区中新镇开工,总投资百亿元,一期投资36.9亿元;SHEIN副总裁王志青称,该项目的目标是成为“‘智能、自动、绿色’一体化、世界级的供应链仓储物流中心标杆”。 据海克财经了解,目前SHEIN国内供应链项目还有位于广东肇庆的希音湾区智慧产业园及希音湾区西部智慧产业园、位于广东江门的物流园等。 且不谈在多个区域管理不同供应链项目的难度级别,单就供应链项目建设投入与管理开支而言,这必然需要SHEIN拿出一套比之前更具创新力与运营效率的商业模式。 此外随着SHEIN逐渐成为行业焦点,在知识产权维度,它的主要业务也面临持续挑战。 SHEIN知名的“小单快反”模式,在追求极致效率的同时,也埋下了侵权的系统性风险。这实际是快时尚行业通病,Zara也经常面临侵权指控。但对一个想要塑造全球影响力的公司和品牌来说,任何一个发酵为公众事件的侵权争议,都或将成为阻止品牌进一步发展壮大的潜在威胁。 SHEIN迄今影响最大的一次侵权争议爆发于2023年7月。国际竞争对手、快时尚巨头H&M在香港对SHEIN发起诉讼,且出示了从泳装到毛衣的数十件商品的照片作为证据,直指SHEIN抄袭。截至海克财经本文发稿,在公开资料及报道中尚未发现关于此案的最终判决或裁定。 据海克财经了解,2年多的时间仍无定论,这在时尚、服装设计类侵权争议中属合理范围,此案更可能因证据收集比对困难、面临跨境与司法协助等问题而延长审理周期;2023年12月优衣库也曾在日本东京地方法院起诉SHEIN,指控后者对优衣库旗下爆款挎包产品“饺子包”进行仿制,这一案件同样迄今未见法院做出判决或裁定消息。 2022年以来,针对SHEIN的侵权诉讼持续涌现,且自2024年起,相关指控涉及AI。据美国《财富》杂志2024年4月报道,艺术家艾伦·吉安娜在美国纽约南区联邦法院提起诉讼,指控SHEIN通过电子监控与AI技术追踪消费者在线浏览行为以实施侵权,艺术家的帖子成为SHEIN抓取目标,从而批量生产产品。目前,因管辖权问题,该案已转至加利福尼亚中区联邦法院审理。 为解决被指侵权等问题,SHEIN曾于2021年启动“SHEIN X”设计师合作计划。但后续持续的侵权纠纷表明,在平台巨大的推新压力下,仅依赖此类计划难以从根本上扭转被动局面。 内部模式面临重构挑战的同时,SHEIN也正处于自成立以来最为激烈的竞争态势之中——这尤以来自Temu的强势狙击最为关键。 03 竞争全面加剧 近两年提到国内电商平台在增量空间上的探索,跨境电商是绕不开的话题。 海关总署数据显示,2024年中国跨境电商出口规模再创历史新高,达2.15万亿元,较2023年增长16.9%。 在这背后,SHEIN、Temu等头部平台贡献了重要价值。显见的是,SHEIN、Temu作为中国跨境电商出口方向两支新晋领军力量,现已是全球电商行业备受关注的焦点。 从2022年延续到2024年,SHEIN与Temu在英、美两国法庭互诉的一系列案件,将两家平台的激烈角逐推至台前,竞争态势白热化。诉讼交锋中,SHEIN主要指控Temu侵犯版权,Temu则反诉SHEIN违反美国反垄断法并对供应商施加威胁。 美国哥伦比亚特区联邦地方法院法官蒂莫西·凯利(Timothy J. Kelly)2025年9月30日已对该诉讼作出判决,驳回了Temu起诉书中针对SHEIN违反美国反垄断法及涉及商业秘密的相关指控,理由是法院对这些诉求缺乏管辖权;判决同时允许Temu继续就SHEIN涉嫌侵犯其知识产权的部分主张提起诉讼。 Temu于2024年2月在英国高等法院对SHEIN涉嫌违反英国竞争法的反诉,据报道或将于 2026年底开庭审理。 可以想见,双方互诉战短期不会结束。 激烈缠斗的根源在于,SHEIN在2023年加速推进全品类平台化战略,导致其与Temu在目标市场、低价策略等维度形成正面冲撞。 SHEIN平台模式负责人Sky Zhang曾在2023年8月所作题为“跨境出海的第二增长曲线”的演讲中透露,SHEIN在2023年的重点战略改革是平台化,SHEIN已从时尚平台慢慢变成了全品类平台。 海克财经通过比对SHEIN、Temu美国站网站情况发现,尽管网站设计风格迥异(前者界面简洁,偏好白底与黑白色调;后者多用橙、绿等高饱和度色彩营造促销氛围),且双方在品类拓展底层逻辑上各有侧重,但就核心类目设置而言,二者竞争态势颇为明朗。 SHEIN目前上线的22个类目中,6个为鞋服,并延续其传统特色,将女性配饰、美容、皮包、家纺均设为独立类目;Temu的33个类目中,有10个类目涉及男女童装鞋服,美容、首饰、包包类目亦单独呈现,其特色在于家具与食品。 和早期拼多多类似,在Temu上,一些小商品销量很好,如一款高跟鞋足贴已售4.7万件,隐形后足贴已售超10万件;而SHEIN同类产品,最高销量仅100单左右。 需要指出的是,与Temu自创立便锚定“全品类低价平台”定位不同,SHEIN的核心始终是其鲜明的时尚品牌身份。尽管平台化战略已持续多年,但它“时尚先行”的战略主轴从未改变,这在它长期深耕的TikTok、Instagram、Facebook等社交媒体的内容中呈现得颇为清晰。 目前SHEIN的Instagram官方账号有粉丝超3933万,其Facebook官方账号有粉丝超3537万。在这两个账号上,SHEIN多年如一日发布网红买家秀、美容配饰开箱及多元穿搭分享。它的Facebook账号近期发布了一条和大码女装有关的内容,在展示尺码优势的同时,传递出了鲜明的价值主张。与其说SHEIN是个全品类电商,莫如说它更像是个围绕年轻女性构建的潮流商品社区。 调研机构Analyzify数据显示,截至2025年3月,SHEIN网站访客中,60.36%为女性,45.99%年龄为18-34岁。 调研机构Statista数据显示,截至2025年4月,Temu网站访客中,19.17%的用户年龄在35-44岁之间,21.48%的用户年龄在25-34岁之间,也即25-44岁用户占比40.65%,用户整体年龄较SHEIN偏高。 SHEIN兼及平台和品牌的两种战略定位也给它带来了来自两个维度的竞争对手。 在家居、小商品领域,SHEIN要迎战拼多多旗下的Temu、亚马逊旗下的Haul等低价电商平台;在时尚领域,SHEIN又需与Zara、H&M等传统快时尚巨头展开角逐。 实际上,SHEIN近年的关键战略均围绕时尚产业展开。 2023年8月入股美国SPARC集团并进驻该集团旗下快时尚线下店Forever 21,2023年10月收购英国女装品牌Misguided,2025年10月计划在巴黎开设多家门店……这一连串涉及渠道、品牌等维度的扩张动作表明,SHEIN正在全面探索它在全球时尚产业中的跃升可能性。 这一领域的玩家也在积极应战。 Zara母公司Inditex 2025年7月透露,Inditex计划将旗下平价品牌 Lefties拓展至法国。据路透社2025年7月报道,Inditex CEO奥斯卡·加西亚·马塞拉斯 (Óscar García Maceiras)称,Lefties目标人群为年轻消费者,品牌将加强与SHEIN等类似对手的竞争。据海克财经了解,Lefties以卖9.9欧元的连衣裙、12.9欧元的牛仔裤等产品而知名。 在SHEIN崛起早期阶段,欧美快时尚品牌因价格居高,一度失去竞争优势。但当游戏规则、竞争环境发生变化,市场格局势必也将重写。 从许仰天2008年在南京创业开始算起,SHEIN迄今已走过17年。凭借“小单快反”柔性供应链、KOL营销与关税红利,SHEIN构筑起了早期成本优势与效率壁垒。而今,随着全球监管收紧与竞争白热化,旧有打法已难收到同等效力。 前有Temu、Zara围堵,后有上市重重变数,左右侧翼还不时有各种险象迫近,SHEIN当下全球突围有如在一片迷雾中负重疾行。显然,于SHEIN而言,方向大致明确,但脚下每一步怎么走都颇耐思量。
硅谷大厂,集体“倒戈”用起中国大模型
近期,越来越多的美国AI企业乃至AI大厂都开始公开宣称使用中国AI大模型了。 10月22日,Airbnb CEO Brian Chesky 在采访中表示,Airbnb 的客服 AI 由13个模型组成,并且公司“在很大程度上依赖阿里巴巴的Qwen,Qwen比OpenAI的产品更好更便宜”。 同时他也说暂未把 Airbnb 接入 ChatGPT,“我们也会使用OpenAI的最新模型,但通常不会在生产环境中大量使用,因为有更快、更便宜的模型可供选择。OpenAI 的连接能力还没完全准备好”。 无独有偶,Windsurf这个国外头部的AI编程产品近期上新了一个神秘模型,说是专门为了速度和Agentic而设计的模型。然而这家土生土长的美国公司却使用了智谱Glm 4.6模型。 无独有偶,美国云服务平台Together AI也是在今年7月份官宣部署Qwen-3-Coder。 而就在本月,硅谷知名投资人,Social Capital公司创始人Chamath Palihapitiya(查马斯·帕里哈皮蒂亚)就直言不讳地表态道:“我们在Groq上已经开始在用Kimi-K2了。OpenAI和Anthropic的模型虽然挺好的,但太贵了。” 面对美国大厂纷纷倒戈用起中国大模型的现状,有知名的AI研究者尖锐地提问:“硅谷是建立在通义千问之上的吗?”这背后,是越来越多美国企业不再掩饰使用中国AI的事实。 中国AI加速占领美国 爱彼迎CEO的表态最具代表性,他直接指出了通义千问(Qwen)“更好更便宜”的核心优势。而这种认可,早已在硅谷高层中弥漫开来。 今年5月,英伟达CEO黄仁勋就在财报电话会上点名表示,阿里巴巴的通义千问模型是开源AI模型之中最好的。推特创始人杰克·多尔西也发文点赞了Qwen系列的代码模型Qwen3-Coder。甚至马斯克在看到基于通义万向Wan2.2训练生成的图片后,都表示其效果“难辨真假”。 这种影响力正迅速转化为实打实的商业应用。除了开头提到的Together AI,电商巨头亚马逊被曝正在其机器人操控系统中采用阿里通义千问模型。此前也曾多次传出苹果计划在中国市场的iPhone等设备中,引入通义千问模型来支持其AI功能。 视角放大到全球,日本经济新闻也称通义千问已成为日本AI开发的基础;阿联酋穆罕默德·本·扎耶德人工智能大学(MBZUAI)更是基于通义千问构建了其得到总统支持的K2 Think推理模型。 这背后是通义千问在开源上的恐怖实力:目前已开源超过300款模型,衍生模型数量突破17万个,构成了全球第一的开源模型矩阵。在全球最大的AI开源社区Hugging Face的最新榜单上,阿里通义系列也以7款模型入选前十的成绩实现“屠榜”。 在开发者工具和平台层,智谱GLM的渗透同样迅速。开头提到的AI编程产品Windsurf“暗中”使用GLM 4.6,只是冰山一角。 更重磅的是,估值高达93亿美元的美国公司Vercel近日公开宣布,已和智谱达成合作,在其平台上提供GLM-4.6的API服务。其老板Guillermo Rauch更是转发称赞GLM 4.6“很好,在http://nextjs.org/evals上排名第三,还是前五名里唯一开源的模型”。 此外,美国的AI推理服务商 Cerebras——就是那家曾发布全球最大AI芯片的公司——也已在其平台上架了GLM-4.6,供全球开发者调用。这表明中国大模型正作为基础设施,被整合进美国AI开发的生态位中。 如果说Qwen和GLM展示了平台的广度,Kimi则直接点燃了“性价比”的导火索,甚至被视为一个来自硅谷核心的“叛逃”信号。 查马斯(Chamath Palihapitiya)的“倒戈”之所以分量极重,源于他无可争议的行业地位。他并非普通评论员,而是身价百亿的顶级玩家。他曾主导Facebook用户从4500万增长到7亿,“你可能认识的人”这一病毒式增长功能正是他团队的杰作。他创立的Social Capital也精准押注了Slack、Box等。因此,当这样一位追求极致商业理性的顶级捕手,公开用Kimi K2替代OpenAI和Anthropic时,这已是一个强烈的市场领先指标。 查马斯的选择正在迅速演变为群体趋势。一系列在美国开发者生态中举足轻重的平台都已悄然行动:Vercel:这家头部云端开发平台,已将Kimi K2的API集成进来。Cursor:作为AI原生代码编辑器的明星产品,它已将Kimi集成为核心选项。Perplexity、Genspark、Youware:这些广受好评的AI原生应用,也相继宣布接入Kimi K2。 开发者用代码进行的“投票”,是比任何排行榜都更有力的市场证明。它标志着Kimi已从一个“值得关注的外部模型”,平稳地转变为一个被悄然纳入全球开发者工作流的、具备实际生产价值的工具。 告别追赶,一个双轨并行的AI世界 看到这里,美国公司纷纷转向的动因已经非常清晰。这不只是一场“价格战”,更是一场深刻的范式转移,权威报告已为此作证。 被誉为全球AI行业“年度风向标”的《State of AI Report 2025》,首次将“中国AI体系”从“外围追赶者”提升为“平行竞争者”,并明确指出:“在2025年,中国不再是追赶者——它正在开源AI和商业化部署方面设定节奏。” 这并非空泛的赞美。报告在盘点年度最重要的技术进展时,仅列出了三个代表性大模型:OpenAI的o1、以及中国的DeepSeek-v3系列和Kimi-K2系列。在全球AI的最高研究殿堂里,中国模型已占据三分之二的席位。 这背后,是全球AI演化出的两种发展范式:美国的“技术攻顶”范式:以OpenAI、Anthropic为代表,以学术和研究实验室为核心,倾尽资源冲击AGI,追求绝对的技术高度。中国的“应用共荣”范式:以月之暗面、深度求索、通义千问等为代表,致力于构建开放、繁荣的应用生态,通过高性价比、快速迭代的开源/开放模型,赋能成千上万的开发者,让创新自下而上地生长。因此,Vercel、爱彼迎和查马斯的“倒戈”,戳破了“唯最强模型论”的泡沫。他们正是在用脚投票,选择“应用共荣”范式下的高性价比解决方案。 这标志着中国AI的发展已走完“追赶”的序章,转而开始“生态突围”。一个“技术攻顶”与“应用共荣”双轨并行的AI世界格局,正在我们眼前徐徐展开。
曾索赔每首歌15万美元,环球音乐与AI公司Udio达成和解并将合作推出音乐创作平台
IT之家 10 月 30 日消息,当地时间 10 月 29 日,环球音乐集团(UMG)与人工智能音乐创作平台 Udio 宣布达成行业首创的战略合作协议。 根据协议,双方将解决版权侵权诉讼,并合作打造创新的新型商业音乐创作、消费及流媒体体验。除法律赔偿和解外,新达成的录音音乐及音乐出版授权协议,还将为环球音乐集团的艺术家和词曲作者提供更多收入机会。 新平台计划于 2026 年推出,将由全新尖端生成式人工智能技术驱动,且该技术的训练数据均来自获得授权的音乐作品。新推出的订阅服务将革新用户互动体验,在 Udio 平台上构建一个合规且受保护的环境,支持用户负责任地定制、播放和分享音乐。 IT之家注意到,2024 年 6 月有报道称索尼音乐、环球音乐和华纳音乐起诉人工智能公司 Suno 和 Udio,指控它们通过使用这些唱片公司的录音来训练音乐生成式 AI 系统,犯下大规模版权侵权行为。 诉讼里提到,这些公司(Suno 和 Udio)在未经许可的情况下复制音乐,训练他们的系统创作音乐,这些音乐将“直接与人类艺术家的作品竞争、贬值并最终淹没”人类艺术家的作品。 唱片公司要求法院判处每首歌 15 万美元(IT之家注:现汇率约合 106.5 万元人民币)的法定赔偿金,并指控 Suno 复制了 662 首歌曲,Udio 复制了 1670 首。
谷歌的AI转型作业本,中国互联网公司可以抄一抄了
美东时间29日盘后,谷歌母公司Alphabet公布了第三季度业绩,总营收录得1023.46亿美元,同比增长16%,Beat了华尔街预期超过20亿。分业务线也全面超预期,摊薄每股收益2.87美元,也大幅超过了预期,盘后也是应声大涨接近8%。 具体的“财报一图流”如下图所示: 图:谷歌财报汇总,来源:企业财报,锦缎研究院整 谷歌是目前为数不多既掌握桌面端流量入口(Chrome和Google),又掌握移动端流量入口(Android),还具备大模型能力(Gemini、Waymo等AI产品)和硬件(Pixel)的公司,因此谷歌的财报在一定程度上能够反应现阶段AI发展的全景。 图:谷歌业务图示,来源:华安证券 因此,我们在关注谷歌财报时,主要从三个立意点出发: ●AI发展对谷歌即有核心业务(如搜索、广告和Youtube)究竟有没有替代性的影响? 毕竟现如今渗透率最高的对话式大模型,主要替代场景正是搜索。 三季度来看,谷歌搜索广告业务收入565.67亿美元,超过了市场预期。AI对于搜索的业务似乎并不是替代关系,谷歌的搜索业务越来越强,AI mode或许能成为替代搜索广告的新模式。 当然这也可能与市场玩家还未参与到广告变现有关。 ●作为 AI 行业发展的排头兵, AI大模型 技术的累计,究竟有没有改善谷歌整体的业务水平,或者说对 AI 对财报业绩是否产生正向作用? 毫无疑问的是AI确实对财报形成了充分的正反馈,至少谷歌是这样,无论是传统的搜索业务,广告业务,订阅服务还是与AI息息相关的云业务,增速均超过了市场预期。 并且从利润趋势和存量订单来看,AI对谷歌传统业务的赋能是一种可持续的正反馈。 ●谷歌每季度新一轮的资本开支指引了多数互联网企业,资本开支投入带来的效果如何,以及 AI 应用现如今的渗透率和可能的商业模式是否有成功案例? 三季度谷歌的资本开支超预期,不过全年的指引略低于预期。 目前来看,没有特别的AI应用能够直接带来利润表的正反馈,AI Mode和Pmax(AI技术下效果最大化广告)的表现证明,现如今AI大模型技术+互联网传统商业模式或许才是阶段性答案。 具体的财报分析,如下所述: 01 搜索业务越战越勇,AI Mode潜力不俗 三季度谷歌搜索广告营收录得565.67亿美元,同比增长14.5%,分析师预期550亿,beat了接近15亿美元,是表现最为出色的业务之一。 自对话式人工智能问世以来,搜索业务一直都是被诟病最多的传统互联网业务,每个季度都有ChatGPT代替Google的说法,但是以目前的趋势来看,这一奇点还远未倒,谷歌搜索业务不仅连续录得正增长,还创下单季度新高。 我们认为这其中可能主要有两点原因: 一是谷歌围绕搜索+AI的模式进行了大量的探索,除了在广告展现侧(即供给端),利用AI算法提升了匹配程度,还推出了目前来看颇具潜力的AI Mode模式。 并且横向比较其他对话式产品,谷歌搜索的AI Mode可能是目前为数不多进行商业化尝试的产品。 根据我们亲测,AI Mode确实会在对话结果中“适当”插入广告主可以跳转的超链接结果(如下图),并且只要对话的轮次不多,不会直接出现广告的banner。 这种插入超链接的模式,并不会直接影响用户的搜索结果(对话真实性),当然也无法通过AI技术提高既有广告价格。 根据谷歌业绩会管理层的表述,目前AI Mode日活超7500万,广告的定价与传统搜索趋同,这一点从前几个季度搜索点击率和单价趋势也能得到印证。 二是目前AI功能在广告供给侧的渗透率明显不足,此前围绕互联网广告绝大多数供给都是围绕工具侧的,比如通过AI渲染广告图,制作宣传片等等,纯AI模式广告banner供给凤毛麟角,而目前谷歌AI Mode成为了几乎唯一的选项,广告主想尝试,自然会选择谷歌。 当然谷歌目前的表现优异,并不代表着完全没有后顾之忧。 OpenAI也明确表明了商业化意愿,如果推出同类的产品,可能才是真正检验谷歌搜索业务粘性和AI能力的关键时刻。 02 谷歌云的金矿,一挖一麻袋 三季度谷歌云的表现也同样优异,单季度营收录得152亿美元,同样高于分析师预期,与此同时也延续了云业务持续创新高的强势态势。 更夸张的是,受益于AI蓬勃发展,谷歌云的利润率也在随着营收规模节节高升,三季度谷歌云的单季度利润率达到了23.7%,几乎把硬件服务业务做成了软件的利润。 根据三季度披露的数据来看,谷歌云绝不是仅仅依靠“内部AI”发展带动的附属业务: 如果内部交易过多,会影响集团整体的利润率水平,三季度Alphabet整体的毛利率达到了59.6%,环比同比没有明显变化,集团整体的经营利润率也维持在了30.1%,虽然同比下降了180bp,但主要还是因为费用一次性支出,整体的利润水平变化不大。 同时三季度业绩会披露,期末谷歌云积压订单达到了1550亿美元,目前来看还远未到增长的极限,这也给了谷歌极大的资本开支驱动力。 03 传统展示广告,已成内部优先级较低的业务 谷歌广告联盟三季度收入73.54亿美元,环比持平,同比下滑2.6%,是谷歌唯一营收下滑的业务线。 其实谷歌G系列产品活跃用户数表现并不差,主要还是谷歌广告的侧重点在逐渐转移,传统的展示广告已经成为了谷歌内部优先级相对较低的业务。 这一点也能从定价看出,谷歌目前对于广告联盟供应商的态度,就是保证最低的下限,展示次数和单价完全负相关——好处是保证了广告联盟里利益体的收入不变,坏处是可能未来业务会逐渐萎缩,毕竟不是谁都可以接受广告单次展示价格越来越高。 而谷歌的订阅服务及设备业务表现非常不错,三季度录得营收128.7亿美元,同样也创新高,同比增长20.8%,三季度末,整体订阅用户规模达到3亿。 订阅业务中,Google one目前来看也是谷歌AI变现表现不俗的产品之一,年中谷歌就宣布Google one订阅用户超1.5亿,其中有不少增量来自于每月19.9美元的AI功能订阅。 04 资本开支和员工,一个也不放弃 成本方面,三季度谷歌的研发费用录得151.51亿美元,销售及营销费用录得72亿美元,行政管理费用录得74亿美元,从费率曲线上来看,研发费用维持在15%左右,销售费用控制在了7%左右,相对较稳。 管理费用三季度有一笔诉讼一次性支出,扣除后也维持在4%左右,整体来看谷歌的费控水平还不错,也能从侧面印证三季度业绩表现驱动力不仅仅是市场投入。 同时,三季度谷歌的资本开支录得240亿美元,高基数下同比再增83%,超过了市场预期,今年以来整体的资本开支规模达到了636亿。 谷歌的资本开支一向很慷慨(对比硬件公司,钱确实也好挣一点),目前来看本轮资本开支(23年至今),谷歌是花的多挣的也多。不过三季度给出的全年指引为910-930亿美元,略低于市场预期。 值得一提的是,谷歌三季度雇员规模重回19万人以上,净增超过3000人,这与硅谷AI代替人力的叙事略显不同,似乎也驳斥了亚马逊只有裁员才能换得资本开支的说法。 谷歌员工和资本开支都要,也向大家证明:钱确实是挣出来的,而不是省出来的。 05 AI应用还在混沌期,“AI+传统业务”是现阶段更优解 最后我们在通过业绩会来看一下AI应用侧的具体表现。业绩会透露,Gemini模型月活已经达到了6.5亿,处于大模型的绝对第一梯队,API每分钟处理70亿tokens。 三季度谷歌VEO3生成2.3亿视频,另一大视频生成产品banana爆火,banana的交互模式确实是创新,但是目前来看Sora2的能力似乎更强。同时管理层没有主动提及具体AI产品的收入情况。 目前来看,谷歌是为数不多实现了AI技术反馈财报的企业之一,但主要还是因为谷歌的即有业务相对成熟(广告),三季度的谷歌已经向我们证明了AI确实有带动传统业务的能力,但完全颠覆生态,能够影响利润表的应用还没有出现。 几乎可以预见的是,以谷歌财报为指引,未来无论是传统互联网巨头,还是AI新贵,只要想商业化变现,可能还是围绕着互联网模式的老路,毕竟目前来看这就是最优解。 当然,对于中国的互联网企业,有着现实的借鉴意义。
关于“AI是人还是工具”这件事 黄仁勋、周鸿祎竟默契达成共识
快科技10月30日消息,据媒体综合报道,AI不是工具,是“人”!大佬黄仁勋和周鸿祎竟然默契达成了共识。 近日,在英伟达最新举办的华盛顿GTC大会期间,黄仁勋谈到了AI不是工具,是“人”的话题。 他认为AI不再是如同Excel、Word、网页浏览器等类似的技术工具,而是能够真正使用工具的劳动者。 黄仁勋强调“AI将首次参与100万亿美元的经济体发展,并提升其生产力,让它增长得更快,变得更大。我们面临严重的劳动力短缺问题,但拥有能够增强劳动力的AI将助力实现增长。” 话说大佬总是惺惺相惜,默契相见。果不其然,在AI本质属性上,大佬周鸿祎近日也发表了类似的观点。 在10月28日举行的2025金融街论坛年会上,360集团创始人周鸿祎同样提出了“AI不是工具,要把它当成虚拟的人”见解。 会上,周鸿祎指出,“现在大家可能还把智能体当成一个工具,因为当下还处在AI赋能的阶段,但是随着技术的发展,智能体能够做到的,终究会超越工具的属性。” 他进一步谈到“所以我一直强调,大家在用AI赋能自己的业务的时候,一定不要把它当成软件、工具,它实际上是虚拟的人,能够承担虚拟员工、虚拟专家这样的角色。” 周鸿祎认为,如果只把大模型当作工具来用,或许只能提升30%、50%的效率,但当大模型进化为智能体,使其像数字助理一样帮人们处理各种复杂工作,人的角色就会转变为领导智能体、规划智能体、管理智能体,人也将变为“超级个体”。 智能体可以提供人类最稀缺的智力资源,转换为算力使用,算力和人力相结合,才能变成真正的生产力。 或许正如周鸿祎所说,希望未来,我们每个人都把自己升级为能够驾驭智能体的“超级个体”,把部门和企业升级为“超级组织”,用智能体创新时代发展,才能赢得更多掌控未来的机遇。
国产NAS系统飞牛fnOS更新v0.9.35发布,新增团队文件夹
IT之家 10 月 30 日消息,国产 NAS 系统飞牛 fnOS 今日发布 v0.9.35 版本更新,带来团队文件夹功能;相册也有升级,支持 vivo 动态照片,新增幻灯片模式,还支持转码播放功能。 IT之家附更新日志如下: 系统更新 v0.9.35 App 进入系统设置-设备信息-更新系统-即可远程升级 文件管理 1. 新增团队文件夹,不归属任何用户,便于文件共享协作 2. 面包屑导航支持输入文件路径,快速跳转 3. 从共享设置或“文件详情-权限”中修改文件的权限时,支持选择对子目录已有权限的覆盖方式 4. 修复对文件夹关闭共享给其他用户,会移除应用对该文件夹访问权限的问题 文件共享协议 1. SMB、WebDAV、FTP 可访问文件范围新增可选团队文件夹 2. 修复 Windows 上部分绿色软件无法通过 SMB 直接打开的问题 3. 修复 SMB 设置禁止.DS_Store 文件导致从 macOS 上传文件错误的问题 用户管理 1. 支持按用户、用户组查看和修改团队文件夹权限 下载 1. 通用 Tracker 列表支持批量删除 2. 优化了多处 UI 交互和体验问题 硬盘与存储管理 1. 存储空间增加“剩余容量”字段 应用中心 1. 增加手动安装应用入口,方便开发者测试应用 2. 修复部分应用异常时卸载失败的问题 转码服务 1. 修复英伟达显卡在部分转码场景下显存泄漏的问题 2. 解决部分 av1 影片转码失败的问题 外链分享 1. 优化外链分享的并发性能,解决相册外链有部分照片加载不成功的问题 2. 修复外链分享列表中“可访问次数”字段的显示问题 系统相册更新 v0.8.57 web 端进入系统-应用中心-相册-点击更新 预览 1. 支持预览播放 vivo 动态照片 2. 新增“播放幻灯片”功能,支持顺序、随机播放,设置播放速度 3. 新增“转码播放”功能,支持转码为 H.264 解决有声音无画面问题 4. 新增“搜索相似照片”功能(需下载并完成智能识别任务) 5. 新增“快捷键”功能,支持快捷键 + 回车快捷将照片移至回收站 6. 新增查看照片已添加的相册,支持跳转查看相册详情 筛选 1.支持筛选“不在相册内”、“无标签”、“无位置信息”的照片,方便整理照片 设置 1. 新增“ GPU 加速转码”设置项,支持降级使用 CPU 解码 智能分类 1. 优化智能分类效果、新增更多智能分类 相册 1. 修复切换相册视图时会出现页面出错的问题 2. 修复条件相册未及时更新照片的问题 3. 修复切换到其他相册详情时排序显示错误的问题 文件快照更新 v0.1.55 web 端进入系统-应用中心-文件快照-点击更新 1. 新增支持 ZFS 文件系统的存储空间; 2. 新增支持团队文件夹; 3. 优化还原快照的操作入口; 4. 新增快照保留策略高级设置,支持按不同时间周期分别设置保留的快照份数; 5. 新增对系统时区修改的兼容逻辑; 6. 优化执行计划选择“不重复”时的设置交互。 飞牛播放器 App 更新 v1.6.0 手机 App 点击我-关于飞牛播放器-版本更新-升级到最新版本 iOS 在 App Store-升级 v1.6.1 版本 1. 【播放】修复部分影片播放时频繁调整进度后可能崩溃的问题 2. 【详情】修复影片详情页背景图模糊的问题 iOS 1. 【播放】修复音频播放切换输出设备后播放没有声音的问题 2. 【播放】修复因字体缺失导致的字幕显示异常 3. 【播放】修复已下载的视频无法切换内置字幕的问题 4. 【播放】修复硬件解码播放时调整进度可能响应慢的问题 5. 【详情】修复影片详情页背景图模糊的问题 Android TV 更新 v1.1.3 官网下载最新飞牛 TV 安装包 播放 1. 优化网盘直链播放非 m3u8 格式视频的播放逻辑 2. 修复部分设备播放杜比片源解码失败黑屏的问题
小米REDMI K90系列机型均兼容100W PPS快充:Pro Max已陆续推送、标准版预计11月升级
IT之家 10 月 30 日消息,小米 REDMI 手机官方微博今日发布《K90 系列答网友问》第二期,针对 REDMI K90 系列手机的丹宁材质、充电和超级像素屏幕相关问题进行了解答。 IT之家附 REDMI K90 系列答网友问(第二期)如下: 丹宁色版本会不会影响散热,会不会不耐造? 经测试,相同实验条件下,丹宁色版本整机硬件散热能力与其他版本能力保持一致。同时,其抗磨性能大幅提升,是科技纳米皮 1.0 版本的近乎 3 倍。 在全新有机硅配方和优化的叠层工艺的加持下,科技丹宁材质具备抗紫外线、抗脏污、抗刮耐磨等优势特性。此外,这次工程师们还特别引入了人因实验手段,结合测试者触摸时对软弹度、顺滑度、摩擦感的大脑反馈信号,实现符合真实用户体感的综合手感优化。 ▲ 科技丹宁材质充电相关功能的整合说明 旁路充电:为便于用户使用,功能入口已调整到「设置 - 省电与电池 - 充电功能 - 智能充电」,开启智能充电功能时,手机会根据电量、温度、使用场景自动调整充电速度以及系统、电池之间的供电比例,在手机充电时保持手机高性能的同时,控制发热程度。 100W PPS:K90 系列两款机型 OTA 后均支持 100W PPS 兼容,K90 Pro Max 功能已陆续推送,K90 预计将于 11 月中旬陆续 OTA 推送,请以实际推送时间为准。OTA 升级至新版本后即装即用,无额外功能开关。 ▲ 支持旁路充电,全面兼容 100W PPS 通用充电协议REDMI K90 系列都没有 2K 屏,对比上代屏幕是不是回退了? REDMI K90 全系搭载超级像素新国屏,采用小米 17 Pro Max 同款全 RGB 新一代显示技术,每个像素都由独立的红 / 绿 / 蓝三种子像素组成,无需借用像素,实现 OLED 屏幕从有损到无损的突破。K90 Pro Max 子像素数量达到 938 万,超越传统的 2K 类钻排列,文字线条图片边缘显示更清晰,更锐利,效果更好。 此外,全 RGB 排列对于瞳孔调节负担更小,更不易引发干眼和视觉疲劳。搭配全新的圆偏振光 2.0、全亮度 DC 调光,及 1nit 超低亮度护眼,可以说是 REDMI 有史以来最强的屏幕。 ▲ 超级像素屏每颗像素拥有完整的三色像素 ▲ 全 RGB 排列,更不易引发干眼和视觉疲劳
2周工作2句话搞定,一位CTO的Agent实践,揭开AI重塑企业运营的秘密
作者 | 云鹏 编辑 | 漠影 纵观当前国内AI行业发展,随着《关于深入实施“人工智能 +”行动的意见》的发布以及各行业的积极响应,AI技术正加速走向产业应用。 与此同时,AI正从云端走向边缘和端侧,以往依赖云端大模型才能实现的体验,如今已越来越多在端侧实现。DeepSeek带来的应用爆发,更让众多科技公司看到了端侧AI带来的成本和效益的巨大优化潜力。 端侧AI的本地高安全性、高灵活性以及基于本地RAG+Agent协同等技术实现的高度定制化、个性化,让垂类模型和智能体在各领域成为真正的“专家”。 当然,企业AI在边缘侧的部署、AI与企业业务的高效融合,离不开强大的AI算力平台的支撑。当前,高性能移动工作站正成为加速企业AI落地的关键基础设施。 头部PC厂商纷纷发力高性能AI工作站、大模型AI一体机等产品,但产品是否真正在端侧体验方面做到好用、易用,对于各家厂商仍然是不小的考验。 在此行业背景下,智东西与国内知名AI数据服务商英泰立辰CTO高喆进行了一次深度对话,高喆在实际业务中基于惠普的ZBook Ultra高性能移动工作站实现了诸多企业AI用例的落地,过去需要几周完成的工作,如今在强劲AI工作站的加持下,只需要与智能体进行沟通就可以在几分钟内完成,企业经营效率显著提升。 英泰立辰CTO高喆 深入到企业实际业务经营场景中,我们更清晰地看到AI给企业数智化转型带来的巨大变革。 一、从经营管理到数字化营销,三大类智能体端侧部署,兼顾安全、效率、成本 时至今日,企业在数智化转型过程中应用AI已经是一条必由之路。而AI与企业业务的深度融合也逐渐暴露出企业算力供给侧的瓶颈。 传统台式工作站虽同样可以提供较强算力,但受限于场景固定,不能支撑移动研发、现场分析等灵活需求,而这些需求在今天的企业经营中正变得愈发常见。 相比之下,普通笔记本电脑虽具备便携性,却受制于AI算力、存储等方面的瓶颈,难以在端侧实现AI模型的高效落地,包括如今大火的端侧Agent智能体的实现,都需要强劲端侧算力基础的支撑。 数据安全与隐私保护的刚性要求,更使得金融、医疗等领域的企业倾向于本地部署 AI 模型,进一步加剧了对端侧灵活高性能算力的需求。 英泰立辰所在的AI数据服务赛道,是在这波AI大模型浪潮中受益比较明显的一个领域。成立于2013年的英泰立辰,基于AI和大数据分析能力,给诸多行业内知名国企、事业单位、头部科技公司提供智能调研、数字营销等服务,包括中国移动、国家电网、农业银行、华为、惠普、联想、IBM等。 其参与了多个国家级重点项目,与多个省市级政府建立了合作。基于自主研发的AI平台及资深专家团队,英泰立辰成功交付了800多个智能调研项目,覆盖政务、IT、通信、互联网、汽车、3C、快消、医疗、金融、农业、服务业等众多行业;数字营销方面,其合作伙伴已有200多家。 高喆在深度使用惠普ZBook Ultra的过程中,一个突出的感受就是此前很多必须依赖云端AI计算能力才可以实现的功能,都可以在本地实现了。高性能移动工作站可以在企业内部AI生产力的关键环节承担算力支撑,可以同时兼顾实时响应、数据安全、算力本地化等特点。 具体来看,高喆主要在ZBook Ultra上部署了三类AI智能体应用,从企业经营管理、智能体内容生成分析到企业CRM客户数据洞察。 在企业数字化经营方面,英泰立辰公司本身已有自己的企业数字化平台,大量的数据固定在一个仪表盘上。高喆在本地运行的ZBook Ultra上部署了自家的RAG+Agent协同平台进行动态分析,加载Qwen3的8B模型进行问答,实际输出效果非常稳定,响应迅速。 AI带来的一个直观改变,就是可以直接通过自然语言的指令直接就生成一些数据报表,比如针对立项情况、回款进度、销售区域风险等指标,AI都可以实时多维度地去生成一些报表;AI还可以根据需求进行定制,结合历史趋势生成一些有价值的预警信息。 可以说,在本地数字化经营分析智能体的加持下,企业的每一级管理者都能用自己的视角去分析企业经营信息,完全的本地化则让这些敏感数据可以安全地存放在端侧。 高喆提到,此前如果需要一个新的角度来分析财务数据,修改数字化企业办公平台,至少要2周时间,而现在通过跟智能体的对话,少则两三句话、多则十几分钟,就可以获得想要的结果,在保证安全的同时效率和灵活性大幅提升。 高喆部署的第二类AI用例,是客户项目类应用,可以说是一个营销内容分析类的媒体内容Agent。 在AI大模型时代,AI高效高质量的内容生成已经成为不少企业的刚需,如今媒体平台众多,不同平台的属性各不相同,所需要的内容风格也有所差别。 高喆基于在ZBook Ultra上本地部署的RAG+Agent协同平台,可以让智能体基于同一主题生成不同平台所需要的内容。更重要的是,智能体还可以根据不同平台所对应的各自评价维度去分析相应的数据表现,给出优化建议,形成正向迭代循环,这也是AI智能体相比传统数据分析的核心优势之一。 媒体内容Agent 这些关键数据企业通常都不希望放到云端,本地高效分析的能力可以说直击企业用户痛点。 第三类是企业CRM客户数据洞察系统中所用到的销售线索Agent。 涉及客户数据,隐私安全往往会被提到非常重要的位置,企业数字化资产要在提供生产力的同时避免泄露。 英泰立辰自身有一套CRM系统,经过长期迭代,结合AI大模型能力,其已经逐渐演化为客户数据洞察智能体,这个智能体的背后还包括英泰立辰自建的调研系统、呼叫中心等组成部分。 在实际业务过程中,销售人员不需要获取客户的所有数据,基于ZBook Ultra的本地部署,AI智能体可以高效的读取、分析这些信息,做趋势的识别、销售的洞察,例如AI智能体可以告诉销售客户的兴趣点、潜在的商机。 销售线索Agent 这样销售可以高效对接客户需求,发掘潜在机会点,同时客户的数据还可以得到很好的保护,可以说是一种双赢。 值得一提的是,在这三类智能体的本地部署和应用中,有一个问题十分重要,那就是本地智能体部署输出的准确性和稳定性。因为在真正商业应用领域,如果准确性稳定性不足,那几乎就是“不可用”的状态。 从高喆的实际体验来看,结合本地RAG进行优化后,AI Agent显然可以更懂业务、更懂企业经营管理者的意图,智能体实际输出的准确率是比较高的。尤其在特定的业务体系中,结合本地知识库和RAG后,AI智能体就可以变成某一领域的业务专家。 以往,如果要在本地实现,往往需要很笨重的“大机器”或专门搭建企业边缘服务器,今天,在硬件和软件的协同发展下,如ZBook Ultra这样仅1.6KG起的便携高性能移动工作站就可以让企业在本地实现这样的能力,可以说显著加速了AI的落地,让AI真正可以高效地服务于企业,让企业可以更专注于技术和业务的创新,让协作变得更高效。 高喆在分享中特别提到,作为企业管理者,AI可以在自己的桌面端高效运行,安全、可控、快速,作为从业者是非常开心的,他现在经常会跟合作伙伴秀出自己的ZBook Ultra。 二、稳定、智能、安全背后,ZBook Ultra从硬件、软件到生态夯实基础 在高喆深度使用ZBook Ultra的过程中,更稳定、更智能、更可靠是他最突出的几个感受,而在这些直观感受的背后、在三类端侧AI高效落地的背后,ZBook Ultra从硬件到软件再到整机设计方面的扎实基础无疑是关键支撑。 在稳定性方面,ZBook Ultra搭载了128GB等效四通道8000MT/s高速统一内存,最高可以分配96GB显存用于图形处理和AI应用。其在实际使用过程中,即使并行大量多任务,同时运行一些AI任务,整机依然可以保持流畅使用。 高喆提到,不论是嵌入式计算还是索引检索,其表现都比较稳定,这可以满足很多企业对提高生产力的需求。 GPU方面,Radeon 8060S显卡也成为支持AI大模型本地私有化部署的关键。 ZBook Ultra G1a能支持单机离线运行Q4精度最高70B参数的大模型。但如果对AI输出速度以及AI功能性有更高需求,它可以支持高速运行120B参数的GPT-OSS模型(MXFP4),其甚至可以10-15token/s的速度运行经过量化调优的 Qwen3-235B满血参数量模型(Q2,MoE混合量化,专家Q4+其他Q1)。 如果对多模态有需求,那么QwenVL等常见多模态模型也能高效运行,在知识库中可以实现对文字和图片同时有效识别和提取。总而言之,得益于其超大容量的统一内存加持,多数超长上下文、多模态或大参数的MoE混合专家模型部署场景,使用Zbook Ultra G1a都能实现本地部署。 在智能方面,ZBook Ultra所搭载的是AMD最新的锐龙AI Max+PRO 395处理器,其采用了CPU+GPU+NPU的异构计算架构,NPU在实际运行过程中会自动接管很多端侧AI计算任务,例如语音识别、OCR图像识别、本地AI生成等。 端侧NPU的加持可以让任务响应速度更快,时延明显降低,同时效率足够高。 在可靠性方面,本地离线的模式毫无疑问更加安全可控,高喆认为这非常适合企业端的系统和服务进行落地应用。 在生态方面,目前ZBook Ultra已经得到21000多个ISV认证,正加速软硬件AI化进程,包括对Poly Camera Pro专业智能会议应用中自动对焦、智能降噪、AI调优四扬声器、自适应光线优化等功能的支持。 值得一提的是,相比苹果Mac的封闭生态路线,基于x86架构平台的ZBook Ultra更具开放性和兼容性,比如原生支持Pytorch、ONNX、Transformers等主流框架,这些都是企业端AI落地更为看重的。 在高喆看来,ZBook Ultra这款产品并不是一个堆参数的机器,而是一台真正能够帮助企业用AI实打实地提升生产力的移动工作站。 可以看到,ZBook Ultra作为高性能移动工作站,打破了专业性能与使用便携之间长期难以兼顾的痛点,已经成为连接AI技术与企业实际业务的关键桥梁。 结语:高性能移动工作站面向AI未来涌现巨大潜力 面向未来的AI大模型时代,高性能移动工作站正涌现出巨大的应用潜力。 电商平台借助大语言模型将产品策略调整周期从几周缩短至几天;服务行业基于AI智能体与本地数据的高效融合,形成更灵活、高效、准确的服务模式;制造业通过 AI优化生产流程,使产品交付周期大幅缩短;医疗领域AI大模型与数据的融合,让诸多疾病的筛查效率、预警准确率大幅提升。 从专业创意人群、产品设计师、数据科学家、建筑师、VR/AR开发人员、STEAM学生到企业经营管理者、销售人员、财务后勤,高算力、大内存、高便携的移动算力终端正逐渐在AI时代成为刚需。 尤其对于众多科技公司而言,AI不再是可选的增效工具,而是企业提升核心竞争力的必由之路,而高性能移动工作站已经成为企业AI落地的“移动算力基座”。 而惠普作为PC领域的头部玩家之一,正在这股浪潮中行于潮头。
马斯克计划将AI百科全书Grokipedia进行刻录,发射至太空永久保存
IT之家 10 月 30 日消息,埃隆・马斯克昨日宣布了一项最新计划,他在社交平台 X 上发文表示,xAI 公司推出的全新开源百科全书“Grokipedia”,将被刻录在稳定的氧化物介质上,并发射进入太空永久保存。 在 Grokipedia V0.1 版本发布后,马斯克公布了这一计划。他首先向 xAI 团队致以祝贺,并强调 Grokipedia 的目标是打造一个开放源代码、全面涵盖人类知识的集合体,并将其副本刻录于稳定氧化物材料之上,分别部署于地球轨道、月球乃至火星,以确保人类文明的知识得以长期保存。 “xAI 团队在 Grokipedia 上的工作非常出色!我们的目标是创建一个开源的、包罗万象的知识库,然后将刻录在稳定氧化物上的副本送入轨道、月球和火星,为未来保存人类文明的火种。这是基础性工程。”马斯克在帖文中写道。 据IT之家了解,尽管这一计划看似天马行空,但人类并非首次尝试向宇宙传递知识记录。1977 年,美国国家航空航天局(NASA)在“旅行者 1 号”和“旅行者 2 号”探测器上搭载了“旅行者金唱片”,其中收录了地球的声音与图像,旨在展现地球文化的多样性。相比之下,马斯克通过 Grokipedia 实现的知识保存愿景,无疑在规模与雄心上达到了前所未有的高度。 马斯克推出 Grokipedia,旨在打造一个由人工智能驱动的维基百科替代方案,以消除传统在线知识平台中可能存在的主观人为偏见。该系统基于 xAI 开发的人工智能模型 Grok,能够从互联网抓取信息并进行摘要整合,在科学、技术、文化、政治等各类话题上提供更为平衡、细致的内容呈现。 与维基百科依赖人工编辑的模式不同,Grokipedia 可通过机器学习持续进化,阅读和处理的信息量远超任何人类编辑团队。马斯克曾称,即便在 V0.1 版本阶段,Grokipedia“已经优于维基百科”。
英伟达DGX Spark上市,与AMD Strix Halo比,谁更适合AI开发者?
近日,搭载英伟达 GB10 Grace Blackwell 超级芯片的 DGX Spark 桌面 AI 超算产品陆续上市开售,作为英伟达首款面向轻量化场景的 Grace Blackwell 架构产品,DGX Spark 不是单纯的性能堆叠,而是面向高性能工作站、桌面级 AI 开发和轻量化数据中心的整体解决方案,试图以“迷你机身 + 大模型支持”的组合,填补消费级显卡与大型数据中心之间的算力空白。 从今年初 NVIDIA 首次宣布代号 Project DIGITS,到第一方 FE 版本定价 3999 美元(约合 28533 元人民币),当时一度凭借 NUC 级的小巧体积与 1PetaFlop(1000TOPS)的 FP4 稀疏 AI 算力,点燃了桌面级高性能 AI 计算市场的讨论热情。现在,被重新命名为 DGX Spark 的桌面迷你 AI 工作站终于正式开售,华硕、戴尔和联想等上市的产品价格基本都在 32999 元以上。 随着 DGX Spark 的开售,让IT之家不禁想起另一款在相同赛道上已经站稳脚跟的产品 —— 基于 AMD 锐龙 AI Max+ 395 处理器的 Mini AI 工作站。同样主打“桌面级 AI 算力”,同样支持大模型本地推理,英伟达 GB10 与 AMD 锐龙 AI Max+ 395 究竟在架构设计、性能表现上有何差异?对于缺乏专业机房支持、预算有限且需要兼顾多场景使用的入门开发者而言,哪款产品更能满足“低门槛、高实用”的核心需求?今天不妨随小编来分析一下。 架构与性能对比:从芯片设计到实际算力的差异化呈现 要判断两款产品的适用场景,首先需深入其核心芯片的架构逻辑与实际性能表现。英伟达 GB10 与 AMD 锐龙 AI Max+ 395 虽同为“高性能计算芯片”,但在核心定位、架构设计与性能释放上,呈现出鲜明的差异化特征,而这些差异直接决定了它们对入门开发者的友好度。 英伟达 GB10:数据中心技术的桌面化应用 英伟达 GB10 超级芯片是其旗舰级 Grace-Blackwell 超级芯片的“小型化集成版本”,其设计目标是在有限的物理空间和功耗下(整机功耗约 240 瓦),承担起此前必须依赖大型数据中心系统的部分任务。 计算核心:GB10 的 CPU 部分是英伟达与联发科合作的产物,采用了 20 核 ARMv9.2 架构,具体由 10 个高性能 Arm Cortex-X925 核心与 10 个高能效 Arm Cortex-A725 核心组成。其 GPU 单元则拥有 6144 个 CUDA 核心,是 Blackwell 架构的精简版本。该 GPU 保留了对 FP4(4 位浮点)数据格式的支持,使其能够实现 1 PetaFLOP(即 1000 TOPS)的稀疏 AI 算力。在单精度(FP32)性能方面,其算力为 31 TFLOPS,与消费级显卡 RTX 5070 的水平相当。 统一内存与高速互联:该芯片配置了 128GB、256 位的 LPDDR5x-9400 统一内存,通过 2.5D 封装技术与 CPU、GPU 集成。CPU 与 GPU 通过带宽高达 600 GB/s 的 NVLink C2C(Chip-to-Chip)链路共享内存池,旨在减少传统 PCIe 总线带来的数据传输延迟。 专用网络与扩展功能:DGX Spark 集成了 ConnectX-7 200Gb/s 高速网卡。通过背部的 QSFP 端口,用户可以连接两台 DGX Spark 设备,从而将推理能力扩展至支持高达 4050 亿参数的模型。这进一步明确了其作为专业 AI 开发工具的定位。 软件生态:搭载定制版 DGX OS(基于 Ubuntu Linux),预装英伟达 AI 软件堆栈,仅支持 Linux 环境下的 AI 开发,不兼容 Windows 系统与 X86 架构软件。 AMD 锐龙 AI Max+ 395:端侧 AI 的“全场景全能选手” 与 GB10 的“单一场景优化”不同,AMD 锐龙 AI Max+ 395 的核心设计逻辑是“兼顾 AI 算力与全场景兼容性”,其架构围绕“Zen5 CPU+RDNA3.5 GPU+XDNA2 NPU”的三重计算单元展开,参数配置更贴近入门开发者的多维度需求: 计算核心:16 核 32 线程的 Zen 5 架构 CPU,最高加速频率高达 5.1GHz,配备 80MB 总缓存(16MB L2+64MB L3),性能接近桌面级处理器,可轻松应对数据预处理、多任务并发等需求;最高 40 单元的 RDNA 3.5 架构 iGPU(命名为 Radeon 8060S),带宽达 256GB/s,性能媲美移动版 RTX 4060/4070,支持图形密集型 AI 任务(如多模态模型推理);XDNA 2 NPU 峰值算力高达 50TOPS,原生支持微软 Windows 11 AI+PC 规范与 Copilot 等端侧 AI 应用。 内存架构:采用 AMD 独创的 UMA(Unified Memory Architecture)统一内存技术,最高支持 128GB 内存,其中最高 96GB 可专属分配给 GPU 作为专属显存,并再将 16GB 作为共享显存。这种动态调度机制无需频繁进行内存复制,彻底消除了传统“CPU 内存 + GPU 显存”分离架构的“数据搬运开销”,对大模型加载与推理效率的提升尤为明显。 软件生态:基于 X86 架构,默认支持 Windows 系统,可无缝兼容 Office、Photoshop 等日常软件,以及 TensorFlow、PyTorch 等主流 AI 开发框架,其开源 AI 软件框架 ROCm 近期也宣布对于 Windows 的支持。同时,AMD 锐龙 AI MAX+ 395 也原生适配 Ubuntu 系统,相信 AMD 395 更兼顾传统开发与 AI 创新需求。 那么,两大芯片在面对 AI 大模型本地运行时的实际性能表现如何呢?就在 10 月 16 日,第三方 YouTube 博主 Bijan Bowen 对 DGX Spark 和锐龙 AI Max+ 395 平台进行了性能对比实测,这里IT之家不妨引用一下他的实测数据,来给大家做一个参考: 整体来看,在四个不同量级和类型的模型测试中,双方虽各有胜负,但 AMD 的表现整体上竟然还要稍微领先一些。以 Llama 3.3 70B 的测试为例,推理运行需要激活大量参数的稠密模型场景,AMD 以 4.9 tok / sec 的速度领先于英伟达的 4.67 tok / sec。这说明尽管英伟达拥有 CUDA 生态和更高的 FP4 算力,受限于带宽,在实际的 Tokens 生成速度表现上,AMD 的 Strix Halo 完全有能力正面抗衡。 在 4 个测试中的 3 个,AMD 平台都取得了更快的“首 token 生成时间”(time to first token),这意味着在交互式 AI 应用(如编码助手、聊天机器人)中,用户能更快地得到响应,体验可能更流畅。 综合来看,在入门开发者高频使用的中大型模型,尤其是 MoE 架构模型(Qwen3-30B-A3B、GPT-OSS 20B)上,AMD 锐龙 AI Max+ 395 的生成速度(435.13 tok / sec、64.69 tok / sec)均和英伟达 GB10(38.03 tok / sec、60.33 tok / sec)势均力敌,且首 token 响应时间除 Llama 3.3 70B 外均更短 —— 这意味着在实际开发中,AMD 平台能更快响应,减少开发者的等待时间。 因此整体来看,AMD 的性能表现更贴合入门群体的实际使用场景。 从生态到成本面面观,AMD 锐龙 AI Max+ 395 具有“入门友好型”优势 对于入门开发者而言,硬件性能仅是选择标准之一,生态兼容性、产品普及度与单位成本效益等等,也是非常关键的决策因素。那么从这些要素的层面来看,英伟达 GB10 与 AMD 锐龙 AI Max+395 相比究竟谁更有优势呢?下面我们继续来看。 生态兼容性:X86 / Windows 架构,无需妥协非 AI 需求 英伟达 DGX Spark 运行的是定制版 Ubuntu Linux。对于那些常年沉浸在 Linux 环境中的资深 AI 研究者来说,这或许如鱼得水。但对于绝大多数初创中小团队、入门开发者、学生或从其他领域(如 Web 开发、应用开发)转型而来的工程师而言,这反而成了一个比较高的门槛。他们的日常工作流 —— 无论是使用 Visual Studio、JetBrains 全家桶,还是 Adobe 创意套件,亦或是简单的 Office 办公,都深度绑定在 Windows 生态上。 毕竟,入门开发者的工作场景往往并非“纯 AI 开发”,多数人还需要兼顾日常办公、文档处理、传统编程甚至轻度设计任务,而这恰恰是 AMD 锐龙 AI Max+ 395 的核心优势所在 —— 基于 X86 架构与 Windows 系统,其生态成熟度远超英伟达 GB10 的 Arm / Linux 组合。 具体来看,AMD 锐龙平台可直接运行 Office、微信、浏览器等日常软件,无需额外配置;在开发工具层面,Visual Studio、PyCharm 等主流 IDE 均对 Windows 有完善支持,TensorFlow、PyTorch 等 AI 框架也已实现 Windows 环境的“一键安装”,新手无需花费大量时间学习 Linux 命令与环境配置。此外,AMD 还支持 WSL 子系统,若开发者需要使用 Linux 专属工具(如某些开源模型的编译环境),可在 Windows 系统内直接开启 Linux 终端,避免了“双系统切换”的繁琐。 总之,Windows 系统的普及度更高,生态健全性是天生优势。入门开发者不需要在‘AI 开发’与‘日常使用’之间做妥协,这正是 AMD 平台的核心价值之一。 终端产品普及度与市场成熟度 英伟达的 DGX Spark 及其合作伙伴产品,在 2025 年 10 月 15 日才刚刚“正式发售”。作为一个全新的平台(Arm+Linux 的桌面 AI 设备),其早期的市场表现、驱动程序稳定性、软件兼容性仍有待观察。 相比之下,搭载 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站正处于一个“爆发”状态。截至 2025 年 10 月,搭载 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站已有数十款产品正在热销,有不同的配置和价格区间,可满足不同预算的需求: 比如像希未 SEAVIV AideaStation R1、极摩客 GMKtec EVO-X2、零刻 Beelink GTR9 Pro、铭凡 MINIS FORUM MS-S1 MAX 等都提供了从 64GB 内存 + 1TB SSD 万元左右的配置(可支持 700 亿参数模型推理,适合预算有限的个人开发者),到 128GB 内存 + 2TB SSD 这种 15000 元左右的价位档的配置(支持 2000 亿参数模型本地部署,适合中小团队)。 再往上还有惠普 HP Z2 Mini G1a(21999 元),具备更稳定的散热设计与企业级售后,适合对可靠性要求较高的场景。总之开发者们可以有丰富的选择。 这些产品已在京东、天猫等电商平台正式开售,用户可直接购买并“开箱即用”,部分品牌还提供“预装 LM Studio、Gaia 等 AI 工具”的增值服务,进一步降低入门难度。这些产品早已在市场上销售数月,经过了早期用户的检验,形成了成熟的产品矩阵和消费者认知。 对于一个急于上手的开发者来说,AMD 方案提供了“开箱即用”的便利性和丰富的选择:从 9999 元的入门款到 21999 元的品牌工作站,从风冷到水冷,从紧凑型到可扩展型,丰俭由人。这种先发优势和市场成熟度,显然意味着更低的购买风险、更完善的社区支持和即时的生产力。 单位成本效益:AMD 每万元算力更高,性价比突出 对于入门开发者而言,“单位价格对应的推理性能”是衡量性价比的核心指标。结合上面我们引用的第三方测试数据与终端产品价格,我们可以清晰看到 AMD 锐龙 AI Max+395 的成本优势: 以 GPT-OSS 20B 模型(入门开发者常用的中大型模型)为例,在该博主测试中使用的 AMD 阵营的极摩客 GMKtec EVO-X2(14999 元)生成速度为 64.69 tok / sec,折算后“每万元对应的生成速度”约为 43.13 tok / sec;而英伟达 DGX Spark FE 版(28533 元)的生成速度为 60.33 tok / sec,“每万元对应的生成速度”仅为 21.14 tok / sec—— 也就是说,在相同预算下,AMD 平台能提供两倍以上的推理性能。如果以已经上市后的产品价格算,英伟达 DGX Spark 当前在电商平台的价格都在 32999 元以上,“每万元对应的生成速度”更是只有 18.28 tok / sec,而 AMD 平台能提供近 2.4 倍的推理性能。 此外,AMD 平台的“长期使用成本”也更低:Windows 系统下的软件多为免费或低价(如 Office 365 个人版年费仅 398 元),而 Linux 系统的部分专业工具(如某些商业 AI 优化软件)需单独付费;AMD 的生态伙伴 Ripple AI 还提供“远程测试平台”,开发者无需购买硬件即可体验算力,进一步降低了试错成本。 其他方面考量 除生态与成本外,我们也可以关注一下开发者们同样关注的“模型适配速度”、“硬件扩展能力”等这些问题上,目前 DGX Spark 桌面超算和搭载锐龙 AI Max+ 395 处理器的桌面 Mini AI 工作站的差别。 模型适配:AMD AI 团队通过前期的紧密协作,对主流模型实现“当天适配”—— 例如 GPT-OSS-120B 模型发布当天,AMD 平台即完成适配;对于 AI 初创企业的爆款模型,也能实现“零日响应”,确保开发者能及时体验最新模型。而英伟达 GB10 的模型适配信息尚未公开,仅提及“预装 AI 软件堆栈”,灵活性不足。 硬件扩展灵活:AMD 支持通过 USB4 接口实现多机串联,六联智能最近在中国国际信息通信展览会上做了一个六机并联的演示,专属显存可扩展至 576GB,满足更大规模模型(如 4000 亿参数)的推理需求;而英伟达 DGX Spark 仅支持通过 ConnectX-7 网卡实现双机互联,扩展方式单一且成本更高(仅单块 ConnectX-7 网卡价格又得 1W+)。 入门支持完善:AMD 联合 RIPPLE AI 打造了“AI 开发者支持平台”,提供“开箱即用”的开发环境(预装模型、工具链)、线上教程与社区论坛,新手可快速上手;还针对学生群体推出“高校支持计划”,提供硬件试用与课程合作,进一步降低学习门槛。 结语 总体来说,通过对架构、性能、生态和成本等各方面的分析,我们可以看出英伟达 DGX Spark 和基于 AMD 锐龙 AI Max+ 395 的迷你工作站是面向不同用户群体的解决方案。 英伟达 DGX Spark 凭借其专用的硬件设计和与 CUDA 生态的深度整合,为专业 AI 研究人员和深度绑定于英伟达生态系统的开发者提供了一个高性能的桌面工具。其较高的价格和特定的 ARM / Linux 操作系统环境,也决定了它的用户群体相对聚焦。 而 AMD 锐龙 AI Max+ 395 平台则提供了一个更为通用的解决方案。它的主要优势体现在以下几个方面: 平台通用性:基于成熟的 x86 / Windows 生态,既能作为一台高性能的通用工作站,也能满足大型 AI 模型的本地推理需求,兼顾了日常工作与开发的双重需要。 市场成熟度:市场上已有多个品牌提供相关产品,消费者拥有更丰富的选择空间。 成本效益:在关键的“单位价格推理性能”指标上具有明显优势,显著降低了本地部署 AI 大模型的硬件门槛。 开放生态:依托用户基数庞大的 Windows 平台,并通过与社区合作、举办开发者竞赛等方式,AMD 正在构建一个开放的开发者生态系统。 随着 AI 开发逐渐从“专业领域”走向“大众市场”,像 AMD 锐龙 AI Max+ 395 这样的“普惠型”产品,正成为推动 AI 平权的关键力量。对于想要踏入 AI 开发领域、却受限于预算与技术门槛的开发者而言,基于 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站,无疑是当前阶段的最优选择 —— 它不需要你是 Linux 专家,不需要你有巨额预算,只需要你有创新想法,就能在桌面端开启属于自己的 AI 开发之旅。
成都发布共享充电宝行业自律公约:避免“超额计费”,时间单位压缩至15分钟以内
IT之家 10 月 30 日消息,10 月 30 日,成都市保护消费者权益委员会(以下简称“成都市消委会”)和成都市场监督管理局、成都经信局市新经济委正式发布《成都市共享充电宝行业自律公约》,并引导美团、怪兽、悟空、街电、小电、闪葱、咻电、考拉等 8 家主流企业进行签署。 公约主要内容包括: 杜绝“模糊收费”。要求企业在租借页面或设备显著位置公示价格、计费方式、封顶价、押金政策等。 避免“超额计费”。提供不少于 5 分钟的免费使用时长,计费时间单位压缩至 15 分钟以内,首个计费单位仅在超出免费时长后开始收费,杜绝“按小时凑整”。 保障“出借电量”。共享充电宝出借时电量不得低于 50%,特殊情况下低于该标准需提前明确告知消费者,确保应急充电需求。 清除“霸王条款”。明确品牌方、合作商、运营方的责任边界,不得含有减轻企业责任、加重消费者义务的不公平条款。 完善“归还保障”。确保机柜空位充足,针对“网点少、柜满”等非用户原因导致的无法归还,核实后可暂停计费;因设备故障或不可抗力无法归还的,免除本次使用费用。 强化“服务响应”。在设备、官方页面公布客服电话,开通在线客服通道,确保消费者投诉 48 小时内受理并提出解决方案,提升纠纷处理效率。 严控“产品质量”。产品出厂前需抽样检测,定期对设备进行巡检维护,对异常设备及时回收检测,避免老化、破损设备流入市场。 IT之家从公告获悉,此次参与签署公约的企业覆盖成都 95% 以上运营点位,他们将在公约发布后,将陆续更新软件功能并进行价格调整。
英伟达为何值5万亿美元?答案或藏在AI数据中心里
OpenAI在得州的“星际之门”数据中心项目 凤凰网科技讯 北京时间10月30日,英伟达正式成为了全球首家市值达到5万亿美元的公司,它为何能如此值钱?《商业内幕》通过对AI数据中心的分析,揭示了英伟达在AI投资支出中所占据的庞大份额。 随着AI进入工业化阶段,全球最先进的数据中心衡量规模的方式已经不再是占地面积或服务器数量,而是以衡量算力的吉瓦为单位。华尔街也开始以“每吉瓦成本”来衡量这些数据中心,并预测哪些公司将从这场投资狂潮中获益。 投行TD Cowen分析师本周在最新研究报告中给出了直观对比:1吉瓦大约相当于一座核反应堆的发电量。这已成为新一代AI数据中心的新基准,包括xAI在孟菲斯的Colossus 2数据中心、Meta在俄亥俄州的“普罗米修斯”数据中心、在路易斯安那州的Hyperion数据中心、以及OpenAI的“星际之门”,亚马逊在印第安纳州的雷尼尔山项目。 这些“庞然大物”消耗海量电力,结合资本投入与芯片算力,不断产出智能。整个过程成本高昂。 根据伯恩斯坦研究的最新分析,1吉瓦AI数据中心容量的建设成本约为350亿美元。听起来可能很夸张,但这实际上代表了AI的新经济基石。每1吉瓦的数据中心容量,不仅是电力的衡量单位,更是一个新兴工业生态系统的指标,它涵盖了半导体、网络设备、电力系统、建筑以及能源发电等领域。 根据伯恩斯坦和TD Cowen本周的估算,下面这张图展示了1吉瓦350亿美元数据中心容量的成本构成,以及哪些公司可能从中受益。 GPU是数据中心成本大头 GPU成本最高 AI数据中心的最大单一成本在于计算芯片本身。伯恩斯坦指出,大约39%的总支出用于GPU,其中以英伟达的GB200及其即将推出的AI芯片(如Rubin系列)为主。 凭借高达70%的毛利率,英伟达将整个AI数据中心总支出的30%转化为了利润。难怪这家公司市值能达到5万亿美元。 TD Cowen的数据显示,每1吉瓦算力需配备超过100万颗GPU裸芯片(未经封装的芯片),这些正是AI芯片的核心运算单元。分析师估算,台积电在为英伟达制造芯片过程中,每1吉瓦可创收13亿美元。 尽管AMD、英特尔等芯片制造商正奋力追赶,谷歌、亚马逊、微软等超大规模企业也在投资能降低系统总成本的AI专用芯片与定制加速器,但伯恩斯坦与TD Cowen分析师强调,GPU仍是整个产业链的价值核心。 网络设备 紧随GPU之后的就是让这些GPU实现互联的“动脉”:网络设备。伯恩斯坦估算,约13%的数据中心成本用于高速交换机和光互连等网络设备。 作为交换机供应商和芯片设计商,Arista Networks、博通和Marvell将从中受益。由于利润率高,Arista占据的利润份额要高于收入份额。 伯恩斯坦分析师指出,安费诺、立讯精密等组件制造商可从电缆和连接器中获益。中际旭创、新易盛、Coherent等光收发器企业也将在这轮浪潮中获利。 电力与冷却基础设施 计算机机架的周边物理基础设施,包括发电机、变压器和不间断电源,构成了1吉瓦AI数据中心的另一大成本板块。伯恩斯坦的数据显示,仅配电系统就占据总支出的近10%。 电源管理公司伊顿、施耐德电气、ABB及维谛技术是该领域的主要供应商。维谛技术在热管理领域同样面临机遇,这部分约占总支出的4%,分布在风冷和液冷系统之间。 土地、电力与人力 土地和建筑约占前期投入成本的10%。不过,一旦数据中心投入运行,运营成本出乎意料地低。伯恩斯坦估算,运行一座1吉瓦AI数据中心一年的电费约为13亿美元。人员成本同样微不足道,大型数据中心通常仅需8到10名员工,每人年薪约为3万到8万美元。 然而,行业瓶颈正在转向电力供应。随着超大规模企业争相锁定稳定的大规模电力,西门子能源、GE Vernova及三菱重工近期均报告涡轮机与电网基础设施订单激增。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
AI化身正义!病人逝世医院开出近140万天价账单:AI直接砍至23万
快科技10月30日消息,近日,一位用户在社交媒体上分享了利用AI聊天机器人,成功将逝世亲属留下的近19.5万美元(约138万元人民币)天价医疗账单,大幅削减至3.3万美元(约23.4万元人民币)的经历。 在这个情绪低落的时刻,Claude AI充当了冷静、专业的“法务助理”,揭露了医院账单中存在的诸多不当和欺诈行为。 这位网名为Nthmonkey的用户透露,其亲属在心脏病发作后,在重症监护室接受了最后四小时的治疗,但医院开出的账单竟高达195000美元。导致费用如此之高的主要原因是,病人的医疗保险在事发前两个月已经失效。 但账单内容却极不透明,例如账单中仅以“心脏病学”(Cardiology)一项就收取了70000美元,但缺乏具体明细。Nthmonkey反复与医院管理人员交涉,才迫使他们给出更细致的收费编码。 随后Claude AI便开始工作,对揭露的标准收费代码进行深入分析,它发现的最大问题是计费重复: 医院竟然同时为一项主手术及其所有组件进行了两次收费,“医院为我们开具了主程序的账单,然后又为其中的每个组件重复开了一次。”Nthmonkey愤怒地写道,仅此一项原则上就可以剔除约10万美元的收费。 此外Claude还揪出了其他违规行为,随后在Claude AI的帮助下,Nthmonkey起草了带有法律行动、负面公关以及向立法委员会申诉等威慑力的函件。 最终经过漫长的争议,医院账单被削减至33000美元,Nthmonkey对此结果表示满意,并认为这次胜利要归功于其每月20美元的Claude订阅服务。 “医院自己制定规则、价格,认为可以从缺乏经验的人那里随意捞钱,”Nthmonkey 总结道,“没有人应该支付比 Medicare(医疗保险)愿意支付的更多的钱。我们不能再让他们逍遥法外了。”

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。