行业分类:
加载中...
头条分类:
加载中...
科技巨头态度迥异:微软倾向于签署欧盟AI准则,Meta直言无法接受
IT之家 7 月 19 日消息,欧盟主席表示,欧盟可能会签署一项自愿行为准则,旨在帮助企业遵守去年已经生效的《人工智能法案》,但这一准则却引发了美国科技龙头的分歧。 微软总裁布拉德・史密斯(Brad Smith)周五向路透社表示,公司很可能会签署该准则,以支持欧盟的人工智能监管机构,并强调与工业界的直接接触。 然而,Meta 则拒绝签署该指导方针。Meta 首席全球事务官乔尔・卡普兰(Joel Kaplan)表示,该准则给模型开发者带来了法律不确定性,其措施也超出了《人工智能法案》的范围。 图源:Pexels 该自愿性行为准则由 13 名独立专家制定,该法案旨在规范人工智能技术的使用,确保其在欧盟范围内的合法性和安全性。签署方必须公布其通用 AI 模型训练所用内容的摘要,并制定符合欧盟版权法的政策。 该准则是 2024 年 6 月生效的《人工智能法案》的一部分,适用于谷歌母公司 Alphabet、Facebook 母公司 Meta、OpenAI、Anthropic、Mistral 等数千家企业。IT之家注意到,OpenAI 和 Mistral 等其他公司已经同意签署该准则。 卡普兰指出,Meta 与 45 家欧洲公司持有相同担忧,认为这种过度扩张将阻碍欧洲前沿人工智能模型的开发和部署,影响欧洲企业的业务发展。
Windsurf惊魂96小时,AI闪电并购战:谷歌天价挖人,Cognition逆袭接盘
7月伊始的一个周四,AI编程工具初创公司Windsurf的40多位研究员和工程师接到管理层的神秘邀请,齐聚加州山景城。 结果一进会议室,谜底揭晓:Windsurf老板Varun Mohan旁边坐着谷歌的联合创始人Sergey Brin,谷歌AI大佬Demis Hassabis还视频连线参加了。 谷歌是来挖人的,想让Windsurf的员工跳槽到谷歌DeepMind。 为了吸引大家,谷歌开出的条件很诱人:薪酬直接翻倍,远超员工在Windsurf的股权价值。 好多员工当场就签了合同,第二天(周五)就跑去谷歌DeepMind上班,离Windsurf办公室才8分钟车程。 周五晚上,消息爆出,谷歌跟Windsurf签了个24亿美元的许可协议,大部分钱都进了股东的口袋。 周一,Windsurf的剧情又有了新进展。 另一家AI编程公司Cognition跳出来,宣布收购Windsurf剩下的资产,包括没有去谷歌报道的200来号员工。 这笔交易的具体金额没公开,但据说好几家公司对Windsurf的「残余部队」感兴趣,对Windsurf抛了橄榄枝。 谷歌、亚马逊、微软、Meta这些大厂忙着跟AI初创公司签协议,把顶尖人才收入囊中。 与此同时,Meta还在跟其他公司抢明星AI研究员,开出的薪水高得吓人,有的甚至上亿美金。 惊魂96小时 Windsurf的这场「被追求」之旅可不平静。 今年4月,传出OpenAI要以30亿美金收购Windsurf的消息。 这家公司可是AI编程领域的明星,做的软件能帮程序员写代码、自动化操作、审查代码。 据Cognition CEO Scott Wu周一给员工的邮件里说,Windsurf现在每年能赚8200万美金的稳定收入,客户包括350家企业和几十万日活跃用户。 但OpenAI的收购谈着谈着就卡住了,主要是因为OpenAI跟微软的合作关系。 按照协议,OpenAI得把Windsurf的技术共享给微软,这让Windsurf有点不爽。 几个月过去了,OpenAI的收购没什么进展,Windsurf的员工在全员会上追问高管,他们却啥也不说,搞得大家云里雾里。 雪上加霜的是,Windsurf又摊上事了。 他们的AI编程工具部分依赖Anthropic的模型,但6月份,Anthropic突然掐断了Windsurf的模型使用权限。 Anthropic自己也做编程工具,算是Windsurf的对手。 Windsurf的产品性能因此大打折扣。 Windsurf CEO在X上表示,他们通过其他方式绕道解决了模型问题,但成本涨了不少,运营也更复杂了。 有人觉得,跟Anthropic的矛盾加上Cursor这种资金雄厚的对手带来的竞争压力,Windsurf得找个大靠山,帮他们搞到更多芯片,开发自己的AI模型。 消失的员工 OpenAI最终没能成为Windsurf的「真命天子」。 据知情人透露,6月底,Windsurf开始跟谷歌谈合作。 因为担心OpenAI得跟微软共享技术,Windsurf直接叫停了跟OpenAI的谈判,顺便还跟Meta聊了聊。 谷歌动作很快,直接搞了个招聘加许可的协议,绕过了传统收购的麻烦审查。 据知情人说,Windsurf账上还有1亿多美元现金,投资人包括Greenoaks Capital、Kleiner Perkins和General Catalyst。 然而,没被邀请去酒店开会的Windsurf员工发现不对劲:办公室里好多工程师和研究员都不见了。 周五一早,Windsurf CEO便跟剩下员工开了会,宣布谷歌要挖走部分员工,还签了个许可协议支付了费用。 去谷歌的同事拿到了高薪+奖金,像是进了VIP通道;而留下来的人不仅被晾在了一边,而且未归属的股权也无法兑现。 更让人不安的是,公司走了这么多技术大牛,客户很可能会觉得Windsurf现在只是个空壳,不值得信任。 更好的未来 不过,故事还没完。 周五下午5点,「无缝」接手了这个烂摊子的新CEO Jeff Wang,开始马不停蹄地为公司剩下资产和员工谋求出路。 对此表现出浓厚兴趣的,不仅有红杉资本支持的AI软件开发公司Factory,还有开发出了首个AI程序员Devin的Cognition。 时间来到周一早上,Jeff Wang在慎重地权衡之后,决定跟Cognition签署协议。 如果说谷歌想要的是招揽人才与技术许可,那么Cognition的收获则远不止于此—— 他们得到的,不仅涵盖了Windsurf的全部知识产权、产品线、品牌、运营体系,还有工程、产品和市场推广团队。 随着Cognition的接手,Windsurf员工的未归属股权也得到了快速兑现。 不仅如此,Windsurf的产品也将继续独立运营。 难怪在新CEO在发给员工的邮件中这样说道:「Cognition是我们唯一怕过的对手,也是我们最佩服的团队,是带Windsurf走向下一阶段的最佳选择。」 Cognition老板Scott Wu在给员工的邮件里,热情欢迎新加入的Windsurf同事。 他写道:「每位新员工都会跟老员工一样,得到透明、公平的对待,我们非常尊重你们的能力和价值。从今天起,咱们就是一个团队,齐心协力往前冲!」
Manus“删博、裁员、跑路新加坡”后,创始人首次复盘经验教训
作者 林易 编辑 重点君 从全球爆火,到成功融资,再到被曝删博、裁员、跑路新加坡,Manus仅仅用了四个月,就把一条新兴赛道的创业演示了个遍。 有人认为Manus开了一个很坏的头,利用中国工程师资源打造产品,迅速融资,裁员跑路...... 在一片争议声中,今天凌晨,这家公司的联合创始人季逸超罕见发声,发布了长达数千字的博客,试图把舆论拉回到产品和技术本身,也第一次公开回应了这场起落背后的关键教训。 四个月从爆火到争议 我们先简单回顾一下。今年3月,Manus因“全球首个通用Agent”概念走红,当时有人说这是中国的“第二个DeepSeek时刻”。 5月,Manus很快完成由硅谷顶级风投Benchmark领投的7500万美元B轮融资,估值飙升至5亿美元。外界对它的一度期待极高。 但6月底,Manus突然被媒体曝出多起争议事件:部分员工称被无预警裁员、创始团队在社交平台上大规模删博、公司主体搬到新加坡,舆论哗然。 一时间,删博、裁员、跑路,成了这家明星Agent创业公司的主要标签。 联合创始人凌晨发长文 面对外界质疑,季逸超这次选择用一篇技术向的长文作答,首次系统总结了团队对Agent产品和技术的核心认知: 1、选择上下文工程,而非端到端自研大模型。Manus创始人上一家公司曾尝试从零训练NLP模型,结果被GPT-3等大模型淘汰。这次复盘后,他们选择不再自研底层模型,而是专注于如何基于开源或商业大模型,做“上下文工程”,把现有能力最大化发挥出来。 2、KV缓存命中率是代理系统的核心指标。多轮智能代理与单轮聊天不同,输入输出比可能高达100:1,长输入会极大影响延迟和推理成本。上下文设计的目标是最大化KV缓存命中率,这要求提示要稳定、上下文只追加不修改、保证前缀可重复利用。 3、工具管理避免动态增减,用遮蔽代替删除。代理功能多,动作空间会迅速扩大,模型更易选错。动态添加或删除工具会导致缓存失效。Manus的实践是用上下文状态机管理工具可用性:通过屏蔽Token概率,而非直接从上下文移除,既保证灵活性,又保留缓存。 4、把文件系统当作无限上下文。大模型上下文窗口再大也有限,且超长上下文会拉低推理速度、抬高成本。Manus做法是把文件系统当作代理的外部记忆,信息可随时存取,保证历史状态可查、可读写、可恢复。 5、用显式“背诵”机制操控模型注意力。在长任务中,Manus会自动生成todo.md,把任务拆解成可执行清单,并不断更新,把目标重复写到上下文末尾,相当于“反复提醒模型”,避免任务中途跑偏。 6、不抹掉错误,保留失败信息以帮助模型自我修正。智能体必然会出错,与其隐藏错误、重新开始,不如把失败信息留在上下文里,让模型“看到”失败路径,形成负面示例,从而减少同类错误。 7、一句话总结就是:上下文工程是一门新兴的实验科学,Manus想用上下文塑造代理的行为和能力:不是比拼模型多聪明,而是比拼怎么让模型更有用。 复盘之外,争议未平息 从这篇博客看得出,Manus并非完全是个“PPT项目”。它确实做了不少面向Agent场景的底层探索,也踩过不少坑。 但这篇长文没提到外界最关心的问题:公司为什么要搬去新加坡?国内被裁员工如何善后?等等。 这些问题,季逸超没有回答,博客里也没提。 季逸超在结尾写道:“智能代理的未来将由一个个情境逐步构建。精心设计每一个情境。” 当下的现实是,Manus是否还有机会把这些“情境”从技术文档带回真正的用户手里? 一切仍未有定论。 博文链接: https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus 以下为Manus 联合创始人季逸博客原文(由GPT翻译): 面向AI 代理的上下文工程:构建 Manus 的经验教训 2025 年 7 月 18 日 季逸超 在Manus 项目伊始,我和团队面临一个关键抉择:是使用开源基础模型训练一个端到端的代理模型,还是基于前沿模型的上下文学习能力构建代理? 回想我在自然语言处理领域的最初十年,我们没有这样的选择余地。在BERT 的远古时代(是的,已经七年了),模型必须经过微调并评估后才能迁移到新任务。即使当时的模型远小于如今的 LLMs,这一过程每次迭代往往也需数周。对于快速发展的应用,尤其是产品市场匹配前期,这样缓慢的反馈周期是致命的。这是我上一家创业公司的惨痛教训,当时我从零开始训练模型用于开放信息抽取和语义搜索。随后 GPT-3 和 Flan-T5 的出现,让我自研的模型一夜之间变得无关紧要。讽刺的是,正是这些模型开启了上下文学习的新纪元——也为我们开辟了一条全新的前进道路。 这个来之不易的教训让选择变得清晰:Manus 将押注于上下文工程。这使我们能够在数小时内发布改进,而不是数周,同时保持我们的产品与底层模型正交:如果模型进步是涨潮,我们希望 Manus 是船,而不是固定在海床上的柱子。 然而,上下文工程远非简单。这是一门实验科学——我们已经重建了四次代理框架,每次都是在发现了更好的上下文塑造方法之后。我们亲切地称这种手动的架构搜索、提示调整和经验猜测过程为“随机梯度下降”。它不优雅,但有效。 这篇文章分享了我们通过自己的“SGD”达到的局部最优解。如果你正在构建自己的 AI 代理,希望这些原则能帮助你更快收敛。 围绕KV 缓存设计 如果只能选择一个指标,我认为KV 缓存命中率是生产阶段 AI 代理最重要的指标。它直接影响延迟和成本。要理解原因,我们先看看典型代理的工作方式: 在接收到用户输入后,代理通过一系列工具调用来完成任务。在每次迭代中,模型根据当前上下文从预定义的动作空间中选择一个动作。然后在环境中执行该动作(例如Manus 的虚拟机沙箱),以产生观察结果。动作和观察结果被追加到上下文中,形成下一次迭代的输入。这个循环持续进行,直到任务完成。 正如你所想象的,上下文随着每一步增长,而输出——通常是结构化的函数调用——则相对较短。这使得预填充与解码之间的比例在代理中远远偏高,区别于聊天机器人。例如,在 Manus 中,平均输入与输出的Token比约为100:1。 幸运的是,具有相同前缀的上下文可以利用KV 缓存,这大大减少了首次生成标记时间(TTFT)和推理成本——无论你是使用自托管模型还是调用推理 API。这里的节省可不是小数目:以 Claude Sonnet 为例,缓存的输入标记费用为 0.30 美元/千标记,而未缓存的则为 3 美元/千标记——相差 10 倍。 从上下文工程的角度来看,提高KV 缓存命中率涉及几个关键做法: 保持提示前缀稳定。由于LLMs 的自回归特性,即使是单个标记的差异也会使该标记及其之后的缓存失效。一个常见错误是在系统提示开头包含时间戳——尤其是精确到秒的时间戳。虽然这样可以让模型告诉你当前时间,但也会大幅降低缓存命中率。 使你的上下文仅追加。避免修改之前的操作或观察。确保你的序列化是确定性的。许多编程语言和库在序列化JSON 对象时不保证键的顺序稳定,这可能会悄无声息地破坏缓存。 在需要时明确标记缓存断点。一些模型提供商或推理框架不支持自动增量前缀缓存,而是需要在上下文中手动插入缓存断点。设置这些断点时,应考虑缓存可能过期的情况,至少确保断点包含系统提示的结尾部分。 此外,如果你使用像vLLM 这样的框架自托管模型,确保启用了前缀/提示缓存,并且使用会话 ID 等技术在分布式工作节点间一致地路由请求。 遮蔽,而非移除 随着你的智能体功能不断增强,其动作空间自然变得更加复杂——简单来说,就是工具数量激增。最近 MCP 的流行更是火上浇油。如果允许用户自定义工具,相信我:总会有人将数百个神秘工具接入你精心策划的动作空间。结果,模型更可能选择错误的动作或走低效路径。简而言之,你的重装智能体反而变得更笨。 一种自然的反应是设计动态动作空间——或许使用类似 RAG 的方式按需加载工具。我们在 Manus 中也尝试过。但实验表明一个明确的规则:除非绝对必要,避免在迭代过程中动态添加或移除工具。主要有两个原因: 在大多数LLMs 中,工具定义在序列化后通常位于上下文的前部,通常在系统提示之前或之后。因此,任何更改都会使所有后续操作和观察的 KV 缓存失效。 当之前的操作和观察仍然引用当前上下文中不再定义的工具时,模型会感到困惑。如果没有受限解码,这通常会导致模式违规或幻觉操作。 为了解决这一问题,同时提升动作选择的效果,Manus 使用了一个上下文感知的状态机来管理工具的可用性。它不是移除工具,而是在解码过程中屏蔽Token的对数概率,以根据当前上下文防止(或强制)选择某些动作。 在实际操作中,大多数模型提供商和推理框架都支持某种形式的响应预填充,这使你可以在不修改工具定义的情况下限制动作空间。函数调用通常有三种模式(我们以NousResearch 的 Hermes 格式为例): 自动– 模型可以选择是否调用函数。通过仅预填回复前缀实现:<|im_start|>assistant 必需——模型必须调用一个函数,但选择不受限制。通过预填充到工具调用标记实现:<|im_start|>assistant 指定——模型必须从特定子集中调用函数。通过预填充到函数名开头实现:<|im_start|>assistant{"name": “browser_ 利用此方法,我们通过直接屏蔽标记的对数概率来限制动作选择。例如,当用户提供新输入时,Manus 必须立即回复,而不是执行动作。我们还特意设计了具有一致前缀的动作名称——例如,所有与浏览器相关的工具都以 browser_开头,命令行工具以 shell_开头。这使我们能够轻松确保代理在特定状态下仅从某一组工具中选择,而无需使用有状态的对数概率处理器。 这些设计有助于确保Manus 代理循环保持稳定——即使在模型驱动架构下也是如此。 将文件系统用作上下文 现代前沿的LLMs 现在提供 128K Token或更多的上下文窗口。但在现实世界的智能代理场景中,这通常不够,有时甚至成为负担。有三个常见的痛点: 观察内容可能非常庞大,尤其是当代理与网页或PDF 等非结构化数据交互时。很容易超出上下文限制。 即使窗口技术上支持,模型性能在超过某个上下文长度后往往会下降。 长输入代价高昂,即使使用前缀缓存也是如此。你仍然需要为传输和预填充每个标记付费。 为了解决这个问题,许多智能体系统实施了上下文截断或压缩策略。但过度压缩不可避免地导致信息丢失。问题是根本性的:智能体本质上必须基于所有先前状态来预测下一步动作——而你无法可靠地预测哪条观察在十步之后可能变得关键。从逻辑角度看,任何不可逆的压缩都存在风险。 这就是为什么我们将文件系统视为Manus 中的终极上下文:大小无限,天生持久,并且可以由智能体自身直接操作。模型学会按需写入和读取文件——不仅将文件系统用作存储,更作为结构化的外部记忆。 我们的压缩策略始终设计为可恢复的。例如,只要保留网址,网页内容就可以从上下文中删除;只要沙盒中仍有文档路径,文档内容也可以省略。这使得Manus 能够缩短上下文长度而不永久丢失信息。 在开发此功能时,我不禁想象,状态空间模型(SSM)要在具代理性的环境中有效工作需要什么条件。与 Transformer 不同,SSM 缺乏完全的注意力机制,难以处理长距离的向后依赖。但如果它们能掌握基于文件的记忆——将长期状态外部化而非保存在上下文中——那么它们的速度和效率可能会开启新一代代理。具代理性的 SSM 或许才是神经图灵机的真正继任者。 通过背诵操控注意力 如果你使用过Manus,可能会注意到一个有趣的现象:在处理复杂任务时,它倾向于创建一个 todo.md 文件,并随着任务的推进逐步更新,勾选已完成的事项。 这不仅仅是可爱的行为——这是一种有意操控注意力的机制。 Manus 中的一个典型任务平均需要大约 50 次工具调用。这是一个较长的循环——由于 Manus 依赖 LLMs 进行决策,因此在长上下文或复杂任务中,容易偏离主题或忘记之前的目标。 通过不断重写待办事项清单,Manus 将其目标反复写入上下文末尾。这将全局计划推入模型的近期注意力范围,避免了“中途丢失”问题,减少了目标不一致的情况。实际上,它利用自然语言来引导自身关注任务目标——无需特殊的架构改动。 保留错误信息 智能体会犯错。这不是漏洞——这是现实。语言模型会产生幻觉,环境会返回错误,外部工具会出现异常,意外的边缘情况时常发生。在多步骤任务中,失败不是例外;它是循环的一部分。 然而,一个常见的冲动是隐藏这些错误:清理痕迹,重试操作,或重置模型状态,寄希望于神奇的“温度”参数。这看起来更安全、更可控。但这付出了代价:抹去失败就抹去了证据。没有证据,模型就无法适应。 根据我们的经验,改善智能体行为的最有效方法之一看似简单:在上下文中保留错误的路径。当模型看到失败的操作及其产生的观察结果或堆栈跟踪时,它会隐式地更新内部信念。这会使其先验偏离类似的操作,从而减少重复同样错误的可能性。 事实上,我们认为错误恢复是衡量真正智能体行为的最明确指标之一。然而,在大多数学术研究和公开基准测试中,这一指标仍然被忽视,这些研究和测试通常侧重于理想条件下的任务成功率。 避免被少量示例限制 少量示例提示是提升LLM 输出的常用技巧。但在智能体系统中,它可能以微妙的方式适得其反。 语言模型擅长模仿;它们会复制上下文中的行为模式。如果你的上下文充满了类似的过去动作-观察对,模型往往会遵循这种模式,即使这已不再是最优选择。 在涉及重复决策或操作的任务中,这可能会带来危险。例如,在使用Manus 帮助审查一批 20 份简历时,代理经常陷入一种节奏——仅仅因为上下文中出现了类似内容,就重复执行相似的操作。这会导致偏离、过度泛化,甚至有时产生幻觉。 解决方法是增加多样性。Manus 在动作和观察中引入少量结构化的变化——不同的序列化模板、替代表达、顺序或格式上的细微噪声。这种受控的随机性有助于打破模式,调整模型的注意力。 换句话说,不要让少量示例把自己限制在固定模式中。上下文越统一,代理就越脆弱。 结论 上下文工程仍是一门新兴科学——但对于代理系统来说,它已经至关重要。模型可能变得更强大、更快速、更廉价,但再强的原始能力也无法替代记忆、环境和反馈的需求。你如何塑造上下文,最终决定了代理的行为:运行速度、恢复能力以及扩展范围。 在Manus,我们通过反复重写、走过死胡同以及在数百万用户中的实际测试,学到了这些经验。我们在这里分享的内容并非普遍真理,但这些是对我们有效的模式。如果它们能帮助你避免哪怕一次痛苦的迭代,那么这篇文章就达到了它的目的。 智能代理的未来将由一个个情境逐步构建。精心设计每一个情境。
柯达逆袭:CEO康坦扎如何重塑品牌
柯达曾在影像领域缔造出辉煌历史,一度成为摄影的代名词,却在数码时代陷入衰落并最终破产。而如今,这家公司已走上转型重生之路。 原文标题:《柯达的下一个时刻:CEO吉姆·康坦扎如何重塑品牌》 在20世纪80年代,柯达就是摄影的代名词。人们装进相机里的每一个胶卷筒上都印着醒目的红、黄、黑配色标签,那些装满双份相片的信封上,也都有那个标志性的“K”字标识。人们总会一张张仔细翻找,挑出最值得与亲友分享的瞬间。那时,所有值得纪念的时刻都被称为“柯达时刻”,这个品牌不仅融入了我们的日常生活,更在摄影市场中占据着主导地位。 如今,胶片相机已成过往时代的遗存。每个胶卷能拍的照片张数有限,而且必须等冲洗出来才能看到效果如何——这听起来简直古旧又过时。而对于柯达这个品牌本身,人们也很容易像对待泛美航空(Pan Am World Airways)和百视达(Blockbuster)那样,把它扔进“煊赫一时的过气公司”的垃圾堆。 然而柯达依然屹立,且活力不减。 这不仅仅体现在品牌授权业务上——那个经典的红黄“K”字标志还点缀在海外各类服饰及生活用品上,仅今年一季度就创收约400万美元。尽管高品质胶片与印刷业务仍是其支柱业务,但公司正依托核心技术优势开辟新赛道。CEO吉姆·康坦扎(Jim Continenza)表示,如今的柯达是一家专注于化学品、材料处理及制造的B2B企业,未来也同样如此。今年5月,公司宣布投资2000万美元在纽约罗切斯特新建工厂,生产制药行业用化学品。 康坦扎表示,“外界很难理解这样的转型,你没法再去赞助赛车了,那些光鲜的事情都与你无关了。你现在必须心无旁骛,专注于业务,聚焦客户需求、深挖技术优势、重构盈利模式,而之前这一切都严重失衡。” 柯达的转型是一场由内而外的自我重塑。虽然大多数企业无需经历柯达这般彻底的转型,但在康坦扎的领导下,这家公司证明了只要秉持正确理念,聚焦核心业务,即使绝境也能涅槃重生,因此其经历对许多公司仍不失借鉴意义。 历史回溯 1925年,乔治·伊士曼正在使用柯达相机进行拍摄。图片来源:BETTMANN ARCHIVE 伊士曼柯达公司的历史可追溯至1881年。当时,摄影爱好者乔治·伊士曼(George Eastman)与罗切斯特商人亨利·斯特朗(Henry Strong)合作,生产无需即时显影的感光玻璃版。1888年,伊士曼研制出首款胶片相机,旨在让摄影走进大众生活。 柯达始终扎根罗切斯特,在长达一个多世纪里持续引领摄影与胶片技术的创新。现任CEO康坦扎坦言,过去数十年,柯达曾占据这个市场超80%的份额——这种垄断地位不仅滋生了自满情绪,更形成了封闭僵化的企业文化。 进入20世纪90年代,数码摄影浪潮席卷而来。尽管柯达早期深度参与了数码技术的研发,却未能及时转型。随着营收断崖式下跌,公司尝试了各种策略——收购化工企业、进军数码相机制造、投资家用打印机市场——但最终仍于2012年依据美国《破产法》第十一章提出破产保护申请。 新任领导登场 柯达CEO吉姆·康坦扎。图片来源:KODAK 2013年,柯达仍处于破产期间,经验丰富的商业领袖康坦扎加入了柯达董事会,这位曾多次帮助其他企业扭亏为盈的老将打趣道:“我是随这个破产公司一起附送的赠品。”2019年他被任命执行董事长,2020年出任CEO。他表示,作为董事会成员,他对公司和股东都负有责任。 “董事会请我接手时,我责无旁贷,”他说,“况且公司陷入困境时,我也在任。……你不能因为身为董事就推脱说‘这不是我的错’,一旦加入董事会,当股东将信任托付给你时,你就要对股东负责。” 康坦扎还强调,决不能让柯达的员工因管理层(无论是现任还是前任)的决策失误而受苦。他指出,这些员工靠柯达养家糊口,而公司高管们即便在公司陷入困境时,也不太可能面临同样的财务困境。 破局之路 乔治·伊士曼1888年发明的首款柯达相机(左后)、折叠式相机、布朗尼盒式相机、傻瓜相机,以及1999年推出的数码相机(前中)。图片来源:SSPL/GETTY IMAGES 康坦扎说,让柯达重回正轨的思路很简单:公司亏钱,那就少花钱;消费者不想买你的产品,那就搞清楚他们真正想要什么;最后就是确保内部运营顺畅。 当然,实际情况远比这复杂,但康坦扎上任首日就看清了最大的问题。当他在公司剧院里面对千余名员工,向他们发问“柯达究竟是做什么的”时,竟无人能答。进一步了解后他发现,柯达最“擅长”的,竟是生产无人问津的产品。 2016年一个阴云密布的早晨,纽约州罗切斯特市伊士曼柯达全球总部大楼外景。图片来源:GETTY IMAGES 带着这样的发现,康坦扎开始重新审视柯达的核心竞争力,重视起一直以来被柯达忽视的消费者群体。 康坦扎称,一直以来,柯达都在不断创新突破,拥有超过27,000件专利,直到今天,柯达仍然积极活跃在创新领域。柯达也坚持投入和升级擅长的领域,胶片与商业印刷现在仍然是其最大的业务板块,2024财年占总收入的约72%。康坦扎不无自豪地表示,柯达的胶印版数码印刷技术无论是质量还是速度,在全球都是首屈一指,在美国也是独此一家。柯达仍坚持生产高质量胶片,如今它们仍在被顶级电影制作人使用。此外,柯达还为其他公司代工生产胶片,用于静态摄影、X光成像和视频拍摄等用途。 但柯达也开始拓宽化学品业务,不再局限于胶片涂布、相纸涂层、影像显影等用途。 如今,这些积累多年的专业技术也被应用到电动汽车及其他电池的涂层制造。此外,预计今年晚些时候投产的制药工厂,也将生产受美国FDA监管的诊断检测试剂。康坦扎表示,他发现柯达在涉足不过数年的制药领域,不仅具备所需的专业技术,还可为此类关键化学品打造本土供应来源。(他说,当初切入这一业务的动因,并不是如今的关税威胁,而是新冠疫情高峰期的供应链危机。) 除了寻找可以攀登的新领域,康坦扎还致力于逐步偿还公司的债务,并为公司重组引入更合适的融资安排。 康坦扎表示,在重振柯达的过程中,他最重视的企业价值观是敢于竞争——然后争取胜利。 “有两个选择,”康坦扎说。“你可以保守应对,尽量不花钱,苟延残喘12年,直到钱耗光,因为你怕花钱太猛,公司会倒得更快。或者你也可以把钱投进去,虽然可能会死得很快,但谁又能知道结果如何?至少你还能拼出一线生机。我永远会选择拼一把。” 聚焦领导力 1996年,位于罗切斯特的伊士曼柯达公司生产的一次性相机。图片来源:JAMES LEYNSE/CORBIS VIA GETTY IMAGES 让柯达起死回生的,不仅仅是康坦扎在业务层面上的专注,还有他对员工的态度。 他的任何决策背后都包含着对一线员工的尊重。康坦扎表示,他跑工厂的次数不下一百次,可能比去办公室的次数还多。他认为,让真正做事的员工明白“管理层是为他们服务的”,这也是为什么公司上下每个人都愿意为柯达努力工作。他说:“你不是来给员工增加障碍或者负担的,也不是来评判他们的。你的职责是支持他们。” 相比之下,柯达的领导层却没那么“神圣不可侵犯”。康坦扎表示,上任之初他换掉了大约80%的管理团队,目的是把精力集中在正确的事情上。部分资深员工得以留任,但也有一些没能留下。 康坦扎表示,那些留下来的人员彼此之间会直接交流。领导层会亲自参与季度业务评审会议,而不是派助理参加。他说:“你是否需要参加会议、是否需要在场,不取决于你的职级,而是看你的职能。” 康坦扎称,柯达虽然是一家上市公司,但行事更像一个家族企业。在柯达,无论你是什么职级,都可以对公司提出建议或不同意见。柯达不再有那种绝对的部门界限,不会有人说某些职能“不是我的工作”或“与我无关”。康坦扎还说,他给予员工足够的空间去完成自己的工作,即使失败,也不会苛责他们。 未来计划 图片来源:Nikos Pekiaridis/NurPhoto via Getty Images 康坦扎表示,今后,化学品、涂层和制药业务会在柯达的业务中慢慢占据更大比重,不过柯达不太可能完全放弃胶片和印刷业务,因为这是公司擅长且深受信赖的领域。 他说:“未来的柯达会看起来像一家先进材料和化工公司,不过也涉足印刷业务。” 康坦扎表示,柯达会继续偿还债务。为此,他期望公司在各个领域都持续增长,尤其是在制药化学品方面。他说,既然柯达已开始进入这一领域,就应充分利用投入的资金和正在建设的设施。 康坦扎称,他的底线就是柯达不倒闭。 “三年前,一位在柯达工作了将近50年的员工跟我说,‘吉姆,我走的时候,得把我的技术和经验传下去,但我没人可传。’这是我在柯达工作最快乐的一天,因为之前从来没人跟我说过这些,”康坦扎说。“他们一度觉得没有未来了,但现在,他们一直干到了退休,正忙着把毕生所学传授给补充进来的‘新血’。” 文:Megan Poinski 翻译:Lei&Rach 校对:Lemin
媒体称退货达40%,顺丰总裁王卫为雷军“带货”小米新款AI眼镜
快科技7月19日消息,近日,社交平台上有网友爆料称:有博主透露,顺丰总裁王卫佩戴小米新款 AI 眼镜现身。 将相关发布图片放大查看,能清晰看到顺丰总裁王卫确实佩戴着一副印有“xiaomi”字样的眼镜。 对此,有网友调侃称:王卫为雷军“带货咯”。 此前,在6月底,小米正式发布了AI眼镜。这款眼镜有三个版本,标准版售价 1999元,单色电致变色版售价2699元,彩色电致变色版售价2999元。 在配置方面,小米 AI 眼镜配备了 1200 万像素主摄,支持 2304x1728 高清录像,还具备 EIS 电子防抖功能,能够确保第一视角拍摄画面的稳定。 同时,它搭载了四麦克风阵列、骨传导麦克风以及开放式扬声器。 在硬件配置上,小米 AI 眼镜搭载了高通骁龙 AR1 芯片和 BES2700H 低功耗处理芯片,内置小米金沙江电池,号称典型续航时间可达 8.6 小时。 不过,小米AI眼镜上市后也面临着一些用户反馈的问题。 有媒体报道,一位购买了小米AI眼镜的用户在社交平台发文称,目前这款眼镜的拍照效果对光线要求较高。 在光线充足的情况下,画质尚可;但只要光线稍暗,画质就会变得很差,而且还会出现明显的抖动模糊现象。 此外,小米 AI 眼镜的续航能力也遭到部分用户诟病。 官方宣称其续航时间为 8 小时,视频录制一次官方建议时长为 10 分钟,但有消费者表示,实际使用中最多只能录制40分钟。 据行业媒体VR Vision统计,在抖音平台上,AI眼镜行业的平均退货率在 40% —50%之间,小米也未能避免这一情况,其在抖音平台的退货率大概达到 40%。
挑战谷歌霸主地位:Perplexity正洽谈在手机上预装AI浏览器
IT之家 7 月 19 日消息,英伟达投资的 AI 初创公司 Perplexity 正在对谷歌 Chrome 浏览器及其 AI 搜索引擎在移动市场中的垄断性地位发起挑战。 当地时间周五,其 CEO 阿拉文德・斯里尼瓦斯(Aravind Srinivas)向路透社透露,该公司正在与移动设备制造商(OEM)洽谈,希望能够在智能手机上预装其新推出的 Comet AI 移动浏览器。 斯里尼瓦斯表示,“说服移动 OEM 将默认浏览器从 Chrome 改为 Comet 并不容易”,他还强调了移动平台上用户惯性带来的挑战。 目前 Comet 浏览器仍处于 Beta 测试阶段,暂时仅适用于桌面设备,集成了自家 AI 助手,允许用户询问有关电子邮件、日历或浏览历史等个人数据的问题,甚至能执行安排会议、总结网页等任务。 斯里尼瓦斯表示,在为数十万初始测试者稳定桌面版本后,Perplexity 明年的目标是吸引“数千万到数亿”用户。 路透社本月早些时候报道,OpenAI 正在开发自己的 AI 智能体浏览器,可自动执行旅行订票、财务管理等复杂任务。 据 Statcounter 数据,截至上月,谷歌 Chrome 在移动设备中的市场份额约为 70%,苹果 Safari 与三星浏览器合计占比 24%。 彭博新闻 6 月曾报道,Perplexity 正在与三星电子、苹果谈判,计划将其 AI 搜索能力整合到两家公司的设备中,潜在增强 Bixby(三星)或 Siri(苹果)等语音助手功能。 Perplexity 今年早些时候完成了 5 亿美元(IT之家注:现汇率约合 35.92 亿元人民币)融资,估值达 140 亿美元(现汇率约合 1005.7 亿元人民币),其投资者包括 Accel、英伟达、杰夫・贝索斯(Jeff Bezos)及前谷歌 CEO 埃里克・施密特(Eric Schmidt)。
杨植麟摸着DeepSeek过河
文|邓咏仪 编辑|苏建勋 发布开源模型K2一周后,Kimi引起的全球热潮还在继续。 7月11日,月之暗面(Moonshot AI)开源了万亿参数的MoE模型Kimi K2。这是一个参数高达1T,激活参数32B的MoE模型,包括两款开源模型版本Kimi-Base和Kimi-instruct。 K2是个“偏科”选手,擅长编程、智能体类的任务。在Kimi公布的测评结果中,Kimi K2在自主编程、工具调用和数学推理三个维度的表现上,都超过了同为开源模型的DeepSeek-V3和阿里Qwen3。 Hugging Face数据显示,开源一周后,K2下载量累计超过10万,还在快速攀升中。在大模型权威竞技场LMSYS中,K2-Instruct已经冲到总榜第四,仅次于GPT-4o、Claude-3.5、Gemini-1.5-Pro。 马斯克在推特上转发了的OpenRouter趋势数据显示,K2的在一周内攀升至全球趋势榜第二,仅次于Grok 4。 △图源:Twitter 月之暗面这次没有选择大规模营销,而是在用一种全新的方式开源。 K2发布后,Kimi的算法工程师、研究员,在推特、小红书、知乎上积极分享K2的工作和技术,回复用户疑问;Kimi的官方推特也在不间断地刷屏,转发社区里对K2的赞美和建议。 热情的互动引来了更多的“自来水”。Hugging Face联合创始人Thomas Wolf就对Kimi K2大加赞赏,表示开源模型正在挑战最新的闭源权重模型。 发布热闹得像团建,与这家公司过去半年的沉默形成鲜明对比。 过去两年,Kimi经历了一场过山车般的起伏:几乎是最后一个推出ChatBot助手Kimi,但是凭借着长文本和出圈的策划一炮而红,成为最先出圈的大模型应用产品。 但2025年,几乎所有模型厂商,都被横空出世的DeepSeek打得失语。追逐AGI,证明自己还有技术实力,变成了所有厂商要做的证明题。 曾经拥有梦幻开端的Kimi,在今年来了个猛转弯:To C的Kimi应用停止投流,专心主攻模型。去年曾经试水的Ohai、Noisee等其他C端应用,以及Kimi在多模态上的尝试也迅速暂停。这也让它遭受的质疑更猛烈——是不是放弃了预训练?停止投流后,To C应用放弃了吗? 蛰伏半年,Kimi需要一场翻身仗。K2的发布,就是回归AGI主线的一种宣言。 “又一个DeepSeek时刻” K2发布,已经引起了全球开发者社区的震动。7月16日,著名的《Nature》杂志发文,表示K2的发布为“另一个DeepSeek时刻”,足见其赞美。 为什么K2的发布如此重要?简单来说,因为K2把DeepSeek模式再走了一遍:主打高性能、低成本,而且真开源。最重要的是,端出了真的好东西。 K2是个性能强悍的模型。它很专注,目标清晰——就是为了智能体(Agentic AI)而生。 一位Kimi的算法工程师Justin Wong在博客里说:Kimi希望把人与AI的交互方式,从chat-first变成artifact-first,即交付一个具体的交付物(比如一个3D模型、一个表格),而非交付一段聊天上下文。 用大白话说,就是要真能干活,不只是纯聊天了。 了解了这点,才能理解Kimi在模型训练路线上的诸多选择。 DeepSeek R1发布时,更多注重思考、推理能力,在发布后相当长一段时间才加入工具调用功能。而K2并没有像DeepSeek R1那样带上推理模式(如展现思考过程),虽然也着重提升了风格化写作能力,但并没有过多强调。 K2最看重的还是Agentic(智能体)能力,把提升“自主使用工具、完成任务”的能力,放到最高优先级。“这在整个领域里是一个非常罕见的选择。”一位从业者评论道。 更具体地说,K2把优化的重点放在了:根据聊天的上下文,调用外部的工具,要让调用速度更快,完成任务的质量更高——比如浏览器、PPT、Excel、3D绘画软件等等。用户也可以接入owl、Cline、RooCode 等 Agent/Coding 框架,来自主编程。 所以,在K2的使用案例中,你可以看到,直接输入Prompt,不用怎么等K2“思考”,K2就迅速生成3D旋转地球模型、生成PPT、生成昼夜循环的山川峡谷3D景观、3D粒子星系、交易看盘等等。 △Prompt: Create a 3D HTML mountain scene with cliffs, rivers, and day-night lighting. Supports drag/zoom, animated transitions, realistic gradients, and toggleable contour lines... (创建一个 3D HTML 山脉场景,包含悬崖、河流和昼夜光照变化。支持拖动和缩放、动画过渡、真实感渐变色,并可切换等高线显示...) 来源:Kimi 把13万行的原始数据丢给 Kimi K2,可以帮你分析远程办公比例对薪资的影响,分析显著差异,自动生成统计图表与回归模型解读等等,用统一色调做出小提琴图(violin plot) 、箱线图(box plot)、散点图(scatter plot)等专业图表,整理成报告。 △来源:Kimi K2的另一个核心贡献在于,把模型的训练和使用成本又拉到了一个地板价,同时还保持着接近Claude主流模型的性能,主打一个性价比高。 Kimi K2 API的定价是:每百万输入tokens 4元,每百万输出tokens 16元;直接和同样主打编程的Claude 4 Sonnet(每百万输入3美元,每百万输出15美元)的API价格相比,整体成本可以下降超过75%。 别小看这75%,如今AI编程已经成为创业赛道的“明牌”,赛道里包括Cursor等头部AI编程公司估值已经迅速起飞。截至2025年6月,Cursor的ARR(年度经常性收入)已突破5亿美元大关,相较于4月中旬披露的3亿美元,短短两个月内飙升了60%。 开发者会实实在在用脚投票。K2一出,Hugging Face的下载量涨得飞快,K2很快就登上了OpenRouter的趋势榜周第二,开发者频频吐槽为什么API还这么慢,用不上。 K2现在并不完美,输出的结果还是会有不足之处,比如Token输出比较啰嗦,代码质量和顶尖的Claude相比还是有差距——但架不住它性价比高。很多博主的测试案例中,普通程序员写一天代码也就几块钱,大大降低了AI编程的算力使用门槛。 性价比高,也源于Kimi一些原创性的创新。 Kimi从训练阶段引入了新的优化器Muon,取代了原来主流的AdamW优化器,在不同Llama架构模型上,Muon的算力需求只有AdamW的52%。 优化器是大模型里的一个核心组件,决定着在训练时的模型参数如何调整。优化器优化得越好,模型在同样的硬件环境下跑得更快、更稳,换种角度说,也更节省了算力。 这可以说是一场技术冒险。Muon原本是一个比较前沿的优化器方向,甚至没有发表正式论文,以前只在小型模型上训练成功过。但Kimi选择将Muon扩大到万亿参数去尝试,并且解决了大规模训练下的很多技术难点,让Muon成为这次K2发布最受尊重的工作之一。 在公司门口放钢琴、公司名字用传奇摇滚专辑命名,这看起来是很朋克。但在巨大的市场压力下,专注在一个方向,把一个新技术架构直接上到万亿参数去训练,用真金白银去试,还成功了。 这才是真的朋克。 六小龙没有回头路 从K2发布的细节看,DeepSeek在全球造成的影响仍在持续。 今年1月发布的DeepSeek R1是全球AI叙事的分水岭。在那之前,国内无论是大厂,还是AI初创,大家都在卷AI应用,抢夺用户和留存。 Kimi曾经在2024年做过一波激进投流,和字节的豆包对打。但投流、增长是在大厂舒适区里的事情,Kimi很快就显得力不从心。2024年11月,豆包宣布MAU过亿,在国内一时风头无两。 很快,这些成果都被DeepSeek R1迅速超越。 DeepSeek之后,无论是大厂还是初创,大家都形成共识:追求模型能力提升才是最重要的事。国内To C应用的战场上,几乎就剩下元宝、夸克和豆包在厮杀。 如今商业化已经是个有点遥远,且不是最重要的问题了。面对在模型和应用上都在All in的大厂,留给大模型初创的路几乎只有一条:开源,和攻克最难的问题。 前不久的36氪Waves大会上,真格基金合伙人戴雨森在谈到Kimi与Minimax时曾说: “一年前,大家比投放、比用户,比投放,其实是大厂的机会。现在则回到技术前沿,回到强认知,我相信反而更适合以技术大牛为核心的创业团队。 ” 六小龙们都做出了自己的选择。DeepSeek R1的冲击后,各家呈上的答卷,实则表明了一种路线的分野:Kimi已经有点像Anthropic,主打提升编程、智能体的能力;Minimax和阶跃牢牢抓紧多模态;智谱则是走更本土、To B/To G的路线;百川选择继续做医疗模型;01早已宣布不再做超大基础模型迭代,转而专注在大模型落地上。 此前,Kimi在海外知名度有限,但K2的爆火已经带来实在的回报:全球开发者圈子里开始关注起Kimi,有人开始研究CEO杨植麟的过往经历。开发者们喜欢这个充满朋克文化的团队——Kimi团队成员在小红书、推特展示公司里以传奇乐队命名的会议室,也会在Twitter坦承“现在K2还不完美,infra还有很多不足,正在加班加点修复。” △来源:Twitter 而更早之前,在Kimi专注提升模型能力,推出包括深度研究等产品后,其实也反哺到了产品上:Kimi的Web端数据从6月开始反弹,访问量环比增长30%。 某种程度上,开源和朋克有着同样的精神内核,自由、开放、尊重技术,这是现在AI圈子里最强势的"注意力货币",不仅能建立名声、展现信仰,还有招揽人才——这才是AI初创现在最着急的事。 K2发布后,一位Kimi研究员曾经在博客里提到:“ 2025年,智能的上限仍然完全由模型决定,作为一家以AGI为目标的公司,如果不去追求智能的上限,那我一天也不会多呆下去。” 追求AGI看似是一条窄路,对还在这条路上的初创公司而言,还是一条康庄大道。 只要足够专注。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。