Manus近期撤出中国市场、清空国内社交账号内容,全力转战海外市场,官方解释原因主要基于经营效率的调整及国际化布局。北京时间7月19日,Manus联合创始人季逸超发布技术博客,首度从技术角度做出回应,总结创业以来在Agent研发与训练方面的经验教训。
单从技术层面来看,季逸超表示Manus会侧重押注上下文(Context)工程,借助构造“记忆”与流程实现产品快速迭代。主要包括押注上下文、不再训练模型,强调KV-Cache(Key-Value Cache,一种缓存机制)命中率意义,不动态添加工具,以及用文件系统承载持久上下文等方面。核心即节省底层模型训练成本,侧重训练效率的提高。
上下文在大模型中通常指模型在处理任务或生成输出内容时所参考的信息集合,能够帮助模型增强理解能力、提高任务性能、增强输出连贯性。此前月之暗面Kimi创始人杨植麟在采访中强调过上下文的重要性,他称,Ai-native(由AI定义产品形态)产品的终极价值在于提供个性化交互,而无损长上下文(LosslessLongContext)是达成这一目标的关键。他判断模型的微调长期来看不应存在,用户与模型的交互历史就是最好的个性化过程,而长上下文技术能更好地记录和利用这些交互历史。
另外,KV-Cache命中率至关重要,主要是因为高命中率可以提高推理效率,优化资源利用率,降低计算成本。也正基于此,KV-Cache常被称为Transformer模型推理阶段的效率核心。
选择从上述各方面提高训练效率,而非从底层模型开始投入,是季逸超过往多年总结的教训。他称,创业上一家公司(Peak Labs)时,团队决定从头开始为开放信息提取和语义搜索训练模型,但之后不久,OpenAI的GPT-3与Google的Flan-T5模型出现了,团队从头研发的内部模型一夜之间变得无关紧要。“讽刺的是,这些模型标志着上下文学习的开始,以及一条全新的前进道路。”季逸超称。
基于此前教训,创业Manus后,团队不再投入基座模型研发,而是从使用开源基础模型训练端到端Agent,与基于前沿模型上下文学习能力构建Agent两个选项中进行选择。虽然Peak Labs的教训令Manus团队意识到上下文的重要性,但这并不容易,经历过四次Agent框架调整才实现局部最优解。
但需注意的是,该策略仍存在局限,尤其在面对类似OpenAI刚发布的ChatGPT Agent时。核心原因在于ChatGPT Agent依托OpenAI专用模型,采用端到端训练,可以更好地处理复杂任务,而Manus虽然可以提高效率,但仍依赖外部多模型组合与工程优化,在任务执行连贯性与准确性上稍逊一筹。
另外,在Manus转战国际市场的节点,OpenAI凭借底层模型优势将Agent行业带入拐点,吸引更多开发者与用户至大厂平台,虽然创业公司在垂直领域具备生存空间,但仍不可避免地面临市场份额被争夺的挑战。尤其在当下Agent类产品存在同质化严重、商业模式不明、成本高企等困境时,上下文工程等方面的亮点不足以让创业公司跳脱出来,团队仍需持续优化技术策略,探索差异化发展路径。
举报 第一财经广告合作,请点击这里此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。如需获得授权请联系第一财经版权部:banquan@yicai.com 文章作者吕倩
相关阅读头部厂商下场虽然带来更明确的方向,但也令行业迈入关键性十字路口。
9 57 昨天 15:18Manus的海外之路从一开始就踩在了合规的钢丝上。
120 07-16 15:03OpenAI、谷歌、微软、Anthropic多方利益竞争下,Windsurf终被拆分收购。
66 07-15 19:11马斯克在直播中表示,Grok 4几乎在所有学科上都比人类研究生更聪明 。
181 07-13 09:05快手开源"Auto Think"大模型;OpenAI向ChatGPT免费用户开放记忆功能;“AI教父”本吉奥宣布开发“科学家AI”系统。
49 06-04 20:58 一财最热 点击关闭上阳网-股票配资开户网-实盘股票配资平台-股市资金杠杆提示:文章来自网络,不代表本站观点。