分享
2025 上下文工程最新进展深度解析(2):Peak Ji 分享 Manus最新的上下文工程经验
输入“/”快速插入内容
2025 上下文工程最新进展深度解析(2):Peak Ji 分享 Manus最新的上下文工程经验
用户4242
用户4242
2025年10月16日修改
🔗 原文链接:
https://mp.weixin.qq.com/s/-MJJbc44...
原创 Brad强 一支烟花AI
2025年10月16日 16:42 上海
Context Engineering for AI Agents
PEAK JI · MANUS.IM
LESSONS FROM BUILDING MANUS
Manus的上下文工程
Peak Ji 之前在 25 年 7 月份分享的内容:
🔗
https://manus.im/zh-cn/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus
下面的内容是Peak 25年10月分享的内容:
我非常激动今天能在这里分享一些我们从构建Manus中学到的关于上下文工程的新鲜经验。
我之所以说“新鲜经验”,是因为我意识到我上一篇关于上下文工程的博客文章是在七月份写的,而今年是“智能体之年”,所以七月基本上是上个世纪的事了。
当然,在这次会议之前,我又回去读了一遍,幸运的是,我认为我在那篇博客中写的大部分内容今天仍然适用。但我不想浪费大家的时间,只是重复博客里已经有的内容。
所以今天,我想深入探讨一些我之前没有深入或者完全没有涉及的领域。实际上,我们将重点关注Lance之前幻灯片中“不鼓励”的那一栏,
因为我个人认为,探索那些非共识的想法往往能带来最大的启发。
为什么需要上下文工程?
我今天分享的一切都已经在Manus的生产环境中得到了实战检验,但我不知道它能持续多久,因为事情变化得太快了。尤其是在今天,微调或后训练模型已经变得更加容易。
例如,思考机器团队(Thinking Machine team)刚刚发布了Tinker API,我非常喜欢它的设计。
但对我来说,“为什么需要上下文工程”这个问题实际上是经过了几个痛苦的认识阶段才得出的。
在创办Manus之前,我已经在自然语言处理(NLP)领域工作了十多年,这基本上就是我们所说的构建语言模型,但在ChatGPT之前。
Manus实际上是我的第二或第三家公司。
在我之前的创业公司,我们从头开始训练自己的语言模型,用于开放领域信息提取,并在此基础上构建知识图谱和语义搜索引擎。
那段经历非常痛苦。
我们产品的创新速度完全受限于模型的迭代速度。
你知道,即使在当时,模型比现在小得多,但一个单一的训练加评估周期可能需要一到两周。
最糟糕的是,那时我们还没有达到产品市场契合(PMF),却把所有时间都花在改进那些可能对产品根本不重要的基准测试上。
所以我认为,初创公司真的应该尽可能长时间地依赖通用模型和上下文工程,而不是过早地构建专门的模型。当然,我想现在这已经成为某种共识了。
但随着你的产品成熟和开源基础模型变得更强大,
我知道你很可能会想:
“嘿,也许我应该选择一个强大的基础模型,用我的数据进行微调,让它在我的用例中表现得非常好。”
我们也尝试过,结果发现这是另一个陷阱。