分享
别再卷Prompt了!这才是Al Agent落地的真正瓶颈
输入“/”快速插入内容
别再卷Prompt了!这才是Al Agent落地的真正瓶颈
用户4242
用户4242
用户4389
用户4389
2025年8月19日修改
🔗 原文链接:
https://mp.weixin.qq.com/s/tZuNAAfy...
原创 喜欢萨摩耶的Evan 星空拾荒
2025年08月02日 13:43 广东
AI Agent的真正瓶颈:不是Prompt,而是Context Engineering
当 Shopify CEO Tobi Lutke在x上发出这条推文时,或许他自己也没想到,这短短一句话会迅速点燃AI技术圈对Context Engineering的讨论热潮。
紧接着,前OpenAI核心成员Andrej Karpathy第一时间转发并附议,
认为为任务提供所有上下文的艺术将引领LLM能力的进一步提升。
随着LLM性能的进步,人们不再需要为了想出一个像咒语一样的prompt而绞尽脑汁了。
但是,随着Agent的发展和任务场景的高度复杂化,如何把正确的信息给到LLM,已经不再是一件显而易见的事情。我们的挑战逐渐从“
如何写好一个prompt
”,升级成为了“
如何为Agent的每一步,动态组装一个正确、完整且高效的Context
”。
为什么我们需要Context Engineering
随着Agent的发展,人们利用AI构建的东西已经逐渐从两三年前的Demo,逐步进化到真正落地到生产环境的产品,这对AI应用的稳定性提出了更高的要求。
但是,Agent的本质,利用的是LLM本身的动态规划和决策能力,自动规划任务,自动调用工具,自动读取记忆,最终一步步完成任务。
然而,这种运行模式,很难直接拿到企业生产环境中稳定运行。
国外的一个著名开发工程师Dex Horthy描述,当前LLM的工具调用在连续运行10~20轮次之后一般就会进入非常混乱的状态,导致LLM再也无法从中恢复。
Dex Horthy质疑道,
即使你通过努力调试让你的Agent在90%的情况下都运行正确,这还是远远达不到“足以交付给客户使用”的标准
。而这10%的崩溃情况,大部分都能归结到系统送给LLM的上下文不够准确。
所以说,
Context Engineering背景是,AI技术落地已经进入了一个非常专业化的时代
,我们需要非常精细地把控我们输入给LLM的东西,使它可以长期稳定的运行,适配生产环境的需要。
Prompt Engineering vs Context Engineering