随着大语言模型能力的不断提升,传统的提示工程方法正在演进。如今,模型通过工具使用展现出更丰富的“内部独白”,从而实现推理并采取行动。这一转变催生了智能体(agents),使其能够自主追求目标。复杂性已从提示本身转移到模型的推理过程,借助终端等工具来完成任务。然而,这也引发了对控制与安全性的担忧,需要在自由度与约束之间取得平衡。影响智能体决策的主要因素并非行为脚本的设计,而是其运行环境的构建。对于长期运行的智能体,管理其不断扩展的上下文窗口至关重要,这需要“上下文工程”。这与提示工程形成对比:后者侧重于优化初始提示,而前者则为智能体提供指导与信息访问支持。智能体的体验——尤其是工具的可用性与信息结构——变得尤为关键。例如,Andrew Ng 提出的 Context Hub 等工具,通过本地与共享的反馈循环促进智能体的自我改进。这一演进要求我们在为人类和 AI 智能体构建界面时,给予审慎的考量。
dev.to
From prompt engineering to agent experience
