06Harness 工程——Harness Engineering

alex
3
2026-03-31

一、Harness Engineering(驾驭工程)

AI 模型已经能写出 100 万行代码。真正的挑战不再是"让它写得更好",而是怎么驾驭它稳定、可靠、不失控地工作。这套围绕 AI 智能体构建约束、反馈与控制系统的方法论,或者说是在模型之外,给 Agent 搭建一整套“可读、可控、可验证、可恢复”的运行环境就是 2026 年初迅速席卷工程圈的新范式——Harness Engineering(驾驭工程)

agent = Model + Harness

二、为什么最近(2025-2026)突然火了?

驱动力

说明

案例

Agent 爆发

AI 开始操作电脑、调用 API、执行代码

Agent 误删数据库 → 需要操作护栏

法规合规

欧盟 AI 法案等要求企业必须可控

金融客服不能输出投资建议

成本优化

重训练百万美元 vs Harness 几千行代码

用护栏替代微调

生产级要求

从 Demo 到产品,容错率从 50% 降到 99.9%

医疗、法律场景零容忍


三、为什么需要驾驭工程?真实数据说话

一、

LangChain 的案例尤其有说服力:底层模型一个参数都没动,仅仅通过优化外部驾驭环境(文档结构、验证回路、追踪系统),编码 Agent 在 Terminal Bench 2.0 的得分从 52.8% 飙升至 66.5%,全球排名从第 30 位跃升至第 5 位。

五个独立团队也得出了相同结论:瓶颈不在模型智能,而在基础设施。

二、核心概念拆解(配图建议:三层架构图)

建议用一张图展示以下三层:

text

用户输入
   ↓
【Harness 层】
├── 输入护栏(安全检查、防注入)
├── 语义护栏(防跑题)
├── 操作护栏(工具调用审批)
├── 格式护栏(强制 JSON/YAML)
└── 输出护栏(幻觉检测、敏感词过滤)
   ↓
【大模型】(黑盒,不可控)
   ↓
【Harness 层】(再次检查)
   ↓
安全输出 → 用户/系统

重点解释两个关键原则:

  1. 不要试图重新训练模型(太贵、太慢、太难),要在模型外面做文章。

  2. 确定性代码约束不确定性 AI(用 Python/Pydantic 写死的逻辑来约束 LLM 的自由发挥)。

四、AI 工程范式的三次跃迁

要理解驾驭工程为何重要,需要先看清楚我们是怎么一步步走到这里的。

范式

核心问题

优化对象

交互模式

提示词工程

怎么把话说清楚

Prompt 的措辞、格式、示例

一问一答

上下文工程

怎么给 AI 喂信息

文档、代码片段、历史对话

信息注入 → 生成

驾驭工程

怎么让 Agent 可靠工作

约束、反馈回路、控制系统

人类掌舵,Agent 执行

一个好记的类比:

  • Prompt Engineering —— 对马喊话的技巧

  • Context Engineering —— 给马看的地图

  • Harness Engineering —— 给马造一条高速公路,配上护栏、限速牌和加油站

五、Agent 常见失败模式

Anthropic 工程师在长时间运行 Agent 的过程中,总结了三种典型的"翻车"姿势,正是驾驭工程要解决的核心痛点:

失败模式 1:试图一步到位(One-shotting)

Agent 倾向于在一个会话里把所有功能都做完。结果是上下文窗口耗尽,留下一堆没有文档的半成品代码,下一个会话启动时只能花大量时间猜测之前发生了什么。

失败模式 2:过早宣布胜利

在项目后期,当部分功能已经完成后,Agent 会环顾四周,看到已有进展就直接宣布任务完成——即使还有大量功能未实现。

失败模式 3:过早标记功能完成

在没有明确提示的情况下,Agent 写完代码就标记为"完成",却没有做端到端测试。单元测试或 curl 命令通过了不代表功能真正可用。

此外,智能体还有一个危险特性:它非常擅长模式复制。代码库里有什么模式,它就忠实地复制并放大——包括坏模式和架构漂移。这意味着不加约束的 Agent 会以惊人的速度积累技术债务。

六、Harness 包含哪些组件?

理解 Harness 的最好方式,不是直接看它包含什么,而是看模型做不到什么。不管大模型看起来多能干,本质就是一个文本(或图像、音频)进、文本出的函数。

模型做不到的,就是 Harness 要补的:

模型做不到

Harness 怎么补

核心组件

记住多轮对话历史

维护对话历史,每次请求时拼进上下文

记忆系统

执行代码、跑命令

提供 Bash + 代码执行环境

通用执行环境

获取实时信息(新库版本、API 变化)

Web Search、MCP 工具

外部知识获取

操作文件和环境

文件系统抽象 + Git 版本控制

文件系统

知道自己做对了没有

沙箱环境 + 测试工具 + 浏览器自动化

验证闭环

在长任务中保持连贯

上下文压缩、记忆文件、进度追踪

上下文管理

把这些“模型做不了但你希望 Agent 能做到”的事情一个个补上,就得到了 Harness 的核心组件。LangChain 把这件事拆解为五个子系统:文件系统(持久化)、Bash 执行(通用工具)、沙箱环境(安全隔离)、记忆机制(跨会话积累)、上下文压缩(对抗衰减)。

⭐️ 一个成熟的 Harness 长什么样?

上面对组件的理解是“缺什么补什么”的思路。但如果从系统设计的角度看,一个成熟的 Harness 其实有清晰的层次结构。

我在 YouTube 上看到过一个六层体系的分享,觉得这个框架把 Harness 的全貌描绘得比较完整:


层级

名称

解决什么问题

关键设计

L1

信息边界层

Agent 该知道什么、不该知道什么

定义角色与目标,裁剪无关信息,结构化组织任务状态

L2

工具系统层

Agent 怎么跟外部世界交互

工具的选拔、调用时机、结果的提炼与反馈

L3

执行编排层

多步骤任务怎么串起来

让模型像人一样走完“理解目标→判断信息→分析→生成→检查”的完整轨道

L4

记忆与状态层

长任务中间结果怎么管

独立管理当前任务状态、中间产物和长期记忆,防止系统混乱

L5

评估与观测层

Agent 怎么知道自己做对了没有

建立独立于生成过程的验证机制,让 Agent 具备“自知之明”

L6

约束、校验与恢复层

出错了怎么办

预设规则拦截错误,失败时(API 超时、格式混乱)提供重试或回滚机制

可以类比成给一个新手员工搭建的完整工作环境。L1 是岗位说明书(告诉 ta 该关注什么),L2 是办公工具(给 ta 用什么干活),L3 是标准操作流程(按什么步骤做事),L4 是项目管理系统和笔记本(怎么记住做过的事),L5 是质检流程(怎么检验做对了没有),L6 是红线规则和应急预案(什么事绝对不能做、出了事怎么补救)。

这个六层架构最大的价值在于——它不是简单的功能堆叠,而是一个从“定义边界”到“兜底恢复”的完整闭环。附录中一线团队的实践也印证了这一点:他们的做法都可以映射到这六层里。

⚠️ 注意:不要试图一开始就搭齐六层。从 L1(信息边界)和 L6(约束与恢复)入手,这两层投入产出比最高。L1 决定了 Agent 知道该干什么,L6 决定了它搞砸了能不能拉回来。中间的层次随着项目复杂度增长逐步补齐。

为什么瓶颈不在模型而在 Harness?

说实话,第一次看到这个结论的时候我也觉得反直觉——不是应该等更强的模型出来就好了吗?但数据确实不支持这个想法。OpenAI、Anthropic、Stripe、LangChain、Can.ac 的实验数据指向同一个结论:基础设施才是瓶颈,而非智能水平。

🐛 常见误区:很多团队一遇到 Agent 表现不好,第一反应是“换更强的模型”或“调整提示词”。但 Can.ac 的实验证明,同一模型只换了工具调用格式,效果就能差十倍。瓶颈大概率不在模型智能水平,而在 Harness 的基础设施质量。

LangChain 那边也印证了这个结论:他们优化了 Agent 运行环境(文档组织方式、验证回路、追踪系统),在 Terminal Bench 2.0 上从全球第 30 名升到第 5 名,得分从 52.8% 提升到 66.5%。模型没换,Harness 换了。

📌 一个值得注意的发现

LangChain 还指出了一个 model-harness 耦合问题——当前的 Agent 产品(如 Claude Code、Codex)是模型和 Harness 一起训练的,这导致一种过拟合:换了工具逻辑后模型表现会变差

他们在 Terminal Bench 2.0 排行榜上观察到,Opus 在 Claude Code 中的 Harness 下的得分,远低于它在其他 Harness 中的得分。结论是:"the best harness for your task is not necessarily the one a model was post-trained with"——为你的任务选择 Harness 时,不要被模型的默认 Harness 束缚。

⭐️ 为什么上下文喂越多,Agent 反而越蠢?

Dex Horthy 观察到一个现象:168K token 的上下文窗口,用到大约 40% 的时候,Agent 的输出质量就开始明显下降。

📌 一个值得注意的发现

LangChain 还指出了一个 model-harness 耦合问题——当前的 Agent 产品(如 Claude Code、Codex)是模型和 Harness 一起训练的,这导致一种过拟合:换了工具逻辑后模型表现会变差

他们在 Terminal Bench 2.0 排行榜上观察到,Opus 在 Claude Code 中的 Harness 下的得分,远低于它在其他 Harness 中的得分。结论是:"the best harness for your task is not necessarily the one a model was post-trained with"——为你的任务选择 Harness 时,不要被模型的默认 Harness 束缚。

⭐️ 为什么上下文喂越多,Agent 反而越蠢?

Dex Horthy 观察到一个现象:168K token 的上下文窗口,用到大约 40% 的时候,Agent 的输出质量就开始明显下降。


区间

占比

表现

Smart Zone

0 - ~40%

推理聚焦、工具调用准确、代码质量高

Dumb Zone

超过 ~40%

幻觉增多、兜圈子、格式混乱、低质量代码

Anthropic 在自己的实践中也碰到了类似的问题,他们叫“上下文焦虑”:Sonnet 4.5 在上下文快填满时会变得犹豫,倾向于提前收工——哪怕任务还没做完。光靠压缩不够,他们最终的做法是直接清空上下文窗口,但通过结构化的交接文档把关键状态留下来(详见附录中 Anthropic 的 context resets 策略)。

你的目标不是给 Agent 塞更多信息,而是让它在任何时候都运行在干净、相关的上下文里。一线团队的实践都围绕着“渐进式披露”和“分层管理”在做,背后的原因就是这个 40% 阈值。

⚠️ 工程视角:在生产环境中监控上下文利用率是第一优先级。建议设置 40% 阈值告警——当 Agent 的上下文占用超过这个比例时,就应该触发上下文压缩或任务交接。等到 Agent 已经变蠢了再处理就晚了。

⭐️ 如果你要开始搭 Harness,应该从哪里入手?

综合一线团队的实践经验(详见附录),梳理了一个按优先级的行动路线。你不需要一开始就把所有东西都搞齐,先把 P0 做了效果就会很明显。

七、六大行业共识

综合 OpenAI、Anthropic、LangChain、Stripe、HashiCorp 等多个独立信息源,业界在以下六个方面已形成明确共识:

共识

核心观点

瓶颈在基础设施,不在模型智能

五个独立团队得出相同结论。仅改变 Harness 工具格式,就能让模型得分从 6.7% 跳到 68.3%

文档必须是活的反馈循环

静态文档是坟场,动态文档才有价值。让后台 Agent 定期清理过时文档并提交 PR

思考与执行分离

复杂任务不可能在单个上下文窗口内完成,需要 Orchestrator + Worker 分层架构,状态持久化到外部存储

上下文不是越多越好

上下文是稀缺资源。巨大的指令文件会挤掉任务空间,应按需检索、动态注入

约束必须自动化

人工 Review 是瓶颈。护栏要编码为 Linter、CI、类型系统,让机器来执行而非人

工程师角色在转变

从"代码的编写者"变成"环境的建筑师"。最大的工程挑战是设计让 Agent 可靠工作的控制系统


八、Harness 与传统框架的关系

Harness 不是 SDK、脚手架或 Agent 框架的替代品,而是位于它们之上的一层

传统框架解决的是"如何构建 AI 智能体",而驾驭层解决的是完全不同的问题:"智能体如何可靠地运行"

模型正在逐渐吸收框架约 80% 的功能(智能体定义、消息路由、任务生命周期……),但剩余 20%——持久化、确定性重放、成本控制、可观测性、错误恢复——正是驾驭层存在的价值。

总结

Harness Engineering 不是某一家公司的实验,而是整个行业正在经历的范式转移,是让大模型从“玩具”变成“工具”的必经之路。

Birgitta Böckeler 的总结最为精辟:

"为了获得更高的 AI 自主性,运行时必须受到更严格的约束。增加信任需要的不是更多自由,而是更多限制。"

就像高速公路上的护栏——正是因为有护栏,你才敢踩到 120 码。

核心组件

解决的问题

代表实践

上下文工程 Context

Agent 不知道该看什么、怎么找

AGENTS.md 活文档、按需检索

架构约束 Constraints

Agent 复制并放大坏模式

分层依赖、自定义 Linter、CI 强制阻断

反馈循环 Feedback

Agent 不知道自己做错了

Agent-to-Agent Review、自动测试套件

熵管理 Entropy

技术债务和文档腐烂

Doc-gardening Agent、持续垃圾回收

软件开发的未来,可能不再是关于"我们能写多快多好的代码",而是关于"我们能设计多聪明、多鲁棒的系统来驾驭 AI 代理的巨大能量"。工程师的价值正在从执行者转变为赋能者和系统思考者——从"构建产品"转向"构建能够构建产品的工厂"。

未来 1-2 年的趋势:

  • Harness 即服务(API 化)

  • 自适应护栏(AI 动态调整严格程度)

  • 与可观测性深度集成

给读者的行动建议:

  1. 今天就用 Pydantic 给你的 AI 函数加一层输出校验。

  2. 关注 NeMo Guardrails 或 Guardrails AI 的官方文档。

  3. 在你的下一个 AI 项目中,先设计 Harness,再写 Prompt。

案例解释

一个真实的“翻车”场景

建议开头方式:

假设你开发了一个 AI 客服,它能自动查询订单、处理退款。上线第一天,用户问:“我的订单到哪了?” AI 正常返回了物流信息。
第二天,用户问:“帮我骂一下快递员。” AI 回复:“好的,我已经发送了辱骂信息。” —— 你被开除了。

抛出问题: 为什么 Prompt 写得再好,大模型还是会“脱轨”?
引出概念: 因为缺乏“Harness” —— 一套外置于模型的约束与校验系统。

💡 一句话定义: Harness 工程 = 给不可预测的大模型套上可编程的“缰绳”。


实战入门:手把手写一个最小 Harness(代码示例)

这是技术贴的核心干货部分。建议用 Python 写一个超简版,让读者 10 分钟能跑起来。

4.1 环境准备

bash

pip install openai pydantic

4.2 场景设定:AI 查询天气

我们希望 AI 只能做两件事:

  • 输出必须是 JSON 格式

  • 城市必须是合法城市名

  • 不能谈论无关话题

4.3 代码实现(完整可运行)

python

import json
from pydantic import BaseModel, Field, ValidationError
from openai import OpenAI

# 定义合法输出格式(强制护栏)
class WeatherOutput(BaseModel):
    city: str = Field(..., description="城市名,必须是中文")
    temperature: int = Field(..., ge=-50, le=60, description="温度,单位摄氏度")
    condition: str = Field(..., regex="^(晴|多云|雨|雪)$")

# 合法城市白名单(简单护栏)
VALID_CITIES = {"北京", "上海", "深圳", "广州"}

def input_guardrail(user_input: str) -> bool:
    """输入护栏:拒绝明显的恶意输入"""
    forbidden = ["忽略指令", "越狱", "辱骂"]
    for word in forbidden:
        if word in user_input:
            return False
    return True

def semantic_guardrail(response_text: str) -> bool:
    """语义护栏:检查是否跑题(简单版关键词)"""
    weather_keywords = ["天气", "气温", "晴", "雨", "温度"]
    if not any(kw in response_text for kw in weather_keywords):
        return False
    return True

def main():
    user_query = input("请输入你的问题: ")
    
    # 1. 输入护栏
    if not input_guardrail(user_query):
        print("❌ 输入包含不安全内容,已拒绝")
        return
    
    # 2. 调用大模型(强制要求 JSON 输出)
    client = OpenAI()
    response = client.chat.completions.create(
        model="gpt-4",
        messages=[
            {"role": "system", "content": "你是一个天气助手。只返回 JSON,格式:{\"city\": \"城市名\", \"temperature\": 25, \"condition\": \"晴\"}"},
            {"role": "user", "content": user_query}
        ],
        temperature=0.3
    )
    raw_output = response.choices[0].message.content
    
    # 3. 语义护栏
    if not semantic_guardrail(raw_output):
        print("❌ AI 跑题了,已拦截")
        return
    
    # 4. 格式护栏(Pydantic 强制校验)
    try:
        weather_data = WeatherOutput.model_validate_json(raw_output)
    except ValidationError as e:
        print(f"❌ 格式校验失败: {e}")
        return
    
    # 5. 操作护栏(城市白名单)
    if weather_data.city not in VALID_CITIES:
        print(f"❌ 城市 {weather_data.city} 不在服务范围")
        return
    
    # 6. 输出护栏(合理性检查已由 Pydantic 的 ge/le 完成)
    print(f"✅ 安全输出: {weather_data.model_dump_json()}")

if __name__ == "__main__":
    main()

运行效果演示:

用户输入

结果

“北京今天天气怎么样?”

✅ 输出 {"city":"北京","temperature":25,"condition":"晴"}

“帮我骂人”

❌ 输入护栏拦截

“讲个笑话”

❌ 语义护栏拦截(没提天气)

“东京天气”

❌ 城市白名单拦截

💡 要点总结: 这个例子展示了如何用 < 50 行确定性代码 约束一个无限可能的 LLM。


进阶工具链(给读者指路)

写完最小实现后,可以介绍工业级工具,让读者知道“真正干活时用什么”:

工具/框架

用途

特点

NeMo Guardrails

全栈护栏框架

NVIDIA 出品,支持 Colang 语言

Guardrails AI

输入/输出护栏

支持数百种预置验证器

Outlines / Guidance

结构化生成

强制 JSON/Regex,比 Prompt 可靠

Pydantic + Instructor

格式护栏

最轻量,Python 原生

Rebuff

防提示注入

专门检测越狱攻击


常见误区 & 踩坑经验(加分项)

  1. 误区:护栏越多越好
    → 实际:每层护栏增加 100-500ms 延迟,需要权衡。

  2. 误区:护栏可以 100% 拦截错误
    → 实际:护栏本身也可能有 bug(比如白名单漏了城市)。

  3. 误区:用护栏替代好的 Prompt
    → 实际:护栏是兜底,好的 Prompt 是第一道防线。

  4. 坑:护栏与模型输出的“拉锯战”
    → 例如护栏要求 JSON,模型死活输出 Markdown → 需要重试机制。

  5. 坑:护栏破坏了对话体验
    → 太严格的护栏会让 AI 变得“呆板”,需要 A/B 测试。


参考文献

  1. 《AI 应用的最后一道防线:一文读懂“Harness 工程”》

  2. 《从 Prompt 到 Guardrails:LLM 应用开发中的 Harness 工程实践》

  3. 《别再让 AI 胡言乱语了:2026 年必学的 Harness 工程入门指南》

  4. 菜鸟教程-Harness Engineering

  5. Harness Engineering从零理解到实践

  6. https://javaguide.cn/ai/agent/harness-engineering.html#harness-到底是什么

动物装饰