轨迹格式
Hermes Agent 以兼容 ShareGPT 的 JSONL 格式保存对话轨迹,可用于训练数据、调试产物和强化学习数据集。
源文件:agent/trajectory.py、run_agent.py(搜索 _save_trajectory)、batch_runner.py
文件命名规范
轨迹文件写入当前工作目录:
| 文件 | 写入时机 |
|---|---|
trajectory_samples.jsonl | 成功完成的对话(completed=True) |
failed_trajectories.jsonl | 失败或被中断的对话(completed=False) |
批处理运行器(batch_runner.py)按批次写入自定义输出文件
(例如 batch_001_output.jsonl),并附带额外的 metadata 字段。
可通过 save_trajectory() 的 filename 参数覆盖文件名。
JSONL 条目格式
文件中每一行是一个独立的 JSON 对象,共有两种变体:
CLI/交互式格式(来自 _save_trajectory)
{
"conversations": [ ... ],
"timestamp": "2026-03-30T14:22:31.456789",
"model": "anthropic/claude-sonnet-4.6",
"completed": true
}
批处理运行器格式(来自 batch_runner.py)
{
"prompt_index": 42,
"conversations": [ ... ],
"metadata": { "prompt_source": "gsm8k", "difficulty": "hard" },
"completed": true,
"partial": false,
"api_calls": 7,
"toolsets_used": ["code_tools", "file_tools"],
"tool_stats": {
"terminal": {"count": 3, "success": 3, "failure": 0},
"read_file": {"count": 2, "success": 2, "failure": 0},
"write_file": {"count": 0, "success": 0, "failure": 0}
},
"tool_error_counts": {
"terminal": 0,
"read_file": 0,
"write_file": 0
}
}
tool_stats 和 tool_error_counts 字典已规范化,包含所有可能的工具(来自
model_tools.TOOL_TO_TOOLSET_MAP),缺省值为零,从而确保各条目 schema 一致,
便于 HuggingFace 数据集加载。
Conversations 数组(ShareGPT 格式)
conversations 数组使用 ShareGPT 角色约定:
| API 角色 | ShareGPT from |
|---|---|
| system | "system" |
| user | "human" |
| assistant | "gpt" |
| tool | "tool" |
完整示例
{
"conversations": [
{
"from": "system",
"value": "You are a function calling AI model. You are provided with function signatures within <tools> </tools> XML tags. You may call one or more functions to assist with the user query. If available tools are not relevant in assisting with user query, just respond in natural conversational language. Don't make assumptions about what values to plug into functions. After calling & executing the functions, you will be provided with function results within <tool_response> </tool_response> XML tags. Here are the available tools:\n<tools>\n[{\"name\": \"terminal\", \"description\": \"Execute shell commands\", \"parameters\": {\"type\": \"object\", \"properties\": {\"command\": {\"type\": \"string\"}}}, \"required\": null}]\n</tools>\nFor each function call return a JSON object, with the following pydantic model json schema for each:\n{'title': 'FunctionCall', 'type': 'object', 'properties': {'name': {'title': 'Name', 'type': 'string'}, 'arguments': {'title': 'Arguments', 'type': 'object'}}, 'required': ['name', 'arguments']}\nEach function call should be enclosed within <tool_call> </tool_call> XML tags.\nExample:\n<tool_call>\n{'name': <function-name>,'arguments': <args-dict>}\n</tool_call>"
},
{
"from": "human",
"value": "What Python version is installed?"
},
{
"from": "gpt",
"value": "<think>\nThe user wants to know the Python version. I should run python3 --version.\n</think>\n<tool_call>\n{\"name\": \"terminal\", \"arguments\": {\"command\": \"python3 --version\"}}\n</tool_call>"
},
{
"from": "tool",
"value": "<tool_response>\n{\"tool_call_id\": \"call_abc123\", \"name\": \"terminal\", \"content\": \"Python 3.11.6\"}\n</tool_response>"
},
{
"from": "gpt",
"value": "<think>\nGot the version. I can now answer the user.\n</think>\nPython 3.11.6 is installed on this system."
}
],
"timestamp": "2026-03-30T14:22:31.456789",
"model": "anthropic/claude-sonnet-4.6",
"completed": true
}
规范化规则
推理内容标记
轨迹转换器将所有推理内容统一规范化为 <think> 标签,无论模型最初以何种方式产生:
-
原生思考 token(来自 Anthropic、OpenAI o 系列等 provider 的
msg["reasoning"]字段): 包装为\n{reasoning}\n\n并置于内容之前。 -
REASONING_SCRATCHPAD XML(当原生思考功能未启用、模型通过系统提示词指定的 XML 进行推理时):
<REASONING_SCRATCHPAD>标签通过convert_scratchpad_to_think()转换为<think>标签。 -
空 think 块:每个
gpt轮次均保证包含一个<think>块。若无推理内容,则插入空块:\n\n——确保训练数据格式一致。
工具调用规范化
API 格式的工具调用(含 tool_call_id、函数名、JSON 字符串形式的参数)会被转换为 XML 包裹的 JSON:
<tool_call>
{"name": "terminal", "arguments": {"command": "ls -la"}}
</tool_call>
- 参数从 JSON 字符串解析回对象(不进行二次编码)
- 若 JSON 解析失败(正常情况下不应发生——对话期间已验证),
则使用空
{}并记录警告日志 - 同一助手轮次中的多个工具调用,会在单条
gpt消息中生成多个<tool_call>块
工具响应规范化
跟随一条助手消息的所有工具结果,会被合并为单条 tool 轮次,
以 XML 包裹的 JSON 响应表示:
<tool_response>
{"tool_call_id": "call_abc123", "name": "terminal", "content": "output here"}
</tool_response>
- 若工具内容看起来像 JSON(以
{或[开头),则进行解析, 使 content 字段包含 JSON 对象/数组而非字符串 - 多条工具结果在同一消息中以换行符拼接
- 工具名称按位置与父级助手消息的
tool_calls数组对应匹配
系统消息
系统消息在保存时生成(不取自对话内容),遵循 Hermes 函数调用提示词模板,包含:
- 说明函数调用协议的前言
- 包含 JSON 工具定义的
<tools>XML 块 FunctionCall对象的 schema 说明<tool_call>示例
工具定义包括 name、description、parameters 和 required
(设为 null 以匹配规范格式)。
加载轨迹
轨迹文件为标准 JSONL 格式,可使用任意 JSON Lines 读取器加载:
import json
def load_trajectories(path: str):
"""从 JSONL 文件加载轨迹条目。"""
entries = []
with open(path, "r", encoding="utf-8") as f:
for line in f:
line = line.strip()
if line:
entries.append(json.loads(line))
return entries
# 仅筛选成功完成的条目
successful = [e for e in load_trajectories("trajectory_samples.jsonl")
if e.get("completed")]
# 仅提取对话内容用于训练
training_data = [e["conversations"] for e in successful]
加载为 HuggingFace Datasets
from datasets import load_dataset
ds = load_dataset("json", data_files="trajectory_samples.jsonl")
规范化的 tool_stats schema 确保所有条目具有相同的列,
从而避免数据集加载时出现 Arrow schema 不匹配错误。
控制轨迹保存
在 CLI 中,轨迹保存由以下配置项控制:
# config.yaml
agent:
save_trajectories: true # 默认值:false
或通过 --save-trajectories 标志开启。当 agent 以 save_trajectories=True 初始化时,
_save_trajectory() 方法会在每次对话轮次结束时调用。
批处理运行器始终保存轨迹(这是其主要用途)。
所有轮次均无推理内容的样本,会被批处理运行器自动丢弃, 以避免将无推理示例污染训练数据。