← Docs/

§ 核心概念

深度档位 brief / standard / deep.

/v1/analyze/individual 的 depth 字段决定 LLM 输出量. 三档差异化, 客户能感知到价值落差.

01

档位对照

档位维度详情涌现组合建议条数out tokens适用
brief30-50 字/项2 个3 条~1,500卡片预览 / 列表展示
standard50-80 字/项3-4 个4-5 条~2,500默认 / 完整报告
deep100-150 字/项 + 退行风险5-7 个 (含 [退行] 标注)6-8 条 (覆盖 5 大类: 翻译/盲区/优势/退行/赛道)~6,000深度咨询 / 高端报告

不只是 token 上限差

深度差异不是单纯放宽 max_tokens. analyzer 内部_DEPTH_DIRECTIVES 给 LLM 显式数量约束 — deep 必须含退行风险型组合, 建议必须覆盖 5 大类等. 客户拿到 deep 报告会明显比 standard 多内容.
02

如何选

场景推荐档位理由
招聘平台候选人画像卡片brief卡片只显示精要, 用户点开再升级
默认 / 没特殊需求standard字段全, 性价比最优
年度 / 深度咨询报告deep包含退行风险 + 5 类建议, 卖点充足
免费试用引流brief成本低, 用户能看见输出 → 转化
03

调用示例

HiPMM Python SDK

result = client.analyze.individual(
    code="I-A-L-X-ID-AR(PR)-SE-LT",
    depth="deep",   # brief / standard / deep
)

curl + Anthropic 兼容

curl -X POST https://api.hipmm.com/v1/messages \
  -H "Authorization: Bearer hipmm_sk_..." \
  -d '{
    "model": "hipmm/individual-deep",
    "messages": [{"role": "user", "content": "I-A-L-X-ID-AR(PR)-SE-LT"}],
    "max_tokens": 8000
  }'
04

计费

所有 3 档都走相同 cost_units (managed 10 / BYOM 4 — 见 BYOM). 区别在 LLM token 用量 — managed 模式你已含在 cost_units 里; BYOM 模式 token 客户自己付给 LLM provider.

05

可靠性: JSON 容错

LLM 输出 deep 长 JSON 偶尔会有解析问题 (尾逗号 / 截断). HiPMM Engine 内置三道防线 (P1.1):

  1. 严格 parse — 99% 命中
  2. Tolerant repair — 修尾逗号 / 截尾废话 (零成本)
  3. 失败时重试 LLM 一次 (温度=0, max_tokens +20%)

客户实测 deep 模式连续运行无失败 (P1.1 之前 standard 失败率 ~30%, 修复后 归零).