01
档位对照
| 档位 | 维度详情 | 涌现组合 | 建议条数 | out tokens | 适用 |
|---|---|---|---|---|---|
| brief | 30-50 字/项 | 2 个 | 3 条 | ~1,500 | 卡片预览 / 列表展示 |
| standard | 50-80 字/项 | 3-4 个 | 4-5 条 | ~2,500 | 默认 / 完整报告 |
| deep | 100-150 字/项 + 退行风险 | 5-7 个 (含 [退行] 标注) | 6-8 条 (覆盖 5 大类: 翻译/盲区/优势/退行/赛道) | ~6,000 | 深度咨询 / 高端报告 |
不只是 token 上限差
深度差异不是单纯放宽 max_tokens. analyzer 内部
_DEPTH_DIRECTIVES 给 LLM 显式数量约束 — deep 必须含退行风险型组合, 建议必须覆盖 5 大类等. 客户拿到 deep 报告会明显比 standard 多内容.02
如何选
| 场景 | 推荐档位 | 理由 |
|---|---|---|
| 招聘平台候选人画像卡片 | brief | 卡片只显示精要, 用户点开再升级 |
| 默认 / 没特殊需求 | standard | 字段全, 性价比最优 |
| 年度 / 深度咨询报告 | deep | 包含退行风险 + 5 类建议, 卖点充足 |
| 免费试用引流 | brief | 成本低, 用户能看见输出 → 转化 |
03
调用示例
HiPMM Python SDK
result = client.analyze.individual(
code="I-A-L-X-ID-AR(PR)-SE-LT",
depth="deep", # brief / standard / deep
)curl + Anthropic 兼容
curl -X POST https://api.hipmm.com/v1/messages \
-H "Authorization: Bearer hipmm_sk_..." \
-d '{
"model": "hipmm/individual-deep",
"messages": [{"role": "user", "content": "I-A-L-X-ID-AR(PR)-SE-LT"}],
"max_tokens": 8000
}'04
计费
所有 3 档都走相同 cost_units (managed 10 / BYOM 4 — 见 BYOM). 区别在 LLM token 用量 — managed 模式你已含在 cost_units 里; BYOM 模式 token 客户自己付给 LLM provider.
05
可靠性: JSON 容错
LLM 输出 deep 长 JSON 偶尔会有解析问题 (尾逗号 / 截断). HiPMM Engine 内置三道防线 (P1.1):
- 严格 parse — 99% 命中
- Tolerant repair — 修尾逗号 / 截尾废话 (零成本)
- 失败时重试 LLM 一次 (温度=0, max_tokens +20%)
客户实测 deep 模式连续运行无失败 (P1.1 之前 standard 失败率 ~30%, 修复后 归零).