← Docs/

§ 运维 · BYOM

Bring Your Own Model.

用你自己的 Anthropic / OpenAI / DeepSeek API key. LLM I/O 完全在你的账户处理, HiPMM 仅记 prompt_hash + token 计数. Pro / Enterprise 套餐开通.

01

三种 mode

modeLLM 账户客户提供适合
managed (默认)HiPMM 的(不需要)中小客户 · 不想管 LLM 账单
byom_proxy客户自己的provider + api_key + base_url企业 · 数据合规
byom_local客户私有 endpointendpoint (OpenAI 兼容)私有部署 Ollama / vLLM
02

收费模型 — 砍 60%

managed 和 BYOM 的 cost_units 不同:

端点managed costBYOM cost差额
/v1/codename (零 LLM)11(零 LLM, 一样)
/v1/codename/symbolic22(零 LLM, 一样)
/v1/analyze/individual104砍 60%

为什么 BYOM 还要收 4 unit

BYOM 时客户付 LLM token 钱, 但 HiPMM 的 PMM-8+ 算法 + 工程化 + KB 维护 这层 IP 是有价值的 (自研 6 个月 + 几十万人工). 4 unit 仅算法服务费, 不含 LLM 转售.

同样 Pro 套餐月配额 100,000 units:

  • managed: 跑 10,000 次个体画像
  • BYOM: 25,000 次 (但你要付自己的 LLM 账单)
03

数据主权 (核心卖点)

HiPMM Engine 在 BYOM 模式下:

  • 客户的 api_key 仅在调用栈内存活, 不入审计 / log / 响应
  • LLM I/O (prompt + completion) 通过 Engine 转发到客户 endpoint, 但Engine 不存原文
  • 审计 log 只有: prompt_hash (sha256) + token 计数 + 用户 / 套餐 / endpoint 元信息
  • 出错: BYOM endpoint 5xx → HiPMM 返回 502 LLM_PROVIDER_ERROR, 故障归属于客户的 LLM, 不在我们 SLA 范围

ADR-0001 硬约束

这些不只是约定. HiPMM Engine 代码强制不记 prompt 内容 (Sentry 也 strict 清洗), 任何违反 → 一票否决.
04

调用示例

curl

curl -X POST https://api.hipmm.com/v1/analyze/individual \
  -H "Authorization: Bearer hipmm_sk_..." \
  -H "Content-Type: application/json" \
  -d '{
    "code": "I-A-L-X-ID-AR(PR)-SE-LT",
    "options": { "depth": "deep" },
    "llm_config": {
      "mode": "byom_proxy",
      "provider": "deepseek",
      "model": "deepseek-v4-pro",
      "api_key": "sk-客户自己的",
      "base_url": "https://api.deepseek.com/v1"
    }
  }'

Python SDK

from hipmm import HiPMM, LLMConfig

client = HiPMM(api_key="hipmm_sk_...")
result = client.analyze.individual(
    code="I-A-L-X-ID-AR(PR)-SE-LT",
    depth="deep",
    llm_config=LLMConfig(
        mode="byom_proxy",
        provider="anthropic",
        model="claude-opus-4-7",
        api_key="sk-ant-客户自己的",
        base_url="https://api.anthropic.com",
    ),
)
# result.metadata.cost_units == 4 (而非 managed 的 10)

TypeScript SDK

const r = await client.analyze.individual({
  code: "I-A-L-X-ID-AR(PR)-SE-LT",
  depth: "standard",
  llmConfig: {
    mode: "byom_proxy",
    provider: "openai",
    model: "gpt-5.5",
    api_key: "sk-客户自己的",
    base_url: "https://api.openai.com/v1",
  },
});
05

支持的 Provider

provider默认 modeltierendpoint 示例
anthropicclaude-opus-4-71https://api.anthropic.com
openaigpt-5.51https://api.openai.com/v1
deepseekdeepseek-v4-pro2https://api.deepseek.com/v1
byom_local(客户指定)http://your-ollama:11434/v1
06

权限门槛

套餐allow_byom月费
Free0
Starter¥99
Pro¥999
Enterprise议价

Free / Starter 用 BYOM 会被拒 (403 BYOM_NOT_ALLOWED). 升级 Pro 即可开通.

07

适合谁

  • 金融 / 医疗 / 政府: 合规要求 prompt 不出客户账户
  • 已有大额 LLM 账户: 不愿被 HiPMM 加价转售 LLM token
  • 多 LLM 切换: Anthropic 涨价改 DeepSeek, 一行 env, 不动 HiPMM 接入
  • 私有部署 (Enterprise): 整个 LLM 在内网 (Ollama / vLLM), 用 byom_local

升级 Pro 开通 BYOM