01
三种 mode
| mode | LLM 账户 | 客户提供 | 适合 |
|---|---|---|---|
| managed (默认) | HiPMM 的 | (不需要) | 中小客户 · 不想管 LLM 账单 |
| byom_proxy | 客户自己的 | provider + api_key + base_url | 企业 · 数据合规 |
| byom_local | 客户私有 endpoint | endpoint (OpenAI 兼容) | 私有部署 Ollama / vLLM |
02
收费模型 — 砍 60%
managed 和 BYOM 的 cost_units 不同:
| 端点 | managed cost | BYOM cost | 差额 |
|---|---|---|---|
| /v1/codename (零 LLM) | 1 | 1 | (零 LLM, 一样) |
| /v1/codename/symbolic | 2 | 2 | (零 LLM, 一样) |
| /v1/analyze/individual | 10 | 4 | 砍 60% |
为什么 BYOM 还要收 4 unit
BYOM 时客户付 LLM token 钱, 但 HiPMM 的 PMM-8+ 算法 + 工程化 + KB 维护 这层 IP 是有价值的 (自研 6 个月 + 几十万人工). 4 unit 仅算法服务费, 不含 LLM 转售.
同样 Pro 套餐月配额 100,000 units:
- managed: 跑 10,000 次个体画像
- BYOM: 25,000 次 (但你要付自己的 LLM 账单)
03
数据主权 (核心卖点)
HiPMM Engine 在 BYOM 模式下:
- 客户的
api_key仅在调用栈内存活, 不入审计 / log / 响应 - LLM I/O (prompt + completion) 通过 Engine 转发到客户 endpoint, 但Engine 不存原文
- 审计 log 只有:
prompt_hash(sha256) +token 计数+ 用户 / 套餐 / endpoint 元信息 - 出错: BYOM endpoint 5xx → HiPMM 返回
502 LLM_PROVIDER_ERROR, 故障归属于客户的 LLM, 不在我们 SLA 范围
ADR-0001 硬约束
这些不只是约定. HiPMM Engine 代码强制不记 prompt 内容 (Sentry 也 strict 清洗), 任何违反 → 一票否决.
04
调用示例
curl
curl -X POST https://api.hipmm.com/v1/analyze/individual \
-H "Authorization: Bearer hipmm_sk_..." \
-H "Content-Type: application/json" \
-d '{
"code": "I-A-L-X-ID-AR(PR)-SE-LT",
"options": { "depth": "deep" },
"llm_config": {
"mode": "byom_proxy",
"provider": "deepseek",
"model": "deepseek-v4-pro",
"api_key": "sk-客户自己的",
"base_url": "https://api.deepseek.com/v1"
}
}'Python SDK
from hipmm import HiPMM, LLMConfig
client = HiPMM(api_key="hipmm_sk_...")
result = client.analyze.individual(
code="I-A-L-X-ID-AR(PR)-SE-LT",
depth="deep",
llm_config=LLMConfig(
mode="byom_proxy",
provider="anthropic",
model="claude-opus-4-7",
api_key="sk-ant-客户自己的",
base_url="https://api.anthropic.com",
),
)
# result.metadata.cost_units == 4 (而非 managed 的 10)TypeScript SDK
const r = await client.analyze.individual({
code: "I-A-L-X-ID-AR(PR)-SE-LT",
depth: "standard",
llmConfig: {
mode: "byom_proxy",
provider: "openai",
model: "gpt-5.5",
api_key: "sk-客户自己的",
base_url: "https://api.openai.com/v1",
},
});05
支持的 Provider
| provider | 默认 model | tier | endpoint 示例 |
|---|---|---|---|
| anthropic | claude-opus-4-7 | 1 | https://api.anthropic.com |
| openai | gpt-5.5 | 1 | https://api.openai.com/v1 |
| deepseek | deepseek-v4-pro | 2 | https://api.deepseek.com/v1 |
| byom_local | (客户指定) | — | http://your-ollama:11434/v1 |
06
权限门槛
| 套餐 | allow_byom | 月费 |
|---|---|---|
| Free | ❌ | 0 |
| Starter | ❌ | ¥99 |
| Pro | ✅ | ¥999 |
| Enterprise | ✅ | 议价 |
Free / Starter 用 BYOM 会被拒 (403 BYOM_NOT_ALLOWED). 升级 Pro 即可开通.
07
适合谁
- 金融 / 医疗 / 政府: 合规要求 prompt 不出客户账户
- 已有大额 LLM 账户: 不愿被 HiPMM 加价转售 LLM token
- 多 LLM 切换: Anthropic 涨价改 DeepSeek, 一行 env, 不动 HiPMM 接入
- 私有部署 (Enterprise): 整个 LLM 在内网 (Ollama / vLLM), 用
byom_local