DeerAPI Embeddings 接口文档:通过 POST /v1/embeddings 使用 OpenAI 模型为输入文本生成 embedding 向量,说明必填参数 model 与 input。
curl https://api.deerapi.com/v1/embeddings \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <DEERAPI_KEY>" \
-d '{
"model": "text-embedding-3-small",
"input": "番茄是一种常见食材。"
}'{
"object": "<string>",
"data": [
{
"object": "<string>",
"index": 123,
"embedding": "<unknown>"
}
],
"model": "<string>",
"usage": {
"prompt_tokens": 123,
"total_tokens": 123
}
}/v1/embeddings 用于把文本转换成向量。最常见的用途包括语义搜索、知识库召回、文本聚类、相似内容去重和 RAG 检索前的向量化预处理。
DeerAPI 对 OpenAI Embeddings 接口保持兼容。对于大多数接入场景,您只需要先理解 4 个字段:model、input、dimensions、encoding_format。
model 和 input 是通用必填项,决定“用哪个嵌入模型”以及“要向量化什么内容”。dimensions 只在 text-embedding-3 及更新模型上常见,适合在向量质量和存储成本之间做权衡。encoding_format 默认为 float;如果您是大批量离线写库,base64 往往更节省传输体积。text-embedding-3-small。text-embedding-3-large。Bearer token authentication. Use your DeerAPI key.
兼容 OpenAI Embeddings。实际接入时通常只需要关心 model、input、dimensions、encoding_format 这几个字段;其余重点更多在向量库选型、切片策略和召回逻辑。
要调用的嵌入模型 ID。一般来说,text-embedding-3-small 更适合大规模检索与成本敏感场景,text-embedding-3-large 更适合追求向量质量。
要向量化的内容。可以传单条文本、批量文本数组,或已分词的 token 数组。每条输入都不能是空字符串,并且需要落在模型允许的 token 上限内;text-embedding-3 系列单条输入常见上限为 8192 tokens。
返回向量的维度。仅 text-embedding-3 及更新模型支持。维度越低,存储和检索成本越小;维度越高,通常保留的语义信息越多。
嵌入向量的返回格式。float 便于直接调试和落库;base64 更适合对传输体积敏感的大批量请求。
float, base64 最终用户标识,适合做风控、统计或多租户链路追踪。
curl https://api.deerapi.com/v1/embeddings \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <DEERAPI_KEY>" \
-d '{
"model": "text-embedding-3-small",
"input": "番茄是一种常见食材。"
}'{
"object": "<string>",
"data": [
{
"object": "<string>",
"index": 123,
"embedding": "<unknown>"
}
],
"model": "<string>",
"usage": {
"prompt_tokens": 123,
"total_tokens": 123
}
}