REST 与官方 Python/JS SDK 调用 Together 托管的开源权重模型
Together AI 为开发者提供在托管 GPU 上运行主流开源模型的推理与训练类产品线。入门文档介绍在控制台创建 API Key、导出 `TOGETHER_API_KEY`、安装 Python `together` 或 npm `together-ai`,以及向 `https://api.together.ai/v1/chat/completions` 发起带 Bearer 鉴权的 HTTPS 调用;并可按文档扩展到流式输出、函数调用、结构化输出、模型目录、专用算力预留与微调等专题。
使用场景
- 快速上线开源对话模型后端
- 在多模型 POC 中与本地或他厂 endpoint 对标延迟与费用
- 把实验性 Prompt 链路固化为 SDK + 密钥注入的标准服务
- 需要时再升级到专用实例或微调流水线
主要功能
- 官方 SDK 与环境变量配置的 Quickstart
- `/v1/chat/completions` 等 REST JSON 示例与 curl/Python/TS 三版本
- 支持流式返回 chunk 以降低首字延迟体验
- 文档索引覆盖托管模型清单、微调与大规模训练负载
- 控制台项目 / 密钥管理与计费绑定说明
相关推荐
相关推荐
3 收录条目
Groq Cloud API
GroqCloud 通过 Groq 的 HTTP API 提供托管的语言与语音等推理能力;文档说明可将 OpenAI 兼容客户端指向 Groq 的 `base_url` 并使用 Groq API 密钥,亦提供 Groq 官方 Python/JavaScript SDK。定价页面以美元公示按 token 计费档位,便于预估推理成本。
Langfuse
Langfuse 提供面向大模型与 Agent 的可观测性:接入 trace/span、管理 prompt 与数据集,支持云托管或自建,便于排查多步工具调用、对比 prompt 并跟踪线上指标。
OpenRouter
OpenRouter 提供与 OpenAI 风格兼容的统一 API,让团队可以在一个接入层上调用多家模型、对比成本与效果,并按场景调整路由策略,减少多供应商 SDK 维护成本。