国内外主流大模型API接口调用完整指南
本文全面梳理了国内外主流大语言模型的API调用方式,包括OpenAI、Anthropic、Google等国际厂商,以及阿里、百度、腾讯等国内厂商。详细列出了各模型的API端点URL、官方SDK支持、认证方式和特色功能,涵盖文本生成、多模态处理、代码生成等场景。提供了Python调用示例和模型选择建议,比较了各模型的性能与价格差异。最后给出开发建议,包括SDK选择、成本优化、安全注意事项和性能优化策
本文详细介绍全球主流大语言模型的API调用方式、完整端点URL、官方SDK支持以及使用说明。
一、国际主流大模型
1. OpenAI GPT系列
模型概述:
- GPT-5系列(推理模型):gpt-5、gpt-5-mini、gpt-5-nano
- GPT-4.1系列:gpt-4.1、gpt-4.1-mini、gpt-4.1-nano
- GPT-4系列:gpt-4、gpt-4-turbo、gpt-4o、gpt-4o-mini
- GPT-3.5系列:gpt-3.5-turbo
API端点URL:
https://api.openai.com/v1/chat/completions
https://api.openai.com/v1/completions
https://api.openai.com/v1/embeddings
https://api.openai.com/v1/models
官方SDK:
- Python:
openai(官方Python库) - Node.js/TypeScript:
openai(官方JavaScript/TypeScript库) - Go: 社区维护,OpenAI提供参考实现
- .NET:
Azure.AI.OpenAI或Betalgo.OpenAI - Java: 社区库如
openai-java - Ruby: 社区库如
ruby-openai
认证方式:
- 使用API Key通过
Authorization: Bearer YOUR_API_KEY请求头进行认证 - 支持组织ID(可选):
OpenAI-Organization: YOUR_ORG_ID
特色功能:
- 支持流式响应(Server-Sent Events)
- 支持Function Calling(函数调用)
- 支持视觉理解(GPT-4V)
- 支持JSON模式输出
- 支持代码解释器
2. Anthropic Claude系列
模型概述:
- Claude 4.5 Opus、Sonnet、Haiku
- Claude 4 Opus、Sonnet、Haiku
- Claude 3.5 Opus、Sonnet、Haiku
- Claude 3 Opus、Sonnet、Haiku
- Claude 2系列
API端点URL:
https://api.anthropic.com/v1/messages
https://api.anthropic.com/v1/complete
官方SDK:
- Python:
anthropic(官方Python SDK) - TypeScript/JavaScript:
@anthropic-ai/sdk(官方TypeScript SDK)
认证方式:
- 使用API Key通过
x-api-key: YOUR_API_KEY请求头 - 需要指定API版本:
anthropic-version: 2023-06-01
特色功能:
- 超长上下文支持(最高200K tokens)
- 强大的安全性和对话管理
- 支持系统提示词(System Prompt)
- 支持工具使用(Tool Use)
- 思考模式(Thinking Mode)
访问渠道:
- 直接通过Anthropic API
- 通过Amazon Bedrock
- 通过Google Cloud Vertex AI
3. Google Gemini系列
模型概述:
- Gemini 3 Pro
- Gemini 2.5 Pro、Flash、Flash-Lite
- Gemini 2.0 Flash
- Gemini 1.5 Pro、Flash
- Gemini 1.0 Pro
API端点URL:
Google AI Studio (简化版):
https://generativelanguage.googleapis.com/v1beta/models/MODEL_ID:generateContent
https://generativelanguage.googleapis.com/v1beta/models/MODEL_ID:streamGenerateContent
https://generativelanguage.googleapis.com/v1beta/openai/chat/completions (OpenAI兼容端点)
Vertex AI (企业版):
https://REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/REGION/publishers/google/models/MODEL_ID:generateContent
官方SDK:
- Python:
google-generativeai(Google AI Studio)google-cloud-aiplatform(Vertex AI)
- Node.js:
@google/generative-ai - Go:
google-cloud-go/aiplatform - Java: Google Cloud Java库
- 其他语言: 通过Google Cloud客户端库支持
认证方式:
- Google AI Studio: API Key通过
x-goog-api-key或查询参数key - Vertex AI: Google Cloud认证(Application Default Credentials或Service Account)
特色功能:
- 多模态支持(文本、图像、视频、音频)
- 超长上下文(最高2M tokens)
- 原生代码执行能力
- 搜索增强(Grounding with Google Search)
- 思考预算控制(Thinking Budget)
4. xAI Grok系列
模型概述:
- Grok 4.1
- Grok 4
- Grok 3
- Grok 2
- Grok 1.5
API端点URL:
https://api.x.ai/v1/chat/completions
https://api.x.ai/v1/embeddings
官方SDK:
- 完全兼容OpenAI SDK,只需修改base_url
- Python: 使用
openai库,设置base_url="https://api.x.ai/v1" - Node.js: 使用
openai包,设置baseURL: "https://api.x.ai/v1"
认证方式:
- 使用Bearer Token:
Authorization: Bearer YOUR_XAI_API_KEY
特色功能:
- 实时信息获取能力
- 推特数据训练优势
- OpenAI API完全兼容
5. Mistral AI系列
模型概述:
- Mistral Large、Medium、Small
- Mistral OCR
- Codestral (代码专用)
- Mixtral系列
API端点URL:
https://api.mistral.ai/v1/chat/completions
https://api.mistral.ai/v1/embeddings
https://api.mistral.ai/v1/models
官方SDK:
- Python:
mistralai(官方Python SDK) - TypeScript/JavaScript:
@mistralai/mistralai(官方SDK) - 其他: 可通过Azure AI、AWS Bedrock访问
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 强大的多语言支持
- 高性价比
- OCR专用模型
- 代码生成专用模型Codestral
6. Cohere系列
模型概述:
- Command R+
- Command R
- Embed系列(文本嵌入)
- Rerank系列(重排序)
API端点URL:
https://api.cohere.com/v2/chat
https://api.cohere.com/v2/embed
https://api.cohere.com/v1/rerank
https://api.cohere.com/v1/models
官方SDK:
- Python:
cohere(官方Python SDK) - Node.js/TypeScript:
cohere-ai(官方SDK) - Go:
cohere-go - Java:
cohere-java
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 企业级RAG优化
- 多语言嵌入模型
- 专业的重排序(Rerank)能力
- 支持私有部署
二、国内主流大模型
1. 阿里通义千问(Qwen)
模型概述:
- Qwen-2.5-Max (旗舰版)
- Qwen-Turbo
- Qwen-Plus
- QwQ-32B-Preview (推理模型)
- Qwen系列开源模型
API端点URL:
https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generation
https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions (OpenAI兼容)
官方SDK:
- Python:
dashscope(阿里云百炼平台SDK) - Java:
dashscope-sdk-java - Node.js: 官方JavaScript SDK
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY或X-DashScope-SSE请求头
特色功能:
- 百万级上下文窗口
- 强大的中文理解能力
- 多模态支持
- 开源模型可本地部署
控制台:
https://dashscope.console.aliyun.com/
2. 百度文心一言(ERNIE)
模型概述:
- ERNIE 4.0
- ERNIE 3.5
- ERNIE Speed、Lite(免费)
- ERNIE Tiny-8K
API端点URL:
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-4.0-turbo-128k
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-speed-128k
官方SDK:
- Python:
qianfan(千帆SDK) - Java: 千帆Java SDK
- Go: 千帆Go SDK
- Node.js: 千帆Node.js SDK
认证方式:
- 需要先获取Access Token
- 使用API Key和Secret Key获取Token
- Token获取端点:
https://aip.baidubce.com/oauth/2.0/token - 请求时附加:
?access_token=YOUR_ACCESS_TOKEN
特色功能:
- 知识增强
- 免费模型(ERNIE Speed、Lite)
- 完整的MAAS平台
- 支持SFT(监督微调)和RLHF
控制台:
https://console.bce.baidu.com/qianfan/
3. 腾讯混元(Hunyuan)
模型概述:
- Hunyuan-Large
- Hunyuan-Lite
- Hunyuan-Turbo
- Hunyuan-Pro
API端点URL:
https://hunyuan.tencentcloudapi.com/
注意:腾讯云API使用统一的接入点,通过不同的Action参数区分操作:
Action=ChatCompletions (对话)
Action=GetEmbedding (嵌入)
官方SDK:
- Python:
tencentcloud-sdk-python - Java:
tencentcloud-sdk-java - Go:
tencentcloud-sdk-go - Node.js:
tencentcloud-sdk-nodejs - PHP:
tencentcloud-sdk-php
认证方式:
- 使用腾讯云SecretId和SecretKey
- 签名认证(Signature V3)
特色功能:
- 强大的中文创作能力
- 深度集成腾讯生态
- 多模态能力
- 企业级安全保障
控制台:
https://console.cloud.tencent.com/hunyuan
4. 讯飞星火(Spark)
模型概述:
- Spark Max
- Spark Pro
- Spark Lite (免费)
- Spark4.0 Ultra
API端点URL:
wss://spark-api.xf-yun.com/v4.0/chat (WebSocket)
wss://spark-api.xf-yun.com/v3.5/chat (WebSocket)
wss://spark-api.xf-yun.com/v3.1/chat (WebSocket)
wss://spark-api.xf-yun.com/v2.1/chat (WebSocket)
注意:讯飞星火使用WebSocket协议而非HTTP REST API
官方SDK:
- Python:
spark_ai_python(非官方但推荐) - Java: 官方Java SDK
- 其他: 官方提供各语言示例代码
认证方式:
- 使用APPID、APISecret、APIKey
- 通过WebSocket握手时的URL参数进行认证
- 需要生成签名(基于HmacSHA256)
特色功能:
- 教育场景优化
- 语音能力强大
- Lite版本永久免费
- 多模态理解
控制台:
https://console.xfyun.cn/services/bm3
5. 智谱AI ChatGLM系列
模型概述:
- GLM-4.6 (最新)
- GLM-4.5、GLM-4
- GLM-4-Plus
- GLM-4-Flash
- GLM-4V (视觉)
- CogView、CogVideo (多模态)
API端点URL:
https://open.bigmodel.cn/api/paas/v4/chat/completions
https://open.bigmodel.cn/api/paas/v4/embeddings
https://open.bigmodel.cn/api/paas/v4/images/generations
https://open.bigmodel.cn/api/paas/v4/videos/generations
官方SDK:
- Python:
zhipuai(官方Python SDK) - Java: 官方Java SDK
- 其他: 提供HTTP API标准接口
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY - JWT Token认证
特色功能:
- 128K超长上下文
- Agent能力强大
- 多模态生成(文生图、文生视频)
- 开源友好
- 工具调用(Function Calling)
控制台:
https://open.bigmodel.cn/
6. 月之暗面 Moonshot(Kimi)
模型概述:
- moonshot-v1-8k
- moonshot-v1-32k
- moonshot-v1-128k
API端点URL:
https://api.moonshot.cn/v1/chat/completions
https://api.moonshot.cn/v1/files
https://api.moonshot.cn/v1/models
官方SDK:
- 兼容OpenAI SDK
- Python: 使用
openai库,设置base_url="https://api.moonshot.cn/v1" - Node.js: 使用
openai包,设置相应base_url
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 超长上下文处理(最高200K)
- 优秀的长文档理解
- 文件上传分析
- OpenAI API完全兼容
控制台:
https://platform.moonshot.cn/
7. 深度求索 DeepSeek系列
模型概述:
- DeepSeek-V3 (基础模型)
- DeepSeek-R1 (推理模型)
- DeepSeek-Coder (代码专用)
- DeepSeek-Chat
API端点URL:
https://api.deepseek.com/v1/chat/completions
https://api.deepseek.com/v1/models
官方SDK:
- 完全兼容OpenAI SDK
- Python: 使用
openai库,设置base_url="https://api.deepseek.com" - Node.js: 使用
openai包,设置相应base_url
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 极高性价比(价格最低)
- 推理模型R1性能强大
- 代码能力突出
- MoE架构
- 开源模型可本地部署
控制台:
https://platform.deepseek.com/
8. 字节跳动 豆包(Doubao)
模型概述:
- Doubao-pro-256k
- Doubao-lite-128k
- Doubao-vision (视觉)
API端点URL:
https://ark.cn-beijing.volces.com/api/v3/chat/completions
官方SDK:
- Python: 火山引擎SDK
- Java: 火山引擎Java SDK
- Go: 火山引擎Go SDK
认证方式:
- 通过火山引擎平台认证
- API Key方式
特色功能:
- 256K上下文窗口
- 高性价比
- 多模态能力
- 深度集成字节生态
控制台:
https://console.volcengine.com/ark
9. MiniMax(海螺AI)
模型概述:
- MiniMax-Text-01
- MiniMax-VL-01 (视觉语言)
- abab系列
API端点URL:
https://api.minimax.chat/v1/text/chatcompletion_v2
https://api.minimax.chat/v1/embeddings
官方SDK:
- Python: 官方Python SDK
- 其他: 提供标准HTTP API
认证方式:
- API Key和Group ID
- 通过请求头认证
特色功能:
- 语音合成能力超强
- 多模态支持
- 适合音频应用场景
控制台:
https://www.minimaxi.com/platform
10. 百川智能 Baichuan系列
模型概述:
- Baichuan4
- Baichuan3-Turbo
- Baichuan2系列
API端点URL:
https://api.baichuan-ai.com/v1/chat/completions
https://api.baichuan-ai.com/v1/embeddings
官方SDK:
- Python: 官方Python SDK
- 其他: 标准HTTP API
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 中文能力突出
- 多行业应用优化
- 开源与闭源结合
控制台:
https://platform.baichuan-ai.com/
11. 360智脑
模型概述:
- 360GPT-Pro
- 360GPT-Turbo
API端点URL:
https://api.360.cn/v1/chat/completions
官方SDK:
- 标准HTTP API
- 兼容OpenAI格式
认证方式:
- API Key认证
12. 阶跃星辰 Step系列
模型概述:
- Step-2
- Step-1
API端点URL:
https://api.stepfun.com/v1/chat/completions
官方SDK:
- 兼容OpenAI SDK
认证方式:
- API Key通过
Authorization: Bearer YOUR_API_KEY
特色功能:
- 推理能力强
- 多模态支持
三、使用建议与最佳实践
1. SDK选择建议
Python开发:
- OpenAI生态: 使用官方
openai库 - 国产模型: 各厂商官方SDK或使用兼容的
openai库 - 多模型管理: 考虑使用LangChain或LlamaIndex
JavaScript/TypeScript开发:
- 首选各厂商官方SDK
- 使用Vercel AI SDK统一管理多个provider
企业级应用:
- 考虑使用云服务商的托管服务(如AWS Bedrock、Azure OpenAI)
- 优先选择有SLA保障的企业版API
2. 成本优化
性价比排名(2025年):
- 最便宜: DeepSeek(输入约¥1/百万tokens)
- 中等价位: 国产大模型(¥5-15/百万tokens)
- 高价位: OpenAI GPT-4系列(约$2-30/百万tokens)
节省成本技巧:
- 使用免费层级(讯飞Lite、文心Lite、百度Tiny)
- 利用缓存机制(Prompt Caching)
- 批量请求(Batch API)
- 选择合适规模的模型(不过度使用旗舰版)
3. 安全注意事项
-
API Key管理:
- 使用环境变量存储
- 定期轮换
- 设置使用限额
-
数据隐私:
- 了解各厂商的数据保留政策
- 敏感数据加密传输
- 考虑私有化部署方案
-
速率限制:
- 实现请求重试机制
- 使用指数退避策略
- 监控使用量
4. 性能优化
- 流式响应: 提升用户体验,减少首字延迟
- 并发控制: 合理设置并发数,避免触发限流
- 模型选择: 根据任务复杂度选择合适模型
- 上下文管理: 合理控制输入长度,避免不必要的token消耗
5. 模型选择指南
场景推荐:
- 通用对话: GPT-4.1、Claude 3.5 Sonnet、通义千问Max
- 代码生成: DeepSeek-Coder、GPT-4、Codestral、GLM-4
- 长文档分析: Claude 3.5 Sonnet、Moonshot、Gemini 2.5 Pro
- 推理任务: DeepSeek-R1、GPT-5、o3、QwQ
- 多模态: GPT-4V、Gemini、GLM-4V
- 性价比: DeepSeek系列、豆包、通义千问Turbo
- 中文场景: 文心一言、通义千问、GLM系列、讯飞星火
四、快速开始示例
OpenAI风格调用(通用模板)
from openai import OpenAI
# 适用于: OpenAI、DeepSeek、Moonshot、Grok等
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.openai.com/v1" # 根据不同服务商修改
)
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "你好"}
],
stream=False
)
print(response.choices[0].message.content)
国产模型调用示例
# 通义千问
from dashscope import Generation
response = Generation.call(
model='qwen-max',
messages=[{'role': 'user', 'content': '你好'}],
api_key='YOUR_API_KEY'
)
# 智谱GLM
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="YOUR_API_KEY")
response = client.chat.completions.create(
model="glm-4",
messages=[{"role": "user", "content": "你好"}],
)
五、总结
选择大模型API时需要综合考虑:
- 性能要求: 推理能力、多模态需求
- 成本预算: Token价格、免费额度
- 应用场景: 通用对话、代码生成、文档分析
- 服务稳定性: SLA保障、技术支持
- 生态兼容性: SDK支持、社区活跃度
国际模型(GPT、Claude、Gemini)在通用能力上仍有优势,但国产模型在中文理解、性价比、服务响应等方面表现优秀,且支持本地部署,适合企业级应用。
建议开发者根据具体需求选择合适的模型,并在开发中保持API的灵活切换能力,以应对技术演进和成本变化。
最后更新时间: 2025年12月
参考资源:
更多推荐



所有评论(0)