本文详细介绍全球主流大语言模型的API调用方式、完整端点URL、官方SDK支持以及使用说明。


一、国际主流大模型

1. OpenAI GPT系列

模型概述:

  • GPT-5系列(推理模型):gpt-5、gpt-5-mini、gpt-5-nano
  • GPT-4.1系列:gpt-4.1、gpt-4.1-mini、gpt-4.1-nano
  • GPT-4系列:gpt-4、gpt-4-turbo、gpt-4o、gpt-4o-mini
  • GPT-3.5系列:gpt-3.5-turbo

API端点URL:

https://api.openai.com/v1/chat/completions
https://api.openai.com/v1/completions
https://api.openai.com/v1/embeddings
https://api.openai.com/v1/models

官方SDK:

  • Python: openai (官方Python库)
  • Node.js/TypeScript: openai (官方JavaScript/TypeScript库)
  • Go: 社区维护,OpenAI提供参考实现
  • .NET: Azure.AI.OpenAIBetalgo.OpenAI
  • Java: 社区库如 openai-java
  • Ruby: 社区库如 ruby-openai

认证方式:

  • 使用API Key通过Authorization: Bearer YOUR_API_KEY请求头进行认证
  • 支持组织ID(可选):OpenAI-Organization: YOUR_ORG_ID

特色功能:

  • 支持流式响应(Server-Sent Events)
  • 支持Function Calling(函数调用)
  • 支持视觉理解(GPT-4V)
  • 支持JSON模式输出
  • 支持代码解释器

2. Anthropic Claude系列

模型概述:

  • Claude 4.5 Opus、Sonnet、Haiku
  • Claude 4 Opus、Sonnet、Haiku
  • Claude 3.5 Opus、Sonnet、Haiku
  • Claude 3 Opus、Sonnet、Haiku
  • Claude 2系列

API端点URL:

https://api.anthropic.com/v1/messages
https://api.anthropic.com/v1/complete

官方SDK:

  • Python: anthropic (官方Python SDK)
  • TypeScript/JavaScript: @anthropic-ai/sdk (官方TypeScript SDK)

认证方式:

  • 使用API Key通过x-api-key: YOUR_API_KEY请求头
  • 需要指定API版本:anthropic-version: 2023-06-01

特色功能:

  • 超长上下文支持(最高200K tokens)
  • 强大的安全性和对话管理
  • 支持系统提示词(System Prompt)
  • 支持工具使用(Tool Use)
  • 思考模式(Thinking Mode)

访问渠道:

  • 直接通过Anthropic API
  • 通过Amazon Bedrock
  • 通过Google Cloud Vertex AI

3. Google Gemini系列

模型概述:

  • Gemini 3 Pro
  • Gemini 2.5 Pro、Flash、Flash-Lite
  • Gemini 2.0 Flash
  • Gemini 1.5 Pro、Flash
  • Gemini 1.0 Pro

API端点URL:

Google AI Studio (简化版):

https://generativelanguage.googleapis.com/v1beta/models/MODEL_ID:generateContent
https://generativelanguage.googleapis.com/v1beta/models/MODEL_ID:streamGenerateContent
https://generativelanguage.googleapis.com/v1beta/openai/chat/completions (OpenAI兼容端点)

Vertex AI (企业版):

https://REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/REGION/publishers/google/models/MODEL_ID:generateContent

官方SDK:

  • Python:
    • google-generativeai (Google AI Studio)
    • google-cloud-aiplatform (Vertex AI)
  • Node.js: @google/generative-ai
  • Go: google-cloud-go/aiplatform
  • Java: Google Cloud Java库
  • 其他语言: 通过Google Cloud客户端库支持

认证方式:

  • Google AI Studio: API Key通过x-goog-api-key或查询参数key
  • Vertex AI: Google Cloud认证(Application Default Credentials或Service Account)

特色功能:

  • 多模态支持(文本、图像、视频、音频)
  • 超长上下文(最高2M tokens)
  • 原生代码执行能力
  • 搜索增强(Grounding with Google Search)
  • 思考预算控制(Thinking Budget)

4. xAI Grok系列

模型概述:

  • Grok 4.1
  • Grok 4
  • Grok 3
  • Grok 2
  • Grok 1.5

API端点URL:

https://api.x.ai/v1/chat/completions
https://api.x.ai/v1/embeddings

官方SDK:

  • 完全兼容OpenAI SDK,只需修改base_url
  • Python: 使用openai库,设置base_url="https://api.x.ai/v1"
  • Node.js: 使用openai包,设置baseURL: "https://api.x.ai/v1"

认证方式:

  • 使用Bearer Token: Authorization: Bearer YOUR_XAI_API_KEY

特色功能:

  • 实时信息获取能力
  • 推特数据训练优势
  • OpenAI API完全兼容

5. Mistral AI系列

模型概述:

  • Mistral Large、Medium、Small
  • Mistral OCR
  • Codestral (代码专用)
  • Mixtral系列

API端点URL:

https://api.mistral.ai/v1/chat/completions
https://api.mistral.ai/v1/embeddings
https://api.mistral.ai/v1/models

官方SDK:

  • Python: mistralai (官方Python SDK)
  • TypeScript/JavaScript: @mistralai/mistralai (官方SDK)
  • 其他: 可通过Azure AI、AWS Bedrock访问

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 强大的多语言支持
  • 高性价比
  • OCR专用模型
  • 代码生成专用模型Codestral

6. Cohere系列

模型概述:

  • Command R+
  • Command R
  • Embed系列(文本嵌入)
  • Rerank系列(重排序)

API端点URL:

https://api.cohere.com/v2/chat
https://api.cohere.com/v2/embed
https://api.cohere.com/v1/rerank
https://api.cohere.com/v1/models

官方SDK:

  • Python: cohere (官方Python SDK)
  • Node.js/TypeScript: cohere-ai (官方SDK)
  • Go: cohere-go
  • Java: cohere-java

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 企业级RAG优化
  • 多语言嵌入模型
  • 专业的重排序(Rerank)能力
  • 支持私有部署

二、国内主流大模型

1. 阿里通义千问(Qwen)

模型概述:

  • Qwen-2.5-Max (旗舰版)
  • Qwen-Turbo
  • Qwen-Plus
  • QwQ-32B-Preview (推理模型)
  • Qwen系列开源模型

API端点URL:

https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generation
https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions (OpenAI兼容)

官方SDK:

  • Python: dashscope (阿里云百炼平台SDK)
  • Java: dashscope-sdk-java
  • Node.js: 官方JavaScript SDK

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEYX-DashScope-SSE请求头

特色功能:

  • 百万级上下文窗口
  • 强大的中文理解能力
  • 多模态支持
  • 开源模型可本地部署

控制台:

https://dashscope.console.aliyun.com/

2. 百度文心一言(ERNIE)

模型概述:

  • ERNIE 4.0
  • ERNIE 3.5
  • ERNIE Speed、Lite(免费)
  • ERNIE Tiny-8K

API端点URL:

https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-4.0-turbo-128k
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-speed-128k

官方SDK:

  • Python: qianfan (千帆SDK)
  • Java: 千帆Java SDK
  • Go: 千帆Go SDK
  • Node.js: 千帆Node.js SDK

认证方式:

  • 需要先获取Access Token
  • 使用API Key和Secret Key获取Token
  • Token获取端点: https://aip.baidubce.com/oauth/2.0/token
  • 请求时附加: ?access_token=YOUR_ACCESS_TOKEN

特色功能:

  • 知识增强
  • 免费模型(ERNIE Speed、Lite)
  • 完整的MAAS平台
  • 支持SFT(监督微调)和RLHF

控制台:

https://console.bce.baidu.com/qianfan/

3. 腾讯混元(Hunyuan)

模型概述:

  • Hunyuan-Large
  • Hunyuan-Lite
  • Hunyuan-Turbo
  • Hunyuan-Pro

API端点URL:

https://hunyuan.tencentcloudapi.com/

注意:腾讯云API使用统一的接入点,通过不同的Action参数区分操作:

Action=ChatCompletions (对话)
Action=GetEmbedding (嵌入)

官方SDK:

  • Python: tencentcloud-sdk-python
  • Java: tencentcloud-sdk-java
  • Go: tencentcloud-sdk-go
  • Node.js: tencentcloud-sdk-nodejs
  • PHP: tencentcloud-sdk-php

认证方式:

  • 使用腾讯云SecretId和SecretKey
  • 签名认证(Signature V3)

特色功能:

  • 强大的中文创作能力
  • 深度集成腾讯生态
  • 多模态能力
  • 企业级安全保障

控制台:

https://console.cloud.tencent.com/hunyuan

4. 讯飞星火(Spark)

模型概述:

  • Spark Max
  • Spark Pro
  • Spark Lite (免费)
  • Spark4.0 Ultra

API端点URL:

wss://spark-api.xf-yun.com/v4.0/chat (WebSocket)
wss://spark-api.xf-yun.com/v3.5/chat (WebSocket)
wss://spark-api.xf-yun.com/v3.1/chat (WebSocket)
wss://spark-api.xf-yun.com/v2.1/chat (WebSocket)

注意:讯飞星火使用WebSocket协议而非HTTP REST API

官方SDK:

  • Python: spark_ai_python (非官方但推荐)
  • Java: 官方Java SDK
  • 其他: 官方提供各语言示例代码

认证方式:

  • 使用APPID、APISecret、APIKey
  • 通过WebSocket握手时的URL参数进行认证
  • 需要生成签名(基于HmacSHA256)

特色功能:

  • 教育场景优化
  • 语音能力强大
  • Lite版本永久免费
  • 多模态理解

控制台:

https://console.xfyun.cn/services/bm3

5. 智谱AI ChatGLM系列

模型概述:

  • GLM-4.6 (最新)
  • GLM-4.5、GLM-4
  • GLM-4-Plus
  • GLM-4-Flash
  • GLM-4V (视觉)
  • CogView、CogVideo (多模态)

API端点URL:

https://open.bigmodel.cn/api/paas/v4/chat/completions
https://open.bigmodel.cn/api/paas/v4/embeddings
https://open.bigmodel.cn/api/paas/v4/images/generations
https://open.bigmodel.cn/api/paas/v4/videos/generations

官方SDK:

  • Python: zhipuai (官方Python SDK)
  • Java: 官方Java SDK
  • 其他: 提供HTTP API标准接口

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY
  • JWT Token认证

特色功能:

  • 128K超长上下文
  • Agent能力强大
  • 多模态生成(文生图、文生视频)
  • 开源友好
  • 工具调用(Function Calling)

控制台:

https://open.bigmodel.cn/

6. 月之暗面 Moonshot(Kimi)

模型概述:

  • moonshot-v1-8k
  • moonshot-v1-32k
  • moonshot-v1-128k

API端点URL:

https://api.moonshot.cn/v1/chat/completions
https://api.moonshot.cn/v1/files
https://api.moonshot.cn/v1/models

官方SDK:

  • 兼容OpenAI SDK
  • Python: 使用openai库,设置base_url="https://api.moonshot.cn/v1"
  • Node.js: 使用openai包,设置相应base_url

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 超长上下文处理(最高200K)
  • 优秀的长文档理解
  • 文件上传分析
  • OpenAI API完全兼容

控制台:

https://platform.moonshot.cn/

7. 深度求索 DeepSeek系列

模型概述:

  • DeepSeek-V3 (基础模型)
  • DeepSeek-R1 (推理模型)
  • DeepSeek-Coder (代码专用)
  • DeepSeek-Chat

API端点URL:

https://api.deepseek.com/v1/chat/completions
https://api.deepseek.com/v1/models

官方SDK:

  • 完全兼容OpenAI SDK
  • Python: 使用openai库,设置base_url="https://api.deepseek.com"
  • Node.js: 使用openai包,设置相应base_url

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 极高性价比(价格最低)
  • 推理模型R1性能强大
  • 代码能力突出
  • MoE架构
  • 开源模型可本地部署

控制台:

https://platform.deepseek.com/

8. 字节跳动 豆包(Doubao)

模型概述:

  • Doubao-pro-256k
  • Doubao-lite-128k
  • Doubao-vision (视觉)

API端点URL:

https://ark.cn-beijing.volces.com/api/v3/chat/completions

官方SDK:

  • Python: 火山引擎SDK
  • Java: 火山引擎Java SDK
  • Go: 火山引擎Go SDK

认证方式:

  • 通过火山引擎平台认证
  • API Key方式

特色功能:

  • 256K上下文窗口
  • 高性价比
  • 多模态能力
  • 深度集成字节生态

控制台:

https://console.volcengine.com/ark

9. MiniMax(海螺AI)

模型概述:

  • MiniMax-Text-01
  • MiniMax-VL-01 (视觉语言)
  • abab系列

API端点URL:

https://api.minimax.chat/v1/text/chatcompletion_v2
https://api.minimax.chat/v1/embeddings

官方SDK:

  • Python: 官方Python SDK
  • 其他: 提供标准HTTP API

认证方式:

  • API Key和Group ID
  • 通过请求头认证

特色功能:

  • 语音合成能力超强
  • 多模态支持
  • 适合音频应用场景

控制台:

https://www.minimaxi.com/platform

10. 百川智能 Baichuan系列

模型概述:

  • Baichuan4
  • Baichuan3-Turbo
  • Baichuan2系列

API端点URL:

https://api.baichuan-ai.com/v1/chat/completions
https://api.baichuan-ai.com/v1/embeddings

官方SDK:

  • Python: 官方Python SDK
  • 其他: 标准HTTP API

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 中文能力突出
  • 多行业应用优化
  • 开源与闭源结合

控制台:

https://platform.baichuan-ai.com/

11. 360智脑

模型概述:

  • 360GPT-Pro
  • 360GPT-Turbo

API端点URL:

https://api.360.cn/v1/chat/completions

官方SDK:

  • 标准HTTP API
  • 兼容OpenAI格式

认证方式:

  • API Key认证

12. 阶跃星辰 Step系列

模型概述:

  • Step-2
  • Step-1

API端点URL:

https://api.stepfun.com/v1/chat/completions

官方SDK:

  • 兼容OpenAI SDK

认证方式:

  • API Key通过Authorization: Bearer YOUR_API_KEY

特色功能:

  • 推理能力强
  • 多模态支持

三、使用建议与最佳实践

1. SDK选择建议

Python开发:

  • OpenAI生态: 使用官方openai
  • 国产模型: 各厂商官方SDK或使用兼容的openai
  • 多模型管理: 考虑使用LangChain或LlamaIndex

JavaScript/TypeScript开发:

  • 首选各厂商官方SDK
  • 使用Vercel AI SDK统一管理多个provider

企业级应用:

  • 考虑使用云服务商的托管服务(如AWS Bedrock、Azure OpenAI)
  • 优先选择有SLA保障的企业版API

2. 成本优化

性价比排名(2025年):

  1. 最便宜: DeepSeek(输入约¥1/百万tokens)
  2. 中等价位: 国产大模型(¥5-15/百万tokens)
  3. 高价位: OpenAI GPT-4系列(约$2-30/百万tokens)

节省成本技巧:

  • 使用免费层级(讯飞Lite、文心Lite、百度Tiny)
  • 利用缓存机制(Prompt Caching)
  • 批量请求(Batch API)
  • 选择合适规模的模型(不过度使用旗舰版)

3. 安全注意事项

  • API Key管理:

    • 使用环境变量存储
    • 定期轮换
    • 设置使用限额
  • 数据隐私:

    • 了解各厂商的数据保留政策
    • 敏感数据加密传输
    • 考虑私有化部署方案
  • 速率限制:

    • 实现请求重试机制
    • 使用指数退避策略
    • 监控使用量

4. 性能优化

  • 流式响应: 提升用户体验,减少首字延迟
  • 并发控制: 合理设置并发数,避免触发限流
  • 模型选择: 根据任务复杂度选择合适模型
  • 上下文管理: 合理控制输入长度,避免不必要的token消耗

5. 模型选择指南

场景推荐:

  • 通用对话: GPT-4.1、Claude 3.5 Sonnet、通义千问Max
  • 代码生成: DeepSeek-Coder、GPT-4、Codestral、GLM-4
  • 长文档分析: Claude 3.5 Sonnet、Moonshot、Gemini 2.5 Pro
  • 推理任务: DeepSeek-R1、GPT-5、o3、QwQ
  • 多模态: GPT-4V、Gemini、GLM-4V
  • 性价比: DeepSeek系列、豆包、通义千问Turbo
  • 中文场景: 文心一言、通义千问、GLM系列、讯飞星火

四、快速开始示例

OpenAI风格调用(通用模板)

from openai import OpenAI

# 适用于: OpenAI、DeepSeek、Moonshot、Grok等
client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.openai.com/v1"  # 根据不同服务商修改
)

response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手"},
        {"role": "user", "content": "你好"}
    ],
    stream=False
)

print(response.choices[0].message.content)

国产模型调用示例

# 通义千问
from dashscope import Generation

response = Generation.call(
    model='qwen-max',
    messages=[{'role': 'user', 'content': '你好'}],
    api_key='YOUR_API_KEY'
)

# 智谱GLM
from zhipuai import ZhipuAI

client = ZhipuAI(api_key="YOUR_API_KEY")
response = client.chat.completions.create(
    model="glm-4",
    messages=[{"role": "user", "content": "你好"}],
)

五、总结

选择大模型API时需要综合考虑:

  • 性能要求: 推理能力、多模态需求
  • 成本预算: Token价格、免费额度
  • 应用场景: 通用对话、代码生成、文档分析
  • 服务稳定性: SLA保障、技术支持
  • 生态兼容性: SDK支持、社区活跃度

国际模型(GPT、Claude、Gemini)在通用能力上仍有优势,但国产模型在中文理解、性价比、服务响应等方面表现优秀,且支持本地部署,适合企业级应用。

建议开发者根据具体需求选择合适的模型,并在开发中保持API的灵活切换能力,以应对技术演进和成本变化。


最后更新时间: 2025年12月

参考资源:

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐