【大模型测试】Python 调用大模型 API 接口开发指南(2026 超详细实战教程)

以下是基于 2026 年最新实践的 Python 调用大模型(Large Language Models, LLM)API 接口开发指南。大模型 API 已成为 AI 开发的核心(如文本生成、聊天机器人、代码补全、翻译等)。我们将从零起步,覆盖主流提供商(如 OpenAI、Anthropic、Groq、Hugging Face、Google Gemini 等),包括环境准备、基本调用、高级技巧、统一框架、性能优化和完整项目实战。

教程基于 Python 3.12+,参考了 2026 年主流文档和社区最佳实践(如 LiteLLM SDK、Groq 集成等)。 假设你有基本的 Python 知识(如 import、函数、异常处理)。如果你是初学者,先安装 Python 和 pip。

为什么学这个?

  • 2026 年,LLM API 已标准化(OpenAI 格式主导),调用简单,但需处理 API 密钥、限速、成本。
  • 应用场景:构建聊天 App、自动化脚本、数据分析工具。
  • 免费/付费选项:免费试用常见,但生产级需付费(e.g., OpenAI $0.02/1K tokens)。
0. 环境准备(5 分钟)
  1. 安装 Python 依赖
    使用 pip 安装核心库。推荐用虚拟环境(venv)。

    # 基础:请求库
    pip install requests httpx
    
    # 主流 SDK(推荐)
    pip install openai anthropic groq huggingface-hub litellm  # LiteLLM 为统一 SDK
    
    # 可选:异步/流式(高性能)
    pip install aiohttp asyncio
    
    # 集成框架(高级)
    pip install langchain streamlit  # LangChain 为链式调用,Streamlit 为 UI
    
  2. 获取 API 密钥

    • OpenAI:官网 platform.openai.com/account/api-keys 创建密钥。
    • Anthropic (Claude):console.anthropic.com/account/keys。
    • Groq:console.groq.com/keys(免费试用快)。
    • Hugging Face:huggingface.co/settings/tokens(免费推理 API)。
    • Google Gemini:makersuite.google.com/app/apikey。
    • 存储密钥:用环境变量(安全)。e.g., export OPENAI_API_KEY="sk-..."(Windows 用 set)。
  3. 测试环境

    import os
    print(os.environ.get("OPENAI_API_KEY"))  # 应输出你的密钥
    
1. 主流大模型 API 提供商速览(2026 Top 8)

基于 2026 年市场, 以下是热门选项(免费/付费混合)

提供商 核心模型示例 优势 定价(输入/输出 per 1K tokens) Python SDK 免费额度
OpenAI GPT-4o, GPT-4o-mini 多模态(文本+图像+音频),工具调用强 $2.5/$10 (GPT-4o) openai $5 试用
Anthropic Claude 3.5 Sonnet 大上下文(200K+ tokens),安全 $3/$15 anthropic 免费试用限速
Groq Llama 3.1 70B, Mixtral 超快推理(LPU 硬件),开源模型 $0.24/$0.24 (Mixtral) groq 免费 API 限额
Hugging Face Llama 3, Mistral 开源模型免费推理,自定义 免费/付费(Inference API) huggingface-hub 无限免费(限速)
Google Gemini Gemini 1.5 Pro 多模态+搜索集成 $0.5/$1.5 google-generativeai 免费试用
Mistral AI Mistral Large 2 高效多语言 $2/$6 mistralai 免费社区模型
Cohere Aya 23B 企业级自定义 $0.5/$1 cohere 免费试用
ElevenLabs Voice AI (非纯文本) 语音合成 $0.18/min elevenlabs 免费 10K chars

选择建议:初学者从 OpenAI/Groq 开始(SDK 简单)。生产用 LiteLLM 统一多提供商。

2. 基本调用(Hello World 级)

核心:发送提示(prompt),获取响应。以下是单行/简单示例。

2.1 OpenAI 示例
import os
from openai import OpenAI

client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "解释量子计算,简短点。"}]
)

print(response.choices[0].message.content)

输出示例:量子计算利用量子比特进行并行计算,能解决经典计算机难题,如因子分解。

2.2 Anthropic (Claude) 示例
import os
from anthropic import Anthropic

client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"])

response = client.messages.create(
    model="claude-3-5-sonnet-20241022",
    max_tokens=100,
    messages=[{"role": "user", "content": "写一首关于 AI 的短诗。"}]
)

print(response.content[0].text)
2.3 Groq 示例
import os
from groq import Groq

client = Groq(api_key=os.environ["GROQ_API_KEY"])

response = client.chat.completions.create(
    model="llama3-70b-8192",
    messages=[{"role": "user", "content": "Python 如何处理异常?"}]
)

print(response.choices[0].message.content)
2.4 Hugging Face Inference API 示例
import os
from huggingface_hub import InferenceClient

client = InferenceClient(token=os.environ["HF_TOKEN"])

response = client.text_generation(
    "meta-llama/Llama-3.2-3B-Instruct",
    "描述 Hugging Face 的作用。",
    max_tokens=50
)

print(response)

通用提示:用 try-except 处理错误(如限速、密钥无效)。e.g., except Exception as e: print(e)

3. 高级技巧(生产级开发)
3.1 流式响应(Streaming)

实时输出(如聊天 App)。

# OpenAI 示例
stream = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "讲个笑话。"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")
3.2 异步调用(Async,高并发)

用 asyncio 并发多个请求。

import asyncio
from openai import AsyncOpenAI

async_client = AsyncOpenAI(api_key=os.environ["OPENAI_API_KEY"])

async def async_call(prompt):
    response = await async_client.chat.completions.create(
        model="gpt-4o-mini",
        messages=[{"role": "user", "content": prompt}]
    )
    return response.choices[0].message.content

async def main():
    tasks = [async_call("提示1"), async_call("提示2")]
    results = await asyncio.gather(*tasks)
    print(results)

asyncio.run(main())
3.3 工具调用(Function Calling)

让模型调用自定义函数(如计算器)。OpenAI/Anthropic 支持。

# OpenAI 工具示例
tools = [{"type": "function", "function": {
    "name": "add_numbers",
    "description": "加两个数",
    "parameters": {"type": "object", "properties": {
        "a": {"type": "number"}, "b": {"type": "number"}
    }, "required": ["a", "b"]}
}}]

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "3+5=?"}],
    tools=tools
)

# 如果调用工具,执行函数
if response.choices[0].message.tool_calls:
    tool_call = response.choices[0].message.tool_calls[0]
    if tool_call.function.name == "add_numbers":
        args = json.loads(tool_call.function.arguments)
        result = args["a"] + args["b"]
        print(result)
3.4 多模态(图像/音频)

OpenAI GPT-4o 支持。

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": [
        {"type": "text", "text": "描述这张图。"},
        {"type": "image_url", "image_url": {"url": "https://example.com/image.jpg"}}
    ]}]
)
print(response.choices[0].message.content)
4. 统一多提供商:LiteLLM SDK(推荐 2026 实践)

LiteLLM 支持 100+ LLM,一键切换。

from litellm import completion
import os

os.environ["OPENAI_API_KEY"] = "..."
os.environ["ANTHROPIC_API_KEY"] = "..."

# 调用 OpenAI
response = completion(model="gpt-4o-mini", messages=[{"role": "user", "content": "Hi!"}])

# 切换到 Claude
response = completion(model="claude-3-5-sonnet-20241022", messages=[{"role": "user", "content": "Hi!"}])

print(response.choices[0].message.content)

优势:成本跟踪、负载均衡、日志。

5. 集成框架:LangChain(链式/代理开发)

构建复杂应用。

from langchain_groq import ChatGroq
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain

llm = ChatGroq(model="llama3-70b-8192", api_key=os.environ["GROQ_API_KEY"])

prompt = PromptTemplate(input_variables=["topic"], template="解释 {topic}。")
chain = LLMChain(llm=llm, prompt=prompt)

print(chain.run("区块链"))
6. 性能优化 & 最佳实践
优化点 做法示例 收益参考
限速处理 用 time.sleep() 或 retry 库 避免封禁
成本控制 计算 tokens(tiktoken 库),用 LiteLLM 跟踪 节省 20-50%
错误重试 pip install tenacity;@retry 装饰器 鲁棒性 ↑
监控/日志 用 Langfuse 集成(e.g., Groq)。 追踪使用
安全 环境变量存密钥;输入过滤防注入
批量处理 batch API(OpenAI 支持) 5-10x 快
  • 常见错误:401(密钥错)、429(限速)、超时(加 timeout=30)。
  • 本地运行:用 Ollama/Hugging Face Transformers 跑开源模型(无 API 费)。 e.g., from transformers import pipeline; pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-3B")
7. 完整项目实战:Streamlit 聊天机器人

用 Groq 构建 Web UI。

app.py

import streamlit as st
from groq import Groq
import os

client = Groq(api_key=os.environ["GROQ_API_KEY"])

st.title("Groq 聊天机器人")

if "messages" not in st.session_state:
    st.session_state.messages = []

for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])

prompt = st.chat_input("说点什么?")
if prompt:
    st.session_state.messages.append({"role": "user", "content": prompt})
    with st.chat_message("user"):
        st.markdown(prompt)

    with st.chat_message("assistant"):
        stream = client.chat.completions.create(
            model="mixtral-8x7b-32768",
            messages=[{"role": m["role"], "content": m["content"]} for m in st.session_state.messages],
            stream=True
        )
        response = st.write_stream(chunk.choices[0].delta.content or "" for chunk in stream)
    st.session_state.messages.append({"role": "assistant", "content": "".join(response)})

运行:streamlit run app.py。访问 localhost:8501。

扩展:加历史记录、工具调用、数据库存储。

8. 进阶学习路线(2026 版)
阶段 重点 资源
入门 基本调用、流式 OpenAI/Groq 官方 docs;本教程
中级 工具/多模态、LangChain LangChain 教程;Hugging Face 课程
高级 微调/代理、RAG “From Zero to LLM Hero” 指南; LiteLLM GitHub
专家 网关/观测、自定义模型 Helicone/BricksLLM; PyTorch 集成

有具体提供商或功能想深入?如 OpenAI 微调、Groq LPU 优化、Hugging Face 自定义端点?告诉我,我继续展开~

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐