【Claude】如何通过 nengyongai 获取Claude API密钥 Claude API密钥申请与使用方法
Claude 是 Anthropic 旗下的核心大语言模型(Large Language Models,简称 LLMs)品牌,围绕这一技术推出了多款具有广泛影响力的产品与服务,涵盖文本生成、对话交互、长文档处理、企业级定制等多个领域,其核心优势在于。针对国内用户,由于部分海外服务访问限制,可以通过国内平台“进阶代码:根据用户反馈的问题,用Claude进行问题分类。拥有了API Key后,接下来就是
·
文章目录
Claude 的核心技术与产品
Claude 是 Anthropic 旗下的核心大语言模型(Large Language Models,简称 LLMs)品牌,围绕这一技术推出了多款具有广泛影响力的产品与服务,涵盖文本生成、对话交互、长文档处理、企业级定制等多个领域,其核心优势在于更强的安全性、更长的上下文窗口、更精准的指令遵循能力。
Claude 大语言模型系列
1.1 Claude 基础系列
1.2 Claude 1
- 发布时间:2022 年
- 介绍:Anthropic 推出的首款商用大语言模型,宪法式 AI 技术的首次规模化落地尝试,填补了“安全可控型商用大模型”的市场空白。
- 主要能力:
- 文本理解、长文档总结、合规对话表现突出。
- 精准捕捉文本核心语义与深层逻辑。
- 高效完成长篇内容提炼、关键信息抽取与合规性初步审核。
- CAI 技术加持下,敏感问题回应与伦理边界把控可靠,规避合规风险。
- 上下文窗口:最长 9000 tokens(约 6.75 万字文本)。
- 影响:为后续模型迭代奠定基础,首次让市场认识到“安全可控”与性能并不矛盾。
1.3 Claude 2
- 发布时间:2023 年 7 月
- 核心升级:
- 上下文窗口扩展至 100000 tokens(约 7.5 万字文本),打破当时商用大语言模型上下文长度限制。
- 可一次性处理整本书籍、长篇法律合同、完整代码库、海量数据分析报告等大体积内容。
- 避免分段拆分导致的逻辑断裂问题。
- 产品形态:
- 开放网页版免费对话界面与商业化 API 服务。
- 实现“免费试用+付费商用”的分层模式。
- 能力提升:
- 支持复杂推理任务,如法律条文深度分析、数学公式推导、多语言代码编写与调试、学术论文润色与查重辅助。
- 安全与性能:
- 优化 CAI 准则与推理架构,减少“幻觉”内容生成。
- 提升对话流畅度。
- 应用领域:法律审核、代码开发、学术辅助等。
1.4 Claude 2.1
- 发布时间:2023 年 12 月
- 主要升级:
- 上下文窗口翻倍至 200000 tokens(约 15 万字文本),成为当时全球上下文最长的商用大语言模型之一。
- 轻松处理超长篇企业年报、全套项目方案、多章节学术专著、大型行业调研报告等极端长文本。
- 保持文本细节精准捕捉与逻辑连贯,无需人工分段。
- 事实准确性优化:
- 升级预训练数据质量,新增权威学术与行业规范数据。
- 优化推理逻辑链条,显著降低“幻觉”概率。
- 错误率较 Claude 2 明显下降。
- 其他优化:
- API 响应稳定性提升。
- 多轮对话记忆能力增强,支持更长周期连贯对话。
- 适用场景:企业级文档审核、精准数据分析、学术研究辅助等高准确性需求场景。
1.5 Claude 3 系列
- 发布时间:2024 年 3 月
- 发展阶段:进入“多模态、全场景、分层适配”新阶段,技术实力全面爆发。
- 核心突破:
- 文本理解与生成能力达到行业顶尖水平,支持复杂逻辑推理、专业领域解读、创意内容生成、多语言翻译。
- 新增多模态处理功能,支持识别图像、图表、PDF 中的可视化内容(表格、示意图、图片文字),完成解读、分析与总结。
- 版本与特点:
- Claude 3 Opus(顶级旗舰)
- 上下文窗口:200000 tokens。
- 适用高端专业场景,如量子物理公式推导、大型代码库重构、跨国法律合同审核、复杂数据分析建模。
- 多模态处理精度最高。
- Claude 3 Sonnet(平衡型)
- 上下文窗口:100000 tokens。
- 性能与效率平衡,响应速度优于 Opus,性价比高。
- 适合中小企业、普通专业用户。
- Claude 3 Haiku(轻量高速型)
- 上下文窗口:20000 tokens。
- 毫秒级响应速度,资源消耗低,适合实时对话、智能客服、移动端应用、高频简单文本处理。
- Claude 3 Opus(顶级旗舰)
- 其他:
- 多语言支持能力增强,覆盖数十种语言。
- 安全性与合规性进一步强化,适配全球隐私法规。
1.6 Claude 4 系列
- 发布时间:2025 年 5 月
- 版本:Claude Opus 4(顶级旗舰)、Claude Sonnet 4(平衡型)
- 核心突破:
- AI 智能体能力、超长时任务处理、编程性能三大维度升级。
- 从“高效辅助工具”向“自主协作伙伴”进化。
- 安全架构:
- 继续采用宪法式 AI(CAI)安全架构,分级部署。
- Opus 4 遵循 AI 安全级别 3,Sonnet 4 遵循级别 2。
- 通过123页模型卡完成全面安全测试。
- 技术创新:
- 混合思考架构,实现“及时响应与深度思考”双重兼顾。
- 新增多项工具扩展能力,提升自主任务执行效率。
- 版本特点:
- Claude 4 Opus
- 全球顶尖编程与复杂任务处理模型。
- 连续7小时不间断生成工业级高质量代码。
- 基准测试成绩:SWE-bench 72.5%,Terminal-bench 43.2%,高计算模式下达79.4%。
- 适合大型复杂系统开发、量子物理推导、跨国法律合同审核。
- Claude 4 Sonnet
- 高性价比与高效适配。
- SWE-bench 成绩 72.7%,错误率显著降低。
- 支持连续长时间任务处理,适合中小企业与个人开发者。
- Claude 4 Opus
- 配套功能:
- 工具扩展思考(Beta版),推理与网络搜索工具灵活切换。
- 并行工具使用能力,支持本地文件访问权限,提升记忆能力。
- 发布 Claude Code,支持 GitHub Actions 后台任务执行,原生集成 VS Code、JetBrains。
- API 新增代码执行工具、MCP连接器、Files API、一小时 Prompt 缓存。
- 实测表现:
- 可编写《宝可梦》游戏自动化脚本,连续运行24小时完成全流程通关。
1.7 Claude 4.5 版本(Sonnet 4.5)
- 发布时间:2025 年 9 月 30 日
- 定位:“世界上最好的编程模型”,Claude 4 系列迭代升级。
- 核心突破:
- 超长时任务处理能力大幅提升,支持超过30小时持续注意力。
- 可自主完成长达30小时的复杂代码开发任务。
- 保持大量代码库一致性,行业评价极高。
- 基准测试:
- SWE-bench Verified 测试业界第一,比 GPT-5-Codex 高出 7.5 个百分点。
- OSWorld 基准测试得票率 61.4%,较 Claude Sonnet 4 的 42.2% 大幅提升。
- 能力提升:
- 金融、法律、医学、STEM 等专业领域知识与推理能力显著增强。
- 优于旧版本(包括 Opus 4.1)。
- 产品体验:
- 新增“检查点”功能,支持任务进度保存与一键回退。
- 终端界面翻新,代码执行与文件创建整合对话流程。
- 支持浏览器自主导航、填写电子表格、编辑 Office 三件套、撰写邮件。
- 新功能:
- 临时预览“Imagine with Claude”,实时生成软件,无需预设功能或提前编写代码。
- 该功能发布后五天内对 Max 订阅用户开放。
- 价格:
- 与 Sonnet 4 保持一致,3 美元/百万输入 tokens,15 美元/百万输出 tokens。
- 成本较 Opus 4.1 降低约 5 倍,降低企业与个人使用门槛。

通过“能用AI”获取API Key(国内)
针对国内用户,由于部分海外服务访问限制,可以通过国内平台“能用AI”获取API Key。
1、访问能用AI工具
在浏览器中打开能用AI进入主页
https://ai.nengyongai.cn/register?aff=PEeJ
登录后,导航至API管理页面。
2、生成API Key
- 点击“添加令牌”按钮。
- 创建成功后,点击“查看KEY”按钮,获取你的API Key。



3、使用大模型 API的实战教程
拥有了API Key后,接下来就是如何在你的项目中调用大模型 API了。以下以Python为例,详细展示如何进行调用。
(1).可以调用的模型
gpt-3.5-turbo
gpt-3.5-turbo-1106
gpt-3.5-turbo-0125
gpt-3.5-16K
gpt-4
gpt-4-1106-preview
gpt-4-0125-preview
gpt-4-1106-vision-preview
gpt-4-turbo-2024-04-09
gpt-4o-2024-05-13
gpt-4-32K
claude-2
claude-3-opus-20240229
claude-3-sonnet-20240229
等等100多种模型

(2).Python示例代码(基础)
基本使用:直接调用,没有设置系统提示词的代码
from openai import OpenAI
client = OpenAI(
api_key="这里是能用AI的api_key",
base_url="https://ai.nengyongai.cn/v1"
)
response = client.chat.completions.create(
messages=[
# 把用户提示词传进来content
{'role': 'user', 'content': "鲁迅为什么打周树人?"},
],
model='gpt-4', # 上面写了可以调用的模型
stream=True # 一定要设置True
)
for chunk in response:
print(chunk.choices[0].delta.content, end="", flush=True)
在这里插入代码片
(3).Python示例代码(高阶)
进阶代码:根据用户反馈的问题,用Claude进行问题分类
from openai import OpenAI
# 创建OpenAI客户端
client = OpenAI(
api_key="your_api_key", # 你自己创建创建的Key
base_url="https://ai.nengyongai.cn/v1"
)
def api(content):
print()
# 这里是系统提示词
sysContent = f"请对下面的内容进行分类,并且描述出对应分类的理由。你只需要根据用户的内容输出下面几种类型:bug类型,用户体验问题,用户吐槽." \
f"输出格式:[类型]-[问题:{content}]-[分析的理由]"
response = client.chat.completions.create(
messages=[
# 把系统提示词传进来sysContent
{'role': 'system', 'content': sysContent},
# 把用户提示词传进来content
{'role': 'user', 'content': content},
],
# 这是模型
model='gpt-4', # 上面写了可以调用的模型
stream=True
)
for chunk in response:
print(chunk.choices[0].delta.content, end="", flush=True)
if __name__ == '__main__':
content = "这个页面不太好看"
api(content)

通过这段代码,你可以轻松地与AI模型进行交互,获取所需的文本内容。✨
更多文章
更多推荐

所有评论(0)