摘要:谷歌最新发布的Gemini3Pro和NanoBananaPro在多模态能力上表现惊艳,但直接使用海外大模型面临注册繁琐、成本高昂等问题。文章介绍了AiOnly这一MaaS服务平台,它整合了80+国内外大模型,提供一键调用、按量计费等便捷功能。通过FastGPT智能体平台集成Gemini3Pro和NanoBananaPro,作者详细演示了如何搭建学习规划师应用,并提供了三个实用代码案例(多轮对话、论文摘要、小红书文案生成)。AiOnly平台有效解决了开发者使用顶级大模型的门槛问题,让AI应用开发更加高效便捷。

前言

实在是没想到,谷歌近期发布的Gemini 3 Pro让人惊喜的程度直接拉满了,在推理、多模态、Agent工具调用等关键基准测试中,直接实现了全方位霸榜。与此同时,搭载Gemini 3技术的Nano Banana Pro也跟着火出了圈,不仅角色一致性和世界知识理解能力出色,创意能力更是MAX。这两个顶级模型的出色表现,直接点燃了我学习的热情,也萌生了搭建自己专属工作流的想法。接下来,我将从零开始,基于Gemini 3 Pro以及Nano Banana Pro,构建一个学习规划师,让学习效率,事半功倍。

一、AI开发使用国外顶级模型的困境

正当我兴致满满准备开展工作的时候,出现了个尴尬的问题。要想使用这两个顶级大模型,首先要注册登录谷歌,然后再进行一系列的流程,最后才可以申请API,而且还不一定能成功。一想到这,刚才还高涨的热情一下子就被这盆冷水浇灭了一半。其实这种情况,我们日常AI开发过程中就会碰到,不仅如此,还会面临其他的几种情况:

1.大模型厂家平台繁琐的接入步骤、复杂的订阅、付款程序
以谷歌为例,单单账户注册就劝退了很多人。更不要提后续的订阅付款、需要准备的东西更是麻烦,最后还有可能过不了审核。相信这点大家也深有体会。

2.顶级模型的使用成本昂贵、且有随时被封号的风险
Gemini 3Pro 官方的定价为每百万输入代币2至4美元,每百万输出代币12至18美元,比Claude Sonnet 4.5便宜,但比GPT-5.1贵。而且还有被封号的危险,号与大模型皆失。

3.同时使用多平台的大模型,需要每个平台都要登录注册,管理混乱
使用谷歌的大模型,得去谷歌官网注册,GPT5模型,要去OpenAI的官网,使用不同厂家的模型越多,意味着管理的难度越大。

这上面一层层的阻碍,难道,就要止步于此了吗?

二、大模型MaaS服务平台的选择

出一款名为AiOnly的大模型MaaS服务平台出现直接打破了这一僵局。AiOnly秉承着"开发无门槛,创意零边界"的理念,具有以下特点

1.高效便捷,不再需要复杂的注册、订阅环节

一站融合海内外热门大模型,无需跨平台、多重注册等,尤其是海外大模型,免繁琐开户订阅,畅享高速专线,开箱即用,方便快捷。

2.极致的性价比

平台提供更优价格,一般低于官方刊例价(即标准定价),并采取按量计费(Token或次数),也支持先用后付、优惠量包等计费模式,极大降低模型使用成本,性价比高。

3.国内外顶级模型,一网打尽

大模型覆盖文本、图像、视频、语音、多模态等广泛场景,比如Claude、Gemini、GPT、VEO等海外模型家族,以及DeepSeek、Qwen、Seedream、Hailuo等国内系列模型,并持续上架最新模型。

4.官方正版授权,稳定流畅

平台集成大模型,均为官方正规授权,API接口标准化,兼容原厂全参数,一键调用稳定流畅,开通模型服务后,获取API Key,再配置到环境变量即可,助力提升开发效率。

5.与OpenAI保持同一标准,支持第三方集成

平台完全遵循了OpenAI的接口标准,可无缝切换以及集成,主打的就是丝滑流畅。

6.平台已经上线了两大核心功能

一是模型广场(已上架模型80+个),可浏览开通大模型服务,并创建和管理API Key,支持可视化查看调用情况

二是体验中心,可在线体验文本对话、图片生成、视频生成、语音合成等主流大模型能力

三、AiOnly开通Gemini 3 Pro系列模型

接下来,手把手教大家如何轻松接入这两个顶级模型。

1.进入AiOnly官网

2. 账户注册

完成基本的注册流程,通常支持多种登录方式。

整个注册的过程30秒搞定。

3.资源充值

根据平台规则进行资源充值,新用户通常有体验额度。

4.选择大模型

选择需要的大模型,点击开通服务(这里我以Gemini 3 Pro Preview为例子)。



确认开通

开通后,可以在开通管理看到已开通的大模型了。

nano banana Pro preview的开通也是同样的步骤,这里不再赘述了。这个时候,两个大模型我们都已经开通好了。

5.获取apikey(最重要的一步,没它不行)

1.点击菜单【API Key】,点击【创建API Key】

2.选择标准模式、填入名称、点击保存。

3.查看、复制API Key,密钥到手!

四、部署FastGPT智能体开发平台

FastGPT 是一个开源的基于 LLM 大语言模型的知识库问答系统,将智能对话与可视化编排完美结合,让 AI 应用开发变得简单自然。无论您是开发者还是业务人员,都能轻松打造专属的 AI 应用。fastgpt分为商业版、社区版。我们是自己用,安装PgVector版本就好了。(注意:教程是基于Linux系统)

1.准备 Docker 环境

# 安装 Docker
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
systemctl enable --now docker
# 安装 docker-compose
curl -L https://github.com/docker/compose/releases/download/v2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
# 验证安装
docker -v
docker-compose -v

2.使用脚本部署

执行bash <(curl -fsSL https://doc.fastgpt.cn/deploy/install.sh) --region=cn --vector=pg  
下载 config.json 文件
#所有 docker-compose.yml 配置文件中 MongoDB 为 5.x,需要用到AVX指令集,部分 CPU 不支持,
#需手动更改其镜像版本为 4.4.24**(需要自己在docker hub下载,阿里云镜像没做备份)

3.开放外网端口/配置域名

以下两个端口必须被访问到:

1.指向 3000 端口(FastGPT 主服务)

2.指向 9000 端口(S3 服务)

4.修改环境变量

修改 yml 文件顶部的S3_EXTERNAL_BASE_URL变量,改成 S3 的可访问地址(要求使用者可以访问)。

5.修改 config.json 配置文件

修改config.json文件中的mcpServerProxyEndpoint值,设置成mcp server的公网可访问地址,yml 文件中默认给出了映射到 3005 端口,如通过 IP 访问,则可能是:120.172.2.10:3005。

6.启动容器

docker-compose up -d

7.访问 FastGPT

可通过第三步开放的端口/域名访问 FastGPT。

登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW。

每次重启容器,都会自动初始化 root 用户,密码为 1234(与环境变量中DEFAULT_ROOT_PSW一致)。

8.配置模型

首次登录FastGPT后,系统会提示未配置语言模型索引模型,并自动跳转模型配置页面。系统必须至少有这两类模型才能正常使用。

目前已知可能问题:首次进入系统后,整个浏览器 tab 无法响应。此时需要删除该tab,重新打开一次即可。

9.显示如下,证明系统已正常运行

五、FastGpt集成Gemini 3 Pro、Nano Banana Pro Preview

1.新增模型

点击左上角的头像>模型提供商>模型配置>新增模型----选择语言模型

2.填写对应的模型参数

注意:密钥就是我们获取apikey 这一步骤获取的密钥

Nano Banana Pro Preview的添加也是同步骤,不再赘述。

添加成功后,如下图所示

六、搭建学习规划师

1.点击工作台>右上角新建>简易应用

2.填入名字,点击确认

3.选择Gemini3 Pro 模型,填入提示词、点击右上角的保存

4.点击左上角的【对话】,开始使用,见证奇迹时刻

输入内容:

我想深入了解java虚拟机、请给出可行的学习规划。

当前知识基础:Java工程师

可用时间:周六日

回复内容如下:

一份详细、周密、可落地的学习计划瞬间就完成了。

七、搭建学习规划师增强版(基于Nano Banana Pro)

虽然上面的学习计划已经规划好了,但都是文字的形式,相对来说比较枯燥,所以我决定借助Nano Banana Pro的能力,再打造个增强版。

1.整体的搭建步骤与上面的基本一致,只是第三步的模型选择要换成Nano Banana Pro

2.进行提问,再次见证奇迹时刻

图文结合,学习效率直线上升

八、经典代码案例

案例 1:30 行代码完成「多轮对话 + 自动统计 token」

import requests, json, os

AIIONLY_KEY = os.getenv("AIIONLY_KEY")          # 把密钥放在环境变量里
MODEL  = "gemini-3-pro-preview"                 # 也可换成 nano-banana-pro-preview
URL    = "https://api.aiionly.com/v1/chat/completions"

def chat(messages):
    """messages 为 OpenAI 格式的列表,返回 (回复文本, 总花费 token)"""
    r = requests.post(
        URL,
        headers={"Authorization": f"Bearer {AIIONLY_KEY}",
                 "Content-Type": "application/json"},
        json={"model": MODEL, "messages": messages, "stream": False}
    )
    r.raise_for_status()
    body = r.json()
    reply = body["choices"][0]["message"]["content"]
    usage = body["usage"]["total_tokens"]
    return reply, usage

if __name__ == "__main__":
    history = [{"role": "system",
                "content": "你是一位学习规划师,请用中文给出可落地的步骤。"}]
    while True:
        user = input(">>> ")
        if user.lower() == "q":
            break
        history.append({"role": "user", "content": user})
        answer, tk = chat(history)
        print("AI:", answer)
        history.append({"role": "assistant", "content": answer})
        print(f"[本次消耗 {tk} tokens]\n")

逐行解释

  1. 密钥走环境变量,避免硬编码泄漏。

  2. MODEL 字符串与 AiOnly「模型广场」里的 id 完全一致,换模型只改这一行。

  3. URL 固定为 https://api.aiionly.com/v1/chat/completions,与 OpenAI SDK 完全兼容。

  4. 返回体中的 usage 字段实时给出 prompt+completion 总 token,方便按量计费。


案例 2:5 行代码把 Gemini-3-Pro 变成「论文速读」摘要器

import requests, os, sys
text = open(sys.argv[1], encoding="utf-8").read()          # 读取本地论文 txt
prompt = f"用 3 段中文总结下文核心贡献与实验结果,每段不超过 80 字:\n\n{text}"
r = requests.post("https://api.aiionly.com/v1/chat/completions",
        headers={"Authorization": f"Bearer {os.getenv('AIIONLY_KEY')}"},
        json={"model": "gemini-3-pro-preview",
              "messages": [{"role": "user", "content": prompt}],
              "temperature": 0.3})
print(r.json()["choices"][0]["message"]["content"])

保存为 summarize.py,命令行一键执行:
python summarize.py paper.txt
→ 30 秒给出 240 字中文摘要,温度 0.3 保证事实一致性。


案例 3:30 行代码完成「批量生成小红书文案 + 自动重试」

import csv, os, time, requests

ENDPOINT = "https://api.aiionly.com/v1/chat/completions"
KEY      = os.getenv("AIIONLY_KEY")
MODEL    = "nano-banana-pro-preview"   # 创意能力 MAX 版本

def gen_copilot(topic, retry=3):
    payload = {
        "model": MODEL,
        "temperature": 0.9,
        "messages": [{"role": "user",
                      "content": f"给「{topic}」写 1 条小红书爆款文案,"
                                 "带 emoji 和标签,字数 120~150。"}]
    }
    for i in range(retry):
        try:
            r = requests.post(ENDPOINT, headers={"Authorization": f"Bearer {KEY}"},
                              json=payload, timeout=30)
            return r.json()["choices"][0]["message"]["content"]
        except Exception as e:
            print("retry", i+1, e)
            time.sleep(2**i)            # 指数退避
    return ""

# 读取 100 个选题,批量落库
with open("topics.csv", newline="", encoding="utf-8") as f, \
     open("xiaohongshu.csv", "w", newline="", encoding="utf-8") as wf:
    reader, writer = csv.reader(f), csv.writer(wf)
    writer.writerow(["topic", "copy"])
    for row in reader:
        t = row[0]
        writer.writerow([t, gen_copilot(t)])
        time.sleep(0.5)      # 限速,避免突增并发

关键设计

  1. 温度 0.9 + nano-banana-pro-preview,保证创意发散。

  2. 指数退避重试,网络抖动或 429 限额时自动回血。

  3. 统一走 csv,方便后续直接导入飞书/Notion 数据库。

九、总结

在人工智能技术快速发展的背景下,通过合理的工具选择和系统集成,可以相对便捷地构建出功能强大的AI应用。而AiOnly的横空出世,恰如一把精准的钥匙,以"唯此一钥,万模之门"的底气,轻巧叩开了这扇曾遥不可及的大门,为人们架起了触碰最新AI动向的桥梁。

驾驭不同它以"开发无门槛,创意零边界"为初心,将免费注册的便捷、高性价比的实惠与多模型聚合的强大融于一体,既打破了开发者被单一平台束缚的局限,更让普通人也能轻松模型的特性。从教育场景的个性化辅导,到办公领域的效率革新,AiOnly正让专属AI工具的打造不再是专业人士的专利,而是每个人释放创意与效率潜能的抓手。在实际使用前详细了解相关服需要注意的是,不同平台的服务内容和计费方式可能存在差异,建务条款。同时,技术方案的选择应该基于项目需求和个人技术能力进行综合考量。

AiOnly企业级MaaS平台官网:https://aiionly.com

GPT/Claude/Gemini API接入文档:https://aiionly.com/document

文章关键字解说:

1. AiOnly – 一站式 MaaS 平台,聚合 80+ 海内外官方正版模型,OpenAI 接口标准,免翻墙、免外币卡。  
2. MaaS – Model-as-a-Service,把大模型当水电用,按 Token/次数计费,开箱即用。  
3. Gemini-3-Pro – 谷歌最新多模态旗舰,推理、代码、长文理解三榜第一,AiOnly 已上架。  
4. Nano-Banana-Pro – 同系创意模型,角色一致性、世界知识、图文混排能力 MAX,适合做营销/教育素材。  
5. API-Key – 平台唯一凭证,创建即得,放入请求头 Bearer 即可调用,支持随时滚动更新。  
6. Token – 计费单元,1K 汉字≈1.8k token,AiOnly 价低于官方刊例,先充后用。  
7. 按量计费 – 用多少扣多少,无最低消费,支持先用后付、优惠量包,适合个人及企业。  
8. 官方授权 – 所有模型均与原厂签约,接口全参数兼容,稳定性>99.9%,无惧封号。  
9. 模型广场 – 可视化货架,一键开通/关闭模型,实时查看 QPS、Token、费用曲线。  
10. 体验中心 – 在线免代码试聊、试画、试视频,30 秒验证效果再决定接入。  
11. FastGPT – 开源 LLM 编排系统,支持知识库、插件、工作流,本文用 PgVector 版一键 Docker。  
12. 工作流 – 把“提示词+模型+后置脚本”串成 Pipeline,可复用、可分享、可上线。  
13. 学习规划师 – 本文实战案例,用 Gemini-3-Pro 生成文字版计划,Nano-Banana-Pro 再出图文混合增强版。  
14. 多轮对话 – 基于 messages 数组上下文记忆,Token 实时统计,随时插入系统提示纠偏。  
15. 指数退避 – 批量调用时的容错策略,遇 429/网络抖动自动 2ⁿ 秒重试,保障任务完整率。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐