🟢 定义速览:

  • Google AI Studio 是使用谷歌相关模型的网页;
  • Cherry Studio 是可以使用多种模型API Key的桌面软件。

一、Google AI Studio

本小节内容基本可以在Gemini API文档中找到更详细的描述。

🔗URL:https://aistudio.google.com/
在这里插入图片描述

1.1 和Gemini网页版的区别

简单来说就是:Google AI Studio 可自定义的设置更多。

  1. 模型选择:Gemini 网页版 只能指定是最新模型的Flash(快速)或者Pro(思考)模式。而Studio 可以指定多种模型。
    在这里插入图片描述
  2. 参数调整:AI Studio以调整 Temperature(创造性 vs 严谨性)、Top-K/Top-P、Output Length(输出长度限制)、图片数量、图片分辨率等等
    在这里插入图片描述
  3. Gemini 网页版的Deep Research、Canvas等功能在AI Studio是没有的。
  4. 对上传的文件格式支持不同:这方面Gemini 网页版支持更丰富一些,如:AI Studio 里面不能上传xlsx表格。

其它的则是相似的,如AI Studio可以预设多个提示词(AI Studio里面叫做:System instructions),而Gemini 网页版可以在设置-个人使用场景中设置全局的指令,也可以创建Gem(即给特定场景设置专属指令/提示词,知识库),以应对不同的需求。
在这里插入图片描述

1.2 免费层级的用量限制

Google AI Studio 里面可以免费使用最新的模型(以及旧模型),但有限制和代价

速率限制通常从以下三个维度进行衡量:

  • 每分钟请求数 (RPM)
  • 每分钟 token 数(输入)(TPM)
  • 每日请求数 (RPD)
  • 我们会根据每项限制评估您的用量,如果超出任何一项限制,系统都会触发速率限制错误。例如,如果您的 RPM 限制为 20,那么在一分钟内发出 21 个请求会导致错误,即使您未超出 TPM 或其他限制也是如此。
  • 速率限制按项目应用,而不是按 API 密钥应用。每天的请求数 (RPD) 配额会在太平洋时间午夜重置。
  • 限额因所用模型而异,并且部分限额仅适用于特定模型。例如,每分钟生成的图片数 (IPM) 仅针对能够生成图片的模型(Imagen3)计算,但在概念上与 TPM 类似。其他模型可能设有每日 token 数量上限 (TPD)。
  • 实验性模型和预览版模型的速率限制更为严格。
    来源:Gemini API文档-速率限制

🟢速率限制与项目的用量层级(Tier)相关联:
在这里插入图片描述


🟢这里就把Tier1的速率限制列出来:这是变化的,只作为参考,仅仅是发文时的数据,这里是非批量API的速率限制

主要看最后一列:每日请求次数限制(RPD)即可。

  • 免费层级的我没找到准确数据(也懒得找😆),但据我以前的使用经验:对话一般每天足够使用的(除非你1+1这种问题也要问),图片生成数量很少,好像就几张。
  • 只要绑定有效的卡,就可以升级Tier1,使用这个key是付费的。
  • 免费层级,也可以创建API Key,这个key你可以在你的代码中使用,或者其它软件中使用,速率一样有限制。
  • 网页对话的Gemini3.0 Pro不适用以上内容,也不是本文的主题。

在这里插入图片描述

1.3 Google AI Studio 隐私问题(重要)

1.31 案例分享

🟠三星源码泄露事件(2023):

  • 这是所有大模型(包括 Google Gemini)“免费层级”隐私警告的源头案例。虽然主角是 ChatGPT,但它直接导致了 Google 随后更新了极其严格的内部政策,并警告用户:“免费层级的对话就是训练数据”。

在这里插入图片描述
🟠针对 Google Gemini 的“秘密监控”集体诉讼 (2025年11月):
在这里插入图片描述

1.32 Gemini API 附加服务条款

直接看官方文档吧:
在这里插入图片描述
在这里插入图片描述

即使你使用的是后者,也最好不要上传敏感、机密、个人信息,开源尚且有风险,闭源就更不必说了。(其它领域也是类似,如不要向网盘上传我列举的那些内容)


1.4 API Key的价格

列出3.0的对话和画图的价格,其它模型以去官网文档查看:

下图中的:官网的谷歌翻译有问题,这里说明一下

  • token、词元、令牌 都代表:tokens
  • 提示:prompts,即你的输入(一段文字,一个pdf,一个代码等等)

🟢token与单词、汉字之间的数量关系:

语言/类型 换算关系 (预估) 备注
英文 (English) 100 Tokens ≈ 60 ~ 80 个单词 官方数据。通常按 1 Token ≈ 0.75 个单词 估算最准。
中文 (Chinese) 100 Tokens ≈ 60 ~ 100 个汉字 中文比较复杂。现代模型(如 Gemini)通常 1 个汉字 ≈ 1 ~ 1.5 个 Token
字符 (Characters) 1 Token ≈ 4 个字符 这里的“字符”主要指英文字母。

20万个token相当于:

  • 大约 150,000 个英文单词
  • 大约 130,000 ~ 200,000 个汉字

🟢Gemini 3 Pro 预览版:

简要解释:这个是按照一次会话(可以有多轮,直到你发起新的对话)计算的,在这一次会话中,如果你的输入内容总长度不大于20万个tokens,那么:输入价格就是2美元/100万tokens,输出价格就是12美元/100万tokens。

场景:输入 100 tokens,输出 1000 tokens,没超过 20万档位。

  1. 输入费:
    100  tokens × $ 2.00 1 , 000 , 000 = $ 0.0002 100 \text{ tokens} \times \frac{\$2.00}{1,000,000} = \$0.0002 100 tokens×1,000,000$2.00=$0.0002

  2. 输出费:
    1000  tokens × $ 12.00 1 , 000 , 000 = $ 0.012 1000 \text{ tokens} \times \frac{\$12.00}{1,000,000} = \$0.012 1000 tokens×1,000,000$12.00=$0.012

  3. 总费用:
    $ 0.0002 + $ 0.012 = $ 0.0122 \$0.0002 + \$0.012 = \mathbf{\$0.0122} $0.0002+$0.012=$0.0122

上下文缓存: AI模型是无状态的,它不会自动记住上次对话。每次请求都是一个独立事件,必须把需要它知道的“记忆”(即上下文,即前面所有输入输出)全部塞给它。因此,处理长文档的多轮对话会非常昂贵,因为每次都要为不断变长文档付费。

如果,我一开始就丢给他一本书的PDF,那我问了几个问题后,费用不是爆炸?💥

不会:模型有上下文缓存功能,2.5及以后的模型的隐式缓存默认处于启用状态,当上下文的tokens大于4096时即可开启,这会降低你的费用。(显式缓存开启时你自己使用Gemini的SDK、API写代码调用时的选项,网页版和Studio中没有相关选项)

所以:每次聊天的上下文不要太长了,一方面是价格问题,另一方面是上下文太长会降智,比如一直回复相同的内容。

在这里插入图片描述


🟢Gemini 3 Pro Image 预览版:
在这里插入图片描述


1.5 Google AI Studio 使用说明

目前页面不支持中文的(聊天支持),页面的英文选项你应该都认识。

先用图片标注说明这个页面的各部分是什么含义吧:
在这里插入图片描述

🟢模型参数解释:

💬(1)对话:功能是否开启,根据你的需求来,比如你发给它一个网址,让它读,就开启URL context

参数名称 (Parameter) 中文名 功能详解 设置与建议
Temperature 温度 控制随机性。0最严谨(适合代码),2最奔放(适合创意)。1是平衡点。 1 (平衡,通用性好)
Media resolution 媒体分辨率 识别图片/视频时的清晰度。Default是速度与细节的折中。 Default (默认,够用)
Thinking level 思考等级 推理模型专用。决定模型在回答复杂问题前“思考”的时间长度。 High (深度思考,适合难任务)
Structured outputs 结构化输出 强制模型只吐出标准 JSON 格式,开发程序接口时用。 关闭 (一般对话不用开)
Code execution 代码执行 给模型一个Python环境,能写代码并真跑(算数、画图)。 关闭 (建议做数据分析时开启)
Function calling 函数调用 让模型连接你的外部工具(API),是做智能体(Agent)用的。 关闭
Grounding with Google Search 谷歌搜索 联网能力。开启后可查实时信息(新闻、天气、股价)。 开启 (回答会带引用来源)
URL context 网址上下文 允许直接读取提示词里贴的链接网页内容 关闭
Safety settings 安全设置 敏感内容(如仇恨言论)的过滤阈值。 默认
Add stop sequence 停止序列 设定一个“暗号”,模型一旦说到这个词就立马闭嘴(停止生成)。
Output length 输出长度 单次回答的最大容量(Token数)。65k大约能写几万字。 65536 (拉满即可)
Top P 核采样 辅助控制随机性,只选概率前95%的词,防止模型胡言乱语。 0.95 (标准值,不用动)

🖼️(2)画图:

参数名称 中文含义 功能解释 推荐用法
Aspect ratio 宽高比 决定生成图片的形状比例 根据你的需求选
Resolution 生成分辨率 决定生成图片的清晰度/像素大小 根据需求选择

音视频的就不说了,选项很少。

不同模型的参数有差异,如Imagen 4 ,可以一次最多生成4张不同的图片。

画图最好的是Nano Banna Pro,中文支持也好。

二、Cherry Studio

2.1 速通

Cherry Studio 是一款开源、跨平台的 AI 桌面客户端,专门为专业用户和开发者设计。

它就像一个 “万能聚合器” :你不需要去打开一个个独立的网页(比如 ChatGPT、Claude、DeepSeek 官网),而是把这些模型全部装进这一个软件里,通过你自己的 API Key 来使用,同时加上了极其强大的本地功能(如知识库、自动化助手)。

直接去github即可下载:https://github.com/CherryHQ/cherry-studio
或者去官网:https://www.cherry-ai.com/


如使用gemini-3-pro-previewgemini-3-pro-image-preview(这两个叫做模型id):

在这里插入图片描述
画图示例:

在这里插入图片描述

各种功能自己探索即可,都是中文。

2.2 MCP

知识库什么的,就不展开说了,比如你有一项新技术,你可以把相关论文、教程创建一个知识库,让AI基于这个知识库回答。

AI的知识库是落后的,让它搜索也可能效果不好,较新、冷门的内容可以创建知识库。

这里说一下Cherry Studio的MCP功能。

MCP 全称是 Model Context Protocol(模型上下文协议):它的核心目的是:打破 AI 的孤岛状态,让 AI 能以一种标准化的方式,去读取你本地的数据、操作你的工具。

使用VScodeCursorGoogle Antigravity 的时候,AI可以读取你整个项目的内容,再使用Agent的话,还能完全操控你的文件(增加、删除、修改等),而Cherry Studio 默认没有这些功能。

先添加文件系统MCP:
在这里插入图片描述

填写配置:
在这里插入图片描述

示例:主要设置args那里的项目目录(可以填写多个目录,告诉AI你要操作哪个即可),以及isActive设置为true

{
  "mcpServers": {
    "U-B_DuXl3EbzIGGOMeFNF": {
      "isActive": true,
      "name": "@cherry/filesystem",
      "type": "inMemory",
      "args": [
        "E:/AI/BrowserExtension"
      ],
      "provider": "CherryAI",
      "shouldConfig": true,
      "installSource": "builtin",
      "isTrusted": true
    },
    "wU439NroVcqpl5K26dpRQ": {
      "isActive": false,
      "name": "wU439NroVcqpl5K26dpRQ",
      "type": "stdio",
      "installSource": "unknown"
    }
  }
}

在对话里面选择这个MCP,AI就能读取电脑上的文件了:
在这里插入图片描述
让它生成一个readme文件:
在这里插入图片描述
检查无误:
在这里插入图片描述


不过目前使用下来还是没有前面我提到的那3个编辑器舒服😆


你可以添加其它AI的key,如deepseek的,去deepseek开放平台弄就行了。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐