我的AI一些使用场景
1. 模型使用
1.1 代理网站
- https://openrouter.ai/ (国外)
- https://turboai.io (免费薅 $1)
- https://aihubmix.com (使用中,可以充 $1)
- 302.AI
1.2 定价
M 是什么
M = Million(百万)。
在 API 计费中,M 代表 $10^6$(100 万)。
gemini flash 3 价格解读:
$0.50/M input tokens= 每 100 万个输入 Token 收费 0.5 美元- 换算成人民币(按汇率 7.2):输入 100 万个 Token 约 3.6 元
- 成本对比:这是 Gemini Flash 系列的价格,主打便宜和快速。GPT-4o 或 Claude 3.5 Sonnet 的价格通常高出一个数量级
简单换算:100 万 Token ≈ 66.6 万汉字 ≈ 3.6 元
Token 计算
Token 是 LLM(大语言模型)处理文本的最小单位,既不是字符也不是单词。
- 英文:1 Token ≈ 0.75 个单词(如 “Hello world” 约为 2 个 Token)
- 中文:1 Token ≈ 0.5 ~ 0.8 个汉字(取决于模型的分词器 Tokenizer)
Gemini 的分词器对多语言支持较好,按 1 个汉字 ≈ 1 ~ 1.3 Token 估算(预算安全起见建议按 1.5 倍估算)。
计算示例:输入一本 10 万字的小说进行总结
- Token 预估:100,000 字 × 1.5 = 150,000 Tokens
- 费用计算:(150,000 / 1,000,000) × $0.50 = $0.075 (约 0.54 元)
%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#4F46E5', 'primaryTextColor': '#fff', 'primaryBorderColor': '#3730A3', 'lineColor': '#6366F1', 'secondaryColor': '#10B981', 'tertiaryColor': '#F59E0B'}}}%%
flowchart LR
A["输入文本<br/>10万汉字"] --> B["Token 转换<br/>× 1.5"]
B --> C["Token 数量<br/>15 万"]
C --> D["费用计算<br/>15万 / 100万 × $0.50"]
D --> E["最终费用<br/>$0.075 ≈ 0.54元"]
classDef primary fill:#4F46E5,stroke:#3730A3,color:#fff
classDef success fill:#10B981,stroke:#059669,color:#fff
class A primary
class E success模型输入输出价格
价格倒挂风险:Output(输出)价格为 $3/M,是输入价格的 6 倍。
这意味着:
- 让 AI 读大量内容(Input),只回答是/否(Output)→ 非常划算
- 让 AI 写长篇大论(Output)→ 成本会飙升
计量单位
- 1K Token = 1,000 个 Token
- 1M Token = 1,000,000 个 Token(100 万)
- B(Billion)= 10 亿,如 32B 模型表示有 320 亿参数
1.3 模型命名
%%{init: {'theme': 'base'}}%%
quadrantChart
title 模型类型定位
x-axis "低性能" --> "高性能"
y-axis "低成本" --> "高成本"
quadrant-1 "经济实用"
quadrant-2 "高性能成本高"
quadrant-3 "低成本入门"
quadrant-4 "性能成本平衡"
"Flash": [0.3, 0.25]
"Lite": [0.25, 0.35]
"Mini": [0.45, 0.4]
"Pro": [0.8, 0.75]
"Preview": [0.7, 0.5]
"Exp": [0.6, 0.45]| 后缀 | 含义 | 特点 |
|---|---|---|
| Flash | 闪电版 | 牺牲部分智能换取速度和低价 |
| Preview | 预览版 | 早期测试版本,功能可能不完善 |
| Exp | 实验版 | 实验性质模型 |
| Lite | 轻量版 | 参数量少,运行快,占用资源少 |
| Pro | 专业版 | 功能增强版 |
| Mini | 小型版 | 介于 Lite 和完整版之间 |
1.4 Google 模型调用方式
flowchart TD
%% 样式定义
classDef primary fill:#4F46E5,stroke:#3730A3,color:#fff
classDef success fill:#10B981,stroke:#059669,color:#fff
classDef info fill:#06B6D4,stroke:#0891B2,color:#fff
A["开始选择"] --> B{"使用场景?"}
B -->|个人开发/原型设计| C["Google AI Studio<br/>BackendGeminiAPI"]
B -->|企业应用/生产环境| D["Google Cloud Vertex AI<br/>BackendVertexAI"]
C --> E["API Key<br/>AIza 开头"]
C --> F["适合快速原型设计"]
D --> G["IAM 认证<br/>Service Account/gcloud"]
D --> H["数据隐私保护<br/>不用于训练模型"]
D --> I["Google Cloud 计费"]
%% 应用样式
class A,B primary
class C,D success
class E,F,G,H,I infoGoogle AI Studio(BackendGeminiAPI)
- 面向个人开发者、快速原型设计、Hobbyist 项目
- 使用简单的 API Key(以
AIza开头的字符串)
Google Cloud Vertex AI(BackendVertexAI)
- Google Cloud Platform (GCP) 的一部分
- 面向企业级应用、生产环境、需要高数据隐私和合规性的场景
- 承诺绝不使用客户数据训练 Google 的基础模型
- 使用 IAM (Identity and Access Management),通常需要配置 Service Account 或使用 CLI 的
gcloud auth - 付费模式遵循 Google Cloud 的计费标准
1.5 Nano 版本(2025-12 最强)
- Nano Banana (
gemini-2.5-flash-image-preview) - Nano Banana Pro (
gemini-3-pro-image-preview)
2. AI Client
2.1 使用建议
- 建议直接用 OpenAI API,少用 OpenAI compatible API
- 模型名称建议去代理网站复制最新的
2.2 推荐客户端
- Cherry Studio
- 支持多模型同时回答
- 所有模型支持联网
- BobGem
3. 使用场景
3.1 Git
参考:Git 规范工具
3.2 翻译
- macOS:Bob
- Chrome:沉浸式翻译
3.3 编程
- 代码解释:接手和维护遗留代码
- 技术选型对比(Pros/Cons)
- 场景:在两个技术方案(如 Vue vs React,MySQL vs Mongo)之间犹豫
- 提示示例:” 我是初创团队,只有两个前端,需要快速上线。请对比 A 方案和 B 方案的优劣势,根据我的团队情况给出推荐 “
- 生成边界测试用例
注意事项:不要让 AI 剥夺你的思考能力。如果连 AI 生成的代码为什么能运行都无法理解,那就不是在编程。
3.4 想法管理
- 提炼信息输入,提升总结效率
- 任务拆解,防止拖延
- 模拟面试:准备跳槽时,让 AI 扮演阿里的 P8 面试官进行模拟面试