我的AI一些使用场景

1. 模型使用

1.1 代理网站

1.2 定价

M 是什么

M = Million(百万)

在 API 计费中,M 代表 $10^6$(100 万)。

gemini flash 3 价格解读:

  • $0.50/M input tokens = 每 100 万个输入 Token 收费 0.5 美元
  • 换算成人民币(按汇率 7.2):输入 100 万个 Token 约 3.6 元
  • 成本对比:这是 Gemini Flash 系列的价格,主打便宜和快速。GPT-4o 或 Claude 3.5 Sonnet 的价格通常高出一个数量级

简单换算:100 万 Token ≈ 66.6 万汉字 ≈ 3.6 元

Token 计算

Token 是 LLM(大语言模型)处理文本的最小单位,既不是字符也不是单词。

  • 英文:1 Token ≈ 0.75 个单词(如 “Hello world” 约为 2 个 Token)
  • 中文:1 Token ≈ 0.5 ~ 0.8 个汉字(取决于模型的分词器 Tokenizer)

Gemini 的分词器对多语言支持较好,按 1 个汉字 ≈ 1 ~ 1.3 Token 估算(预算安全起见建议按 1.5 倍估算)。

计算示例:输入一本 10 万字的小说进行总结

  • Token 预估:100,000 字 × 1.5 = 150,000 Tokens
  • 费用计算:(150,000 / 1,000,000) × $0.50 = $0.075 (约 0.54 元)
%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#4F46E5', 'primaryTextColor': '#fff', 'primaryBorderColor': '#3730A3', 'lineColor': '#6366F1', 'secondaryColor': '#10B981', 'tertiaryColor': '#F59E0B'}}}%%
flowchart LR
    A["输入文本<br/>10万汉字"] --> B["Token 转换<br/>× 1.5"]
    B --> C["Token 数量<br/>15 万"]
    C --> D["费用计算<br/>15万 / 100万 × $0.50"]
    D --> E["最终费用<br/>$0.075 ≈ 0.54元"]

    classDef primary fill:#4F46E5,stroke:#3730A3,color:#fff
    classDef success fill:#10B981,stroke:#059669,color:#fff

    class A primary
    class E success

模型输入输出价格

价格倒挂风险:Output(输出)价格为 $3/M,是输入价格的 6 倍。

这意味着:

  • 让 AI 读大量内容(Input),只回答是/否(Output)→ 非常划算
  • 让 AI 写长篇大论(Output)→ 成本会飙升

计量单位

  • 1K Token = 1,000 个 Token
  • 1M Token = 1,000,000 个 Token(100 万)
  • B(Billion)= 10 亿,如 32B 模型表示有 320 亿参数

1.3 模型命名

%%{init: {'theme': 'base'}}%%
quadrantChart
    title 模型类型定位
    x-axis "低性能" --> "高性能"
    y-axis "低成本" --> "高成本"
    quadrant-1 "经济实用"
    quadrant-2 "高性能成本高"
    quadrant-3 "低成本入门"
    quadrant-4 "性能成本平衡"
    "Flash": [0.3, 0.25]
    "Lite": [0.25, 0.35]
    "Mini": [0.45, 0.4]
    "Pro": [0.8, 0.75]
    "Preview": [0.7, 0.5]
    "Exp": [0.6, 0.45]
后缀含义特点
Flash闪电版牺牲部分智能换取速度和低价
Preview预览版早期测试版本,功能可能不完善
Exp实验版实验性质模型
Lite轻量版参数量少,运行快,占用资源少
Pro专业版功能增强版
Mini小型版介于 Lite 和完整版之间

1.4 Google 模型调用方式

flowchart TD
    %% 样式定义
    classDef primary fill:#4F46E5,stroke:#3730A3,color:#fff
    classDef success fill:#10B981,stroke:#059669,color:#fff
    classDef info fill:#06B6D4,stroke:#0891B2,color:#fff

    A["开始选择"] --> B{"使用场景?"}
    
    B -->|个人开发/原型设计| C["Google AI Studio<br/>BackendGeminiAPI"]
    B -->|企业应用/生产环境| D["Google Cloud Vertex AI<br/>BackendVertexAI"]

    C --> E["API Key<br/>AIza 开头"]
    C --> F["适合快速原型设计"]

    D --> G["IAM 认证<br/>Service Account/gcloud"]
    D --> H["数据隐私保护<br/>不用于训练模型"]
    D --> I["Google Cloud 计费"]

    %% 应用样式
    class A,B primary
    class C,D success
    class E,F,G,H,I info

Google AI Studio(BackendGeminiAPI)

  • 面向个人开发者、快速原型设计、Hobbyist 项目
  • 使用简单的 API Key(以 AIza 开头的字符串)

Google Cloud Vertex AI(BackendVertexAI)

  • Google Cloud Platform (GCP) 的一部分
  • 面向企业级应用、生产环境、需要高数据隐私和合规性的场景
  • 承诺绝不使用客户数据训练 Google 的基础模型
  • 使用 IAM (Identity and Access Management),通常需要配置 Service Account 或使用 CLI 的 gcloud auth
  • 付费模式遵循 Google Cloud 的计费标准

1.5 Nano 版本(2025-12 最强)

  • Nano Banana (gemini-2.5-flash-image-preview)
  • Nano Banana Pro (gemini-3-pro-image-preview)

2. AI Client

2.1 使用建议

  1. 建议直接用 OpenAI API,少用 OpenAI compatible API
  2. 模型名称建议去代理网站复制最新的

2.2 推荐客户端

  • Cherry Studio
    • 支持多模型同时回答
    • 所有模型支持联网
  • BobGem

3. 使用场景

3.1 Git

参考:Git 规范工具

3.2 翻译

  • macOS:Bob
  • Chrome:沉浸式翻译

3.3 编程

  • 代码解释:接手和维护遗留代码
  • 技术选型对比(Pros/Cons)
    • 场景:在两个技术方案(如 Vue vs React,MySQL vs Mongo)之间犹豫
    • 提示示例:” 我是初创团队,只有两个前端,需要快速上线。请对比 A 方案和 B 方案的优劣势,根据我的团队情况给出推荐 “
  • 生成边界测试用例

注意事项:不要让 AI 剥夺你的思考能力。如果连 AI 生成的代码为什么能运行都无法理解,那就不是在编程。

3.4 想法管理

  • 提炼信息输入,提升总结效率
  • 任务拆解,防止拖延
  • 模拟面试:准备跳槽时,让 AI 扮演阿里的 P8 面试官进行模拟面试