ラベル AI の投稿を表示しています。 すべての投稿を表示
ラベル AI の投稿を表示しています。 すべての投稿を表示

日曜日, 4月 26, 2026

Google Gemini API 歴代価格表

Google Gemini API 歴代価格表

※ 価格はすべて 有料ティア・1Mトークンあたり USD(税抜)。コンテキストキャッシュ割引・バッチ割引(50%引き)は含まない。
※ 音声入力など一部モダリティは別料金。価格は頻繁に改定されるため、必ず 公式ページ を参照してください。

🔵 Gemini 1.x 世代(すべて廃止済み)

モデル リリース コンテキスト上限 価格区間 入力 ($/1M) 出力 ($/1M) 状態
Gemini 1.0 Pro 2023年12月 32K $0.125 $0.375 ❌ 廃止
Gemini 1.5 Pro(初期) 2024年4月 最大2M ≤128K $3.50 $10.50 ❌ 廃止
Gemini 1.5 Pro(値下げ後) 2024年10月〜 最大2M ≤128K $1.25 $5.00 ❌ 2025年4月30日終了
Gemini 1.5 Pro(値下げ後) 2024年10月〜 最大2M >128K $2.50 $10.00
Gemini 1.5 Flash(値下げ後) 2024年8月〜 最大1M ≤128K $0.075 $0.30 ❌ 2025年4月30日終了
Gemini 1.5 Flash(値下げ後) 2024年8月〜 最大1M >128K $0.15 $0.60

⚠️ 修正情報: Gemini 1.0 Pro の初期価格は入力 $0.125/1M・出力 $0.375/1M(公式記録より)。Gemini 1.5 Pro の初期価格は入力 $3.50/1M・出力 $10.50/1M(≤128K)で、2024年10月に大幅値下げ。1.5 Flash の初期価格は公式アーカイブから正確な数値を確認できなかったため、値下げ後の数値のみ掲載。

🟡 Gemini 2.x 世代

モデル リリース コンテキスト上限 価格区間 入力 ($/1M) 出力 ($/1M) 状態
Gemini 2.0 Flash 2025年初 1M $0.10 $0.40 ⚠️ 2026年6月1日終了予定
Gemini 2.0 Flash-Lite 2025年初 1M $0.075 $0.30 ⚠️ 2026年6月1日終了予定
Gemini 2.5 Pro 2025年 1M ≤200K $1.25 $10.00 ✅ 現役
Gemini 2.5 Pro 2025年 1M >200K $2.50 $15.00
Gemini 2.5 Flash 2025年6月 1M $0.30 $2.50 ✅ 現役
Gemini 2.5 Flash-Lite 2025年7月 1M $0.10 $0.40 ✅ 現役(最安値帯)

🟢 Gemini 3.x 世代(最新・2025年12月〜)

モデル リリース コンテキスト上限 価格区間 入力 ($/1M) 出力 ($/1M)※思考トークン含む 状態
Gemini 3 Flash Preview 2025年12月 1M $0.50 $3.00 ✅ 現役
Gemini 3.1 Pro Preview 2026年2月 1M ≤200K $2.00 $12.00 ✅ 現役(最新フラグシップ)
Gemini 3.1 Pro Preview 2026年2月 1M >200K $4.00 $18.00
Gemini 3.1 Flash-Lite Preview 2026年3月 1M $0.25 $1.50 ✅ 現役

📌 価格推移のポイント

時期 主な変化
2024年8月 Gemini 1.5 Flash を大幅値下げ(高ボリューム向け中心)
2024年10月 Gemini 1.5 Pro を大幅値下げ(≤128K:入力 $3.50→$1.25、出力 $10.50→$5.00)
2025年4月30日 Gemini 1.5 Pro・Flash が終了。2.5 Pro / Flash への移行推奨
2025年12月 無料ティアの上限が大幅縮小。フリー枠は実質テスト・開発専用に
2026年2〜3月 Gemini 3.1 Pro Preview、3.1 Flash-Lite Preview が登場
2026年6月1日(予定) Gemini 2.0 Flash・2.0 Flash-Lite が終了予定

⚙️ 思考トークン(Thinking tokens): Gemini 2.5・3系モデルでは、内部推論に使われる「思考トークン」も出力として課金されます。複雑なプロンプトでは見た目のレスポンス以上にコストが発生するため注意が必要です。
💾 バッチ処理・コンテキストキャッシュ: バッチAPIで最大50%引き、コンテキストキャッシュで最大90%のコスト削減が可能です。

情報源:Google Gemini Developer API 公式価格ページ(2025年4月15日更新)、pricepertoken.com(2026年4月23日)、zerlo.net 価格変遷記事(2026年2月19日)
本表は筆者が情報を取りまとめたものです。最新・正確な情報は公式ページでご確認ください。

OpenAI API 価格一覧(2026年4月時点)

OpenAI API 価格一覧(2026年4月時点)

価格はすべて USD / 1Mトークン(100万トークンあたり)。出典:openai.com/api/pricing(2026年4月25日確認)

GPT-5.5(2026年4月リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-5.52026/04$5.00$0.50$30.001,050K
GPT-5.5 Pro2026/04$30.00$180.001,050K

GPT-5.4(2026年3月リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-5.4 Pro2026/03$30.00$180.00270K
GPT-5.42026/03$2.50$0.25$15.00270K
GPT-5.4 Mini2026/03$0.75$0.075$4.50270K
GPT-5.4 Nano2026/03$0.20$0.020$1.25270K

GPT-5 / GPT-5.1(2025年8〜11月リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-5.12025/11$1.25$0.125$10.00400K
GPT-52025/08$0.625$0.125$5.00400K
GPT-5 Mini2025/08$0.25$0.025$2.00400K
GPT-5 Nano2025/08$0.05$0.005$0.40400K

GPT-4.1(2025年4月リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-4.12025/04$2.00$0.50$8.001,048K
GPT-4.1 Mini2025/04$0.40$0.10$1.601,048K
GPT-4.1 Nano2025/04$0.10$0.025$0.401,048K

GPT-4.5 / GPT-4o(2024〜2025年リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-4.52025/02$75.00$37.50$150.00128K
GPT-4o2024/05$2.50$1.25$10.00128K
GPT-4o Mini2024/07$0.15$0.075$0.60128K

o シリーズ(推論モデル)

モデルリリース入力キャッシュ入力出力コンテキスト
o3 Deep Research2025/10$10.00$2.50$40.00
o4-mini Deep Research2025/10$2.00$8.00
o32025/04$2.00$0.50$8.00200K
o4-mini2025/04$1.10$0.275$4.40200K
o3-mini2025/02$1.10$0.55$4.40200K
o12024/12$15.00$7.50$60.00200K

GPT-4(2023〜2024年リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-4 Turbo2023/11$10.00$30.00128K
GPT-4(32K)2023/03$60.00$120.0032K
GPT-4(8K)2023/03$30.00$60.008K

GPT-3.5(2022〜2023年リリース)

モデルリリース入力キャッシュ入力出力コンテキスト
GPT-3.5 Turbo Instruct2023/09$1.50$2.004K
GPT-3.5 Turbo2022/11$0.50$1.5016K

【注記】
キャッシュ入力:同一プレフィックスを繰り返し送信した場合に適用される割引価格。対応していないモデルは「—」。
Batch API:24時間以内処理の非同期バッチ。全モデルで入出力ともに50%割引(例:o4-mini → $0.55 / $2.20)。
o シリーズ:内部思考(リーズニングトークン)も出力として課金されるため、実コストは表示より高くなる場合あり。
GPT-5.4 長文脈割増:272Kトークン超のプロンプトは入力が$5.00/Mに倍増。
GPT-3.5 Turbo の価格はリリース後の値下げを経た最終価格。
・情報源:openai.com/api/pricing(2026年4月25日確認)

Anthropic Claude API 料金一覧(歴代モデル)

APIコスト解説

Anthropic Claude 歴代モデル
API料金完全まとめ(2026年4月)

Claude 2 から Opus 4.7 まで。料金推移・値下げの理由・割引オプションを徹底解説。

📅 2026年4月更新  |  単位:USD / 100万トークン(MTok)
Opus フラッグシップモデルは Claude 4.5 世代で $15 → $5 と約67%の大幅値下げが実施されました。この記事では歴代の API 価格を世代別に整理し、なぜここまで安くなったのかを解説します。
Claude 1〜2 世代(2023年)
モデル リリース 入力 出力 ステータス
Claude Instant 1.2 2023年8月 参考値※ 参考値※ 廃止
Claude 2 2023年7月 $8.00 $24.00 廃止
Claude 2.1 2023年11月 $8.00 $24.00 廃止

※ Claude Instant 1.2 の料金は情報源によって $0.80〜$1.63(入力)、$2.40〜$5.51(出力)と記載が一致しないため参考値扱い。

Claude 3 世代(2024年)
モデル リリース 入力 出力 ステータス 備考
Claude 3 Haiku 2024年3月 $0.25 $1.25 現役
Claude 3 Sonnet 2024年3月 $3.00 $15.00 廃止
Claude 3 Opus 2024年3月 $15.00 $75.00 廃止
Claude 3.5 Sonnet 2024年6月 $3.00 $15.00 廃止
Claude 3.5 Sonnet v2 ⭐ 2024年10月 $3.00 $15.00 廃止 Computer Use 機能を追加
Claude 3.5 Haiku 2024年10月 $0.80 $4.00 現役
Claude 3.7〜4.1 世代(2025年前半)
モデル リリース 入力 出力 ステータス 備考
Claude 3.7 Sonnet 2025年2月 $3.00 $15.00 廃止 Extended Thinking 初導入
Claude Sonnet 4 2025年5月 $3.00 $15.00 現役
Claude Opus 4 2025年5月 $15.00 $75.00 現役
Claude Opus 4.1 2025年8月 $15.00 $75.00 現役
Claude 4.5〜4.7 世代(2025年末〜2026年)
🔥
Opus が $15 → $5 へ約67%値下げ。この世代から Opus・Sonnet・Haiku 全ライン料金が大幅に改定されました。
モデル 入力 出力 コンテキスト ステータス
Claude Haiku 4.5 $1.00 $5.00 200K 現役・推奨
Claude Sonnet 4.5 $3.00 $15.00 200K〜1M 現役
Claude Opus 4.5 $5.00 $25.00 200K〜1M 現役
Claude Sonnet 4.6 $3.00 $15.00 1M(割増なし) 現役・推奨
Claude Opus 4.6 $5.00 $25.00 1M(割増なし) 現役・推奨
Claude Opus 4.7 🆕 $5.00 $25.00 1M(割増なし) 現役・最新

※ Opus 4.7 は新トークナイザー採用により、同一テキストで最大35%多くトークンを消費する場合があります(実効コストに注意)。

世代間の価格推移サマリー
世代 Opus 入力 Sonnet 入力 Haiku 入力
Claude 2(2023年) $8.00
Claude 3(2024年3月) $15.00 $3.00 $0.25
Claude 3.5(2024年6〜10月) $3.00 $0.80
Claude 4〜4.1(2025年) $15.00 $3.00
Claude 4.5〜4.7(2025〜2026年) $5.00 🎉 $3.00 $1.00
なぜ Opus 4.5 から一気に安くなったのか?
理由 01
モデル効率の劇的な向上
Opus 4.5 は同じ品質の成果を出力トークン数約76%減で達成。以前 500 トークン必要だったタスクが約 120 トークンで完了します。トークン単価だけでなく、消費量も激減。
理由 02
旧モデルの価格逆転問題
Sonnet 4.5 が古くて高価な Opus 4.1 を多くの場面で上回るという逆転現象が発生。フラッグシップの価値が失われていたため、値下げにより自然な階層を回復する必要がありました。
理由 03
競合との価格競争
OpenAI GPT-5.1($1.25/$10)や Google Gemini 3 Pro($2/$12)が台頭。$15/$75 のままでは市場競争力を維持できず、値下げは不可避でした。
理由 04
推論インフラコストの低下
GPU 性能向上と推論最適化技術の進歩により、同規模モデルの運用コストが業界全体で年々低下。コスト削減分を価格に反映できるようになりました。
割引オプション(全モデル共通)
50%OFF
バッチ API
非同期処理(24時間以内返却)
90%OFF
プロンプトキャッシュ ヒット
キャッシュ済みトークンの再利用
1.25×
キャッシュ書き込み(5分)
初回キャッシュ登録時(割増)
キャッシュ書き込み(1時間)
長時間キャッシュ(割増)
1.1×
US リージョン限定推論
データ主権要件がある場合(割増)
Opus 4.6 Fast Mode(β)
低レイテンシ用途(割増)
💡
バッチ API + プロンプトキャッシュを組み合わせると最大95%OFF。Opus 4.7 の場合、バッチ価格でキャッシュヒットした入力は $0.25/MTok まで下がります。

月曜日, 4月 20, 2026

ガバメントAI「源内」でどの言語モデルが正式採用されるのか

 最近、以下の記事を書きました

ガバメントAI「源内」が変える行政の未来——2027年以降の採用LLM・自治体浸透・中長期展望を読み解く

今回は、各AIにどのモデルが正式採用されるかを予測してもらいます。

若干意見は割れているところもありますね。答え合わせは約1年後ですが、新モデルが出たり後から伏兵が現れたりするなどの可能性もあるかなと思うところです。

各AIの予測比較まとめ

前提となるアーキテクチャ観

  • Perplexity Pro:特定2モデルを軸に、業務別の並列採用(マルチモデル)が最も現実的と見る
  • Gemini Pro:単一モデル独占はあり得ないと明言。軽量モデルをRAG基盤、重量モデルを高度タスクに限定する「マルチモデル・ルーティング」への移行は必然と断言
  • Claude Pro:7モデルのうち3〜4モデルに絞られると予想。採用の4軸として「行政実証・ガバメントクラウド稼働・AI主権・コスパ」を定義

モデル別の評価比較

モデルPerplexityGeminiClaude
PLaMo 2.0 Prime(PFN)◎ 高中〜高85%(最有力)
Takane 32B(富士通)○ 中80%
tsuzumi 2(NTTデータ)◎ 高70%
cotomi v3(NEC)○ 中65%
ELYZA-JP-70B(KDDI)△ 条件付き45%
Sarashina2 mini(SB)△ 条件付き40%
CC Gov-LLM△ 条件付き低〜中20%

各AIの注目ポイント

PLaMo 2.0 Prime

  • Perplexity・Claudeともに最有力評価。源内での翻訳機能組み込み実績が決め手
  • Geminiは運用コスト・用途絞り込みの必要性を指摘してやや慎重

Takane 32B(富士通)

  • Geminiが「高」評価でClaudeと並ぶ最有力扱い
  • Claudeは「省庁パブコメ12万字を精度80%超で処理した行政実証」を最大の武器と評価
  • PerplexityはClaude・Geminiより一段低い「中」評価(3者で最も評価が分かれたモデル)
  • Cohere R+ベースである点がAI主権上のリスクとしてClaudeが明確に指摘

tsuzumi 2(NTTデータ)

  • PerplexityとGeminiが「高」で一致。Claudeのみ「70%」とやや抑えめ
  • 1GPU動作の軽量性と、18万人規模の常用AIとしての適合性が共通の評価軸

CC Gov-LLM

  • 3者とも最低評価で一致。企業体力・実績・サポート体制への懸念が共通

総評

3つのAIの意見はおおむねPLaMo・tsuzumi・Takane・cotomiの上位4モデルで集約されており、ELYZA・Sarashina・CC Gov-LLMは補完的または厳しい評価という点でも一致しています。 最も意見が割れたのはTakane 32BとcotomiのランキングOrderで、特にCohereベースのTakane 32Bに対する「AI主権リスク」の重み付けがAIごとに異なる点が興味深いです。答え合わせは2027年1月公表予定とのこと。

★Perplexity Proによる予測

tsuzumi 2とPLaMo 2.0 Primeを軸に、cotomi v3・Takane 32Bが業務別で並列採用されるシナリオが最も現実的な予測です。

各モデルの採用確率予測

採用確率モデル根拠
◎ 高tsuzumi 2(NTTデータ)1GPU動作・低コスト・公共向け実績、受注件数1,827件 digital.go
◎ 高PLaMo 2.0 Prime(PFN)源内に先行して「PLaMo翻訳」機能が組み込み済み digital-reclame.co、PLaMo 2.2でGPT-5.1相当に到達 digital
○ 中cotomi v3(NEC)GPT-4の5〜15倍の推論速度、128Kトークン・法令用語対応 watch.impress
○ 中Takane 32B(富士通)パブリックコメント業務の実証実験を既に特定省庁と完了 group
△ 条件付きLlama-3.1-ELYZA-JP-70B70Bの規模は優位だがMeta Llamaの派生ゆえライセンスリスク tech.preferred
△ 条件付きSarashina2 mini試用評価結果次第
△ 条件付きCC Gov-LLM閉域環境特化の限定用途には可能性あり


★Gemini Proによる予測

サマリ:単一モデル独占の否定と適材適所の現実

2027年度の「源内」有償調達において、単一モデルが全用途で独占的に採用される可能性は皆無だ。18万人の行政職員による日常利用に耐えうるSLA担保と、推論コスト(GPUリソース)の財政的制約から、軽量モデルを標準のRAG基盤とし、重量モデルを高度な生成タスクに限定する「マルチモデル・ルーティング」への移行が必然となる。

したがって、各モデルの「採用可能性」とは、このルーティングアーキテクチャ内で「自社の得意領域におけるメインモジュール」としてのポジションを獲得できるかの確率を指す。推論コストの低さと、官公庁での強固なSI実績を持つベンダーの軽量モデルがインフラ基盤として優位に立つ一方、汎用性の高い大型モデルは、コストに見合う圧倒的な付加価値の証明ができなければ淘汰される。


採用可能性評価表:国産LLM 7モデル

※採用可能性は、2027年度の本格導入において「特定用途の標準モデル」としてアーキテクチャに組み込まれる確率を合理的に評価したものだ。

ベンダー名モデル名採用可能性強み・評価理由(採用へのドライバー)課題・懸念点(採用への障壁)予想されるルーティング上の役割
NTTデータtsuzumi 2圧倒的な軽量性と低コスト推論。行政実務の大部分を占める定型的な文書検索・要約(RAG)において費用対効果が極めて高い。政府システムにおける強力なSI実績と保守体制も確実な後押しとなる。高度な論理推論や、ゼロベースでの複雑な文章生成能力では、大規模パラメータモデルに対して明確に劣る。日常業務のRAG、文書検索・要約のバックエンド(メインストリーム)
富士通Takane 32B32Bという絶妙なパラメータサイズによる、推論コストの抑制と性能のバランス。行政が求める閉域網・オンプレミス環境でのセキュアな稼働実績とチューニングノウハウに優れる。NTTデータ同様、汎用的な「ブレスト相手」としての魅力は薄く、業務特化の枠を出ない。他社の軽量モデルとの明確な差別化が必要。専門用語を含む行政文書RAG、機密データのバッチ処理
Preferred NetworksPLaMo 2.0 Prime中〜高ゼロから開発された純国産基盤モデルとしての高い技術力。日本独自の法制度や独特の文脈を要する高度な生成タスクにおいて、海外モデルの代替となる最有力候補。運用コスト。18万人規模が日常的に利用するには推論リソースを圧迫するため、用途を絞った呼び出し制御が必須となる。法令案のドラフト作成、複雑な翻訳、高度な文脈理解を伴う生成タスク
NECcotomi v3長いコンテキストウィンドウや外部ツール連携(MCP準拠など)のエージェント適性に優れており、複数ステップの業務自動化フローに組み込みやすい。基本的なRAG用途ではtsuzumiやTakaneと競合する。用途の差別化を明確に打ち出せない場合、「帯に短し襷に長し」となり埋没するリスクがある。外部データベースと連携する行政手続きの自動化エージェント
KDDI / ELYZALlama-3.1-ELYZA-JP-70Bグローバル標準であるLlamaアーキテクチャベースのため、既存のOSSツール群やエコシステムとの親和性が圧倒的に高く、開発・実装速度を上げやすい。70Bというサイズゆえの推論コストの重さ。また派生モデルである点が、政府が掲げる「長期的な自律性(技術主権)」の観点でどう評価されるか。既存のAIツール群との連携が求められる汎用タスク処理
ソフトバンクSarashina2 mini軽量モデル路線によるコスト効率の良さ。通信キャリアとして自社保有する大規模なクラウドインフラ網(計算資源)との相乗効果による価格競争力が見込める。行政特有の泥臭い要件定義やカスタマイズ対応において、NTTデータ・富士通・NECといった伝統的な政府系SIerの牙城を崩せるかが不透明。簡易的なテキスト処理、定型フォーマットへの変換作業
カスタマークラウドCC Gov-LLM低〜中スタートアップ発の行政特化型モデル。行政ドメインに対する強いフォーカスと、ニッチなチューニングの深さが最大の売り。大手SIerと比較した際、18万人規模での安定稼働(厳格なSLA担保)を支える企業体力とサポート体制に対する懸念が拭えない。特定の地方自治体連携や、極めて限定的な業務アプリの裏側


★Claude Proによる予測

サマリ: 7モデルのうち、2027年4月の正式採用(有償調達)は3〜4モデル程度に絞られると予想します。採用の決め手は①行政実証の具体的成果、②ガバメントクラウド上の安定稼働、③「AI主権」(国産独自開発性)、④コストパフォーマンス、の4軸です。PLaMo 2.0 Prime が現時点で唯一「源内稼働実績」を持つ点で頭一つ抜けており、Takane 32Bが行政実証成果の具体性で続きます。tsuzumi 2・cotomi v3 は企業信頼性と技術特性で有力圏内。ELYZA・Sarashina2 mini は採用されても補完的ポジションに留まる可能性が高く、CC Gov-LLM は厳しい戦いが予想されます。

採用確度スコア(各軸 0〜5点)
 = 5点満点中2点
最有力  有力  条件次第  困難
モデル判定行政
実証
日本語
性能
AI
主権
運用
コスト
採用確度採用・落選の主因
PLaMo 2.0 Prime
Preferred Networks
85%
源内での翻訳稼働実績が唯一の強み。フルスクラッチ独自開発でAI主権適合性が最高。日本語ベンチマーク世界最高クラス。弱点は企業規模と調達体制の薄さ。
Takane 32B
富士通
80%
省庁パブコメ12万字を10分・精度80%超で処理した行政実証が最大の武器。富士通の政府IT営業力も後押し。Cohere R+ベースのため「海外依存」批判がリスク要因。
tsuzumi 2
NTTデータ
70%
GPU1基で動作する軽量性が18万人規模の常用AIとして最適。公共・金融・医療強化済み。NTTグループの調達実績は強力。源内での固有実績はまだなく、実証結果次第。
cotomi v3
NEC
65%
30万字の長文処理は行政文書・法令対応で唯一無二の強み。敬語・専門用語への適合性も高い。NECの政府実績は厚い。ただし汎用チャット性能では他社に劣る可能性。
Llama-3.1-ELYZA-JP-70B
KDDI・ELYZA
45%
Llama派生モデルのためAI主権スコアが低く、Meta依存リスクを問われる。70BパラメータはGPUコスト高。KDDIのバックは政治的追い風だが、実証で性能が際立つかが鍵。
Sarashina2 mini
ソフトバンク
40%
4600億パラメータのSarashina2から蒸留した軽量版で技術力は高い。ただし行政実証実績がほぼゼロ。ソフトバンクの政府IT関係は通信インフラ中心で、AI調達では弱め。
CC Gov-LLM
カスタマークラウド
20%
大手が並ぶ中で選定されたこと自体は評価できる。しかし企業規模・知名度・実績で他社に大きく劣る。継続的なサポート体制への懸念が最大の障壁。特化用途なら残れる可能性あり。
※ 評価軸の定義:行政実証=源内での具体的な稼働・実証成果の有無、日本語性能=ベンチマーク・行政文書対応力、AI主権=独自開発度・海外依存リスクの低さ、運用コスト=GPU効率・スケール適性(18万人規模)。本予想は2026年4月時点の情報に基づく暫定評価。正式結果は2027年1月公表予定。