AI・LLMツール
LLMコンテキスト長比較
OpenAI、Claude、Gemini の長文入力上限を、トークン数、文字数、A4ページ、書籍換算で比較します。入力文量がどのモデルに収まるかも確認できます。
2026-05-11時点の公式ドキュメントをもとにしています。APIやプランごとの制限は実装前に再確認してください。
入力サイズ
文字数をトークンに概算し、各モデルのコンテキストに収まるか確認します。
日本語は 1 token ≈ 1〜2文字、英語は 1 token ≈ 0.75語程度の粗い換算です。
推定トークン
80,000 tokens
A4換算
約150ページ
書籍換算
約0.6冊
収まるモデル
9/9
サンプル
Privacy
計算はブラウザ内で完結します。入力した文字数や見積もり内容は外部送信されません。
最大コンテキスト
1,048,576 tokens
Gemini 2.5 / GPT-4.1級
入力の残り余裕
9 models
現在の入力条件
確認日
2026-05-11
公式docsベース
Gemini 2.5 Pro
Google収まるLong-context thinking model.
1,048,576 tokens
context window
Gemini 2.5 Flash
Google収まるLong-context price-performance model.
1,048,576 tokens
context window
Gemini 2.0 Flash
Google収まるSecond-generation workhorse model.
1,048,576 tokens
context window
GPT-4.1
OpenAI収まる1M-token non-reasoning model.
1,047,576 tokens
context window
Claude Opus 4.7
Anthropic収まる1M context model according to Claude docs.
1,000,000 tokens
context window
Claude Sonnet 4.6
Anthropic収まる1M context model with context awareness.
1,000,000 tokens
context window
GPT-5.2
OpenAI収まるFrontier coding and agentic model.
400,000 tokens
context window
Claude Sonnet 4.5
Anthropic収まる200k context; plan and endpoint limits may vary.
200,000 tokens
context window
GPT-4o
OpenAI収まるCommon multimodal API model.
128,000 tokens
context window
入力上限を可視化
最大コンテキストと最大出力を切り替えて、モデルごとの容量差を比較できます。
文量を概算
文字数からトークン、A4ページ、書籍相当量へ換算し、プロンプト設計の目安にできます。
ローカル計算
入力した文字数はブラウザ内で処理され、外部送信や保存は行いません。
使い方と注意点
長文処理の設計
コンテキスト上限に近い入力をそのまま投げるより、章ごとの要約、検索、引用箇所抽出、圧縮メモを組み合わせる方が安定しやすいです。
出力トークンも消費する
コンテキストは入力だけでなく、生成する回答、ツール結果、推論用トークンにも使われます。上限ぎりぎりではなく余白を残してください。
換算の前提
既定では 1 token ≈ 日本語1.5文字 として計算しています。英語、コード、JSON、Markdownでは変わるため、必要なら換算係数を調整してください。
よくある質問
コンテキストウィンドウとは何ですか?
モデルが1回のリクエストで参照できる入力、会話履歴、ツール結果、出力予定分を含む作業メモリの上限です。学習データの量とは別物です。
大きいコンテキストなら常に高精度ですか?
いいえ。長い文脈を入れられることと、必要情報を正確に取り出せることは別です。重要な情報を整理し、不要な履歴やツール結果を圧縮する設計が必要です。
文字数からトークン数への換算は正確ですか?
概算です。言語、記号、コード、空白、トークナイザで変わります。正確な値は各社APIのtoken counting機能やSDKで確認してください。
入力した文字数は保存されますか?
保存されません。計算はブラウザ上で完結し、入力値を外部に送信しません。