← 無料オンラインツール集

AI・LLMツール

LLMコンテキスト長比較

OpenAI、Claude、Gemini の長文入力上限を、トークン数、文字数、A4ページ、書籍換算で比較します。入力文量がどのモデルに収まるかも確認できます。

確認日

2026-05-11時点の公式ドキュメントをもとにしています。APIやプランごとの制限は実装前に再確認してください。

入力サイズ

文字数をトークンに概算し、各モデルのコンテキストに収まるか確認します。

日本語は 1 token ≈ 1〜2文字、英語は 1 token ≈ 0.75語程度の粗い換算です。

推定トークン

80,000 tokens

A4換算

約150ページ

書籍換算

約0.6冊

収まるモデル

9/9

サンプル

Privacy

計算はブラウザ内で完結します。入力した文字数や見積もり内容は外部送信されません。

最大コンテキスト

1,048,576 tokens

Gemini 2.5 / GPT-4.1級

入力の残り余裕

9 models

現在の入力条件

確認日

2026-05-11

公式docsベース

Gemini 2.5 Pro

Google収まる

Long-context thinking model.

1,048,576 tokens

context window

Context: 1.0MOutput: 66K残り約969KSource: Google Gemini model docs

Gemini 2.5 Flash

Google収まる

Long-context price-performance model.

1,048,576 tokens

context window

Context: 1.0MOutput: 66K残り約969KSource: Google Gemini model docs

Gemini 2.0 Flash

Google収まる

Second-generation workhorse model.

1,048,576 tokens

context window

Context: 1.0MOutput: 8K残り約969KSource: Google Gemini model docs

GPT-4.1

OpenAI収まる

1M-token non-reasoning model.

1,047,576 tokens

context window

Context: 1.0MOutput: 33K残り約968KSource: OpenAI model docs

Claude Opus 4.7

Anthropic収まる

1M context model according to Claude docs.

1,000,000 tokens

context window

Context: 1MOutput: 64K残り約920KSource: Claude context windows

Claude Sonnet 4.6

Anthropic収まる

1M context model with context awareness.

1,000,000 tokens

context window

Context: 1MOutput: 64K残り約920KSource: Claude context windows

GPT-5.2

OpenAI収まる

Frontier coding and agentic model.

400,000 tokens

context window

Context: 400KOutput: 128K残り約320KSource: OpenAI model comparison

Claude Sonnet 4.5

Anthropic収まる

200k context; plan and endpoint limits may vary.

200,000 tokens

context window

Context: 200KOutput: 64K残り約120KSource: Claude context windows

GPT-4o

OpenAI収まる

Common multimodal API model.

128,000 tokens

context window

Context: 128KOutput: 16K残り約48KSource: OpenAI conversation state docs

入力上限を可視化

最大コンテキストと最大出力を切り替えて、モデルごとの容量差を比較できます。

文量を概算

文字数からトークン、A4ページ、書籍相当量へ換算し、プロンプト設計の目安にできます。

ローカル計算

入力した文字数はブラウザ内で処理され、外部送信や保存は行いません。

使い方と注意点

長文処理の設計

コンテキスト上限に近い入力をそのまま投げるより、章ごとの要約、検索、引用箇所抽出、圧縮メモを組み合わせる方が安定しやすいです。

出力トークンも消費する

コンテキストは入力だけでなく、生成する回答、ツール結果、推論用トークンにも使われます。上限ぎりぎりではなく余白を残してください。

公式ソース

換算の前提

既定では 1 token ≈ 日本語1.5文字 として計算しています。英語、コード、JSON、Markdownでは変わるため、必要なら換算係数を調整してください。

よくある質問

コンテキストウィンドウとは何ですか?

モデルが1回のリクエストで参照できる入力、会話履歴、ツール結果、出力予定分を含む作業メモリの上限です。学習データの量とは別物です。

大きいコンテキストなら常に高精度ですか?

いいえ。長い文脈を入れられることと、必要情報を正確に取り出せることは別です。重要な情報を整理し、不要な履歴やツール結果を圧縮する設計が必要です。

文字数からトークン数への換算は正確ですか?

概算です。言語、記号、コード、空白、トークナイザで変わります。正確な値は各社APIのtoken counting機能やSDKで確認してください。

入力した文字数は保存されますか?

保存されません。計算はブラウザ上で完結し、入力値を外部に送信しません。

関連ツール

cc-tools は 142 個以上の無料オンラインツールを公開しています。