トークンはどこへ行くのか?
「トークンはまだ残っているはずなのに、急に『コンテキストがいっぱい』と言われた」— その瞬間、作業が止まり、これまでのやり取りをやり直す羽目になったことはありませんか?
実は、多くの人がトークンの消費速度を甘く見積もっています。 トークンは入力した文字だけで消えるのではありません。見えないところでも、どんどん消費されています。
4つの「トークン消費源」
Claude とのやり取りでは、次の 4 つの要素がトークンを消費します:
| ソース | 内容 | 例 |
|---|---|---|
| 入力 | ユーザーが貼り付けるコード、文章、質問など | 「このバグを直して」+ コード500行 |
| 出力 | AI が返す回答 | 修正コード + 解説文 |
| システムプロンプト | モデル内部で常に使われる「隠れた指示」 | Claude Code の動作ルール(数千トークン) |
| 履歴 | 過去のやり取りすべてが累積していく | 10往復前の質問と回答も残っている |
多くの人は「入力=消費」だと思いがちですが、実際には会話が進むほど履歴として残るすべてのメッセージもトークンを消費します。 20往復もすれば、履歴だけで4〜8万トークン。200kコンテキストの半分近くが埋まる計算です。
会話が進むと、どれだけ増える?
スケール感を掴むために:
| 内容 | おおよそのトークン数 |
|---|---|
| 短い質問(「このバグを直して」) | ~50 トークン |
| 100行のコードファイル | ~500-800 トークン |
| 500行のコードファイル | ~2,500-4,000 トークン |
| Claude の典型的な応答 | ~500-2,000 トークン |
| 長い会話(20 往復) | ~40,000-80,000 トークン |
これを見ると、Lesson 1 で説明した「作業机が散らかる状態」が、どれほど簡単に起きてしまうかがイメージできるはずです。
なぜ見えないトークン消費に注意が必要か?
多くの人が見落としがちなのは、「自分が貼り付けたものだけがトークンを使っている」と思ってしまう点です。
しかし実際には、
- AI の回答そのものもトークンとして消費される
- 過去のやりとりはそのままコンテキストとして残り続ける
という仕組みがあるため、会話が続くほど意図せずコンテキストウィンドウが圧迫されてしまうのです。 つまり、気づかないうちに「重要な情報ほど埋もれていく」状態が生まれます。
賢いトークン管理のための実践テクニック
すぐ効果が出る
入力は必要な部分だけに絞る
ファイル全体を貼るよりも、該当箇所だけ切り出す。これだけで数千トークン節約できることも。
タスクが変わったら /clear する
不要な過去の会話が積み重なると、コンテキストが圧迫されます。新しいトピックは /clear でリセット。
継続的に効果が出る
区切りで /compact する
Claude Code は自動でコンテキストをコンパクト化しますが、作業の区切りで手動で /compact を実行すると、
より効率的に管理できます。
(参考:auto-compact の仕組み)
Plan mode を使って文脈を分離する
Claude Code では、プランを accept すると自動的にコンテキストがクリアされ、新しいウィンドウでプランが実行されます。 大きなタスクほど効果的。 (参考:Anthropic公式アナウンス)
Anthropic がコンテキスト管理周りの機能をこまめにアップデートしていること自体が、 コンテキスト管理の重要性を物語っています。 開発元もこの課題を重視し、継続的に改善を進めているのです。
重要なポイント
- 4つがトークンを消費:入力、出力、システムプロンプト、履歴
- 特に会話履歴と出力が積み重なって上限に達する
/clear、/compact、Plan mode を活用する- 無駄を減らし、必要な情報だけを渡すことが大切