← Flecto
📄 ICLR 2026

エージェント型コンテキストエンジニアリング:
自己改善型言語モデルのための進化するコンテキスト

Qizheng Zhang*, Changran Hu*, Shubhangi Upasani, Boyuan Ma, Fenglu Hong, Vamsidhar Kamanuru, Jay Rainton, Chen Wu, Mengmeng Ji, Hanchen Li, Urmish Thakker, James Zou, Kunle Olukotun

Stanford University  ·  SambaNova Systems  ·  UC Berkeley   |   *Equal contribution

概要

大規模言語モデル(LLM)のアプリケーション、例えばエージェントや特定の分野における推論システムは、ますます「コンテキスト適応」に依存しています。これは、入力に指示、戦略、または証拠を追加するものであり、モデルの重みを更新するものではありません。従来の技術は使いやすさを向上させますが、多くの場合、「簡潔性バイアス」に悩まされ、それが分野固有の知識を簡潔な要約に置き換えてしまうことがあります。また、「コンテキストの崩壊」も問題で、反復的な書き換えによって詳細が時間とともに失われてしまいます。


本稿では、ACE (Agentic Context Engineering)というフレームワークを提案します。これは、コンテキストを、戦略を蓄積、洗練、整理する進化するプレイブックとして捉え、モジュール化された生成、反省、キュレーションのプロセスを通じて実現します。ACEは、構造化された段階的な更新によってコンテキストの崩壊を防ぎ、詳細な知識を保持し、長文コンテキストモデルに対応できるように設計されています。エージェントおよび分野固有のベンチマークにおいて、ACEはオフライン(システムプロンプト)とオンライン(エージェントのメモリ)の両方でコンテキストを最適化し、強力なベースラインを常に上回る結果を示しました。エージェントにおいて+10.6%金融分野において+8.6%の改善が見られました。

エージェント型コンテキストエンジニアリングとは?

従来のLLM改善はモデルの重みを更新するファインチューニングが主流でしたが、コストが高く時間もかかります。 ACE(エージェント型コンテキストエンジニアリング)は発想を転換し、モデル自体を変えるのではなく、 モデルに与える入力(コンテキスト)を継続的に改善します。タスクを実行するたびにAIが自ら「取扱説明書」を 更新し、次回のパフォーマンスを高めるイメージです。「エージェント型」とは、この改善プロセス自体がAIエージェントに よって自動化されていることを意味します。

1. 概要 — 全体的なパフォーマンス

現代のAIアプリケーションは、ますますコンテキスト適応に依存しています。モデルの重みを変更する代わりに、コンテキスト適応は、トレーニング後に、明確な指示、構造化された推論ステップ、またはドメイン固有の知識をモデルの入力に直接組み込むことで、パフォーマンスを向上させます。

コンテキスト適応 vs ファインチューニング

ファインチューニングは知識をモデルの重みに永続的に焼き込む手法です。高コスト・要ラベルデータ・新チェックポイント生成が必要で、更新のたびに再学習が求められます。コンテキスト適応は対照的に、推論時に指示・例・戦略をモデルへの入力として追加するだけです。GPU学習は不要で更新は即時、同じベースモデルがコンテキストを切り替えるだけで複数タスクに対応できます。ACEはそのコンテキストを自動最適化します。

AppWorld、FiNER、Formulaのベンチマークにおける全体的なパフォーマンス比較の棒グラフ
図1:全体的なパフォーマンスの結果。 ACEは、すべてのタスクにおいて、強力なベースライン(Base LLM、ICL、GEPA、DC)を常に上回ります。 AppWorld(42.4% → 59.5%)、 FiNER(70.7% → 78.3%)、 Formula(67.5% → 76.5%)。

主な発見事項:

2. 背景と動機

2.1 コンテキスト適応

コンテキスト適応とは、LLMの重みを変更するのではなく、入力を作成または修正することで、モデルの動作を改善する手法を指します。代表的な手法としては、Reflexion、TextGrad、GEPA、Dynamic Cheatsheetなどがあり、これらはすべて、反復的なコンテキスト改善のために、自然言語によるフィードバックを活用しています。

2.2 限界:簡潔性バイアスとコンテキストの崩壊

簡潔性バイアス:プロンプト最適化ツールは、包括的な知識の蓄積よりも、簡潔で具体的な指示を優先する傾向があり、実践において重要なドメイン固有のヒューリスティックや一般的な失敗パターンが省略されることがあります。
コンテキストの崩壊:LLMによる単一の書き換えに依存する手法は、時間の経過とともに、より短く、情報量の少ない要約に劣化し、パフォーマンスが大幅に低下する可能性があります。

なぜこの2つの失敗が重要なのか?

チェス戦略ガイドをAIに管理させる場面を想像してください。

  • 簡潔性バイアス:AIがガイドを短い箇条書きに圧縮し続け、レアだが重要な戦術(「キング・ポーン終盤のツークツワング」等)が切り捨てられる。
  • コンテキストの崩壊:一括書き換えを繰り返すと、書き換えるたびに詳細が失われ、最終的にはガイドなしより性能が低下してしまう。

ACEは全体を書き直さず新規エントリを追加し、完全な重複のみ削除することでこの両問題を解決します。

コンテキスト崩壊のグラフ:適応ステップ数とトークン数を示し、60ステップで急激な崩壊が見られる
図2:コンテキストの崩壊。 単一の書き換えによって、コンテキストが18,282トークン(精度66.7)からわずか122トークン(精度57.1)に縮小されることがあります。これは、コンテキストを使用しないベースラインの63.7よりもさらに悪い結果です。

3. エージェント型コンテキストエンジニアリング (ACE)

ACEは、Dynamic Cheatsheetのエージェント設計に触発され、3つの専門的なLLMコンポーネントに分けて、構造化された役割分担を導入します。

🔧 Generator (ジェネレーター)
現在のコンテキストプレイブックを使用して、新しいクエリに対する推論パスを生成します。
🔍 Reflector (リフレクター)
成功と失敗から具体的な洞察を抽出し、反復的な改善をサポートします。
📚 Curator (キュレーター)
洞察を構造化されたデルタコンテキストの更新に統合し、プレイブックにマージします。

「進化するプレイブック」というメタファー

スポーツやビジネスのプレイブックは、実績ある戦略を集めた生きたドキュメントです。 チームは勝敗から学ぶたびに更新します。ACEはこのメタファーをAIに適用します。 コンテキストプレイブックは空の状態から始まり、タスク実行のたびに更新されます。 Generatorがプレイブックを参照してタスクを実行し、Reflectorが結果から教訓を抽出し、 Curatorがその教訓を新しいエントリとして書き込みます。数十回の反復を経ると、 ベースモデルを再学習することなく、タスク特化の豊富な知識ベースが完成します。

ACE Framework のアーキテクチャ図:Generator から Reflector に、Reflector から Curator へとデルタ更新が行われる様子
図 4:ACE フレームワーク。 エージェント型のアーキテクチャで、Generator、Reflector、Curator の 3 つの専門的なコンポーネントで構成されています。 デルタコンテキストアイテムは、コストのかかる完全な書き換えを避け、段階的にマージされます。

3.1 段階的なデルタ更新

ACEは、コンテキスト全体を再生成するのではなく、コンパクトな デルタコンテキストを段階的に生成します。これは、リフレクターによって抽出された少数の候補項目であり、キュレーターによって統合されます。これにより、過去の知識が維持され、完全な書き換えにかかる計算コストを回避できます。

デルタ更新 — Gitコミットに例えると

プレイブック全体をタスクごとに書き直す代わりに、ACEは差分のみを追加します。 新しいヒント、修正された戦略、観察された失敗パターンなどです。これはGitコミットに似ています。 各実行が小さな差分を生成し、それをメインブランチにマージします。履歴は完全に保持され、 何も失われず、更新コストもドキュメント全体を再生成する場合と比べて大幅に削減されます。

3.2 成長と改善

段階的な成長に加えて、ACEは、コンテキストがコンパクトな状態を維持するように、定期的なまたは遅延された 改善を行います。重複排除のステップにより、意味的な埋め込みを使用して項目を比較し、冗長性を排除することで、包括的でありながらも冗長性のないプレイブックを維持します。

セマンティック重複排除とは?

プレイブックが成長するにつれ、異なる言葉で本質的に同じことを述べたエントリが現れます。 ACEはセマンティックエンベディングでこれを検出します。各箇条書きが意味を捉えた 数値ベクトルに変換され、コサイン類似度が閾値を超えるペアは重複とみなされ一方が削除されます。 これにより、表面的な言い回しの差異ではなく意味レベルでの重複を除去でき、 プレイブックをスリムに保ちながらも固有の知識は一切失いません。

AppWorld における ACE が生成したコンテキストプレイブックの例:戦略、コードスニペット、トラブルシューティングなどが含まれています
図 3:AppWorld における ACE が生成したコンテキストの例 (一部)。 ACE のコンテキストは、戦略、コードテンプレート、トラブルシューティングなどの詳細なプレイブックであり、簡潔な要約ではありません。

4. 結果

4.3 エージェントベンチマーク: AppWorld (DeepSeek-V3.1-671B)

手法 正解ラベル Test-Normal Test-Challenge 平均値
TGC↑ SGC↑ TGC↑ SGC↑
DeepSeek-V3.1-671BをベースとしたLLM
ReAct63.742.941.521.642.4
オフライン適応
ReAct + ICL64.346.446.027.346.0
ReAct + GEPA64.944.646.030.246.4
ReAct + ACE76.264.357.339.659.4
ReAct + ACE75.064.354.435.257.2
オンライン適応
ReAct + DC (CU)65.558.952.330.851.9
ReAct + ACE69.653.666.048.959.5

表1: AppWorldの結果。ACEは、ベースラインと比較して平均で+10.6%向上し、正解ラベルがなくても効果的です。

AppWorldベンチマークの指標の読み方

  • TGC(タスクゴール達成率):エージェントが割り当てられた目標を完全に達成できたか。厳格な二値評価。
  • SGC(サブゴール達成率):中間ステップの何割を正しく完了できたか。より柔軟な評価指標。
  • Test-Normal vs Test-Challenge:「Challenge」はより難しい多段階ワークフロー。難易度が上がるほど手法間の差が広がります。
  • 正解ラベル(✓/✗):適応時に正解ラベルを使用したかどうか。ACEはラベルなし(✗)でも教師ありの競合手法(✓)を上回り、実行フィードバックだけで自己改善できることを示しています。
  • オフライン vs オンライン:オフラインはデプロイ前にシステムプロンプトを改善。オンラインは稼働中にエージェントメモリをリアルタイム更新。

4.4 ドメイン特化ベンチマーク: 金融 (DeepSeek-V3.1)

手法 正解ラベル FiNER (正答率↑) Formula (正答率↑) 平均値
DeepSeek-V3.1をベースとしたLLM
ベースLLM70.767.569.1
オフライン適応
ICL72.367.069.6
MIPROv272.469.570.9
GEPA73.571.572.5
ACE78.385.581.9
ACE71.183.077.1
オンライン適応
DC (CU)74.269.571.8
DC (CU)68.362.565.4
ACE76.776.576.6
ACE67.378.572.9

表2: 金融分析の結果。ACEは、オフライン適応において、正解ラベルを使用した場合、平均+12.8%の改善を達成しています。

なぜドメイン特化の改善が重要なのか?

FiNER(金融テキストの固有表現認識)やFormula(金融数式推論)のような 金融NLPタスクは、一般的なLLM学習では十分に扱われない高度に専門化された知識を必要とします。 財務略語、報告慣行、業界特有の専門用語などです。ACEのプレイブックはドメイン内の事例から これらのニュアンスを蓄積し、解決した事例が増えるたびに成長する分野特化参照シートを モデルに提供します。正解ラベルありの場合の+12.8%という向上幅は、ドメイン特化コンテキストが 汎用ベースLLMと比べてどれだけ大きな可能性を持つかを示しています。

主な発見

+10.6%
高性能エージェント
AppWorldエージェントベンチマークにおける平均的な向上率。DeepSeek-V3.1と、実用レベルのGPT-4.1エージェントと同等。
+8.6%
ドメイン推論
構造化された進化型プレイブックを用いた、金融分析ベンチマーク(FiNER、Formula)における平均的な向上率。
−86.9%
適応遅延
ACEは、既存の方法と比較して、大幅に適応遅延を低減し、これらの向上を実現します。
ラベル不要
ラベルフリー適応
ACEは、ラベル付きの教師データなしで効果的に適応可能 — 実行フィードバックと環境シグナルのみを使用します。

Resources

arXiv:2510.04618v3 [cs.LG]  ·  Published at ICLR 2026

B2B Content

あらゆるコンテンツを、御社向けに美麗に制作します

PDF・動画・Webページ等のあらゆる素材から、プロダクション品質のコンテンツを制作します。リッチHTML・カスタムスライド・アニメーション動画。

サービス詳細を見る お問い合わせ