社内技術共有会
LLMを単なる「チャットボット」から、
信頼性の高い「自律的エージェント/システム」へと進化させるための、
3つの重要なエンジニアリング領域を解説する。
「モデルへの指示」を最適化する
LLMの出力を望ましい、信頼できる、安全なものにするために、自然言語の入力を設計・構造化・改善する技術。
指示の曖昧さ、コンテキスト不足、複雑すぎるタスクの詰め込みによる性能低下。
「モデルが見る情報」を最適化する
LLMが回答を生成する前に参照するすべての情報(履歴、ユーザー、外部ドキュメント、ツール等)を設計・選択・オーケストレーションする技術。
🔍 Prompt: 「どう聞くか」 (Wording, Pattern)
📚 Context: 「何を教えるか」 (Knowledge, Data)
「モデルを取り巻く環境」を最適化する
生のLLMを信頼できる自律的エージェントに変えるために、制約、フィードバック、観測性、ツール統合、状態管理などを設計する技術。
モデルの能力(IQ)を、システムの設計(環境)によって最大限に引き出し、プロダクション品質へと昇華させる。
| 領域 | 焦点 | レベル | 役割 |
|---|---|---|---|
| Prompt | 指示の質 | 微視的 (Micro) | 「振る舞い」を制御 |
| Context | 情報の質 | 中視的 (Meso) | 「知識」を補完 |
| Harness | システムの質 | 巨視的 (Macro) | 「実行能力」を保証 |
高度なAIシステムには、これら3つの統合的なアプローチが不可欠である。
ご清聴ありがとうございました。
Questions? | contact: ai-team@example.com