Documentation Index
Fetch the complete documentation index at: https://docs.jitera.ai/llms.txt
Use this file to discover all available pages before exploring further.
Jitera Self-Hostedは、コード生成、AIチャット、ドキュメント生成、コード理解のためにAI/LLMプロバイダーを使用します。このガイドでは、サポートされているすべてのプロバイダーの完全な設定について説明します。
このガイドに記載されているサードパーティサービスの手順(Azure OpenAI、OpenAI、AWS Bedrock、Anthropic、Google AI)は例として提供されています。最新の手順については、各プロバイダーの公式ドキュメントを参照してください:
アーキテクチャ概要
Jiteraは、2つの内部サービス(UltronとBoost)を通じてLLMリクエストをルーティングします。それぞれに独自の設定パスがあります。
| サービス | 役割 | 設定 | プロバイダーアクセス |
|---|
| Ultron | AIエージェント処理、バックグラウンドタスク | values.yamlのopenai.secretKeys.* | Azure OR OpenAI Direct(AI_MODEで選択)+ オプション:Bedrock、Anthropic、Google |
| Boost | ワークフローエンジン、チャット、カスタムエージェント | credentials.boost.* + litellm-proxy-config.yaml | AzureまたはOpenAI互換エンドポイント + LiteLLMプロキシ |
| LiteLLM | Boost用モデルプロキシ | extra_config/litellm-proxy-config.yaml | BoostにClaude/Geminiをルーティング |
設定ファイル
charts/jitera/values.yaml # メイン設定
charts/jitera/extra_config/litellm-proxy-config.yaml # Boost用Claude/Geminiモデル
主要な概念
| 用語 | 説明 | 例 |
|---|
| name | SuperAdminでの表示名 — Boostのルーティングキーでもあります | gpt-4.1、claude-3.5-sonnet |
| modelKey | Ultronのルーティングキー — プロバイダーと認証情報を選択するためにパターンマッチされます | arn:aws:bedrock:ap-northeast-1:123456789012:inference-profile/apac.anthropic.claude-3-5-sonnet-20241022-v2:0 |
| model_name | LiteLLMエイリアス — Azure以外のプロバイダーではSuperAdminのnameと一致する必要があります | claude-3.5-sonnet、gemini-2.5-pro |
Boostの場合、SuperAdminのnameフィールドがルーティングキーとなり、Azureデプロイメント名(URLから抽出)またはLiteLLMのmodel_nameと一致する必要があります。Ultronの場合、modelKeyフィールドがプロバイダーのルーティングを決定します。
プロバイダー別の必要モデル
UltronとBoostはそれぞれ異なる方法でLLMプロバイダーにアクセスします。以下の表は、各プロバイダーに必要な・利用可能なモデルをサービス別に整理しています。
- Ultronは
modelKeyフィールドのパターンマッチでリクエストをルーティングします(プロバイダールーティングリファレンスを参照)。サポートされているプロバイダーのパターンに一致する任意のモデルIDが動作します。
- Boostは設定されたエンドポイントから実行時にモデルを動的に検出します。設定されたエンドポイント(Azureデプロイメント、LiteLLMプロキシ、またはOpenAI互換API)を通じて利用可能な任意のモデルを使用できます。
Azure OpenAI
| モデル | サービス | 役割 | リージョン |
|---|
gpt-4.1 | Ultron, Boost | デフォルトチャット/補完; Ultronバックグラウンドモデル; Boostエキスパートデフォルト | メイン |
gpt-4.1-mini | Ultron, Boost | 高速チャット; Boostバーサタイルデフォルト | メイン |
gpt-4.1-nano | Ultron, Boost | 軽量タスク; Boostベース/直接タスクデフォルト | メイン |
gpt-4o | Ultron, Boost | ビジョン / マルチモーダル; Ultronビジョンデフォルト | メイン |
gpt-4o-mini | Ultron, Boost | 高速補完; Ultronスモールモデルデフォルト | メイン |
text-embedding-ada-002 | Ultron, Boost | エンベディング | メイン |
gpt-4o-transcribe | Ultron | オーディオ文字起こし | グローバル |
gpt-4o-mini-transcribe | Ultron | オーディオ文字起こし(効率型) | グローバル |
o1 | Ultron, Boost | 高度な推論 | グローバル(自動ルーティング) |
o3 | Ultron, Boost | 高度な推論 | グローバル(自動ルーティング) |
o3-mini | Ultron, Boost | 効率的な推論 | グローバル(自動ルーティング) |
o4-mini | Ultron, Boost | 効率的な推論 | グローバル |
gpt-5 | Ultron, Boost | 次世代 | グローバル(azure_global:プレフィックス) |
gpt-5-mini | Ultron, Boost | 次世代効率型 | グローバル(azure_global:プレフィックス) |
gpt-5-nano | Ultron, Boost | 次世代軽量型 | グローバル(azure_global:プレフィックス) |
gpt-5.1 | Ultron, Boost | 次世代 | グローバル(azure_global:プレフィックス) |
gpt-5.2 | Ultron, Boost | 次世代 | グローバル(azure_global:プレフィックス) |
追加のAzureモデルは、values.yamlのAZURE_DEVELOPMENT_NAME_*環境変数を使用して動的に登録できます。環境変数の値がデプロイメントの検索キーとデプロイメント名の両方になります。例えば、AZURE_DEVELOPMENT_NAME_GPT_41=gpt-4.1と設定すると、gpt-4.1が既知のデプロイメントとして登録されます。
Azure OpenAIモデルには特定のデプロイメントSKUが必要です。誤ったSKUを使用すると400 InvalidResourcePropertiesまたは400 ServiceModelDeprecatedエラーが発生します。
- Standard: 特定のリージョンにデプロイされます。データレジデンシー要件がある場合に使用してください(例:日本国内処理のための
japaneast)。gpt-4.1、gpt-4.1-mini、gpt-4o、text-embedding-ada-002で利用可能です。ただし、Standard SKUはモデル・リージョンごとに段階的に廃止されています — デプロイ前に可用性を確認してください。
- GlobalStandard: Azureのグローバルインフラストラクチャにデプロイされます(リクエストは最寄りの利用可能なリージョンにルーティングされます)。
gpt-4.1-nano、o1、o3、o3-mini、o4-mini、gpt-5シリーズでは必須です — これらのモデルはStandardをサポートしていません。
リージョンごとのモデルとSKUの可用性についてはAzure OpenAIモデルマトリックスを確認してください。
このテーブルには廃止が近づいているモデルが含まれています。以下の日付までに記載の代替モデルへの移行を計画してください:
gpt-4o — Standardは 2026-03-31 廃止済み、その他のSKUは 2026-10-01 廃止予定(代替: gpt-5.1)
gpt-4o-mini — Standardは 2026-03-31 廃止済み、その他のSKUは 2026-10-01 廃止予定(代替: gpt-4.1-mini)
o1 — 2026-07-15 廃止予定(代替: o3)
o3-mini — 2026-08-02 廃止予定(代替: o4-mini)
gpt-4o-transcribe — 2026-06-01 廃止予定
最新の日付は Azure OpenAI モデル廃止ページ で確認してください。
text-embedding-ada-002 は引き続きGA提供中です(2027-04-15 以前の廃止予定なし)。ただし、新規デプロイメントには Microsoft が text-embedding-3-small または text-embedding-3-large を推奨しています。
AWS Bedrock(Claude)
Ultronはanthropic.claudeを含むmodelKeyをAWS Bedrock Converseにルーティングします。BoostはLiteLLMプロキシ経由でClaudeにアクセスします。
以下のBedrockモデルIDは廃止が近づいています。以下の日付までに記載の代替モデルへの移行を計画してください:
anthropic.claude-3-7-sonnet-20250219-v1:0 — 2026-04-28 廃止予定(代替: anthropic.claude-sonnet-4-6)
anthropic.claude-opus-4-20250514-v1:0 — 2026-05-31 廃止予定(代替: anthropic.claude-opus-4-6-v1)
anthropic.claude-3-5-haiku-20241022-v1:0 — 2026-06-19 廃止予定(代替: anthropic.claude-haiku-4-5-20251001-v1:0)
anthropic.claude-3-5-sonnet-20240620-v1:0、anthropic.claude-3-5-sonnet-20241022-v2:0 — APACで 2026-07-30 廃止予定
anthropic.claude-3-haiku-20240307-v1:0 — Bedrockで 2026-09-10 廃止予定(Anthropic APIでは既に廃止済み)
anthropic.claude-sonnet-4-20250514-v1:0 — 2026-04-14 にLegacy移行、Bedrockで 2026-10-14 廃止予定
最新の日付は AWS Bedrock モデルライフサイクルページ および Anthropic モデル廃止情報 で確認してください。
| モデル | サービス | Bedrockモデル ID | リージョン |
|---|
| Claude 3 Haiku | Ultron | anthropic.claude-3-haiku-20240307-v1:0 | APAC |
| Claude 3.5 Haiku | Ultron | anthropic.claude-3-5-haiku-20241022-v1:0 | US |
| Claude Haiku 4.5 | Ultron | anthropic.claude-haiku-4-5-20251001-v1:0 | US / APAC |
| Claude 3.5 Sonnet v1 | Ultron | anthropic.claude-3-5-sonnet-20240620-v1:0 | APAC |
| Claude 3.5 Sonnet v2 | Ultron, Boost(LiteLLM経由) | anthropic.claude-3-5-sonnet-20241022-v2:0 | APAC |
| Claude 3.7 Sonnet | Ultron, Boost(LiteLLM経由) | anthropic.claude-3-7-sonnet-20250219-v1:0 | APAC |
| Claude Sonnet 4 | Ultron, Boost(LiteLLM経由) | anthropic.claude-sonnet-4-20250514-v1:0 | APAC |
| Claude Sonnet 4.5 | Ultron, Boost(LiteLLM経由) | anthropic.claude-sonnet-4-5-20250929-v1:0 | US / APAC |
| Claude Sonnet 4.6 | Ultron, Boost(LiteLLM経由) | anthropic.claude-sonnet-4-6 | US |
| Claude Opus 4 | Ultron | anthropic.claude-opus-4-20250514-v1:0 | US |
| Claude Opus 4.1 | Ultron | anthropic.claude-opus-4-1-20250805-v1:0 | US |
| Claude Opus 4.5 | Ultron | anthropic.claude-opus-4-5-20251101-v1:0 | US |
| Claude Opus 4.6 | Ultron, Boost(LiteLLM経由) | anthropic.claude-opus-4-6-v1 | US |
Anthropic直接API
Ultronはclaudeを含む(ただしanthropic.claudeを含まない)modelKeyをAnthropic APIに直接ルーティングします。
以下のClaudeモデルはAnthropic APIで廃止予定です(2026-06-15 廃止):
claude-sonnet-4-20250514(代替: claude-sonnet-4-6)
claude-opus-4-20250514(代替: claude-opus-4-6)
最新の日付は Anthropic モデル廃止情報 で確認してください。
| モデル | サービス | modelKey |
|---|
| Claude Sonnet 4 | Ultron | claude-sonnet-4-20250514 |
| Claude Sonnet 4.5 | Ultron | claude-sonnet-4-5-20250929 |
| Claude Sonnet 4.6 | Ultron | claude-sonnet-4-6 |
| Claude Opus 4 | Ultron | claude-opus-4-20250514 |
| Claude Opus 4.1 | Ultron | claude-opus-4-1-20250805 |
| Claude Opus 4.5 | Ultron | claude-opus-4-5-20251101 |
| Claude Opus 4.6 | Ultron | claude-opus-4-6 |
Google Gemini
Ultronはgeminiを含むmodelKeyをGoogle Generative AIにルーティングします。BoostはLiteLLMプロキシ経由でGeminiにアクセスします。
| モデル | サービス | modelKey |
|---|
| Gemini 3.1 Pro | Ultron, Boost(LiteLLM経由) | gemini-3.1-pro |
| Gemini 3 Pro Image | Ultron, Boost(LiteLLM経由) | gemini-3-pro-image |
| Gemini 3 Flash | Ultron, Boost(LiteLLM経由) | gemini-3-flash |
| Gemini 2.5 Pro | Ultron, Boost(LiteLLM経由) | gemini-2.5-pro |
| Gemini 2.5 Flash | Ultron, Boost(LiteLLM経由) | gemini-2.5-flash |
| Gemini 2.5 Flash Image | Ultron, Boost(LiteLLM経由) | gemini-2.5-flash-image |
| Gemini 2.0 Flash | Ultron, Boost(LiteLLM経由) | gemini-2.0-flash |
gemini-2.0-flash-thinking*、gemini-2.5*、またはgemini-3*に一致するモデルは、自動的にthinking/推論が有効になります。
Vertex AIサポートはv26.02.16には含まれていません。今後のリリースで利用可能になる予定です。
その他のプロバイダー
| プロバイダー | サービス | パターンマッチ | modelKeyの例 |
|---|
| OpenAI Direct | Ultron, Boost | openai:で始まる | openai:gpt-4o |
| Groq | Ultron | deepseek-r1-distillを含む | deepseek-r1-distill-llama-70b |
| Qwen(vLLM) | Ultron | qwenを含む | qwen-2.5-72b |
| Ollama | Ultron | OLLAMA_BASE_URLで設定 | 任意のモデル名 |
バックグラウンドタスクのデフォルトモデル
ユーザーが特定のモデルを選択した場合でも、バックグラウンド処理はデフォルトモデルを使用します。これらのデフォルトは設定済みのプロバイダーから利用可能である必要があります。
Ultronデフォルト:
| 役割 | デフォルトモデル | 環境変数 |
|---|
| メインバックグラウンドモデル | gpt-4.1 | OPENAI_MAIN_MODEL_NAME |
| スモールモデル | gpt-4o-mini | (コードデフォルト) |
| ビジョンモデル | gpt-4o | (コードデフォルト) |
OPENAI_MAIN_MODEL_NAMEは**AI_MODE: azureとAI_MODE: open_aiの両方で必須**です。Azureの場合、Azure OpenAIリソースに存在するデプロイメント名に設定します。
Boostデフォルト:
| 役割 | デフォルトモデル | 環境変数 |
|---|
| ベース(簡単なタスク) | gpt-4.1-nano | JITERA_BOOST_DEFAULT_BASE_MODEL |
| 直接タスク(タイトル、タグ) | gpt-4.1-nano | JITERA_BOOST_DIRECT_TASKS_MODEL |
| バーサタイル(バランス型) | gpt-4.1-mini | JITERA_BOOST_DEFAULT_VERSATILE_MODEL |
| エキスパート(複雑な推論) | gpt-4.1 | JITERA_BOOST_DEFAULT_EXPERT_MODEL |
| ビジョン | gpt-4.1 | JITERA_BOOST_DEFAULT_VISION_MODEL |
| エンベディング | text-embedding-ada-002 | JITERA_BOOST_DEFAULT_EMBEDDING_MODEL |
| オーディオ(音声テキスト変換) | jitera/stt | JITERA_BOOST_DEFAULT_AUDIO_MODEL |
モデル検出(Boost)
Boostはハードコードされたモデルリストを保持しません。利用可能なモデルを動的に検出します:
| エンドポイントタイプ | モデルの検出方法 |
|---|
| Azure OpenAI | URLパスからデプロイメント名を抽出 |
| OpenAI互換(LiteLLM含む) | エンドポイントに対してGET /v1/modelsを呼び出し |
| 内部ワークフロー | Boostのワークフローレジストリから登録 |
| ローカルオーディオ | ハードコード:jitera/ttsおよびjitera/stt(sherpa-onnx経由) |
Boostでモデルを利用可能にするには、モデルを提供するエンドポイント(Azureデプロイメント、LiteLLMプロキシエントリ、またはOpenAI互換API)を設定し、検出されたモデルIDと一致するnameでSuperAdminに登録します。
プライマリプロバイダーの選択(AI_MODE)
UltronのプライマリLLMプロバイダーはvalues.yamlのAI_MODEで設定します。いずれかを選択してください:
| モード | プロバイダー | 必要な環境変数 |
|---|
open_ai(デフォルト) | OpenAI Direct API | OPENAI_API_KEYS、OPENAI_API_KEY、OPENAI_EMBEDDING_KEY、OPENAI_VISION_KEY |
azure | Azure OpenAI | AZURE_OPENAI_KEYS、AZURE_OPENAI_INSTANCE_NAMES、AZURE_OPENAI_VERSION、AZURE_OPENAI_DEVELOPMENT_NAME、AZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAME |
openai:
AI_MODE: open_ai # or azure
これはUltronのプライマリプロバイダーのみを決定します。他のプロバイダー(Bedrock、Anthropic、Google、vLLM)はどちらのモードでも追加できます。Boostはプロバイダーに依存せず、任意のOpenAI互換エンドポイントに接続できます。
Azure OpenAI設定
AI_MODE: azureを設定して、Azure OpenAIをUltronのプライマリプロバイダーとして設定します。UltronとBoostの両方が、コア操作とバックグラウンドタスクにAzure OpenAIモデルを使用します。他のプロバイダー(Bedrock、Anthropic、Google、vLLM)は、Azure OpenAIと併用する追加オプションとして設定できます。
ステップ1:Azure OpenAIリソースの作成
Azure OpenAIリソースを作成し、エンドポイントURLとAPIキーを取得します。詳細な最新の手順については、Azure OpenAIドキュメントを参照してください。
# リソースの作成
az cognitiveservices account create \
--name jitera-openai \
--resource-group jitera-rg \
--kind OpenAI \
--sku S0 \
--location japaneast \
--custom-domain jitera-openai
# エンドポイントの取得
az cognitiveservices account show \
--name jitera-openai \
--resource-group jitera-rg \
--query "properties.endpoint"
# キーの取得
az cognitiveservices account keys list \
--name jitera-openai \
--resource-group jitera-rg
AZURE_OPENAI_INSTANCE_NAMESの値はカスタムサブドメイン名(例:my-instance)でなければなりません。リージョンエンドポイントは使用できません。Ultronはhttps://{instance}.openai.azure.comとしてURLを構築します。Azure OpenAIリソースがリージョンエンドポイント(例:eastus2.api.cognitive.microsoft.com)を使用している場合は、カスタムサブドメインを有効にしてください:az cognitiveservices account update \
--name <リソース名> \
--resource-group <リソースグループ> \
--custom-domain <希望するサブドメイン>
エンドポイント形式はAzureポータルのOpenAIリソース > キーとエンドポイントで確認できます。エンドポイントはhttps://<サブドメイン>.openai.azure.com/の形式である必要があります。
ステップ2:モデルのデプロイ
Jiteraのバックエンドサービス(UltronとBoost)は、環境変数とエンドポイントURLを通じてAzureデプロイメントを名前で参照します。ここで作成する各デプロイメントは、JiteraのHelm値で設定されたデプロイメント名と一致する必要があります。一致しない場合、サービスはリクエストを正しいモデルにルーティングできません。デプロイメントと環境変数の完全なマッピングについては、Azureモデルからデプロイメントへのマッピングセクションを参照してください。
Azure OpenAI StudioまたはAzure CLIを使用して以下のモデルをデプロイします。デプロイ手順については、Azure OpenAIデプロイメントガイドを参照してください。
モデルデプロイメント名とモデル名に同じ文字列を使用してください(例:gpt-4.1をデプロイメント名gpt-4.1でデプロイ)。Jiteraはデプロイメント名をルーティングキーとして使用するため、これにより設定が簡素化されます。
推奨される最小デプロイメント:
| モデル | デプロイメント名 | 用途 |
|---|
| gpt-4.1 | gpt-4.1 | メインチャット/補完、デフォルトフォールバック |
| gpt-4o | gpt-4o | ビジョン、マルチモーダルタスク |
| gpt-4o-mini | gpt-4o-mini | 高速補完 |
| text-embedding-ada-002 | text-embedding-ada-002 | エンベディング |
| o1 | o1 | 高度な推論(グローバルリージョン) |
| o3-mini | o3-mini | 効率的な推論(グローバルリージョン) |
ステップ3:Ultronの設定(values.yaml)
Ultronはopenai.secretKeys.azureを通じて注入される環境変数からAzure OpenAI設定を読み取ります:
openai:
AI_MODE: azure # 必須:Azure OpenAIの場合は"azure"に設定
secretKeys:
azure:
# === メインリージョン(例:Japan East)===
AZURE_OPENAI_KEY: "<your-api-key>"
AZURE_OPENAI_KEYS: '["<key1>", "<key2>"]' # ロードバランシング用JSON配列
AZURE_OPENAI_INSTANCE_NAME: "<your-instance-name>"
AZURE_OPENAI_INSTANCE_NAMES: '["<instance1>", "<instance2>"]'
AZURE_OPENAI_VERSION: "2024-10-21"
# デプロイメント名(Azureポータルと一致する必要があります)
AZURE_OPENAI_DEVELOPMENT_NAME: gpt-4.1 # デフォルト/フォールバックモデル
AZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAME: text-embedding-ada-002
AZURE_OPENAI_VISION_DEVELOPMENT_NAME: gpt-4o
AZURE_OPENAI_GPT_4O_DEVELOPMENT_NAME: gpt-4o
AZURE_OPENAI_GPT_4O_MINI_DEVELOPMENT_NAME: gpt-4o-mini
AZURE_DEVELOPMENT_NAME_GPT_41: gpt-4.1
# === グローバルリージョン(例:Sweden CentralまたはUS East)===
# O1、O3、GPT-5モデルに必要
AZURE_OPENAI_GLOBAL_KEYS: '["<global-key1>", "<global-key2>"]'
AZURE_OPENAI_GLOBAL_INSTANCE_NAMES: '["<instance-swedencentral>"]'
AZURE_OPENAI_GLOBAL_VERSION: "2024-12-01-preview"
# O1/O3モデル(グローバルリージョンに自動ルーティング)
AZURE_OPENAI_GPT_O1_DEVELOPMENT_NAME: o1
AZURE_OPENAI_GPT_O1_MINI_DEVELOPMENT_NAME: o1-mini
AZURE_OPENAI_GPT_O3_MINI_DEVELOPMENT_NAME: o3-mini
AZURE_DEVELOPMENT_NAME_O3: o3
# GPT-5モデル(SuperAdminのmodelKeyにazure_global:プレフィックスが必要)
AZURE_OPENAI_GPT_5_DEVELOPMENT_NAME: gpt-5
AZURE_OPENAI_GPT_5_MINI_DEVELOPMENT_NAME: gpt-5-mini
AZURE_OPENAI_GPT_5_NANO_DEVELOPMENT_NAME: gpt-5-nano
AZURE_OPENAI_GPT_5_CHAT_DEVELOPMENT_NAME: gpt-5-chat
AZURE_OPENAI_GPT_51_DEVELOPMENT_NAME: gpt-5.1
AZURE_OPENAI_GPT_52_DEVELOPMENT_NAME: gpt-5.2
openai:
# メインモデル名 — AI_MODEに関係なく、Ultronのバックグラウンドタスクに使用されます
OPENAI_MAIN_MODEL_NAME: gpt-4.1
OPENAI_MAIN_MODEL_NAMEはAzureモードでも必須です。openaiキー配下にありますが、この値はAI_MODEに関係なくUltronに無条件に注入され、バックグラウンド処理タスクで使用されるモデルを決定します。Azureデプロイメントの場合、Azure OpenAIリソースに存在するデプロイメント名(例:gpt-4.1)を設定してください。
ステップ4:Boostの設定(values.yaml)
Boostはcredentials.boost.JITERA_BOOST_API_CONFIG_AZURE_*変数からAzure OpenAI設定を読み取ります。各変数は1つのAzureデプロイメントエンドポイントをエンコードします。
フォーマット:
behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/<deployment>,headers={"api-key": "<key>"},query_params={"api-version": "<version>"}
credentials:
boost:
# === メインリージョンモデル ===
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41_MINI: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41_NANO: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1-nano,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_ADA: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/text-embedding-ada-002,headers={"api-key": "<key>"},query_params={"api-version": "2"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_4O: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4o,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_4O_MINI: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4o-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
# === 推論モデル(グローバルリージョン) ===
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O1: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O3: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o3,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O3_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o3-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O4_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o4-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
# === GPT-5ファミリー(グローバルリージョン — Sweden/US) ===
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_NANO: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-nano,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_CHAT: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-chat,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_51: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5.1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_52: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5.2,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
チャートのvalues.yamlで定義されているすべての JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_* キーをvaluesファイルで明示的にオーバーライドする必要があります。デフォルトのプレースホルダー値(<REPLACE_WITH_YOUR_AZURE_CONFIG>)のまま残したキーは、Boostの起動時にPydanticバリデーションエラーでクラッシュします。未デプロイのモデルは空文字列("")に設定してください。
BoostがAzureからモデル名を検出する方法:
BoostはURLの最後のパスセグメントからデプロイメント名を抽出します:
URL: https://instance.openai.azure.com/openai/deployments/gpt-4.1
↓
検出されるモデル名: gpt-4.1
この名前はSuperAdmin LLMのnameフィールドと正確に一致する必要があります。
エンドポイントフォーマットのパラメータ:
| パラメータ | 説明 | 例 |
|---|
behavior | プロバイダータイプ | azureまたはopenai |
url | 完全なAPIエンドポイントURL | https://instance.openai.azure.com/openai/deployments/gpt-4.1 |
headers | リクエストヘッダーのJSONオブジェクト | {"api-key": "xxx"} |
query_params | クエリパラメータのJSONオブジェクト | {"api-version": "2024-12-01-preview"} |
weight | ロードバランシングの重み(オプション) | 1.0 |
AzureモデルのSuperAdmin登録
| フィールド | 値 |
|---|
| name | Azureデプロイメント名と一致する必要があります(例:gpt-4.1) |
| modelKey | nameと同じ(例:gpt-4.1) |
| provider | Azure OpenAI |
O1、O1-mini、O3-miniはUltronによって自動的にAzureグローバルリージョンにルーティングされます。GPT-5モデルは自動ルーティングされません。SuperAdminのmodelKeyにazure_global:プレフィックス(例:azure_global:gpt-5)を使用して、グローバルリージョンにルーティングしてください。
AWS Bedrock設定(Claude)
ステップ1:Bedrockモデルの有効化
AWS Bedrockコンソールで必要なClaudeモデルを有効にします。詳細な手順については、AWS Bedrockドキュメントを参照してください。
Jiteraで使用される一般的なモデル:
- Claude 3.5 Sonnet v2 (
anthropic.claude-3-5-sonnet-20241022-v2:0)
- Claude 3.7 Sonnet (
anthropic.claude-3-7-sonnet-20250219-v1:0)
- Claude Sonnet 4 (
anthropic.claude-sonnet-4-20250514-v1:0)
- Claude Sonnet 4.5 (
anthropic.claude-sonnet-4-5-20250929-v1:0)
- Claude Sonnet 4.6 (
anthropic.claude-sonnet-4-6)
- Claude Opus 4 (
anthropic.claude-opus-4-20250514-v1:0)
- Claude Opus 4.1 (
anthropic.claude-opus-4-1-20250805-v1:0)
- Claude Opus 4.5 (
anthropic.claude-opus-4-5-20251101-v1:0)
- Claude Opus 4.6 (
anthropic.claude-opus-4-6-v1)
ステップ2:IAMポリシーの作成
Bedrockモデル呼び出し権限を付与するIAMポリシーを作成します。IAMのベストプラクティスについては、AWS IAMドキュメントを参照してください。
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"bedrock:InvokeModel",
"bedrock:InvokeModelWithResponseStream"
],
"Resource": "*"
}
]
}
ステップ3:Ultronの設定(values.yaml)
Ultronはopenai.secretKeys.bedrockの認証情報を使用してBedrockを直接呼び出します:
openai:
secretKeys:
bedrock:
# メインリージョン(例:APAC向けap-northeast-1)
BEDROCK_CONVERSE_REGION: ap-northeast-1
BEDROCK_CONVERSE_ACCESS_KEY_ID: "<aws-access-key>"
BEDROCK_CONVERSE_SECRET_ACCESS_KEY: "<aws-secret-key>"
# グローバルリージョン — Claude 3.7とClaude 4 Opusに必要
BEDROCK_CONVERSE_GLOBAL_REGION: us-east-1
BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_ID: "<aws-access-key>"
BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEY: "<aws-secret-key>"
Ultronに注入される環境変数:
| 変数 | 用途 |
|---|
BEDROCK_CONVERSE_REGION | メインBedrockアクセスのAWSリージョン |
BEDROCK_CONVERSE_ACCESS_KEY_ID | メインリージョンのAWSアクセスキー |
BEDROCK_CONVERSE_SECRET_ACCESS_KEY | メインリージョンのAWSシークレットキー |
BEDROCK_CONVERSE_GLOBAL_REGION | 新しいモデル用のセカンダリAWSリージョン |
BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_ID | グローバルリージョンのAWSアクセスキー |
BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEY | グローバルリージョンのAWSシークレットキー |
ステップ4:Claude用のBoost設定(LiteLLM経由)
Boostは同じBedrock認証情報を再利用して、LiteLLMプロキシ経由でClaudeにアクセスします。
ステップ4a — LiteLLM認証情報はopenai.secretKeys.bedrockから自動的に注入されます:
AWS_ACCESS_KEY_ID ← BEDROCK_CONVERSE_ACCESS_KEY_ID
AWS_SECRET_ACCESS_KEY ← BEDROCK_CONVERSE_SECRET_ACCESS_KEY
ステップ4b — litellm-proxy-config.yamlにClaudeモデルを追加:
各モデルのmodelには、下記のモデルIDテーブルのBedrock モデルIDにbedrock/プレフィックスを付けて設定します。model_nameはSuperAdminのnameフィールドと一致する必要があります。AWS認証情報は環境から継承されるため(ステップ4a)、aws_region_nameのみ必要です。
# charts/jitera/extra_config/litellm-proxy-config.yaml
model_list:
- model_name: claude-3.5-sonnet # SuperAdminのnameと一致する必要があります
litellm_params:
model: bedrock/apac.anthropic.claude-3-5-sonnet-20241022-v2:0 # bedrock/ + モデルID
aws_region_name: ap-northeast-1
- model_name: claude-sonnet-4
litellm_params:
model: bedrock/apac.anthropic.claude-sonnet-4-20250514-v1:0
aws_region_name: ap-northeast-1
- model_name: claude-sonnet-4.6
litellm_params:
model: bedrock/us.anthropic.claude-sonnet-4-6
aws_region_name: us-east-1
- model_name: claude-opus-4.6
litellm_params:
model: bedrock/global.anthropic.claude-opus-4-6-v1
aws_region_name: us-east-1
# 同じパターンで追加モデルを設定
general_settings:
master_key: os.environ/PROXY_MASTER_KEY
ステップ4c — BoostからLiteLLMへの接続設定(credentials.boost内):
credentials:
boost:
JITERA_BOOST_OPENAI_KEY_LITELLM: "<litellm-master-key>"
# JITERA_BOOST_OPENAI_URL_LITELLMは自動的にhttp://jitera-litellm:80に設定されます
ClaudeのSuperAdmin登録
| フィールド | 値 |
|---|
| name | LiteLLMのmodel_nameと一致する必要があります(例:claude-3.5-sonnet)— Boostのルーティングに使用 |
| modelKey | Bedrock推論プロファイルの完全なARN(以下のフォーマットと例を参照)— Ultronが使用 |
| provider | AWS Bedrock |
modelKeyの要件:
modelKeyには以下のフォーマットの完全なAWS Bedrock推論プロファイルARNを指定する必要があります:
arn:aws:bedrock:{region}:{account-id}:inference-profile/{profile-id}
| コンポーネント | 説明 | 例 |
|---|
{region} | 推論プロファイルが利用可能なAWSリージョン | us-east-1、ap-northeast-1 |
{account-id} | お客様のAWSアカウントID | 123456789012 |
{profile-id} | クロスリージョン推論プロファイルID(下記テーブルを参照) | us.anthropic.claude-sonnet-4-5-20250929-v1:0 |
例:
arn:aws:bedrock:us-east-1:123456789012:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0
Ultronはこの値を2つのルーティング判断に使用します:
- プロバイダー選択 — ARNに
anthropic.claudeが含まれているため、Bedrock Converseプロバイダーがトリガーされます(ルーティングルールを参照)
- リージョン選択 — ARN内の
{region}により使用するBedrock認証情報が決まります。BEDROCK_CONVERSE_REGION(例:ap-northeast-1)と一致する場合、メインリージョンの認証情報が使用されます。BEDROCK_CONVERSE_GLOBAL_REGION(例:us-east-1)と一致する場合、グローバルリージョンの認証情報が使用されます。
クロスリージョン推論プロファイルID:
これらはAWS Bedrockクロスリージョン推論プロファイルIDです。SuperAdminのmodelKeyではARN内の{profile-id}として使用し、LiteLLM設定ではbedrock/プレフィックスを付けて使用します。
| プロファイルID | リージョン | モデル |
|---|
apac.anthropic.claude-3-5-sonnet-20241022-v2:0 | メイン(ap-northeast-1) | Claude 3.5 Sonnet v2 |
apac.anthropic.claude-3-7-sonnet-20250219-v1:0 | メイン(ap-northeast-1) | Claude 3.7 Sonnet |
apac.anthropic.claude-sonnet-4-20250514-v1:0 | メイン(ap-northeast-1) | Claude Sonnet 4 |
apac.anthropic.claude-sonnet-4-5-20250929-v1:0 | メイン(ap-northeast-1) | Claude Sonnet 4.5 |
us.anthropic.claude-sonnet-4-5-20250929-v1:0 | グローバル(us-east-1) | Claude Sonnet 4.5(US) |
us.anthropic.claude-sonnet-4-6 | グローバル(us-east-1) | Claude Sonnet 4.6 |
us.anthropic.claude-opus-4-20250514-v1:0 | グローバル(us-east-1) | Claude Opus 4 |
us.anthropic.claude-opus-4-1-20250805-v1:0 | グローバル(us-east-1) | Claude Opus 4.1 |
global.anthropic.claude-opus-4-5-20251101-v1:0 | グローバル(us-east-1) | Claude Opus 4.5 |
global.anthropic.claude-opus-4-6-v1 | グローバル(us-east-1) | Claude Opus 4.6 |
Google Gemini設定
ステップ1:APIキーの取得
Google AI StudioからGemini APIキーを取得します。詳細な手順については、Gemini APIドキュメントを参照してください。
ステップ2:Ultronの設定(values.yaml)
openai:
secretKeys:
google:
GOOGLE_GENERATIVE_API_KEY: "<your-gemini-api-key>"
ステップ3:Gemini用のBoost設定(LiteLLM経由)
Gemini APIキーはLiteLLMコンテナにGEMINI_API_KEYとして自動的に注入されます。
litellm-proxy-config.yamlにGeminiモデルを追加します:
model_list:
- model_name: gemini-3.1-pro # SuperAdminのnameと一致する必要があります
litellm_params:
model: gemini/gemini-3.1-pro-preview
api_key: os.environ/GEMINI_API_KEY
- model_name: gemini-3-flash
litellm_params:
model: gemini/gemini-3-flash-preview
api_key: os.environ/GEMINI_API_KEY
- model_name: gemini-2.5-pro
litellm_params:
model: gemini/gemini-2.5-pro
api_key: os.environ/GEMINI_API_KEY
- model_name: gemini-2.5-flash
litellm_params:
model: gemini/gemini-2.5-flash
api_key: os.environ/GEMINI_API_KEY
- model_name: gemini-2.0-flash
litellm_params:
model: gemini/gemini-2.0-flash
api_key: os.environ/GEMINI_API_KEY
GeminiプレビューモデルのモデルID(-previewサフィックス付き)は、Googleがモデルを正式版に昇格させたり新しいプレビューをリリースした際に変更されます。設定時にGoogle AIドキュメントで現在のモデルIDを確認してください。
GeminiのSuperAdmin登録
| フィールド | 値 |
|---|
| name | LiteLLMのmodel_nameと一致する必要があります(例:gemini-2.0-flash) |
| modelKey | nameと同じ |
| provider | Google |
OpenAI直接設定
AI_MODE: open_ai(デフォルト)を設定して、OpenAI DirectをUltronのプライマリプロバイダーとして設定します。
ステップ1:APIキーの取得
OpenAIプラットフォームからGPT-4アクセス付きのAPIキーを作成します。詳細については、OpenAI APIドキュメントを参照してください。
ステップ2:Ultronの設定(values.yaml)
openai:
AI_MODE: open_ai # デフォルト
secretKeys:
openai:
OPENAI_API_KEY: "<your-openai-api-key>"
OPENAI_API_KEYS: '["<key1>", "<key2>"]' # ロードバランシング用JSON配列
OPENAI_EMBEDDING_KEY: "<your-embedding-api-key>"
OPENAI_VISION_KEY: "<your-vision-api-key>"
OPENAI_MAIN_MODEL_NAME: "gpt-4.1"
ステップ3:Boostの設定(values.yaml)
Boost エンドポイントをOpenAI APIに向けて設定します:
credentials:
boost:
JITERA_BOOST_OPENAI_URL_OPENAI: "https://api.openai.com/v1"
JITERA_BOOST_OPENAI_KEY_OPENAI: "<your-openai-api-key>"
OpenAI直接のUltron modelKeyフォーマット:
openai:プレフィックスを使用して、OpenAIのAPIに明示的にルーティングします。プレフィックスは除去され、残りの部分がモデルIDとして使用されます。
| modelKey | 実際に使用されるモデル |
|---|
openai:gpt-4.1 | gpt-4.1 |
openai:gpt-4o | gpt-4o |
Anthropic直接API設定
AWS Bedrockをバイパスする、Anthropic APIへの直接アクセスです。
ステップ1:APIキーの取得
Anthropic ConsoleからAPIキーを作成します。詳細については、Anthropic APIドキュメントを参照してください。
ステップ2:Ultronの設定(values.yaml)
openai:
secretKeys:
anthropic:
ANTHROPIC_API_KEY: "<your-anthropic-api-key>"
Anthropic直接のUltron modelKey要件:
modelKeyはclaudeを含む必要がありますが、anthropic.claudeを含んではいけません。含む場合はBedrockが代わりに使用されます。
| modelKey | 説明 |
|---|
claude-3-haiku-20240307 | Claude 3 Haiku |
claude-3-5-sonnet-20241022 | Claude 3.5 Sonnet v2 |
claude-sonnet-4-20250514 | Claude Sonnet 4 |
claude-sonnet-4-5-20250929 | Claude Sonnet 4.5 |
claude-sonnet-4-6 | Claude Sonnet 4.6 |
claude-opus-4-20250514 | Claude Opus 4 |
claude-opus-4-1-20250805 | Claude Opus 4.1 |
claude-opus-4-6 | Claude Opus 4.6 |
SuperAdmin登録
| フィールド | 値 |
|---|
| name | claude-sonnet-4-20250514 |
| modelKey | claude-sonnet-4-20250514 |
| provider | Anthropic |
vLLM設定
エアギャップデプロイメントやローカルモデルホスティング向けです。
vLLMにはNVIDIA CUDAをサポートするGPUノードが必要です。
ステップ1:vLLMの有効化
vllm:
enabled: true
replicaCount: 1
args:
- "vllm serve Qwen/Qwen2.5-Coder-1.5B-Instruct-AWQ --trust-remote-code --enable-prefix-caching --disable-log-requests --dtype=float16"
resources:
requests:
memory: "4Gi"
cpu: "2000m"
limits:
memory: "32Gi"
cpu: "8000m"
nvidia.com/gpu: 1
nodeSelector:
accelerator: nvidia-gpu
ステップ2:認証情報の設定
credentials:
vllm:
HUGGING_FACE_HUB_TOKEN: "<your-hf-token>"
LiteLLMプロキシ設定
LiteLLMは、Boostが使用するClaude(Bedrock)およびGeminiモデル用の統一APIプロキシを提供します。
litellm:
enabled: true
replicaCount: 1
resources:
requests:
memory: "512Mi"
cpu: "250m"
プロキシモデルリストはcharts/jitera/extra_config/litellm-proxy-config.yamlで定義されます。モデル設定の例については、AWS BedrockおよびGoogle Geminiのセクションを参照してください。
バックグラウンドモデル設定
バックグラウンドタスクのデフォルトモデルは、上記のバックグラウンドタスクのデフォルトモデルセクションで説明しています。
Web Search Agent設定
Boostには、Web検索、URL読み取り、ディープリサーチ機能を提供するWeb Search Agentが含まれています。これらの機能には、コアLLM設定に加えて、追加のAPIキーとファイアウォールルールが必要です。
アーキテクチャ
Web Search Agentには2つのコア機能があります:
- Web検索 — インターネットで情報を検索
- URL読み取り — Webページからコンテンツを抽出
各機能には、フォールバックチェーンを持つ複数のバックエンドオプションがあります:
| 機能 | ツール | デフォルトバックエンド | フォールバック | トリガー |
|---|
| Web検索 | boost__web_search | Tavily(APIキー設定時) | SearXNG(Tavily未設定時) | エージェントが明示的にツールを呼び出し |
| Google検索 | boost__google_search | Google(Agnoスクレイピング) | なし | レガシー — グローバルに登録されるが、現在のワークフローでは未使用 |
| URL読み取り | boost__read_webpage | Jina Reader(r.jina.ai) | なし | エージェントが明示的にツールを呼び出し(例:deep-researchスキル) |
| URL読み取り | read-urlsミドルウェア | MarkItDown(ローカル変換) | Jina Reader(MarkItDownが空を返した場合) | ユーザーメッセージ内のURLを自動処理 |
boost__read_webpageツールはJina Readerに排他的に依存しており、フォールバックはありません。Jina Readerに到達できない場合、このツールは失敗します。これに依存するスキル(例:deep-research)は機能しません。
TavilyもSearXNGも設定されていない場合、boost__web_searchツールは登録されません。これに依存するスキル(例:deep-research)は失敗します。boost__google_searchはグローバルツールレジストリに存在しますが、現在のワークフローでは使用されていません — Document Agent v0.1.5のレガシーツールです。
Web検索バックエンド
以下の検索バックエンドのいずれかを選択してください:
Tavily(推奨)
SearXNG(セルフホスト)
Tavilyは、AIエージェント向けに設計された検索APIです。セルフホストインフラストラクチャは不要です。credentials:
boost:
JITERA_BOOST_TAVILY_API_KEY: "<your-tavily-api-key>"
| 変数 | 必須 | デフォルト | 説明 |
|---|
JITERA_BOOST_TAVILY_API_KEY | はい | "" | Tavily APIキー。設定するとSearXNGよりTavilyが優先されます。 |
SearXNGはセルフホストのメタ検索エンジンです。外部APIに依存しない完全なセルフホスト検索が必要な場合に使用します。credentials:
boost:
JITERA_BOOST_SEARXNG_URL: "https://searxng.your-domain.com"
# JITERA_BOOST_SEARXNG_QUERY_PARAMS: "" # オプション:追加クエリパラメータ
| 変数 | 必須 | デフォルト | 説明 |
|---|
JITERA_BOOST_SEARXNG_URL | はい | "" | SearXNGインスタンスのURL |
JITERA_BOOST_SEARXNG_QUERY_PARAMS | いいえ | "" | SearXNGリクエストに追加されるクエリパラメータ |
URL読み取り(Jina Reader)
Jina Readerは、boost__read_webpageツール用にWebページをテキストに変換します。
credentials:
boost:
# JITERA_BOOST_JINA_READER_API_URL: "https://r.jina.ai" # デフォルト
JITERA_BOOST_JINA_READER_API_KEY: "<your-jina-api-key>" # オプション — 無料枠は20 RPM
| 変数 | 必須 | デフォルト | 説明 |
|---|
JITERA_BOOST_JINA_READER_API_URL | はい | https://r.jina.ai | Jina Reader API URL |
JITERA_BOOST_JINA_READER_API_KEY | いいえ | "" | より高いレート制限のためのJina APIキー |
リランキング(オプション)
リランキングはDocument AgentおよびCode Agent RAGワークフローの検索結果品質を向上させます。Web Search Agentの動作には不要です。
| 変数 | 必須 | デフォルト | 説明 |
|---|
JITERA_BOOST_JINA_BASE_API_URL | いいえ | https://api.jina.ai | Jina Rerank APIベースURL |
JITERA_BOOST_CO_API_URL | いいえ | https://api.cohere.ai | Cohere Rerank API URL(Jinaの代替) |
JITERA_BOOST_CO_API_KEY | いいえ | "" | Cohere APIキー |
ディープリサーチの要件
deep-researchスキルには以下の両方が必要です:
| 要件 | 最低限の設定 |
|---|
boost__web_search | Tavily APIキーまたはSearXNG URLが設定されていること |
boost__read_webpage | Jina Reader(r.jina.ai)にアクセス可能であること |
Jinaの無料枠(20 RPM)は、20以上のURLを読み取るディープリサーチセッションでレート制限に達する可能性があります。本番環境ではJITERA_BOOST_JINA_READER_API_KEYを設定してより高い制限を利用することを検討してください。
最小限の設定
Tavily使用(最もシンプル)
SearXNG使用(セルフホスト検索)
本番環境(APIキー付き)
credentials:
boost:
JITERA_BOOST_TAVILY_API_KEY: "tvly-xxxxxxxxxxxxx"
# Jina Readerはデフォルト値を使用(https://r.jina.ai、APIキーなし、20 RPM無料枠)
# MarkItDownは設定不要(ローカルライブラリ)
必要なファイアウォールルール:api.tavily.com:443、r.jina.ai:443credentials:
boost:
JITERA_BOOST_SEARXNG_URL: "https://searxng.your-domain.com"
# Jina Readerはデフォルト値を使用(https://r.jina.ai、APIキーなし、20 RPM無料枠)
# MarkItDownは設定不要(ローカルライブラリ)
必要なファイアウォールルール:searxng.your-domain.com:443、r.jina.ai:443credentials:
boost:
JITERA_BOOST_TAVILY_API_KEY: "tvly-xxxxxxxxxxxxx"
JITERA_BOOST_JINA_READER_API_KEY: "jina_xxxxxxxxxxxxx"
必要なファイアウォールルールの完全なリストについては、ネットワークとファイアウォールを参照してください。
Ultronプロバイダールーティングリファレンス
Ultronは、SuperAdmin LLMレコードのmodelKeyフィールドをパターンマッチして、LLMプロバイダーを決定します。パターンは以下の優先順位で評価されます:
| 優先度 | パターン | プロバイダー | modelKeyの例 |
|---|
| 1 | openai:で始まる | OpenAI直接 | openai:gpt-4o |
| 2 | azure:で始まる | Azure(メインリージョン) | azure:gpt-4.1 |
| 3 | azure_global:で始まる | Azure(グローバルリージョン) | azure_global:gpt-5 |
| 4 | anthropic.claudeを含む | AWS Bedrock Converse | arn:aws:bedrock:ap-northeast-1:123456789012:inference-profile/apac.anthropic.claude-3-5-sonnet-20241022-v2:0 |
| 5 | claudeを含む | Anthropic直接API | claude-3-opus-20240229 |
| 6 | geminiを含む | Google Generative AI | gemini-2.0-flash |
| 7 | deepseek-r1-distillを含む | Groq | deepseek-r1-distill-llama-70b |
| 8 | o1、o1-mini、またはo3-miniと一致 | Azureグローバル(自動ルーティング) | o1 |
| 9 | qwenを含む | OpenAI互換エンドポイント | qwen-2.5-72b |
| 10 | デフォルト | Azureメイン/デフォルト | — |
優先順位が重要です。例えば、anthropic.claude-3-5-sonnetを含むBedrock ARNはルール4(anthropic.claudeを含む)にルール5(claudeを含む)より先にマッチします。曖昧なマッチを避けるため、modelKey値を慎重に構成してください。
Azureモデルからデプロイメントへのマッピング(Ultron)
Ultronは、以下の環境変数を使用して、リクエストされたモデル名をAzureデプロイメント名にマッピングします:
| リクエストモデル | 環境変数 | 値の例 |
|---|
gpt-4o | AZURE_OPENAI_GPT_4O_DEVELOPMENT_NAME | gpt-4o |
gpt-4o-mini | AZURE_OPENAI_GPT_4O_MINI_DEVELOPMENT_NAME | gpt-4o-mini |
gpt-4.1 | AZURE_DEVELOPMENT_NAME_GPT_41 | gpt-4.1 |
gpt-3.5-instruct | AZURE_OPENAI_GPT_35_INSTRUCT_DEVELOPMENT_NAME | gpt-3.5-instruct |
text-embedding-ada-002 | AZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAME | text-embedding-ada-002 |
| ビジョンモデル | AZURE_OPENAI_VISION_DEVELOPMENT_NAME | gpt-4o |
o1 | AZURE_OPENAI_GPT_O1_DEVELOPMENT_NAME | o1 |
o1-mini | AZURE_OPENAI_GPT_O1_MINI_DEVELOPMENT_NAME | o1-mini |
o3-mini | AZURE_OPENAI_GPT_O3_MINI_DEVELOPMENT_NAME | o3-mini |
o3 | AZURE_DEVELOPMENT_NAME_O3 | o3 |
gpt-5 | AZURE_OPENAI_GPT_5_DEVELOPMENT_NAME | gpt-5 |
gpt-5-mini | AZURE_OPENAI_GPT_5_MINI_DEVELOPMENT_NAME | gpt-5-mini |
gpt-5-nano | AZURE_OPENAI_GPT_5_NANO_DEVELOPMENT_NAME | gpt-5-nano |
gpt-5-chat | AZURE_OPENAI_GPT_5_CHAT_DEVELOPMENT_NAME | gpt-5-chat |
gpt-5.1 | AZURE_OPENAI_GPT_51_DEVELOPMENT_NAME | gpt-5.1 |
gpt-5.2 | AZURE_OPENAI_GPT_52_DEVELOPMENT_NAME | gpt-5.2 |
| デフォルト | AZURE_OPENAI_DEVELOPMENT_NAME | gpt-4.1 |
AIサービスの正常性確認
# Ultronの確認
kubectl get pods -n jitera -l app=jitera-ultron
kubectl logs -n jitera -l app=jitera-ultron --tail=100
# Boostの確認
kubectl get pods -n jitera -l app=jitera-boost
# LiteLLMの確認
kubectl get pods -n jitera -l app=jitera-litellm
環境変数の確認
# Ultronの認証情報を確認
kubectl exec -it deploy/jitera-ultron -n jitera -- \
env | grep -E "(AI_MODE|AZURE_|OPENAI_|BEDROCK_)"
# Boostの認証情報を確認
kubectl exec -it deploy/jitera-boost -n jitera -- \
env | grep JITERA_BOOST
# LiteLLMの認証情報を確認
kubectl exec -it deploy/jitera-litellm -n jitera -- \
env | grep -E "(AWS_|GEMINI_)"
プロバイダー接続のテスト
# Azure OpenAIのテスト
kubectl exec -it deploy/jitera-ultron -n jitera -- \
curl -X POST "https://<INSTANCE>.openai.azure.com/openai/deployments/gpt-4o/chat/completions?api-version=2024-10-21" \
-H "api-key: <KEY>" \
-H "Content-Type: application/json" \
-d '{"messages":[{"role":"user","content":"Hello"}]}'
# LiteLLMプロキシモデルエンドポイントのテスト
kubectl exec -it deploy/jitera-boost -n jitera -- \
curl -H "Authorization: Bearer $JITERA_BOOST_OPENAI_KEY_LITELLM" \
http://jitera-litellm/v1/models
# LiteLLMプロキシ設定の確認
kubectl exec -it deploy/jitera-litellm -n jitera -- cat /app/config.yaml
トラブルシューティング
GUIドロップダウンにモデルが表示されない
- SuperAdminでLLMレコードが有効になっていることを確認します:
SELECT * FROM llms WHERE name = 'your-model-name';
UPDATE llms SET enabled = true WHERE name = 'your-model-name';
- LLMが組織に割り当てられていることを確認します。
「Deployment not found」エラー(Azure)
- AzureデプロイメントがSuperAdminの
nameフィールドと正確に一致することを確認します。
JITERA_BOOST_API_CONFIG_AZURE_*のURLに正しいデプロイメント名が含まれていることを確認します。
- Ultronに正しいデプロイメント名の環境変数があることを確認します:
kubectl exec -it deploy/jitera-ultron -n jitera -- env | grep AZURE
kubectl exec -it deploy/jitera-boost -n jitera -- env | grep JITERA_BOOST_API_CONFIG
LiteLLMモデルが動作しない(Claude/Gemini)
litellm-proxy-config.yamlにモデルエントリが存在することを確認します。
model_nameがSuperAdminのnameフィールドと正確に一致することを確認します。
- 認証情報が正しく設定されていることを確認します:
kubectl exec -it deploy/jitera-litellm -n jitera -- cat /app/config.yaml
kubectl exec -it deploy/jitera-litellm -n jitera -- env | grep -E "(AWS_|GEMINI_)"
GPT-5がGPT-4.1にフォールバックする
GPT-5はAzureグローバルリージョンに自動的にルーティングされません。SuperAdminのmodelKeyをazure_global:gpt-5に設定して、グローバルリージョンに明示的にルーティングしてください。
APIキーエラー
# シークレット値の確認
kubectl get secret jitera-openai -n jitera -o yaml
# キーが正しくbase64エンコードされていることを確認
echo "<KEY>" | base64 -d
レート制限
- JSON配列(
AZURE_OPENAI_KEYS、AZURE_OPENAI_INSTANCE_NAMES)を使用して複数のAPIキーを追加します。
- 追加のBoostエンドポイント変数(
JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_2_*)を追加します。
- AIプロバイダーにクォータの増加を依頼します。
- 複数リージョンへのデプロイを検討します。
vLLM GPUの問題
# GPUノードの確認
kubectl get nodes -l accelerator=nvidia-gpu
# GPU可用性の確認
kubectl describe node <node-name> | grep nvidia
# vLLM Podの状態確認
kubectl describe pod -n jitera -l app=jitera-vllm
付録:環境変数リファレンス
Ultron
一般(両モード共通):
| 変数 | values.yamlソース | 用途 |
|---|
AI_MODE | openai.AI_MODE | open_ai(デフォルト)またはazure |
OPENAI_MAIN_MODEL_NAME | openai.secretKeys.openai.OPENAI_MAIN_MODEL_NAME | メインバックグラウンドモデル(両モードで必須) |
OpenAI Directモード(AI_MODE: open_ai):
| 変数 | values.yamlソース | 用途 |
|---|
OPENAI_API_KEYS | openai.secretKeys.openai.OPENAI_API_KEYS | OpenAIキーのJSON配列 |
OPENAI_API_KEY | openai.secretKeys.openai.OPENAI_API_KEY | 単一のOpenAIキー |
OPENAI_EMBEDDING_KEY | openai.secretKeys.openai.OPENAI_EMBEDDING_KEY | エンベディングAPIキー |
OPENAI_VISION_KEY | openai.secretKeys.openai.OPENAI_VISION_KEY | ビジョンモデルAPIキー |
Azureモード(AI_MODE: azure):
| 変数 | values.yamlソース | 用途 |
|---|
AZURE_OPENAI_KEYS | openai.secretKeys.azure.AZURE_OPENAI_KEYS | AzureキーのJSON配列 |
AZURE_OPENAI_INSTANCE_NAMES | openai.secretKeys.azure.AZURE_OPENAI_INSTANCE_NAMES | インスタンス名のJSON配列 |
AZURE_OPENAI_VERSION | openai.secretKeys.azure.AZURE_OPENAI_VERSION | APIバージョン |
AZURE_OPENAI_DEVELOPMENT_NAME | openai.secretKeys.azure.AZURE_OPENAI_DEVELOPMENT_NAME | デフォルトデプロイメント |
AZURE_OPENAI_GLOBAL_KEYS | openai.secretKeys.azure.AZURE_OPENAI_GLOBAL_KEYS | グローバルリージョンキー |
AZURE_OPENAI_GLOBAL_INSTANCE_NAMES | openai.secretKeys.azure.AZURE_OPENAI_GLOBAL_INSTANCE_NAMES | グローバルインスタンス |
BEDROCK_CONVERSE_REGION | openai.secretKeys.bedrock.BEDROCK_CONVERSE_REGION | AWS Bedrockメインリージョン |
BEDROCK_CONVERSE_ACCESS_KEY_ID | openai.secretKeys.bedrock.BEDROCK_CONVERSE_ACCESS_KEY_ID | AWSアクセスキー(メイン) |
BEDROCK_CONVERSE_SECRET_ACCESS_KEY | openai.secretKeys.bedrock.BEDROCK_CONVERSE_SECRET_ACCESS_KEY | AWSシークレットキー(メイン) |
BEDROCK_CONVERSE_GLOBAL_REGION | openai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_REGION | AWS Bedrockグローバルリージョン |
BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_ID | openai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_ID | AWSアクセスキー(グローバル) |
BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEY | openai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEY | AWSシークレットキー(グローバル) |
GOOGLE_GENERATIVE_API_KEY | openai.secretKeys.google.GOOGLE_GENERATIVE_API_KEY | Gemini APIキー |
ANTHROPIC_API_KEY | openai.secretKeys.anthropic.ANTHROPIC_API_KEY | Anthropic直接APIキー |
Boost
| 変数 | ソース | 用途 |
|---|
JITERA_BOOST_API_KEY_MAIN | credentials.boost.JITERA_BOOST_API_KEY_MAIN | メインBoost APIキー |
JITERA_BOOST_OPENAI_URL_LITELLM | 自動生成 | LiteLLMプロキシURL |
JITERA_BOOST_OPENAI_KEY_LITELLM | credentials.boost.JITERA_BOOST_OPENAI_KEY_LITELLM | LiteLLMマスターキー |
JITERA_BOOST_API_CONFIG_AZURE_* | credentials.boost.JITERA_BOOST_API_CONFIG_AZURE_* | Azureエンドポイント設定 |
JITERA_BOOST_DEFAULT_BASE_MODEL | boost.env.* | バックグラウンドベースモデル |
JITERA_BOOST_DEFAULT_EXPERT_MODEL | boost.env.* | バックグラウンドエキスパートモデル |
LiteLLM
| 変数 | ソース | 用途 |
|---|
PROXY_MASTER_KEY | credentials.boost.JITERA_BOOST_OPENAI_KEY_LITELLM | プロキシ認証 |
AWS_ACCESS_KEY_ID | openai.secretKeys.bedrock.BEDROCK_CONVERSE_ACCESS_KEY_ID | AWS Bedrock認証 |
AWS_SECRET_ACCESS_KEY | openai.secretKeys.bedrock.BEDROCK_CONVERSE_SECRET_ACCESS_KEY | AWS Bedrock認証 |
GEMINI_API_KEY | openai.secretKeys.google.GOOGLE_GENERATIVE_API_KEY | Google Gemini認証 |
付録:設定チェックリスト
Azure OpenAIのみ
Azure OpenAI + Claude(Bedrock)
Azure OpenAI + Claude + Gemini
Web Search Agent(オプション)
関連ドキュメント