メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://docs.jitera.ai/llms.txt

Use this file to discover all available pages before exploring further.

Jitera Self-Hostedは、コード生成、AIチャット、ドキュメント生成、コード理解のためにAI/LLMプロバイダーを使用します。このガイドでは、サポートされているすべてのプロバイダーの完全な設定について説明します。
このガイドに記載されているサードパーティサービスの手順(Azure OpenAI、OpenAI、AWS Bedrock、Anthropic、Google AI)は例として提供されています。最新の手順については、各プロバイダーの公式ドキュメントを参照してください:

アーキテクチャ概要

Jiteraは、2つの内部サービス(UltronBoost)を通じてLLMリクエストをルーティングします。それぞれに独自の設定パスがあります。
サービス役割設定プロバイダーアクセス
UltronAIエージェント処理、バックグラウンドタスクvalues.yamlのopenai.secretKeys.*Azure OR OpenAI Direct(AI_MODEで選択)+ オプション:Bedrock、Anthropic、Google
Boostワークフローエンジン、チャット、カスタムエージェントcredentials.boost.* + litellm-proxy-config.yamlAzureまたはOpenAI互換エンドポイント + LiteLLMプロキシ
LiteLLMBoost用モデルプロキシextra_config/litellm-proxy-config.yamlBoostにClaude/Geminiをルーティング

設定ファイル

charts/jitera/values.yaml                             # メイン設定
charts/jitera/extra_config/litellm-proxy-config.yaml  # Boost用Claude/Geminiモデル

主要な概念

用語説明
nameSuperAdminでの表示名 — Boostのルーティングキーでもありますgpt-4.1claude-3.5-sonnet
modelKeyUltronのルーティングキー — プロバイダーと認証情報を選択するためにパターンマッチされますarn:aws:bedrock:ap-northeast-1:123456789012:inference-profile/apac.anthropic.claude-3-5-sonnet-20241022-v2:0
model_nameLiteLLMエイリアス — Azure以外のプロバイダーではSuperAdminのnameと一致する必要がありますclaude-3.5-sonnetgemini-2.5-pro
Boostの場合、SuperAdminのnameフィールドがルーティングキーとなり、Azureデプロイメント名(URLから抽出)またはLiteLLMのmodel_nameと一致する必要があります。Ultronの場合、modelKeyフィールドがプロバイダーのルーティングを決定します。

プロバイダー別の必要モデル

UltronとBoostはそれぞれ異なる方法でLLMプロバイダーにアクセスします。以下の表は、各プロバイダーに必要な・利用可能なモデルをサービス別に整理しています。
  • UltronmodelKeyフィールドのパターンマッチでリクエストをルーティングします(プロバイダールーティングリファレンスを参照)。サポートされているプロバイダーのパターンに一致する任意のモデルIDが動作します。
  • Boostは設定されたエンドポイントから実行時にモデルを動的に検出します。設定されたエンドポイント(Azureデプロイメント、LiteLLMプロキシ、またはOpenAI互換API)を通じて利用可能な任意のモデルを使用できます。

Azure OpenAI

モデルサービス役割リージョン
gpt-4.1Ultron, Boostデフォルトチャット/補完; Ultronバックグラウンドモデル; Boostエキスパートデフォルトメイン
gpt-4.1-miniUltron, Boost高速チャット; Boostバーサタイルデフォルトメイン
gpt-4.1-nanoUltron, Boost軽量タスク; Boostベース/直接タスクデフォルトメイン
gpt-4oUltron, Boostビジョン / マルチモーダル; Ultronビジョンデフォルトメイン
gpt-4o-miniUltron, Boost高速補完; Ultronスモールモデルデフォルトメイン
text-embedding-ada-002Ultron, Boostエンベディングメイン
gpt-4o-transcribeUltronオーディオ文字起こしグローバル
gpt-4o-mini-transcribeUltronオーディオ文字起こし(効率型)グローバル
o1Ultron, Boost高度な推論グローバル(自動ルーティング)
o3Ultron, Boost高度な推論グローバル(自動ルーティング)
o3-miniUltron, Boost効率的な推論グローバル(自動ルーティング)
o4-miniUltron, Boost効率的な推論グローバル
gpt-5Ultron, Boost次世代グローバル(azure_global:プレフィックス)
gpt-5-miniUltron, Boost次世代効率型グローバル(azure_global:プレフィックス)
gpt-5-nanoUltron, Boost次世代軽量型グローバル(azure_global:プレフィックス)
gpt-5.1Ultron, Boost次世代グローバル(azure_global:プレフィックス)
gpt-5.2Ultron, Boost次世代グローバル(azure_global:プレフィックス)
追加のAzureモデルは、values.yamlAZURE_DEVELOPMENT_NAME_*環境変数を使用して動的に登録できます。環境変数のがデプロイメントの検索キーとデプロイメント名の両方になります。例えば、AZURE_DEVELOPMENT_NAME_GPT_41=gpt-4.1と設定すると、gpt-4.1が既知のデプロイメントとして登録されます。
Azure OpenAIモデルには特定のデプロイメントSKUが必要です。誤ったSKUを使用すると400 InvalidResourcePropertiesまたは400 ServiceModelDeprecatedエラーが発生します。
  • Standard: 特定のリージョンにデプロイされます。データレジデンシー要件がある場合に使用してください(例:日本国内処理のためのjapaneast)。gpt-4.1gpt-4.1-minigpt-4otext-embedding-ada-002で利用可能です。ただし、Standard SKUはモデル・リージョンごとに段階的に廃止されています — デプロイ前に可用性を確認してください。
  • GlobalStandard: Azureのグローバルインフラストラクチャにデプロイされます(リクエストは最寄りの利用可能なリージョンにルーティングされます)。gpt-4.1-nanoo1o3o3-minio4-minigpt-5シリーズでは必須です — これらのモデルはStandardをサポートしていません。
リージョンごとのモデルとSKUの可用性についてはAzure OpenAIモデルマトリックスを確認してください。
このテーブルには廃止が近づいているモデルが含まれています。以下の日付までに記載の代替モデルへの移行を計画してください:
  • gpt-4o — Standardは 2026-03-31 廃止済み、その他のSKUは 2026-10-01 廃止予定(代替: gpt-5.1
  • gpt-4o-mini — Standardは 2026-03-31 廃止済み、その他のSKUは 2026-10-01 廃止予定(代替: gpt-4.1-mini
  • o1 — 2026-07-15 廃止予定(代替: o3
  • o3-mini — 2026-08-02 廃止予定(代替: o4-mini
  • gpt-4o-transcribe — 2026-06-01 廃止予定
最新の日付は Azure OpenAI モデル廃止ページ で確認してください。
text-embedding-ada-002 は引き続きGA提供中です(2027-04-15 以前の廃止予定なし)。ただし、新規デプロイメントには Microsoft が text-embedding-3-small または text-embedding-3-large を推奨しています。

AWS Bedrock(Claude)

Ultronはanthropic.claudeを含むmodelKeyをAWS Bedrock Converseにルーティングします。BoostはLiteLLMプロキシ経由でClaudeにアクセスします。
以下のBedrockモデルIDは廃止が近づいています。以下の日付までに記載の代替モデルへの移行を計画してください:
  • anthropic.claude-3-7-sonnet-20250219-v1:0 — 2026-04-28 廃止予定(代替: anthropic.claude-sonnet-4-6
  • anthropic.claude-opus-4-20250514-v1:0 — 2026-05-31 廃止予定(代替: anthropic.claude-opus-4-6-v1
  • anthropic.claude-3-5-haiku-20241022-v1:0 — 2026-06-19 廃止予定(代替: anthropic.claude-haiku-4-5-20251001-v1:0
  • anthropic.claude-3-5-sonnet-20240620-v1:0anthropic.claude-3-5-sonnet-20241022-v2:0 — APACで 2026-07-30 廃止予定
  • anthropic.claude-3-haiku-20240307-v1:0 — Bedrockで 2026-09-10 廃止予定(Anthropic APIでは既に廃止済み)
  • anthropic.claude-sonnet-4-20250514-v1:0 — 2026-04-14 にLegacy移行、Bedrockで 2026-10-14 廃止予定
最新の日付は AWS Bedrock モデルライフサイクルページ および Anthropic モデル廃止情報 で確認してください。
モデルサービスBedrockモデル IDリージョン
Claude 3 HaikuUltronanthropic.claude-3-haiku-20240307-v1:0APAC
Claude 3.5 HaikuUltronanthropic.claude-3-5-haiku-20241022-v1:0US
Claude Haiku 4.5Ultronanthropic.claude-haiku-4-5-20251001-v1:0US / APAC
Claude 3.5 Sonnet v1Ultronanthropic.claude-3-5-sonnet-20240620-v1:0APAC
Claude 3.5 Sonnet v2Ultron, Boost(LiteLLM経由)anthropic.claude-3-5-sonnet-20241022-v2:0APAC
Claude 3.7 SonnetUltron, Boost(LiteLLM経由)anthropic.claude-3-7-sonnet-20250219-v1:0APAC
Claude Sonnet 4Ultron, Boost(LiteLLM経由)anthropic.claude-sonnet-4-20250514-v1:0APAC
Claude Sonnet 4.5Ultron, Boost(LiteLLM経由)anthropic.claude-sonnet-4-5-20250929-v1:0US / APAC
Claude Sonnet 4.6Ultron, Boost(LiteLLM経由)anthropic.claude-sonnet-4-6US
Claude Opus 4Ultronanthropic.claude-opus-4-20250514-v1:0US
Claude Opus 4.1Ultronanthropic.claude-opus-4-1-20250805-v1:0US
Claude Opus 4.5Ultronanthropic.claude-opus-4-5-20251101-v1:0US
Claude Opus 4.6Ultron, Boost(LiteLLM経由)anthropic.claude-opus-4-6-v1US

Anthropic直接API

Ultronはclaudeを含む(ただしanthropic.claudeを含まない)modelKeyをAnthropic APIに直接ルーティングします。
以下のClaudeモデルはAnthropic APIで廃止予定です(2026-06-15 廃止):
  • claude-sonnet-4-20250514(代替: claude-sonnet-4-6
  • claude-opus-4-20250514(代替: claude-opus-4-6
最新の日付は Anthropic モデル廃止情報 で確認してください。
モデルサービスmodelKey
Claude Sonnet 4Ultronclaude-sonnet-4-20250514
Claude Sonnet 4.5Ultronclaude-sonnet-4-5-20250929
Claude Sonnet 4.6Ultronclaude-sonnet-4-6
Claude Opus 4Ultronclaude-opus-4-20250514
Claude Opus 4.1Ultronclaude-opus-4-1-20250805
Claude Opus 4.5Ultronclaude-opus-4-5-20251101
Claude Opus 4.6Ultronclaude-opus-4-6

Google Gemini

Ultronはgeminiを含むmodelKeyをGoogle Generative AIにルーティングします。BoostはLiteLLMプロキシ経由でGeminiにアクセスします。
モデルサービスmodelKey
Gemini 3.1 ProUltron, Boost(LiteLLM経由)gemini-3.1-pro
Gemini 3 Pro ImageUltron, Boost(LiteLLM経由)gemini-3-pro-image
Gemini 3 FlashUltron, Boost(LiteLLM経由)gemini-3-flash
Gemini 2.5 ProUltron, Boost(LiteLLM経由)gemini-2.5-pro
Gemini 2.5 FlashUltron, Boost(LiteLLM経由)gemini-2.5-flash
Gemini 2.5 Flash ImageUltron, Boost(LiteLLM経由)gemini-2.5-flash-image
Gemini 2.0 FlashUltron, Boost(LiteLLM経由)gemini-2.0-flash
gemini-2.0-flash-thinking*gemini-2.5*、またはgemini-3*に一致するモデルは、自動的にthinking/推論が有効になります。
Vertex AIサポートはv26.02.16には含まれていません。今後のリリースで利用可能になる予定です。

その他のプロバイダー

プロバイダーサービスパターンマッチmodelKeyの例
OpenAI DirectUltron, Boostopenai:で始まるopenai:gpt-4o
GroqUltrondeepseek-r1-distillを含むdeepseek-r1-distill-llama-70b
Qwen(vLLM)Ultronqwenを含むqwen-2.5-72b
OllamaUltronOLLAMA_BASE_URLで設定任意のモデル名

バックグラウンドタスクのデフォルトモデル

ユーザーが特定のモデルを選択した場合でも、バックグラウンド処理はデフォルトモデルを使用します。これらのデフォルトは設定済みのプロバイダーから利用可能である必要があります。 Ultronデフォルト:
役割デフォルトモデル環境変数
メインバックグラウンドモデルgpt-4.1OPENAI_MAIN_MODEL_NAME
スモールモデルgpt-4o-mini(コードデフォルト)
ビジョンモデルgpt-4o(コードデフォルト)
OPENAI_MAIN_MODEL_NAMEは**AI_MODE: azureAI_MODE: open_aiの両方で必須**です。Azureの場合、Azure OpenAIリソースに存在するデプロイメント名に設定します。 Boostデフォルト:
役割デフォルトモデル環境変数
ベース(簡単なタスク)gpt-4.1-nanoJITERA_BOOST_DEFAULT_BASE_MODEL
直接タスク(タイトル、タグ)gpt-4.1-nanoJITERA_BOOST_DIRECT_TASKS_MODEL
バーサタイル(バランス型)gpt-4.1-miniJITERA_BOOST_DEFAULT_VERSATILE_MODEL
エキスパート(複雑な推論)gpt-4.1JITERA_BOOST_DEFAULT_EXPERT_MODEL
ビジョンgpt-4.1JITERA_BOOST_DEFAULT_VISION_MODEL
エンベディングtext-embedding-ada-002JITERA_BOOST_DEFAULT_EMBEDDING_MODEL
オーディオ(音声テキスト変換)jitera/sttJITERA_BOOST_DEFAULT_AUDIO_MODEL

モデル検出(Boost)

Boostはハードコードされたモデルリストを保持しません。利用可能なモデルを動的に検出します:
エンドポイントタイプモデルの検出方法
Azure OpenAIURLパスからデプロイメント名を抽出
OpenAI互換(LiteLLM含む)エンドポイントに対してGET /v1/modelsを呼び出し
内部ワークフローBoostのワークフローレジストリから登録
ローカルオーディオハードコード:jitera/ttsおよびjitera/stt(sherpa-onnx経由)
Boostでモデルを利用可能にするには、モデルを提供するエンドポイント(Azureデプロイメント、LiteLLMプロキシエントリ、またはOpenAI互換API)を設定し、検出されたモデルIDと一致するnameでSuperAdminに登録します。

プライマリプロバイダーの選択(AI_MODE

UltronのプライマリLLMプロバイダーはvalues.yamlAI_MODEで設定します。いずれかを選択してください:
モードプロバイダー必要な環境変数
open_ai(デフォルト)OpenAI Direct APIOPENAI_API_KEYSOPENAI_API_KEYOPENAI_EMBEDDING_KEYOPENAI_VISION_KEY
azureAzure OpenAIAZURE_OPENAI_KEYSAZURE_OPENAI_INSTANCE_NAMESAZURE_OPENAI_VERSIONAZURE_OPENAI_DEVELOPMENT_NAMEAZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAME
openai:
  AI_MODE: open_ai  # or azure
これはUltronのプライマリプロバイダーのみを決定します。他のプロバイダー(Bedrock、Anthropic、Google、vLLM)はどちらのモードでも追加できます。Boostはプロバイダーに依存せず、任意のOpenAI互換エンドポイントに接続できます。

Azure OpenAI設定

AI_MODE: azureを設定して、Azure OpenAIをUltronのプライマリプロバイダーとして設定します。UltronとBoostの両方が、コア操作とバックグラウンドタスクにAzure OpenAIモデルを使用します。他のプロバイダー(Bedrock、Anthropic、Google、vLLM)は、Azure OpenAIと併用する追加オプションとして設定できます。

ステップ1:Azure OpenAIリソースの作成

Azure OpenAIリソースを作成し、エンドポイントURLとAPIキーを取得します。詳細な最新の手順については、Azure OpenAIドキュメントを参照してください。
# リソースの作成
az cognitiveservices account create \
  --name jitera-openai \
  --resource-group jitera-rg \
  --kind OpenAI \
  --sku S0 \
  --location japaneast \
  --custom-domain jitera-openai

# エンドポイントの取得
az cognitiveservices account show \
  --name jitera-openai \
  --resource-group jitera-rg \
  --query "properties.endpoint"

# キーの取得
az cognitiveservices account keys list \
  --name jitera-openai \
  --resource-group jitera-rg
AZURE_OPENAI_INSTANCE_NAMESの値はカスタムサブドメイン名(例:my-instance)でなければなりません。リージョンエンドポイントは使用できません。Ultronはhttps://{instance}.openai.azure.comとしてURLを構築します。Azure OpenAIリソースがリージョンエンドポイント(例:eastus2.api.cognitive.microsoft.com)を使用している場合は、カスタムサブドメインを有効にしてください:
az cognitiveservices account update \
  --name <リソース> \
  --resource-group <リソースグルー> \
  --custom-domain <希望するサブドメイ>
エンドポイント形式はAzureポータルのOpenAIリソース > キーとエンドポイントで確認できます。エンドポイントはhttps://<サブドメイン>.openai.azure.com/の形式である必要があります。

ステップ2:モデルのデプロイ

Jiteraのバックエンドサービス(UltronとBoost)は、環境変数とエンドポイントURLを通じてAzureデプロイメントを名前で参照します。ここで作成する各デプロイメントは、JiteraのHelm値で設定されたデプロイメント名と一致する必要があります。一致しない場合、サービスはリクエストを正しいモデルにルーティングできません。デプロイメントと環境変数の完全なマッピングについては、Azureモデルからデプロイメントへのマッピングセクションを参照してください。 Azure OpenAI StudioまたはAzure CLIを使用して以下のモデルをデプロイします。デプロイ手順については、Azure OpenAIデプロイメントガイドを参照してください。
モデルデプロイメント名モデル名に同じ文字列を使用してください(例:gpt-4.1をデプロイメント名gpt-4.1でデプロイ)。Jiteraはデプロイメント名をルーティングキーとして使用するため、これにより設定が簡素化されます。
推奨される最小デプロイメント:
モデルデプロイメント名用途
gpt-4.1gpt-4.1メインチャット/補完、デフォルトフォールバック
gpt-4ogpt-4oビジョン、マルチモーダルタスク
gpt-4o-minigpt-4o-mini高速補完
text-embedding-ada-002text-embedding-ada-002エンベディング
o1o1高度な推論(グローバルリージョン)
o3-minio3-mini効率的な推論(グローバルリージョン)

ステップ3:Ultronの設定(values.yaml)

Ultronはopenai.secretKeys.azureを通じて注入される環境変数からAzure OpenAI設定を読み取ります:
openai:
  AI_MODE: azure  # 必須:Azure OpenAIの場合は"azure"に設定
  secretKeys:
    azure:
      # === メインリージョン(例:Japan East)===
      AZURE_OPENAI_KEY: "<your-api-key>"
      AZURE_OPENAI_KEYS: '["<key1>", "<key2>"]'              # ロードバランシング用JSON配列
      AZURE_OPENAI_INSTANCE_NAME: "<your-instance-name>"
      AZURE_OPENAI_INSTANCE_NAMES: '["<instance1>", "<instance2>"]'
      AZURE_OPENAI_VERSION: "2024-10-21"

      # デプロイメント名(Azureポータルと一致する必要があります)
      AZURE_OPENAI_DEVELOPMENT_NAME: gpt-4.1                  # デフォルト/フォールバックモデル
      AZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAME: text-embedding-ada-002
      AZURE_OPENAI_VISION_DEVELOPMENT_NAME: gpt-4o
      AZURE_OPENAI_GPT_4O_DEVELOPMENT_NAME: gpt-4o
      AZURE_OPENAI_GPT_4O_MINI_DEVELOPMENT_NAME: gpt-4o-mini
      AZURE_DEVELOPMENT_NAME_GPT_41: gpt-4.1

      # === グローバルリージョン(例:Sweden CentralまたはUS East)===
      # O1、O3、GPT-5モデルに必要
      AZURE_OPENAI_GLOBAL_KEYS: '["<global-key1>", "<global-key2>"]'
      AZURE_OPENAI_GLOBAL_INSTANCE_NAMES: '["<instance-swedencentral>"]'
      AZURE_OPENAI_GLOBAL_VERSION: "2024-12-01-preview"

      # O1/O3モデル(グローバルリージョンに自動ルーティング)
      AZURE_OPENAI_GPT_O1_DEVELOPMENT_NAME: o1
      AZURE_OPENAI_GPT_O1_MINI_DEVELOPMENT_NAME: o1-mini
      AZURE_OPENAI_GPT_O3_MINI_DEVELOPMENT_NAME: o3-mini
      AZURE_DEVELOPMENT_NAME_O3: o3

      # GPT-5モデル(SuperAdminのmodelKeyにazure_global:プレフィックスが必要)
      AZURE_OPENAI_GPT_5_DEVELOPMENT_NAME: gpt-5
      AZURE_OPENAI_GPT_5_MINI_DEVELOPMENT_NAME: gpt-5-mini
      AZURE_OPENAI_GPT_5_NANO_DEVELOPMENT_NAME: gpt-5-nano
      AZURE_OPENAI_GPT_5_CHAT_DEVELOPMENT_NAME: gpt-5-chat
      AZURE_OPENAI_GPT_51_DEVELOPMENT_NAME: gpt-5.1
      AZURE_OPENAI_GPT_52_DEVELOPMENT_NAME: gpt-5.2

    openai:
      # メインモデル名 — AI_MODEに関係なく、Ultronのバックグラウンドタスクに使用されます
      OPENAI_MAIN_MODEL_NAME: gpt-4.1
OPENAI_MAIN_MODEL_NAMEはAzureモードでも必須です。openaiキー配下にありますが、この値はAI_MODEに関係なくUltronに無条件に注入され、バックグラウンド処理タスクで使用されるモデルを決定します。Azureデプロイメントの場合、Azure OpenAIリソースに存在するデプロイメント名(例:gpt-4.1)を設定してください。

ステップ4:Boostの設定(values.yaml)

Boostはcredentials.boost.JITERA_BOOST_API_CONFIG_AZURE_*変数からAzure OpenAI設定を読み取ります。各変数は1つのAzureデプロイメントエンドポイントをエンコードします。 フォーマット:
behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/<deployment>,headers={"api-key": "<key>"},query_params={"api-version": "<version>"}
credentials:
  boost:
    # === メインリージョンモデル ===
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41_MINI: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_41_NANO: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4.1-nano,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_ADA: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/text-embedding-ada-002,headers={"api-key": "<key>"},query_params={"api-version": "2"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_4O: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4o,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_4O_MINI: 'behavior=azure,url=https://<instance>.openai.azure.com/openai/deployments/gpt-4o-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'

    # === 推論モデル(グローバルリージョン) ===
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O1: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O3: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o3,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O3_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o3-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_O4_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/o4-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'

    # === GPT-5ファミリー(グローバルリージョン — Sweden/US) ===
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_MINI: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-mini,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_NANO: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-nano,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_5_CHAT: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5-chat,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_51: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5.1,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
    JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_GPT5_52: 'behavior=azure,url=https://<global-instance>.openai.azure.com/openai/deployments/gpt-5.2,headers={"api-key": "<key>"},query_params={"api-version": "2024-12-01-preview"}'
チャートのvalues.yamlで定義されているすべての JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_1_* キーをvaluesファイルで明示的にオーバーライドする必要があります。デフォルトのプレースホルダー値(<REPLACE_WITH_YOUR_AZURE_CONFIG>)のまま残したキーは、Boostの起動時にPydanticバリデーションエラーでクラッシュします。未デプロイのモデルは空文字列("")に設定してください。
BoostがAzureからモデル名を検出する方法: BoostはURLの最後のパスセグメントからデプロイメント名を抽出します:
URL: https://instance.openai.azure.com/openai/deployments/gpt-4.1

検出されるモデル名: gpt-4.1
この名前はSuperAdmin LLMのnameフィールドと正確に一致する必要があります。 エンドポイントフォーマットのパラメータ:
パラメータ説明
behaviorプロバイダータイプazureまたはopenai
url完全なAPIエンドポイントURLhttps://instance.openai.azure.com/openai/deployments/gpt-4.1
headersリクエストヘッダーのJSONオブジェクト{"api-key": "xxx"}
query_paramsクエリパラメータのJSONオブジェクト{"api-version": "2024-12-01-preview"}
weightロードバランシングの重み(オプション)1.0

AzureモデルのSuperAdmin登録

フィールド
nameAzureデプロイメント名と一致する必要があります(例:gpt-4.1
modelKeynameと同じ(例:gpt-4.1
providerAzure OpenAI
O1、O1-mini、O3-miniはUltronによって自動的にAzureグローバルリージョンにルーティングされます。GPT-5モデルは自動ルーティングされません。SuperAdminのmodelKeyazure_global:プレフィックス(例:azure_global:gpt-5)を使用して、グローバルリージョンにルーティングしてください。

AWS Bedrock設定(Claude)

ステップ1:Bedrockモデルの有効化

AWS Bedrockコンソールで必要なClaudeモデルを有効にします。詳細な手順については、AWS Bedrockドキュメントを参照してください。 Jiteraで使用される一般的なモデル:
  • Claude 3.5 Sonnet v2 (anthropic.claude-3-5-sonnet-20241022-v2:0)
  • Claude 3.7 Sonnet (anthropic.claude-3-7-sonnet-20250219-v1:0)
  • Claude Sonnet 4 (anthropic.claude-sonnet-4-20250514-v1:0)
  • Claude Sonnet 4.5 (anthropic.claude-sonnet-4-5-20250929-v1:0)
  • Claude Sonnet 4.6 (anthropic.claude-sonnet-4-6)
  • Claude Opus 4 (anthropic.claude-opus-4-20250514-v1:0)
  • Claude Opus 4.1 (anthropic.claude-opus-4-1-20250805-v1:0)
  • Claude Opus 4.5 (anthropic.claude-opus-4-5-20251101-v1:0)
  • Claude Opus 4.6 (anthropic.claude-opus-4-6-v1)

ステップ2:IAMポリシーの作成

Bedrockモデル呼び出し権限を付与するIAMポリシーを作成します。IAMのベストプラクティスについては、AWS IAMドキュメントを参照してください。
{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "bedrock:InvokeModel",
        "bedrock:InvokeModelWithResponseStream"
      ],
      "Resource": "*"
    }
  ]
}

ステップ3:Ultronの設定(values.yaml)

Ultronはopenai.secretKeys.bedrockの認証情報を使用してBedrockを直接呼び出します:
openai:
  secretKeys:
    bedrock:
      # メインリージョン(例:APAC向けap-northeast-1)
      BEDROCK_CONVERSE_REGION: ap-northeast-1
      BEDROCK_CONVERSE_ACCESS_KEY_ID: "<aws-access-key>"
      BEDROCK_CONVERSE_SECRET_ACCESS_KEY: "<aws-secret-key>"

      # グローバルリージョン — Claude 3.7とClaude 4 Opusに必要
      BEDROCK_CONVERSE_GLOBAL_REGION: us-east-1
      BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_ID: "<aws-access-key>"
      BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEY: "<aws-secret-key>"
Ultronに注入される環境変数:
変数用途
BEDROCK_CONVERSE_REGIONメインBedrockアクセスのAWSリージョン
BEDROCK_CONVERSE_ACCESS_KEY_IDメインリージョンのAWSアクセスキー
BEDROCK_CONVERSE_SECRET_ACCESS_KEYメインリージョンのAWSシークレットキー
BEDROCK_CONVERSE_GLOBAL_REGION新しいモデル用のセカンダリAWSリージョン
BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_IDグローバルリージョンのAWSアクセスキー
BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEYグローバルリージョンのAWSシークレットキー

ステップ4:Claude用のBoost設定(LiteLLM経由)

Boostは同じBedrock認証情報を再利用して、LiteLLMプロキシ経由でClaudeにアクセスします。 ステップ4a — LiteLLM認証情報openai.secretKeys.bedrockから自動的に注入されます:
AWS_ACCESS_KEY_ID     ← BEDROCK_CONVERSE_ACCESS_KEY_ID
AWS_SECRET_ACCESS_KEY ← BEDROCK_CONVERSE_SECRET_ACCESS_KEY
ステップ4b — litellm-proxy-config.yamlにClaudeモデルを追加: 各モデルのmodelには、下記のモデルIDテーブルのBedrock モデルIDにbedrock/プレフィックスを付けて設定します。model_nameはSuperAdminのnameフィールドと一致する必要があります。AWS認証情報は環境から継承されるため(ステップ4a)、aws_region_nameのみ必要です。
# charts/jitera/extra_config/litellm-proxy-config.yaml
model_list:
  - model_name: claude-3.5-sonnet            # SuperAdminのnameと一致する必要があります
    litellm_params:
      model: bedrock/apac.anthropic.claude-3-5-sonnet-20241022-v2:0  # bedrock/ + モデルID
      aws_region_name: ap-northeast-1

  - model_name: claude-sonnet-4
    litellm_params:
      model: bedrock/apac.anthropic.claude-sonnet-4-20250514-v1:0
      aws_region_name: ap-northeast-1

  - model_name: claude-sonnet-4.6
    litellm_params:
      model: bedrock/us.anthropic.claude-sonnet-4-6
      aws_region_name: us-east-1

  - model_name: claude-opus-4.6
    litellm_params:
      model: bedrock/global.anthropic.claude-opus-4-6-v1
      aws_region_name: us-east-1

  # 同じパターンで追加モデルを設定

general_settings:
  master_key: os.environ/PROXY_MASTER_KEY
ステップ4c — BoostからLiteLLMへの接続設定credentials.boost内):
credentials:
  boost:
    JITERA_BOOST_OPENAI_KEY_LITELLM: "<litellm-master-key>"
    # JITERA_BOOST_OPENAI_URL_LITELLMは自動的にhttp://jitera-litellm:80に設定されます

ClaudeのSuperAdmin登録

フィールド
nameLiteLLMのmodel_nameと一致する必要があります(例:claude-3.5-sonnet)— Boostのルーティングに使用
modelKeyBedrock推論プロファイルの完全なARN(以下のフォーマットと例を参照)— Ultronが使用
providerAWS Bedrock
modelKeyの要件: modelKeyには以下のフォーマットの完全なAWS Bedrock推論プロファイルARNを指定する必要があります:
arn:aws:bedrock:{region}:{account-id}:inference-profile/{profile-id}
コンポーネント説明
{region}推論プロファイルが利用可能なAWSリージョンus-east-1ap-northeast-1
{account-id}お客様のAWSアカウントID123456789012
{profile-id}クロスリージョン推論プロファイルID(下記テーブルを参照)us.anthropic.claude-sonnet-4-5-20250929-v1:0
例:
arn:aws:bedrock:us-east-1:123456789012:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0
Ultronはこの値を2つのルーティング判断に使用します:
  1. プロバイダー選択 — ARNにanthropic.claudeが含まれているため、Bedrock Converseプロバイダーがトリガーされます(ルーティングルールを参照
  2. リージョン選択 — ARN内の{region}により使用するBedrock認証情報が決まります。BEDROCK_CONVERSE_REGION(例:ap-northeast-1)と一致する場合、メインリージョンの認証情報が使用されます。BEDROCK_CONVERSE_GLOBAL_REGION(例:us-east-1)と一致する場合、グローバルリージョンの認証情報が使用されます。
クロスリージョン推論プロファイルID: これらはAWS Bedrockクロスリージョン推論プロファイルIDです。SuperAdminのmodelKeyではARN内の{profile-id}として使用し、LiteLLM設定ではbedrock/プレフィックスを付けて使用します。
プロファイルIDリージョンモデル
apac.anthropic.claude-3-5-sonnet-20241022-v2:0メイン(ap-northeast-1)Claude 3.5 Sonnet v2
apac.anthropic.claude-3-7-sonnet-20250219-v1:0メイン(ap-northeast-1)Claude 3.7 Sonnet
apac.anthropic.claude-sonnet-4-20250514-v1:0メイン(ap-northeast-1)Claude Sonnet 4
apac.anthropic.claude-sonnet-4-5-20250929-v1:0メイン(ap-northeast-1)Claude Sonnet 4.5
us.anthropic.claude-sonnet-4-5-20250929-v1:0グローバル(us-east-1)Claude Sonnet 4.5(US)
us.anthropic.claude-sonnet-4-6グローバル(us-east-1)Claude Sonnet 4.6
us.anthropic.claude-opus-4-20250514-v1:0グローバル(us-east-1)Claude Opus 4
us.anthropic.claude-opus-4-1-20250805-v1:0グローバル(us-east-1)Claude Opus 4.1
global.anthropic.claude-opus-4-5-20251101-v1:0グローバル(us-east-1)Claude Opus 4.5
global.anthropic.claude-opus-4-6-v1グローバル(us-east-1)Claude Opus 4.6

Google Gemini設定

ステップ1:APIキーの取得

Google AI StudioからGemini APIキーを取得します。詳細な手順については、Gemini APIドキュメントを参照してください。

ステップ2:Ultronの設定(values.yaml)

openai:
  secretKeys:
    google:
      GOOGLE_GENERATIVE_API_KEY: "<your-gemini-api-key>"

ステップ3:Gemini用のBoost設定(LiteLLM経由)

Gemini APIキーはLiteLLMコンテナにGEMINI_API_KEYとして自動的に注入されます。 litellm-proxy-config.yamlにGeminiモデルを追加します:
model_list:
  - model_name: gemini-3.1-pro            # SuperAdminのnameと一致する必要があります
    litellm_params:
      model: gemini/gemini-3.1-pro-preview
      api_key: os.environ/GEMINI_API_KEY

  - model_name: gemini-3-flash
    litellm_params:
      model: gemini/gemini-3-flash-preview
      api_key: os.environ/GEMINI_API_KEY

  - model_name: gemini-2.5-pro
    litellm_params:
      model: gemini/gemini-2.5-pro
      api_key: os.environ/GEMINI_API_KEY

  - model_name: gemini-2.5-flash
    litellm_params:
      model: gemini/gemini-2.5-flash
      api_key: os.environ/GEMINI_API_KEY

  - model_name: gemini-2.0-flash
    litellm_params:
      model: gemini/gemini-2.0-flash
      api_key: os.environ/GEMINI_API_KEY
GeminiプレビューモデルのモデルID(-previewサフィックス付き)は、Googleがモデルを正式版に昇格させたり新しいプレビューをリリースした際に変更されます。設定時にGoogle AIドキュメントで現在のモデルIDを確認してください。

GeminiのSuperAdmin登録

フィールド
nameLiteLLMのmodel_nameと一致する必要があります(例:gemini-2.0-flash
modelKeynameと同じ
providerGoogle

OpenAI直接設定

AI_MODE: open_ai(デフォルト)を設定して、OpenAI DirectをUltronのプライマリプロバイダーとして設定します。

ステップ1:APIキーの取得

OpenAIプラットフォームからGPT-4アクセス付きのAPIキーを作成します。詳細については、OpenAI APIドキュメントを参照してください。

ステップ2:Ultronの設定(values.yaml)

openai:
  AI_MODE: open_ai  # デフォルト
  secretKeys:
    openai:
      OPENAI_API_KEY: "<your-openai-api-key>"
      OPENAI_API_KEYS: '["<key1>", "<key2>"]'   # ロードバランシング用JSON配列
      OPENAI_EMBEDDING_KEY: "<your-embedding-api-key>"
      OPENAI_VISION_KEY: "<your-vision-api-key>"
      OPENAI_MAIN_MODEL_NAME: "gpt-4.1"

ステップ3:Boostの設定(values.yaml)

Boost エンドポイントをOpenAI APIに向けて設定します:
credentials:
  boost:
    JITERA_BOOST_OPENAI_URL_OPENAI: "https://api.openai.com/v1"
    JITERA_BOOST_OPENAI_KEY_OPENAI: "<your-openai-api-key>"
OpenAI直接のUltron modelKeyフォーマット: openai:プレフィックスを使用して、OpenAIのAPIに明示的にルーティングします。プレフィックスは除去され、残りの部分がモデルIDとして使用されます。
modelKey実際に使用されるモデル
openai:gpt-4.1gpt-4.1
openai:gpt-4ogpt-4o

Anthropic直接API設定

AWS Bedrockをバイパスする、Anthropic APIへの直接アクセスです。

ステップ1:APIキーの取得

Anthropic ConsoleからAPIキーを作成します。詳細については、Anthropic APIドキュメントを参照してください。

ステップ2:Ultronの設定(values.yaml)

openai:
  secretKeys:
    anthropic:
      ANTHROPIC_API_KEY: "<your-anthropic-api-key>"
Anthropic直接のUltron modelKey要件: modelKeyclaudeを含む必要がありますが、anthropic.claudeを含んではいけません。含む場合はBedrockが代わりに使用されます。
modelKey説明
claude-3-haiku-20240307Claude 3 Haiku
claude-3-5-sonnet-20241022Claude 3.5 Sonnet v2
claude-sonnet-4-20250514Claude Sonnet 4
claude-sonnet-4-5-20250929Claude Sonnet 4.5
claude-sonnet-4-6Claude Sonnet 4.6
claude-opus-4-20250514Claude Opus 4
claude-opus-4-1-20250805Claude Opus 4.1
claude-opus-4-6Claude Opus 4.6

SuperAdmin登録

フィールド
nameclaude-sonnet-4-20250514
modelKeyclaude-sonnet-4-20250514
providerAnthropic

vLLM設定

エアギャップデプロイメントやローカルモデルホスティング向けです。
vLLMにはNVIDIA CUDAをサポートするGPUノードが必要です。

ステップ1:vLLMの有効化

vllm:
  enabled: true
  replicaCount: 1
  args:
    - "vllm serve Qwen/Qwen2.5-Coder-1.5B-Instruct-AWQ --trust-remote-code --enable-prefix-caching --disable-log-requests --dtype=float16"
  resources:
    requests:
      memory: "4Gi"
      cpu: "2000m"
    limits:
      memory: "32Gi"
      cpu: "8000m"
      nvidia.com/gpu: 1
  nodeSelector:
    accelerator: nvidia-gpu

ステップ2:認証情報の設定

credentials:
  vllm:
    HUGGING_FACE_HUB_TOKEN: "<your-hf-token>"

LiteLLMプロキシ設定

LiteLLMは、Boostが使用するClaude(Bedrock)およびGeminiモデル用の統一APIプロキシを提供します。
litellm:
  enabled: true
  replicaCount: 1
  resources:
    requests:
      memory: "512Mi"
      cpu: "250m"
プロキシモデルリストはcharts/jitera/extra_config/litellm-proxy-config.yamlで定義されます。モデル設定の例については、AWS BedrockおよびGoogle Geminiのセクションを参照してください。

バックグラウンドモデル設定

バックグラウンドタスクのデフォルトモデルは、上記のバックグラウンドタスクのデフォルトモデルセクションで説明しています。

Web Search Agent設定

Boostには、Web検索、URL読み取り、ディープリサーチ機能を提供するWeb Search Agentが含まれています。これらの機能には、コアLLM設定に加えて、追加のAPIキーとファイアウォールルールが必要です。

アーキテクチャ

Web Search Agentには2つのコア機能があります:
  1. Web検索 — インターネットで情報を検索
  2. URL読み取り — Webページからコンテンツを抽出
各機能には、フォールバックチェーンを持つ複数のバックエンドオプションがあります:
機能ツールデフォルトバックエンドフォールバックトリガー
Web検索boost__web_searchTavily(APIキー設定時)SearXNG(Tavily未設定時)エージェントが明示的にツールを呼び出し
Google検索boost__google_searchGoogle(Agnoスクレイピング)なしレガシー — グローバルに登録されるが、現在のワークフローでは未使用
URL読み取りboost__read_webpageJina Reader(r.jina.aiなしエージェントが明示的にツールを呼び出し(例:deep-researchスキル)
URL読み取りread-urlsミドルウェアMarkItDown(ローカル変換)Jina Reader(MarkItDownが空を返した場合)ユーザーメッセージ内のURLを自動処理
boost__read_webpageツールはJina Readerに排他的に依存しており、フォールバックはありません。Jina Readerに到達できない場合、このツールは失敗します。これに依存するスキル(例:deep-research)は機能しません。
TavilyもSearXNGも設定されていない場合、boost__web_searchツールは登録されません。これに依存するスキル(例:deep-research)は失敗します。boost__google_searchはグローバルツールレジストリに存在しますが、現在のワークフローでは使用されていません — Document Agent v0.1.5のレガシーツールです。

Web検索バックエンド

以下の検索バックエンドのいずれかを選択してください:
Tavilyは、AIエージェント向けに設計された検索APIです。セルフホストインフラストラクチャは不要です。
credentials:
  boost:
    JITERA_BOOST_TAVILY_API_KEY: "<your-tavily-api-key>"
変数必須デフォルト説明
JITERA_BOOST_TAVILY_API_KEYはい""Tavily APIキー。設定するとSearXNGよりTavilyが優先されます。

URL読み取り(Jina Reader)

Jina Readerは、boost__read_webpageツール用にWebページをテキストに変換します。
credentials:
  boost:
    # JITERA_BOOST_JINA_READER_API_URL: "https://r.jina.ai"  # デフォルト
    JITERA_BOOST_JINA_READER_API_KEY: "<your-jina-api-key>"   # オプション — 無料枠は20 RPM
変数必須デフォルト説明
JITERA_BOOST_JINA_READER_API_URLはいhttps://r.jina.aiJina Reader API URL
JITERA_BOOST_JINA_READER_API_KEYいいえ""より高いレート制限のためのJina APIキー

リランキング(オプション)

リランキングはDocument AgentおよびCode Agent RAGワークフローの検索結果品質を向上させます。Web Search Agentの動作には不要です。
変数必須デフォルト説明
JITERA_BOOST_JINA_BASE_API_URLいいえhttps://api.jina.aiJina Rerank APIベースURL
JITERA_BOOST_CO_API_URLいいえhttps://api.cohere.aiCohere Rerank API URL(Jinaの代替)
JITERA_BOOST_CO_API_KEYいいえ""Cohere APIキー

ディープリサーチの要件

deep-researchスキルには以下の両方が必要です:
要件最低限の設定
boost__web_searchTavily APIキーまたはSearXNG URLが設定されていること
boost__read_webpageJina Reader(r.jina.ai)にアクセス可能であること
Jinaの無料枠(20 RPM)は、20以上のURLを読み取るディープリサーチセッションでレート制限に達する可能性があります。本番環境ではJITERA_BOOST_JINA_READER_API_KEYを設定してより高い制限を利用することを検討してください。

最小限の設定

credentials:
  boost:
    JITERA_BOOST_TAVILY_API_KEY: "tvly-xxxxxxxxxxxxx"
    # Jina Readerはデフォルト値を使用(https://r.jina.ai、APIキーなし、20 RPM無料枠)
    # MarkItDownは設定不要(ローカルライブラリ)
必要なファイアウォールルール:api.tavily.com:443r.jina.ai:443
必要なファイアウォールルールの完全なリストについては、ネットワークとファイアウォールを参照してください。

Ultronプロバイダールーティングリファレンス

Ultronは、SuperAdmin LLMレコードのmodelKeyフィールドをパターンマッチして、LLMプロバイダーを決定します。パターンは以下の優先順位で評価されます:
優先度パターンプロバイダーmodelKeyの例
1openai:で始まるOpenAI直接openai:gpt-4o
2azure:で始まるAzure(メインリージョン)azure:gpt-4.1
3azure_global:で始まるAzure(グローバルリージョン)azure_global:gpt-5
4anthropic.claudeを含むAWS Bedrock Conversearn:aws:bedrock:ap-northeast-1:123456789012:inference-profile/apac.anthropic.claude-3-5-sonnet-20241022-v2:0
5claudeを含むAnthropic直接APIclaude-3-opus-20240229
6geminiを含むGoogle Generative AIgemini-2.0-flash
7deepseek-r1-distillを含むGroqdeepseek-r1-distill-llama-70b
8o1o1-mini、またはo3-miniと一致Azureグローバル(自動ルーティング)o1
9qwenを含むOpenAI互換エンドポイントqwen-2.5-72b
10デフォルトAzureメイン/デフォルト
優先順位が重要です。例えば、anthropic.claude-3-5-sonnetを含むBedrock ARNはルール4(anthropic.claudeを含む)にルール5(claudeを含む)より先にマッチします。曖昧なマッチを避けるため、modelKey値を慎重に構成してください。

Azureモデルからデプロイメントへのマッピング(Ultron)

Ultronは、以下の環境変数を使用して、リクエストされたモデル名をAzureデプロイメント名にマッピングします:
リクエストモデル環境変数値の例
gpt-4oAZURE_OPENAI_GPT_4O_DEVELOPMENT_NAMEgpt-4o
gpt-4o-miniAZURE_OPENAI_GPT_4O_MINI_DEVELOPMENT_NAMEgpt-4o-mini
gpt-4.1AZURE_DEVELOPMENT_NAME_GPT_41gpt-4.1
gpt-3.5-instructAZURE_OPENAI_GPT_35_INSTRUCT_DEVELOPMENT_NAMEgpt-3.5-instruct
text-embedding-ada-002AZURE_OPENAI_EMBEDDING_DEVELOPMENT_NAMEtext-embedding-ada-002
ビジョンモデルAZURE_OPENAI_VISION_DEVELOPMENT_NAMEgpt-4o
o1AZURE_OPENAI_GPT_O1_DEVELOPMENT_NAMEo1
o1-miniAZURE_OPENAI_GPT_O1_MINI_DEVELOPMENT_NAMEo1-mini
o3-miniAZURE_OPENAI_GPT_O3_MINI_DEVELOPMENT_NAMEo3-mini
o3AZURE_DEVELOPMENT_NAME_O3o3
gpt-5AZURE_OPENAI_GPT_5_DEVELOPMENT_NAMEgpt-5
gpt-5-miniAZURE_OPENAI_GPT_5_MINI_DEVELOPMENT_NAMEgpt-5-mini
gpt-5-nanoAZURE_OPENAI_GPT_5_NANO_DEVELOPMENT_NAMEgpt-5-nano
gpt-5-chatAZURE_OPENAI_GPT_5_CHAT_DEVELOPMENT_NAMEgpt-5-chat
gpt-5.1AZURE_OPENAI_GPT_51_DEVELOPMENT_NAMEgpt-5.1
gpt-5.2AZURE_OPENAI_GPT_52_DEVELOPMENT_NAMEgpt-5.2
デフォルトAZURE_OPENAI_DEVELOPMENT_NAMEgpt-4.1

検証

AIサービスの正常性確認

# Ultronの確認
kubectl get pods -n jitera -l app=jitera-ultron
kubectl logs -n jitera -l app=jitera-ultron --tail=100

# Boostの確認
kubectl get pods -n jitera -l app=jitera-boost

# LiteLLMの確認
kubectl get pods -n jitera -l app=jitera-litellm

環境変数の確認

# Ultronの認証情報を確認
kubectl exec -it deploy/jitera-ultron -n jitera -- \
  env | grep -E "(AI_MODE|AZURE_|OPENAI_|BEDROCK_)"

# Boostの認証情報を確認
kubectl exec -it deploy/jitera-boost -n jitera -- \
  env | grep JITERA_BOOST

# LiteLLMの認証情報を確認
kubectl exec -it deploy/jitera-litellm -n jitera -- \
  env | grep -E "(AWS_|GEMINI_)"

プロバイダー接続のテスト

# Azure OpenAIのテスト
kubectl exec -it deploy/jitera-ultron -n jitera -- \
  curl -X POST "https://<INSTANCE>.openai.azure.com/openai/deployments/gpt-4o/chat/completions?api-version=2024-10-21" \
  -H "api-key: <KEY>" \
  -H "Content-Type: application/json" \
  -d '{"messages":[{"role":"user","content":"Hello"}]}'

# LiteLLMプロキシモデルエンドポイントのテスト
kubectl exec -it deploy/jitera-boost -n jitera -- \
  curl -H "Authorization: Bearer $JITERA_BOOST_OPENAI_KEY_LITELLM" \
  http://jitera-litellm/v1/models

# LiteLLMプロキシ設定の確認
kubectl exec -it deploy/jitera-litellm -n jitera -- cat /app/config.yaml

トラブルシューティング

GUIドロップダウンにモデルが表示されない

  1. SuperAdminでLLMレコードが有効になっていることを確認します:
    SELECT * FROM llms WHERE name = 'your-model-name';
    UPDATE llms SET enabled = true WHERE name = 'your-model-name';
    
  2. LLMが組織に割り当てられていることを確認します。

「Deployment not found」エラー(Azure)

  1. AzureデプロイメントがSuperAdminのnameフィールドと正確に一致することを確認します。
  2. JITERA_BOOST_API_CONFIG_AZURE_*のURLに正しいデプロイメント名が含まれていることを確認します。
  3. Ultronに正しいデプロイメント名の環境変数があることを確認します:
    kubectl exec -it deploy/jitera-ultron -n jitera -- env | grep AZURE
    kubectl exec -it deploy/jitera-boost -n jitera -- env | grep JITERA_BOOST_API_CONFIG
    

LiteLLMモデルが動作しない(Claude/Gemini)

  1. litellm-proxy-config.yamlにモデルエントリが存在することを確認します。
  2. model_nameがSuperAdminのnameフィールドと正確に一致することを確認します。
  3. 認証情報が正しく設定されていることを確認します:
    kubectl exec -it deploy/jitera-litellm -n jitera -- cat /app/config.yaml
    kubectl exec -it deploy/jitera-litellm -n jitera -- env | grep -E "(AWS_|GEMINI_)"
    

GPT-5がGPT-4.1にフォールバックする

GPT-5はAzureグローバルリージョンに自動的にルーティングされません。SuperAdminのmodelKeyazure_global:gpt-5に設定して、グローバルリージョンに明示的にルーティングしてください。

APIキーエラー

# シークレット値の確認
kubectl get secret jitera-openai -n jitera -o yaml

# キーが正しくbase64エンコードされていることを確認
echo "<KEY>" | base64 -d

レート制限

  1. JSON配列(AZURE_OPENAI_KEYSAZURE_OPENAI_INSTANCE_NAMES)を使用して複数のAPIキーを追加します。
  2. 追加のBoostエンドポイント変数(JITERA_BOOST_API_CONFIG_AZURE_INSTANCE_2_*)を追加します。
  3. AIプロバイダーにクォータの増加を依頼します。
  4. 複数リージョンへのデプロイを検討します。

vLLM GPUの問題

# GPUノードの確認
kubectl get nodes -l accelerator=nvidia-gpu

# GPU可用性の確認
kubectl describe node <node-name> | grep nvidia

# vLLM Podの状態確認
kubectl describe pod -n jitera -l app=jitera-vllm

付録:環境変数リファレンス

Ultron

一般(両モード共通):
変数values.yamlソース用途
AI_MODEopenai.AI_MODEopen_ai(デフォルト)またはazure
OPENAI_MAIN_MODEL_NAMEopenai.secretKeys.openai.OPENAI_MAIN_MODEL_NAMEメインバックグラウンドモデル(両モードで必須)
OpenAI Directモード(AI_MODE: open_ai):
変数values.yamlソース用途
OPENAI_API_KEYSopenai.secretKeys.openai.OPENAI_API_KEYSOpenAIキーのJSON配列
OPENAI_API_KEYopenai.secretKeys.openai.OPENAI_API_KEY単一のOpenAIキー
OPENAI_EMBEDDING_KEYopenai.secretKeys.openai.OPENAI_EMBEDDING_KEYエンベディングAPIキー
OPENAI_VISION_KEYopenai.secretKeys.openai.OPENAI_VISION_KEYビジョンモデルAPIキー
Azureモード(AI_MODE: azure):
変数values.yamlソース用途
AZURE_OPENAI_KEYSopenai.secretKeys.azure.AZURE_OPENAI_KEYSAzureキーのJSON配列
AZURE_OPENAI_INSTANCE_NAMESopenai.secretKeys.azure.AZURE_OPENAI_INSTANCE_NAMESインスタンス名のJSON配列
AZURE_OPENAI_VERSIONopenai.secretKeys.azure.AZURE_OPENAI_VERSIONAPIバージョン
AZURE_OPENAI_DEVELOPMENT_NAMEopenai.secretKeys.azure.AZURE_OPENAI_DEVELOPMENT_NAMEデフォルトデプロイメント
AZURE_OPENAI_GLOBAL_KEYSopenai.secretKeys.azure.AZURE_OPENAI_GLOBAL_KEYSグローバルリージョンキー
AZURE_OPENAI_GLOBAL_INSTANCE_NAMESopenai.secretKeys.azure.AZURE_OPENAI_GLOBAL_INSTANCE_NAMESグローバルインスタンス
BEDROCK_CONVERSE_REGIONopenai.secretKeys.bedrock.BEDROCK_CONVERSE_REGIONAWS Bedrockメインリージョン
BEDROCK_CONVERSE_ACCESS_KEY_IDopenai.secretKeys.bedrock.BEDROCK_CONVERSE_ACCESS_KEY_IDAWSアクセスキー(メイン)
BEDROCK_CONVERSE_SECRET_ACCESS_KEYopenai.secretKeys.bedrock.BEDROCK_CONVERSE_SECRET_ACCESS_KEYAWSシークレットキー(メイン)
BEDROCK_CONVERSE_GLOBAL_REGIONopenai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_REGIONAWS Bedrockグローバルリージョン
BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_IDopenai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_ACCESS_KEY_IDAWSアクセスキー(グローバル)
BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEYopenai.secretKeys.bedrock.BEDROCK_CONVERSE_GLOBAL_SECRET_ACCESS_KEYAWSシークレットキー(グローバル)
GOOGLE_GENERATIVE_API_KEYopenai.secretKeys.google.GOOGLE_GENERATIVE_API_KEYGemini APIキー
ANTHROPIC_API_KEYopenai.secretKeys.anthropic.ANTHROPIC_API_KEYAnthropic直接APIキー

Boost

変数ソース用途
JITERA_BOOST_API_KEY_MAINcredentials.boost.JITERA_BOOST_API_KEY_MAINメインBoost APIキー
JITERA_BOOST_OPENAI_URL_LITELLM自動生成LiteLLMプロキシURL
JITERA_BOOST_OPENAI_KEY_LITELLMcredentials.boost.JITERA_BOOST_OPENAI_KEY_LITELLMLiteLLMマスターキー
JITERA_BOOST_API_CONFIG_AZURE_*credentials.boost.JITERA_BOOST_API_CONFIG_AZURE_*Azureエンドポイント設定
JITERA_BOOST_DEFAULT_BASE_MODELboost.env.*バックグラウンドベースモデル
JITERA_BOOST_DEFAULT_EXPERT_MODELboost.env.*バックグラウンドエキスパートモデル

LiteLLM

変数ソース用途
PROXY_MASTER_KEYcredentials.boost.JITERA_BOOST_OPENAI_KEY_LITELLMプロキシ認証
AWS_ACCESS_KEY_IDopenai.secretKeys.bedrock.BEDROCK_CONVERSE_ACCESS_KEY_IDAWS Bedrock認証
AWS_SECRET_ACCESS_KEYopenai.secretKeys.bedrock.BEDROCK_CONVERSE_SECRET_ACCESS_KEYAWS Bedrock認証
GEMINI_API_KEYopenai.secretKeys.google.GOOGLE_GENERATIVE_API_KEYGoogle Gemini認証

付録:設定チェックリスト

Azure OpenAIのみ

  • openai.AI_MODE: azureを設定
  • openai.secretKeys.openai配下にOPENAI_MAIN_MODEL_NAMEを設定(例:gpt-4.1
  • AZURE_OPENAI_KEYSAZURE_OPENAI_INSTANCE_NAMESを設定
  • AZURE_OPENAI_VERSIONを設定
  • 各モデルのデプロイメント名環境変数を設定
  • credentials.boost.JITERA_BOOST_API_CONFIG_AZURE_*でBoost Azureエンドポイントを設定
  • Azureデプロイメント名と一致するnameでSuperAdminにモデルを登録

Azure OpenAI + Claude(Bedrock)

  • 上記のAzureセットアップを完了
  • openai.secretKeys.bedrock.*を設定(メインとグローバルリージョン)
  • litellm-proxy-config.yamlにClaudeモデルを追加
  • credentials.boostJITERA_BOOST_OPENAI_KEY_LITELLMを設定
  • LiteLLMのmodel_nameと一致するnameでSuperAdminにClaudeモデルを登録

Azure OpenAI + Claude + Gemini

  • 上記のAzure + Claudeセットアップを完了
  • openai.secretKeys.google.GOOGLE_GENERATIVE_API_KEYを設定
  • litellm-proxy-config.yamlにGeminiモデルを追加
  • LiteLLMのmodel_nameと一致するnameでSuperAdminにGeminiモデルを登録

Web Search Agent(オプション)

  • Web検索バックエンドを設定:JITERA_BOOST_TAVILY_API_KEY(Tavily)またはJITERA_BOOST_SEARXNG_URL(SearXNG)
  • Jina Readerの到達性を確認(r.jina.ai:443
  • (オプション)より高いレート制限のためJITERA_BOOST_JINA_READER_API_KEYを設定
  • 必要なドメインをファイアウォール許可リストに追加(ネットワークとファイアウォールを参照)

関連ドキュメント

Helm値

完全な設定リファレンス

値リファレンス

すべての設定パラメータ

アーキテクチャ

サービスアーキテクチャ概要

トラブルシューティング

よくある問題と解決策