メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://docs.jitera.ai/llms.txt

Use this file to discover all available pages before exploring further.

Jitera Self-Hostedは、アプリケーションマイクロサービス、インフラストラクチャサービス、データストアで構成されるKubernetesベースのプラットフォームです。このページでは、サポートされるデプロイ構成とアーキテクチャの概要を説明します。

サポートされる構成

Jiteraは、プラットフォームの実行場所(パブリッククラウドまたはオンプレミス)とLLMへのアクセス方法(パブリックまたはプライベート)の2つの軸で定義される、4つのデプロイモデルをサポートしています。
構成ネットワーク分離データ管理コントロールインフラストラクチャ難易度インストールガイド
パブリッククラウド + パブリックLLMAWS EKSAzure AKS
パブリッククラウド + プライベートLLM中〜高中〜高低〜中AWS EKSAzure AKS
オンプレミス + パブリックLLMオンプレミス
オンプレミス + プライベートLLM非常に高いオンプレミス
パブリッククラウドは標準的なマルチテナントIaaS/PaaS環境(AWS、Azure)を指します。専用ハードウェア(例:AWS Dedicated Hosts)やハイブリッド拡張(例:AWS Outposts)は除外されます。オンプレミスは組織の施設内で所有・物理的に保守されるインフラストラクチャを指します。IaaSプロバイダーが管理するホステッドプライベートクラウドサービスは除外されます。パブリックLLMは外部ベンダー(例:OpenAI、Google Gemini)がホストし、API経由でアクセスするモデルを指します。プライベートLLMはユーザーが管理するインフラストラクチャにデプロイされたオープンソースまたはライセンスモデル(例:Qwen、Llama、Mistral)を指します。

パブリッククラウド + パブリックLLM

最もシンプルなデプロイモデルです。Jiteraはマネージド Kubernetes サービス(EKS / AKS)上で実行され、インターネット経由で外部LLMプロバイダーに接続します。
  • ネットワーク分離 — 低: インフラストラクチャはVPC / Virtual Networkで分離できますが、LLM APIコールはパブリックインターネットを経由します。
  • データ管理コントロール — 低: インフラストラクチャとAIモデルの両方がサードパーティによって管理されます。
  • インフラストラクチャ難易度 — 低: マネージド Kubernetes によりコントロールプレーン管理が不要です。物理ハードウェアは不要です。

パブリッククラウド + プライベートLLM

Jiteraはマネージド Kubernetes サービス上で実行され、LLMはユーザー自身のクラウド環境(例:同一VPC内のGPUインスタンス)にデプロイされます。
  • ネットワーク分離 — 中〜高: 閉域ネットワーク(VPC内)を通じてLLMへのアクセスを保護できます。
  • データ管理コントロール — 中〜高: LLM実行環境はユーザー自身のクラウドテナント内で構築・管理されます。データはユーザーのクラウド環境内に留まります。
  • インフラストラクチャ難易度 — 低〜中: パブリックLLMモデルに加えて、GPUノードのリソース管理(オートスケーリング設定、GPUクォータリクエスト)が追加されます。
GPU要件についてはAI設定 — vLLMを参照してください。

オンプレミス + パブリックLLM

Jiteraはユーザー所有のハードウェア上で実行されますが、インターネット経由で外部LLMプロバイダーに接続します。
  • ネットワーク分離 — 中: インフラストラクチャは完全に分離されていますが、LLM APIコールはパブリックインターネットを経由します。
  • データ管理コントロール — 中: データの使用・保持ポリシーはLLMプロバイダーに依存します。オンプレミスのデータは外部に送信されます。
  • インフラストラクチャ難易度 — 高: Kubernetesクラスターをゼロから構築する必要があります(HAコントロールプレーン、etcdバックアップ、ロードバランサー、ストレージクラスの設定)。ハードウェアの調達、設置、物理的なメンテナンスが必要です。

オンプレミス + プライベートLLM

最も分離度の高いデプロイモデルです。JiteraとLLMの両方が、組織のネットワーク内のユーザー所有ハードウェア上で完全に実行されます。
  • ネットワーク分離 — 高: LLMへのアクセスは組織の閉域ネットワーク内で完結します。
  • データ管理コントロール — 高: LLM実行環境とすべてのデータが、外部への露出なしに組織内で管理・運用されます。
  • インフラストラクチャ難易度 — 非常に高い: オンプレミス Kubernetes 管理に加えて、KubernetesのアップグレードにはNVIDIAドライバーとContainer Toolkitの厳密なテストが必要です。GPUサーバーは高価で、リードタイムが長く、消費電力が大きいため、施設のアップグレード(電源、冷却)が必要になることがあります。
GPU要件についてはAI設定 — vLLMを参照してください。

アプリケーションサービス

コンポーネント説明テクノロジー
Frontendユーザー向け Web アプリケーションReact, TypeScript
Frontend CoreAI チャット、ドキュメント、ナレッジグラフReact 19, TypeScript
SWEFコード生成インターフェースReact, TypeScript
Automationビジネスロジック、API エンドポイント、バックグラウンドジョブRuby on Rails, GraphQL
UltronAI チャット補完、コード生成NestJS, LangChain
BoostLLM ルーティング、ワークフローオーケストレーションPython, FastAPI
LiteLLMLLM プロバイダー抽象化Python

インフラストラクチャサービス

コンポーネント説明
Kong GatewayAPI ゲートウェイ、SSL ターミネーション、リクエストルーティング
Document Converterファイル形式変換
HTML ConversionHTML ドキュメント処理
Playwrightテストとスクリーンショット用のブラウザ自動化
Hasuraデータベースアクセス用のリアルタイム GraphQL API

データストア

すべてのデータストアは Helm チャートにバンドルされており、デフォルトでクラスター内にデプロイされます。本番環境の高可用性デプロイメントでは、マネージドサービスへの外部化を検討してください。
サービス用途
PostgreSQLプライマリリレーショナルデータベース(ユーザー、プロジェクト、権限)
PGVectorAI エンベディング用のベクトル類似検索
MongoDBドキュメントストレージ(生成コード、デザイン仕様)
Redisキャッシュ、セッション、ジョブキュー
RabbitMQ非同期メッセージ処理
サポートされるバージョンと外部化オプションについては外部サービスを参照してください。

サイジングとスケーリング

デプロイ規模別のリソースサイジング(小規模、中規模、大規模)についてはサイジングガイドを参照してください。スケーリング戦略とオートスケーリング設定についてはスケーリングガイドを参照してください。

関連ドキュメント

サイジングガイド

デプロイ規模別のリソースサイジング

スケーリングガイド

スケーリング戦略とオートスケーリング

要件

必須およびオプションのデプロイ要件