ホワイトラベル
オンプレミス
API
リセラー
マルチAI
ONOXIAは貴社のご要件に合わせて適応いたします— 50社のクライアントを抱えるエージェンシー、数百万人のユーザーを持つECプラットフォーム、または厳格なコンプライアンス要件を持つ大企業まで。
カスタム見積を依頼する
カスタムソリューション
これらの拡張機能はすべて技術的に準備が整っており、短期間での導入が可能です。
Reseller・エージェンシー
サブテナント付きマスターアカウント。すべてのクライアントのチャットボットを一元管理し、Token予算を割り当て、個別に請求できます。
- 一元管理のマルチテナントダッシュボード
- 共有Tokenプールまたは固定割り当て
- 10テナント以上でボリュームディスカウント
- エンドクライアントへのカスタム請求
ホワイトラベル
貴社ブランドでONOXIAをご利用いただけます。貴社のロゴ、ドメイン、カラー— ONOXIAやOCENOXへの言及は一切ありません。
- カスタムウィジェットドメイン(CNAME)
- ダッシュボードのカスタムブランディング
- 送信者アドレスの設定
- ブランド非表示の請求書
オンプレミスワーカー
AIワーカーは貴社のデータセンターで稼働します。機密データが貴社のネットワーク外に出ることはありません。Dockerベースの簡単なデプロイ。
- Dockerコンテナ(Worker + Qdrant)
- データは貴社のネットワーク内に保持
- 銀行、保険、行政機関に最適
- ヘルスモニタリング付き
代替AIモデル
お好みのLLMをご利用いただけます:Mistral(デフォルト)、OpenAI GPT-4、Anthropic Claude、Google Gemini、またはローカルモデル。
- 自社APIキーまたはOCENOXマネージド
- サイトごとにモデル選択が可能
- Ollama経由のローカルモデル(On-Premise)
- データ損失なくシームレスに切り替え
追加言語
現在ドイツ語と英語に対応。その他の言語はリクエストに応じて対応— FR、ES、IT、NL、PL、PTなど。
- ウィジェット、ダッシュボード、ボットが多言語対応
- あらゆる言語のRAGナレッジベース
- 自動言語検出
- 多言語エンベディングモデル
エンタープライズAPI
独自UIを持つプラットフォーム向けヘッドレス統合。REST APIでチャット、RAG、アナリティクスを完全に制御。
- Chat API(ステートレス、HMAC署名)
- RAG管理・バッチインポート
- アナリティクス・会話エクスポート
- SSO / SAML統合
どなたにメリットがありますか?
企業がONOXIA Enterpriseを活用している事例をご紹介します。
プラットフォーム
EC・マーケットプレイス
大規模プラットフォームがAPI経由でONOXIAをヘッドレスに既存UIに統合。数百万のユーザー、自社インフラ、カスタムTokenボリューム。商品カタログをRAGソースに、Webhookで注文管理と連携。
エージェンシー
デジタルエージェンシー・ Web開発者
貴社ブランドでのWhite-Labelウィジェット。全クライアントを一元管理するマスターダッシュボード。ONOXIAをポートフォリオの追加製品として— セットアップ、カスタマイズ、サポートはエージェンシーが、AIインフラはOCENOXが担当。
コンプライアンス
銀行・保険・行政機関
自社データセンターでのOn-Premiseワーカー。機密な顧客データがネットワーク外に出ることはありません。外部API呼び出しなしのローカルAIモデル(Llama/Mixtral)。監査対応ログ、SAML SSO。
インターナショナル
グローバル企業
20以上の言語での多言語ボットインスタンス。一つのダッシュボードで複数市場をカバー。言語・地域別のRAGナレッジベース。チャット内の自動言語検出・切り替え。
FAQ—カスタムソリューション
White-Label、On-Premise、Reseller、APIオプションについて知っておくべきことすべて。
White-Labelソリューションの費用はどのくらいですか?+−
White-Labelソリューションは、テナント数、ブランディング範囲、サポートレベルに応じて個別にお見積りいたします。通常、標準プランの2–3倍程度です。個別のご相談にて、貴社に合わせたお見積りを作成いたします。
エージェンシー向けResellerプログラムはどのように機能しますか?+−
Resellerとして、クライアント用のサブテナント付きマスターアカウントをご利用いただけます。すべてのチャットボットインスタンスを一元管理し、Token予算を割り当て、エンドクライアントに個別請求が可能です。10テナント以上でボリュームディスカウントを適用。AIインフラ、アップデート、運用はOCENOXが担当いたします。
On-Premiseデプロイの要件は何ですか?+−
ONOXIA WorkerはDockerコンテナ(Worker + Qdrant)で、約50 MBのRAMを必要とします。サーバーにDockerと、AI APIおよびONOXIA Dashboard APIへのアウトバウンドHTTPSアクセスが必要です。インバウンドトラフィックは不要です。デプロイは1時間未満で完了— 弊社がサポートいたします。
自社のAIモデル(OpenAI、Claude、Gemini)を使用できますか?+−
はい。ONOXIAはリクエストに応じて代替LLMをサポートします:OpenAI GPT-4、Anthropic Claude、Google Gemini、またはOllama経由のローカルモデル。自社APIキーの使用またはOCENOXマネージドも可能です。サイトごとに切り替え可能で、データ損失はありません。
ONOXIAをヘッドレスでプラットフォームに統合するには(API)?+−
Enterprise APIを使用して、ONOXIAを既存のUIに直接統合できます— ウィジェットは不要です。REST APIはチャット(ステートレス、HMAC署名)、RAG管理、バッチインポート、アナリティクスのエンドポイントを提供します。マーケットプレイス、ECシステム、社内ツールに最適です。
On-Premiseでデータは自社ネットワーク内に留まりますか?+−
はい、完全に。On-Premiseデプロイでは、AIワーカーとベクトルデータベース(Qdrant)が貴社のデータセンターで稼働します。RAGドキュメント、会話、ユーザーデータがネットワーク外に出ることはありません。ローカルAIモデルを使用して、外部API呼び出しを完全に排除することも可能です。
どの言語に対応していますか?+−
ウィジェット、ダッシュボード、ボットは現在ドイツ語と英語でご利用いただけます。追加言語(フランス語、スペイン語、イタリア語、オランダ語など)は短期間で有効化可能です。RAGナレッジベースはすでに多言語対応済みです。
最低契約期間やセットアップ費用はありますか?+−
カスタムソリューションは通常12ヶ月の最低契約期間がございます。セットアップ費用は範囲によります— シンプルなWhite-Labelセットアップはセットアップ費用なしの場合が多くございます。詳細はすべて個別のご相談でお伝えいたします。
カスタム見積をご希望ですか?
すべてのソリューションは貴社のご要件に合わせてカスタマイズされます。無料相談をご予約ください— 可能なことをご紹介いたします。
面談を予約する