Files
next-ai-draw-io/docs/ja/ai-providers.md
Dayuan Jiang aaa2938dac docs: reorganize documentation into i18n folder structure (#466)
* docs: reorganize docs into en/cn/ja folders

- Move documentation files into language-specific folders (en, cn, ja)
- Add Chinese and Japanese translations for all docs
- Extract Docker section from README to separate doc file
- Update README to link to new doc locations

* docs: fix links to new docs folder structure

* docs: update README and provider docs

* docs: fix broken import statements in cloudflare deploy guides

* docs: sync CN/JA READMEs with EN structure and fix all paths
2025-12-31 00:04:32 +09:00

7.0 KiB
Raw Permalink Blame History

AIプロバイダーの設定

このガイドでは、next-ai-draw-io でさまざまな AI モデルプロバイダーを設定する方法について説明します。

クイックスタート

  1. .env.example.env.local にコピーします
  2. 選択したプロバイダーの API キーを設定します
  3. AI_MODEL を希望のモデルに設定します
  4. npm run dev を実行します

対応プロバイダー

Doubao (ByteDance Volcengine)

無料トークン: Volcengine ARK プラットフォームに登録すると、すべてのモデルで使える50万トークンが無料で入手できます

DOUBAO_API_KEY=your_api_key
AI_MODEL=doubao-seed-1-8-251215  # または他の Doubao モデル

Google Gemini

GOOGLE_GENERATIVE_AI_API_KEY=your_api_key
AI_MODEL=gemini-2.0-flash

任意のカスタムエンドポイント:

GOOGLE_BASE_URL=https://your-custom-endpoint

OpenAI

OPENAI_API_KEY=your_api_key
AI_MODEL=gpt-4o

任意のカスタムエンドポイントOpenAI 互換サービス用):

OPENAI_BASE_URL=https://your-custom-endpoint/v1

Anthropic

ANTHROPIC_API_KEY=your_api_key
AI_MODEL=claude-sonnet-4-5-20250514

任意のカスタムエンドポイント:

ANTHROPIC_BASE_URL=https://your-custom-endpoint

DeepSeek

DEEPSEEK_API_KEY=your_api_key
AI_MODEL=deepseek-chat

任意のカスタムエンドポイント:

DEEPSEEK_BASE_URL=https://your-custom-endpoint

SiliconFlow (OpenAI 互換)

SILICONFLOW_API_KEY=your_api_key
AI_MODEL=deepseek-ai/DeepSeek-V3  # 例; 任意の SiliconFlow モデル ID を使用

任意のカスタムエンドポイント(デフォルトは推奨ドメイン):

SILICONFLOW_BASE_URL=https://api.siliconflow.com/v1  # または https://api.siliconflow.cn/v1

SGLang

SGLANG_API_KEY=your_api_key
AI_MODEL=your_model_id

任意のカスタムエンドポイント:

SGLANG_BASE_URL=https://your-custom-endpoint/v1

Azure OpenAI

AZURE_API_KEY=your_api_key
AZURE_RESOURCE_NAME=your-resource-name  # 必須: Azure リソース名
AI_MODEL=your-deployment-name

またはリソース名の代わりにカスタムエンドポイントを使用:

AZURE_API_KEY=your_api_key
AZURE_BASE_URL=https://your-resource.openai.azure.com  # AZURE_RESOURCE_NAME の代替
AI_MODEL=your-deployment-name

任意の推論設定:

AZURE_REASONING_EFFORT=low      # 任意: low, medium, high
AZURE_REASONING_SUMMARY=detailed  # 任意: none, brief, detailed

AWS Bedrock

AWS_REGION=us-west-2
AWS_ACCESS_KEY_ID=your_access_key_id
AWS_SECRET_ACCESS_KEY=your_secret_access_key
AI_MODEL=anthropic.claude-sonnet-4-5-20250514-v1:0

注: AWS 上IAM ロールを持つ Lambda や EC2では、認証情報は IAM ロールから自動的に取得されます。

OpenRouter

OPENROUTER_API_KEY=your_api_key
AI_MODEL=anthropic/claude-sonnet-4

任意のカスタムエンドポイント:

OPENROUTER_BASE_URL=https://your-custom-endpoint

Ollama (ローカル)

AI_PROVIDER=ollama
AI_MODEL=llama3.2

任意のカスタム URL:

OLLAMA_BASE_URL=http://localhost:11434

Vercel AI Gateway

Vercel AI Gateway は、単一の API キーで複数の AI プロバイダーへの統合アクセスを提供します。これにより認証が簡素化され、複数の API キーを管理することなくプロバイダーを切り替えることができます。

基本的な使用法 (Vercel ホストの Gateway):

AI_GATEWAY_API_KEY=your_gateway_api_key
AI_MODEL=openai/gpt-4o

カスタム Gateway URL (ローカル開発またはセルフホスト Gateway 用):

AI_GATEWAY_API_KEY=your_custom_api_key
AI_GATEWAY_BASE_URL=https://your-custom-gateway.com/v1/ai
AI_MODEL=openai/gpt-4o

モデル形式は provider/model 構文を使用します:

  • openai/gpt-4o - OpenAI GPT-4o
  • anthropic/claude-sonnet-4-5 - Anthropic Claude Sonnet 4.5
  • google/gemini-2.0-flash - Google Gemini 2.0 Flash

設定に関する注意点:

  • AI_GATEWAY_BASE_URL が設定されていない場合、デフォルトの Vercel Gateway URL (https://ai-gateway.vercel.sh/v1/ai) が使用されます
  • カスタムベース URL は以下の場合に便利です:
    • カスタム Gateway インスタンスを使用したローカル開発
    • セルフホスト AI Gateway デプロイメント
    • エンタープライズプロキシ設定
  • カスタムベース URL を使用する場合、AI_GATEWAY_API_KEY も指定する必要があります

Vercel AI Gateway ダッシュボードから API キーを取得してください。

自動検出

1つのプロバイダーの API キーのみを設定した場合、システムはそのプロバイダーを自動的に検出して使用します。AI_PROVIDER を設定する必要はありません。

複数の API キーを設定する場合は、AI_PROVIDER を明示的に設定する必要があります:

AI_PROVIDER=google  # または: openai, anthropic, deepseek, siliconflow, doubao, azure, bedrock, openrouter, ollama, gateway, sglang

モデル性能要件

このタスクは、厳密なフォーマット制約draw.io XMLを伴う長文テキストの生成を含むため、非常に強力なモデル性能が必要です。

推奨モデル:

  • Claude Sonnet 4.5 / Opus 4.5

Ollama に関する注意: Ollama はプロバイダーとしてサポートされていますが、DeepSeek R1 や Qwen3-235B のような高性能モデルをローカルで実行していない限り、このユースケースでは一般的に実用的ではありません。

Temperature温度設定

環境変数で Temperature を任意に設定できます:

TEMPERATURE=0  # より決定論的な出力(ダイアグラムに推奨)

重要: 以下の Temperature 設定をサポートしていないモデルでは、TEMPERATURE を未設定のままにしてください:

  • GPT-5.1 およびその他の推論モデル
  • 一部の特殊なモデル

未設定の場合、モデルはデフォルトの挙動を使用します。

推奨事項

  • 最高の体験: 画像からダイアグラムを生成する機能には、ビジョン画像認識をサポートするモデルGPT-4o, Claude, Geminiを使用してください
  • 低コスト: DeepSeek は競争力のある価格を提供しています
  • プライバシー: 完全にローカルなオフライン操作には Ollama を使用してください(強力なハードウェアが必要です)
  • 柔軟性: OpenRouter は単一の API で多数のモデルへのアクセスを提供します