Dify
日本語
日本語
  • 入門
    • Difyへようこそ
      • 特性と技術仕様
      • モデルプロバイダーリスト
    • クラウドサービス
    • コミュニティ版
      • Docker Compose デプロイ
      • ローカルソースコードで起動
      • aaPanelでのデプロイ方法
      • フロントエンドDockerコンテナを単独起動
      • 環境変数の説明
      • よくある質問
    • Dify Premium
    • Dify 教育版
  • マニュアル
    • モデル
      • 新しいプロバイダーの追加
      • 事前定義されたモデルの追加
      • カスタムモデルの追加
      • インタフェース
      • 配置ルール
      • 負荷分散
    • アプリ・オーケストレーション
      • アプリの作成
      • チャットボット
        • 複数モデルのデバッグ
      • エージェント
      • ツールキット
        • コンテンツモデレーション
    • ワークフロー
      • キーコンセプト
      • 変数
      • ノードの説明
        • 開始
        • 終了
        • 回答
        • LLM
        • 知識検索
        • 質問分類
        • 条件分岐
        • コード実行
        • テンプレート
        • テキスト抽出ツール
        • リスト処理
        • 変数集約
        • 変数代入
        • 反復処理(イテレーション)
        • パラメータ抽出
        • HTTPリクエスト
        • エージェント
        • ツール
        • 繰り返し処理(ループ)
      • ショートカットキー
      • オーケストレートノード
      • ファイルアップロード
      • エラー処理
        • 事前定義されたエラー処理ロジック
        • エラータイプの概要
      • 追加機能
      • プレビューとデバッグ
        • プレビューと実行
        • ステップ実行
        • 対話/実行ログ
        • チェックリスト
        • 実行履歴
      • アプリケーション公開
      • JSON形式での出力
      • 変更通知:画像アップロード機能がファイルアップロード機能に統合されました
    • ナレッジベース
      • ナレッジベース作成
        • 1. オンラインデータソースの活用
          • 1.1 Notion からデータをインポート
          • 1.2 Webサイトからデータをインポート
        • 2. チャンクモードの指定
        • 3. インデックス方式と検索オプションの設定
      • ナレッジベースの管理
        • ナレッジベース内ドキュメントの管理
        • APIを活用したナレッジベースのメンテナンス
      • メタデータ
      • アプリ内でのナレッジベース統合
      • リコールテスト/引用帰属
      • ナレッジベースの要求頻度制限
      • 外部ナレッジベースとの接続
      • 外部ナレッジベースAPI
    • ツール
      • クイック統合ツール
      • 高度統合ツール
      • ツールの設定
        • Google
        • Bing
        • SearchApi
        • StableDiffusion
        • Perplexity Search
        • AlphaVantage 株式分析
        • Dall-e
        • Youtube
        • Serper
        • SearXNG
        • SiliconFlow(Flux AI サポート)
        • ComfyUI
    • アプリ公開
      • シングルページWebアプリとして公開
        • Web アプリの設定
        • テキスト生成アプリ
        • 対話型アプリ
      • Webサイトへの埋め込み
      • API基づく開発
      • フロントエンドテンプレートに基づいた再開発
    • アノテーション
      • ログとアノテーション
      • アノテーション返信
    • モニタリング
      • データ分析
      • 外部Opsツール統合
        • LangSmithを統合
        • LangFuseを統合
        • Opikを統合
    • 拡張
      • API 拡張
        • Cloudflare Workers を使用した API ツールのデプロイ
        • コンテンツモデレーション
      • コード拡張
        • 外部データツール
        • コンテンツモデレーション
    • コラボレーション
      • 発見
      • メンバーの招待と管理
    • 管理
      • アプリの管理
      • チームメンバーの管理
      • 個人アカウントの管理
      • サブスクリプション管理
      • バージョン管理
  • ハンドオン工房
    • 初級編
      • ゼロからAI画像生成アプリの構築方法
      • AIエージェントの実践:個人のオンライン旅行アシスタントの構築方法
    • 中級編
      • チャットストリームエージェントを使用した Twitter アカウントの分析方法
      • ファイルアップロードを使用した記事理解アシスタントの構築方法
  • コミュニティ
    • サポートの求め
    • 貢献者ガイド
    • ドキュメントへの貢献
  • プラグイン
    • 機能紹介
    • クイックスタート
      • プラグインのインストールと活用
      • プラグイン開発の入門
        • 開発環境のセットアップ
        • ツール型プラグイン
        • モデル型プラグイン
          • モデルプロバイダーの構築
          • 定義済みモデルの組み込み
          • カスタムモデルの組み込み
        • エージェント戦略プラグイン
        • 拡張機能型プラグイン
        • バンドル
      • プラグインのデバッグ方法
    • プラグイン管理方法
    • スキーマ仕様
      • Manifest(マニフェスト)
      • Endpoint(エンドポイント)
      • Tool(ツール)
      • Agent(エージェント)
      • Model(モデル)
        • モデル設計規則
        • モデルスキーマ
      • 一般的な標準仕様
      • 永続化されたストレージ
      • Difyサービスの逆呼び出し
        • アプリ
        • モデル
        • ツール
        • ノード
    • ベストプラクティス
      • Slack Bot プラグインの開発
      • Dify MCP プラグインガイド:ワンクリックで Zapier に接続してメールを自動送信
    • プラグインの公開
      • プラグインの自動公開
      • Difyマーケットプレイスへの公開
        • プラグイン開発者ガイドライン
        • プラグインのプライバシー保護に関するガイドライン
      • 個人GitHubリポジトリへの公開
      • ローカルでの公開と共有
      • 第三者署名検証のためにプラグインに署名する
    • よくある質問
  • 開発
    • バックエンド
      • DifySandbox
        • 貢献ガイド
    • モデルの統合
      • Hugging Faceのオープンソースモデルを統合
      • Replicateのオープンソースモデルを統合
      • Xinferenceでデプロイしたローカルモデルを統合
      • OpenLLMでデプロイしたローカルモデルを統合
      • LocalAIでデプロイしたローカルモデルを統合
      • Ollamaでデプロイしたローカルモデルを統合
      • LiteLLM Proxyを使用してモデルを統合する
      • GPUStackとの統合によるローカルモデルのデプロイ
      • AWS Bedrock上のモデル(DeepSeek)の接続
    • 移行
      • コミュニティ版を v1.0.0 に移行する
  • もっと読む
    • 活用事例
      • DeepSeek & Dify連携ガイド:多段階推論を活用したAIアプリケーション構築
      • Ollama + DeepSeek + Dify のプライベートデプロイ:あなた自身のAIアシスタントの構築方法
      • あなた専用のQAチャットボットのトレーニング方法
      • コードなしでMidjourney プロンプトボットを作成する方法
      • Notion AI アシスタントを構築する
      • 数分で業務データを持つ公式サイトのAIチャットボットを作成する方法
      • DifyチャットボットをWixサイトに統合する方法
      • AWS Bedrockのナレッジベースに統合する方法
      • Difyで大規模言語モデルの「競技場」を体験する方法:DeepSeek R1 VS o1 を例に
      • Difyスケジューラーの構築
      • DifyクラウドでAI Thesis Slack Botを構築
    • さらに読む
      • LLMOpsとは何ですか?
      • 配列変数とは何ですか?
      • 検索拡張生成(RAG)
        • ハイブリッド検索
        • Rerank
        • リトリーバルモード
      • プロンプトエンジニアリング
      • DifyでJSONスキーマ出力を使用する方法
    • FAQ
      • ローカルデプロイに関するFAQ
      • LLM設定と使用に関するFAQ
      • プラグイン
  • ポリシー
    • オープンソースライセンス
    • ユーザ規約
      • 利用規約
      • プライバシーポリシー
      • 合規性レポートの入手方法
Powered by GitBook
On this page
  • 概要
  • プライベートデプロイメントの利点:
  • 前提条件
  • ハードウェア要件:
  • ソフトウェア要件:
  • デプロイ手順
  • 1. Ollama のインストール
  • 2. Dify Community Edition のインストール
  • 3. DeepSeek と Dify の統合
  • AI アプリケーションの構築
  • DeepSeek AI チャットボット(シンプルなアプリケーション)
  • DeepSeek AI チャットフロー/ワークフロー(高度なアプリケーション)
  • FAQ
  • 1. Docker 使用時の接続エラー
  • 2. Ollama サービスのポートとアドレスを変更する方法
  1. もっと読む
  2. 活用事例

Ollama + DeepSeek + Dify のプライベートデプロイ:あなた自身のAIアシスタントの構築方法

PreviousDeepSeek & Dify連携ガイド:多段階推論を活用したAIアプリケーション構築Nextあなた専用のQAチャットボットのトレーニング方法

Last updated 4 months ago

概要

DeepSeekは、革新的なオープンソースの大規模言語モデル(LLM)であり、高度なアルゴリズムアーキテクチャと内省的な推論能力によって、AIを活用した会話に新たな体験をもたらします。プライベート環境にデプロイすることで、データセキュリティとシステム構成を完全に制御しながら、デプロイ戦略の柔軟性を維持できます。

Difyは、オープンソースのAIアプリケーション開発プラットフォームであり、完全なプライベートデプロイメントソリューションを提供します。ローカルにデプロイしたDeepSeekモデルをDifyプラットフォームにシームレスに統合することで、企業はデータプライバシーを確保しつつ、独自のインフラストラクチャ内で強力なAIアプリケーションを構築できます。

プライベートデプロイメントの利点:

  • 優れたパフォーマンス: 商用モデルに匹敵する会話体験を提供します。

  • 隔離された環境: 完全にオフラインで動作し、データ漏洩のリスクを排除します。

  • 完全なデータ制御: データ資産の完全な所有権を保持し、コンプライアンスを確保できます。


前提条件

ハードウェア要件:

  • CPU: 2コア以上

  • RAM/GPUメモリ: 16GiB以上(推奨)

ソフトウェア要件:

  • Docker Compose


デプロイ手順

1. Ollama のインストール

➜  ~ ollama -v
ollama version is 0.5.5

利用可能なハードウェアに基づいて、適切なDeepSeekモデルサイズを選択してください。最初のインストールには7Bモデルを推奨します。

次のコマンドを実行して、DeepSeek R1モデルをインストールします。

ollama run deepseek-r1:7b

2. Dify Community Edition のインストール

Dify GitHubリポジトリをクローンし、インストール手順に従います。

git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d  # Docker Compose V1 を使用している場合は、`docker-compose up -d` を使用してください

Dify Community Editionは、デフォルトでポート80で実行されます。プライベートなDifyプラットフォームには、http://your_server_ip でアクセスできます。

3. DeepSeek と Dify の統合

Difyプラットフォームの Profile → Settings → Model Providers に移動します。Ollama を選択し、Add Model をクリックします。

注:Model Providers の「DeepSeek」オプションはオンラインAPIサービスを指しますが、OllamaオプションはローカルにデプロイされたDeepSeekモデルに使用します。

AI アプリケーションの構築

DeepSeek AI チャットボット(シンプルなアプリケーション)

  1. Difyホームページで、Create Blank App をクリックし、Chatbot を選択して名前を付けます。

  1. Model Provider セクションで、Ollama の下にある deepseek-r1:7b モデルを選択します。

  1. チャットプレビューにメッセージを入力して、モデルの応答を確認します。正しく応答すれば、チャットボットはオンラインになります。

  1. Publish ボタンをクリックして、共有可能なリンクを取得するか、チャットボットを他のWebサイトに埋め込みます。

DeepSeek AI チャットフロー/ワークフロー(高度なアプリケーション)

  1. Create Blank App をクリックし、Chatflow または Workflow を選択して、アプリケーションに名前を付けます。

  1. LLMノードを追加し、Ollamaフレームワークの下にあるdeepseek-r1:7bモデルを選択し、{{#sys.query#}}変数をシステムプロンプトに挿入して、最初のノードに接続します。APIの問題が発生した場合は、ロードバランシングまたはエラー処理ノードを使用して処理できます。

  1. Endノードを追加して構成を完了します。クエリを入力してワークフローをテストします。応答が正しければ、セットアップは完了です。

FAQ

1. Docker 使用時の接続エラー

Docker内でDifyとOllamaを実行すると、次のエラーが発生する場合があります。

httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat
(Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>:
fail to establish a new connection:[Errno 111] Connection refused'))

原因:

localhost はコンテナ自体を指すため、Ollama は Docker コンテナ内からアクセスできません。

解決策:

Mac での環境変数の設定:

Ollama が macOS アプリケーションとして実行されている場合、環境変数は launchctl を使用して設定する必要があります。

  1. 各環境変数に対して、launchctl setenv を呼び出します。

    launchctl setenv OLLAMA_HOST "0.0.0.0"
  2. Ollama アプリケーションを再起動します。

  3. 上記の手順が効果がない場合は、次の方法を試してください。

    問題は Docker 自体にあり、Docker ホストにアクセスする必要があります。host.docker.internal に接続する必要があります。したがって、サービス内で localhost を host.docker.internal に置き換えると、正常に動作します。

    http://host.docker.internal:11434

Linuxでの環境変数の設定:

Ollama が systemd サービスとして実行されている場合、環境変数は systemctl を使用して設定する必要があります。

  1. systemctl edit ollama.service を呼び出して、systemd サービスを編集します。これにより、エディターが開きます。

  2. 各環境変数に対して、[Service] セクションの下に Environment 行を追加します。

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
  3. 保存して終了します。

  4. systemd をリロードし、Ollama を再起動します。

    systemctl daemon-reload
    systemctl restart ollama

Windows での環境変数の設定:

Windows では、Ollama はユーザーとシステムの環境変数を継承します。

  1. まず、タスクバーで Ollama をクリックして終了します。

  2. コントロールパネルからシステムの環境変数を編集します。

  3. OLLAMA_HOST、OLLAMA_MODELS などのユーザーアカウントの新しい変数を作成または編集します。

  4. [OK]/[適用] をクリックして保存します。

  5. 新しいターミナルウィンドウから ollama を実行します。

2. Ollama サービスのポートとアドレスを変更する方法

Ollama はデフォルトで 127.0.0.1 のポート 11434 にバインドされています。OLLAMA_HOST 環境変数を使用して、バインドアドレスを変更します。

は、DeepSeek、Llama、Mistralなどの大規模言語モデルをシームレスにデプロイできるクロスプラットフォームのLLM管理クライアント(MacOS、Windows、Linux)です。Ollamaは、ワンクリックでモデルをデプロイできるソリューションを提供し、すべてのデータがローカルに保存されるため、セキュリティとプライバシーが完全に保護されます。

にアクセスし、お使いのプラットフォームのインストール手順に従ってください。インストール後、次のコマンドを実行して検証します。

コマンドを実行すると、すべてのコンテナが適切なポートマッピングで実行されていることを確認できるはずです。詳細な手順については、を参照してください。

モデルを構成します。 • モデル名:デプロイしたモデル名(例:deepseek-r1:7b)を入力します。 • ベースURL:OllamaクライアントのローカルサービスURL(通常は http://your_server_ip:11434)を設定します。 接続問題が発生した場合は、をご参照ください。 • その他の設定:デフォルト値を保持します。によると、最大トークン長は32,768です。

チャットフロー/ワークフローアプリケーションを使用すると、ドキュメント認識、画像処理、音声認識などのより複雑なAIソリューションを作成できます。詳細については、をご覧ください。

LLMノードを追加し、Ollama の下にある deepseek-r1:7b モデルを選択し、{{#sys.query#}} 変数をシステムプロンプトに使用して、最初のノードに接続します。APIの問題が発生した場合は、またはノードを使用して処理できます。

Docker
Ollama
Dify Community Edition
Ollama
Ollamaの公式サイト
Docker Composeでのデプロイ
よくある質問
DeepSeekモデルの仕様
ワークフローのドキュメント
ロードバランシング
エラー処理