Dify
日本語
日本語
  • 入門
    • Difyへようこそ
      • 特性と技術仕様
      • モデルプロバイダーリスト
    • クラウドサービス
    • コミュニティ版
      • Docker Compose デプロイ
      • ローカルソースコードで起動
      • aaPanelでのデプロイ方法
      • フロントエンドDockerコンテナを単独起動
      • 環境変数の説明
      • よくある質問
    • Dify Premium
    • Dify 教育版
  • マニュアル
    • モデル
      • 新しいプロバイダーの追加
      • 事前定義されたモデルの追加
      • カスタムモデルの追加
      • インタフェース
      • 配置ルール
      • 負荷分散
    • アプリ・オーケストレーション
      • アプリの作成
      • チャットボット
        • 複数モデルのデバッグ
      • エージェント
      • ツールキット
        • コンテンツモデレーション
    • ワークフロー
      • キーコンセプト
      • 変数
      • ノードの説明
        • 開始
        • 終了
        • 回答
        • LLM
        • 知識検索
        • 質問分類
        • 条件分岐
        • コード実行
        • テンプレート
        • テキスト抽出ツール
        • リスト処理
        • 変数集約
        • 変数代入
        • 反復処理(イテレーション)
        • パラメータ抽出
        • HTTPリクエスト
        • エージェント
        • ツール
        • 繰り返し処理(ループ)
      • ショートカットキー
      • オーケストレートノード
      • ファイルアップロード
      • エラー処理
        • 事前定義されたエラー処理ロジック
        • エラータイプの概要
      • 追加機能
      • プレビューとデバッグ
        • プレビューと実行
        • ステップ実行
        • 対話/実行ログ
        • チェックリスト
        • 実行履歴
      • アプリケーション公開
      • JSON形式での出力
      • 変更通知:画像アップロード機能がファイルアップロード機能に統合されました
    • ナレッジベース
      • ナレッジベース作成
        • 1. オンラインデータソースの活用
          • 1.1 Notion からデータをインポート
          • 1.2 Webサイトからデータをインポート
        • 2. チャンクモードの指定
        • 3. インデックス方式と検索オプションの設定
      • ナレッジベースの管理
        • ナレッジベース内ドキュメントの管理
        • APIを活用したナレッジベースのメンテナンス
      • メタデータ
      • アプリ内でのナレッジベース統合
      • リコールテスト/引用帰属
      • ナレッジベースの要求頻度制限
      • 外部ナレッジベースとの接続
      • 外部ナレッジベースAPI
    • ツール
      • クイック統合ツール
      • 高度統合ツール
      • ツールの設定
        • Google
        • Bing
        • SearchApi
        • StableDiffusion
        • Perplexity Search
        • AlphaVantage 株式分析
        • Dall-e
        • Youtube
        • Serper
        • SearXNG
        • SiliconFlow(Flux AI サポート)
        • ComfyUI
    • アプリ公開
      • シングルページWebアプリとして公開
        • Web アプリの設定
        • テキスト生成アプリ
        • 対話型アプリ
      • Webサイトへの埋め込み
      • API基づく開発
      • フロントエンドテンプレートに基づいた再開発
    • アノテーション
      • ログとアノテーション
      • アノテーション返信
    • モニタリング
      • データ分析
      • 外部Opsツール統合
        • LangSmithを統合
        • LangFuseを統合
        • Opikを統合
    • 拡張
      • API 拡張
        • Cloudflare Workers を使用した API ツールのデプロイ
        • コンテンツモデレーション
      • コード拡張
        • 外部データツール
        • コンテンツモデレーション
    • コラボレーション
      • 発見
      • メンバーの招待と管理
    • 管理
      • アプリの管理
      • チームメンバーの管理
      • 個人アカウントの管理
      • サブスクリプション管理
      • バージョン管理
  • ハンドオン工房
    • 初級編
      • ゼロからAI画像生成アプリの構築方法
      • AIエージェントの実践:個人のオンライン旅行アシスタントの構築方法
    • 中級編
      • チャットストリームエージェントを使用した Twitter アカウントの分析方法
      • ファイルアップロードを使用した記事理解アシスタントの構築方法
  • コミュニティ
    • サポートの求め
    • 貢献者ガイド
    • ドキュメントへの貢献
  • プラグイン
    • 機能紹介
    • クイックスタート
      • プラグインのインストールと活用
      • プラグイン開発の入門
        • 開発環境のセットアップ
        • ツール型プラグイン
        • モデル型プラグイン
          • モデルプロバイダーの構築
          • 定義済みモデルの組み込み
          • カスタムモデルの組み込み
        • エージェント戦略プラグイン
        • 拡張機能型プラグイン
        • バンドル
      • プラグインのデバッグ方法
    • プラグイン管理方法
    • スキーマ仕様
      • Manifest(マニフェスト)
      • Endpoint(エンドポイント)
      • Tool(ツール)
      • Agent(エージェント)
      • Model(モデル)
        • モデル設計規則
        • モデルスキーマ
      • 一般的な標準仕様
      • 永続化されたストレージ
      • Difyサービスの逆呼び出し
        • アプリ
        • モデル
        • ツール
        • ノード
    • ベストプラクティス
      • Slack Bot プラグインの開発
      • Dify MCP プラグインガイド:ワンクリックで Zapier に接続してメールを自動送信
    • プラグインの公開
      • プラグインの自動公開
      • Difyマーケットプレイスへの公開
        • プラグイン開発者ガイドライン
        • プラグインのプライバシー保護に関するガイドライン
      • 個人GitHubリポジトリへの公開
      • ローカルでの公開と共有
      • 第三者署名検証のためにプラグインに署名する
    • よくある質問
  • 開発
    • バックエンド
      • DifySandbox
        • 貢献ガイド
    • モデルの統合
      • Hugging Faceのオープンソースモデルを統合
      • Replicateのオープンソースモデルを統合
      • Xinferenceでデプロイしたローカルモデルを統合
      • OpenLLMでデプロイしたローカルモデルを統合
      • LocalAIでデプロイしたローカルモデルを統合
      • Ollamaでデプロイしたローカルモデルを統合
      • LiteLLM Proxyを使用してモデルを統合する
      • GPUStackとの統合によるローカルモデルのデプロイ
      • AWS Bedrock上のモデル(DeepSeek)の接続
    • 移行
      • コミュニティ版を v1.0.0 に移行する
  • もっと読む
    • 活用事例
      • DeepSeek & Dify連携ガイド:多段階推論を活用したAIアプリケーション構築
      • Ollama + DeepSeek + Dify のプライベートデプロイ:あなた自身のAIアシスタントの構築方法
      • あなた専用のQAチャットボットのトレーニング方法
      • コードなしでMidjourney プロンプトボットを作成する方法
      • Notion AI アシスタントを構築する
      • 数分で業務データを持つ公式サイトのAIチャットボットを作成する方法
      • DifyチャットボットをWixサイトに統合する方法
      • AWS Bedrockのナレッジベースに統合する方法
      • Difyで大規模言語モデルの「競技場」を体験する方法:DeepSeek R1 VS o1 を例に
      • Difyスケジューラーの構築
      • DifyクラウドでAI Thesis Slack Botを構築
    • さらに読む
      • LLMOpsとは何ですか?
      • 配列変数とは何ですか?
      • 検索拡張生成(RAG)
        • ハイブリッド検索
        • Rerank
        • リトリーバルモード
      • プロンプトエンジニアリング
      • DifyでJSONスキーマ出力を使用する方法
    • FAQ
      • ローカルデプロイに関するFAQ
      • LLM設定と使用に関するFAQ
      • プラグイン
  • ポリシー
    • オープンソースライセンス
    • ユーザ規約
      • 利用規約
      • プライバシーポリシー
      • 合規性レポートの入手方法
Powered by GitBook
On this page
  • 1 LangSmithとは
  • 2 LangSmithの使い方
  • LangSmithでのモニタリングデータの表示
  • モニタリングデータリスト
  1. マニュアル
  2. モニタリング
  3. 外部Opsツール統合

LangSmithを統合

Previous外部Opsツール統合NextLangFuseを統合

Last updated 7 months ago

1 LangSmithとは

LangSmithはLLMアプリケーションの開発、コラボレーション、テスト、デプロイ、監視などのツールを提供するプラットフォームです。

LangSmithの公式サイト:


2 LangSmithの使い方

1. LangSmithのから登録し、ログインする。

2. LangSmithからプロジェクトを作成します

ログイン後、ホームページの New Project をクリックし、新たなプロジェクトを作成します。このプロジェクトは、Dify内のアプリと連動したデータモニタリングに使用されます。

作成する後、プロジェクトの中にチェクできます。

3. プロジェクト認証情報の作成

左のサイドバーでプロジェクト 設定 を見つける。

Create API Keyをクリックし,新たな認証情報を作ります。

Personal Access Token を選び,のちほとのAPI身分証明の時使えます。

新たなAPI keyをコピーし、保存します。

4. Dify アプリの中に LangSmith を設定します

監視用のアプリのサイトメニューの監視ボタンをクリックし,設定をクリックします。

それから,LangSmith から作った API Key とプロジェクト名を設定の中に貼り付け、保存します。

設定したプロジェクト名は LangSmith のいるプロジェクト名と必ず一致します。一致しない場合、データの同期時に LangSmith は自動的に新しいプロジェクトを作成します。

保存に成功すると、現在のページで監視状態を見ることができます。

LangSmithでのモニタリングデータの表示

Dify内のアプリケーションからデバッグや製品データを設定することで、LangSmithにてそのデータをモニタリングすることができます。

LangSmithに切り替えると、ダッシュボード上でDifyアプリケーションの詳細な操作ログを見ることができます。

LangSmithを通じて得られる詳細な大規模言語モデル(LLM)の操作ログは、Difyアプリケーションのパフォーマンスを最適化するために役立ちます。

モニタリングデータリスト

ワークフロー/チャットフローのトレース情報

ワークフローやチャットフローを追跡するために使用されます。

ワークフロー
LangSmith Chain

workflow_app_log_id/workflow_run_id

ID

user_session_id

- メタデータに配置

workflow_{id}

名前

start_time

開始時間

end_time

終了時間

inputs

入力

outputs

出力

モデルトークン消費

使用メタデータ

metadata

追加情報

エラー

エラー

[workflow]

タグ

"conversation_id/none for workflow"

メタデータ内のconversation_id

conversion_id

親実行ID

ワークフロートレース情報

  • workflow_id:ワークフローの固有識別子

  • conversation_id:会話ID

  • workflow_run_id:現在の実行ID

  • tenant_id:テナントID

  • elapsed_time:現在の実行にかかった時間

  • status:実行ステータス

  • version:ワークフローのバージョン

  • total_tokens:現在の実行で使用されるトークンの合計数

  • file_list:処理されたファイルのリスト

  • triggered_from:現在の実行を引き起こしたソース

  • workflow_run_inputs:現在の実行の入力データ

  • workflow_run_outputs:現在の実行の出力データ

  • error:現在の実行中に発生したエラー

  • query:実行中に使用されたクエリ

  • workflow_app_log_id:ワークフローアプリケーションログID

  • message_id:関連メッセージID

  • start_time:実行の開始時間

  • end_time:実行の終了時間

  • workflow node executions:ワークフローノード実行に関する情報

  • メタデータ

    • workflow_id:ワークフローの固有識別子

    • conversation_id:会話ID

    • workflow_run_id:現在の実行ID

    • tenant_id:テナントID

    • elapsed_time:現在の実行にかかった時間

    • status:実行ステータス

    • version:ワークフローのバージョン

    • total_tokens:現在の実行で使用されるトークンの合計数

    • file_list:処理されたファイルのリスト

    • triggered_from:現在の実行を引き起こしたソース

メッセージトレース情報

大規模言語モデル(LLM)関連の会話を追跡するために使用されます。

チャット
LangSmith LLM

message_id

ID

user_session_id

- メタデータに配置

“message_{id}"

名前

start_time

開始時間

end_time

終了時間

inputs

入力

outputs

出力

モデルトークン消費

使用メタデータ

metadata

追加情報

エラー

エラー

["message", conversation_mode]

タグ

conversation_id

メタデータ内のconversation_id

conversion_id

親実行ID

メッセージトレース情報

  • message_id:メッセージID

  • message_data:メッセージデータ

  • user_session_id:ユーザーセッションID

  • conversation_model:会話モード

  • message_tokens:メッセージ中のトークン数

  • answer_tokens:回答のトークン数

  • total_tokens:メッセージと回答の合計トークン数

  • error:エラー情報

  • inputs:入力データ

  • outputs:出力データ

  • file_list:処理されたファイルのリスト

  • start_time:開始時間

  • end_time:終了時間

  • message_file_data:メッセージに関連付けられたファイルデータ

  • conversation_mode:会話モード

  • メタデータ

    • conversation_id:会話ID

    • ls_provider:モデルプロバイダ

    • ls_model_name:モデルID

    • status:メッセージステータス

    • from_end_user_id:送信ユーザーのID

    • from_account_id:送信アカウントのID

    • agent_based:メッセージがエージェントベースかどうか

    • workflow_run_id:ワークフロー実行ID

    • from_source:メッセージのソース

モデレーショントレース情報

会話のモデレーションを追跡するために使用されます。

モデレーション
LangSmith Tool

user_id

- メタデータに配置

“moderation"

名前

start_time

開始時間

end_time

終了時間

inputs

入力

outputs

出力

metadata

追加情報

[moderation]

タグ

message_id

親実行ID

モデレーショントレース情報

  • message_id:メッセージID

  • user_id:ユーザーID

  • workflow_app_log_id:ワークフローアプリケーションログID

  • inputs:モデレーションの入力データ

  • message_data:メッセージデータ

  • flagged:コンテンツに注意が必要かどうか

  • action:実行された具体的なアクション

  • preset_response:プリセット応答

  • start_time:モデレーション開始時間

  • end_time:モデレーション終了時間

  • メタデータ

    • message_id:メッセージID

    • action:実行された具体的なアクション

    • preset_response:プリセット応答

提案された質問トレース情報

提案された質問を追跡するために使用されます。

https://www.langchain.com/langsmith
公式サイト
新たなプロジェクトを作成します。
LangSmithの中にプロジェクトをチェクします。
プロジェクトを設定し
プロジェクトのAPI Keyを作ります。
Personal Access Tokenを選択します
新たなAPI keyをコピーします
LangSmithを設定します
LangSmithを設定します。
監視状態を見る
Difyにおけるアプリケーションのデバッグ
LangSmithでのアプリケーションデータの表示
LangSmithでのアプリケーションデータの表示