接口方法
这里介绍供应商和各模型类型需要实现的接口方法和参数说明。
供应商
继承 __base.model_provider.ModelProvider 基类,实现以下接口:
def validate_provider_credentials(self, credentials: dict) -> None:
"""
Validate provider credentials
You can choose any validate_credentials method of model type or implement validate method by yourself,
such as: get model list api
if validate failed, raise exception
:param credentials: provider credentials, credentials form defined in `provider_credential_schema`.
"""credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema定义,传入如:api_key等。
验证失败请抛出 errors.validate.CredentialsValidateFailedError 错误。
注:预定义模型需完整实现该接口,自定义模型供应商只需要如下简单实现即可
class XinferenceProvider(Provider):
def validate_provider_credentials(self, credentials: dict) -> None:
pass模型
模型分为 5 种不同的模型类型,不同模型类型继承的基类不同,需要实现的方法也不同。
通用接口
所有模型均需要统一实现下面 2 个方法:
模型凭据校验
与供应商凭据校验类似,这里针对单个模型进行校验。
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。
验证失败请抛出
errors.validate.CredentialsValidateFailedError错误。调用异常错误映射表
当模型调用异常时需要映射到 Runtime 指定的
InvokeError类型,方便 Dify 针对不同错误做不同后续处理。Runtime Errors:
InvokeConnectionError调用连接错误InvokeServerUnavailableError调用服务方不可用InvokeRateLimitError调用达到限额InvokeAuthorizationError调用鉴权失败InvokeBadRequestError调用传参有误
也可以直接抛出对应 Errors,并做如下定义,这样在之后的调用中可以直接抛出
InvokeConnectionError等异常。
可参考 OpenAI _invoke_error_mapping。
LLM
继承 __base.large_language_model.LargeLanguageModel 基类,实现以下接口:
LLM 调用
实现 LLM 调用的核心方法,可同时支持流式和同步返回。
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。prompt_messages(array[PromptMessage]) Prompt 列表若模型为
Completion类型,则列表只需要传入一个 UserPromptMessage 元素即可;若模型为
Chat类型,需要根据消息不同传入 SystemPromptMessage, UserPromptMessage, AssistantPromptMessage, ToolPromptMessage 元素列表model_parameters(object) 模型参数模型参数由模型 YAML 配置的
parameter_rules定义。tools(array[PromptMessageTool]) [optional] 工具列表,等同于function calling中的function。即传入 tool calling 的工具列表。
stop(array[string]) [optional] 停止序列模型返回将在停止序列定义的字符串之前停止输出。
stream(bool) 是否流式输出,默认 True流式输出返回 Generator[LLMResultChunk],非流式输出返回 LLMResult。
user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回
流式输出返回 Generator[LLMResultChunk],非流式输出返回 LLMResult。
预计算输入 tokens
若模型未提供预计算 tokens 接口,可直接返回 0。
参数说明见上述
LLM 调用。该接口需要根据对应
model选择合适的tokenizer进行计算,如果对应模型没有提供tokenizer,可以使用AIModel基类中的_get_num_tokens_by_gpt2(text: str)方法进行计算。获取自定义模型规则 [可选]
当供应商支持增加自定义 LLM 时,可实现此方法让自定义模型可获取模型规则,默认返回 None。
对于OpenAI供应商下的大部分微调模型,可以通过其微调模型名称获取到其基类模型,如gpt-3.5-turbo-1106,然后返回基类模型的预定义参数规则,参考openai 的具体实现
TextEmbedding
继承 __base.text_embedding_model.TextEmbeddingModel 基类,实现以下接口:
Embedding 调用
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。texts(array[string]) 文本列表,可批量处理user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回:
预计算 tokens
参数说明见上述
Embedding 调用。同上述
LargeLanguageModel,该接口需要根据对应model选择合适的tokenizer进行计算,如果对应模型没有提供tokenizer,可以使用AIModel基类中的_get_num_tokens_by_gpt2(text: str)方法进行计算。
Rerank
继承 __base.rerank_model.RerankModel 基类,实现以下接口:
rerank 调用
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。query(string) 查询请求内容docs(array[string]) 需要重排的分段列表score_threshold(float) [optional] Score 阈值top_n(int) [optional] 取前 n 个分段user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回:
RerankResult 实体。
Speech2text
继承 __base.speech2text_model.Speech2TextModel 基类,实现以下接口:
Invoke 调用
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。file(File) 文件流user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回:
语音转换后的字符串。
Text2speech
继承 __base.text2speech_model.Text2SpeechModel 基类,实现以下接口:
Invoke 调用
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。content_text(string) 需要转换的文本内容streaming(bool) 是否进行流式输出user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回:
文本转换后的语音流。
Moderation
继承 __base.moderation_model.ModerationModel 基类,实现以下接口:
Invoke 调用
参数:
model(string) 模型名称credentials(object) 凭据信息凭据信息的参数由供应商 YAML 配置文件的
provider_credential_schema或model_credential_schema定义,传入如:api_key等。text(string) 文本内容user(string) [optional] 用户的唯一标识符可以帮助供应商监控和检测滥用行为。
返回:
False 代表传入的文本安全,True 则反之。
实体
PromptMessageRole
消息角色
PromptMessageContentType
消息内容类型,分为纯文本和图片。
PromptMessageContent
消息内容基类,仅作为参数声明用,不可初始化。
当前支持文本和图片两种类型,可支持同时传入文本和多图。
需要分别初始化 TextPromptMessageContent 和 ImagePromptMessageContent 传入。
TextPromptMessageContent
若传入图文,其中文字需要构造此实体作为 content 列表中的一部分。
ImagePromptMessageContent
若传入图文,其中图片需要构造此实体作为 content 列表中的一部分
data 可以为 url 或者图片 base64 加密后的字符串。
PromptMessage
所有 Role 消息体的基类,仅作为参数声明用,不可初始化。
UserPromptMessage
UserMessage 消息体,代表用户消息。
AssistantPromptMessage
代表模型返回消息,通常用于 few-shots 或聊天历史传入。
其中 tool_calls 为调用模型传入 tools 后,由模型返回的 tool call 列表。
SystemPromptMessage
代表系统消息,通常用于设定给模型的系统指令。
ToolPromptMessage
代表工具消息,用于工具执行后将结果交给模型进行下一步计划。
基类的 content 传入工具执行结果。
PromptMessageTool
LLMResult
LLMResultChunkDelta
流式返回中每个迭代内部 delta 实体
LLMResultChunk
流式返回中每个迭代实体
LLMUsage
TextEmbeddingResult
EmbeddingUsage
RerankResult
RerankDocument
Last updated