本文为您提供调用CheckLLMPrompt
判别大模型提示词是否合规的示例代码。实际使用时,您可以替换成 SDK 中已经支持的任意接口。
调用前,请确保已经完成Python 安装和初始化。
CheckLLMPrompt
相关参数的详细说明,可参考CheckLLMPrompt - 判别大模型提示词是否合规。
from __future__ import print_function import volcenginesdkcore import volcenginesdkwaf from volcenginesdkcore.rest import ApiException if __name__ == '__main__': configuration = volcenginesdkcore.Configuration() configuration.ak = "YOUR AK" # Access Key,用于身份验证 configuration.sk = "YOUR SK" # Secret Key,用于签名 configuration.region = "cn-beijing" # 大模型应用防火墙所属地域对应的 ID # 设置默认配置 volcenginesdkcore.Configuration.set_default(configuration) # 创建 WAF API 实例 api_instance = volcenginesdkwaf.WAFApi() # 创建内容检测请求对象 check_llm_prompt_request = volcenginesdkwaf.CheckLLMPromptRequest( content="请输入您想要校验的内容,文本内容或资源URL", # 需要检测的内容 content_type=1, # 内容类型: 1-文本, 2-音频, 3-图片 host="fd****.access.omni-shield.volces.com", # 大模型应用防火墙生成的接入点域名 msg_class=0, # 场景类型,当前默认为标准类型,填入 0 即可 region="cn-beijing", # 大模型应用防火墙所属地域对应的 ID ) try: # 复制代码运行示例,请自行打印API返回值。 data = api_instance.check_llm_prompt(check_llm_prompt_request) print("response:" , data ) except ApiException as e: # 复制代码运行示例,请自行打印API错误信息。 print("Exception when calling api: %s\n" % e) pass