最近更新时间:2024.04.10 10:20:03
首次发布时间:2024.04.10 10:20:03
LLM-API-Python 是边缘智能提供的,用于请求大语言模型服务的 API 代理模型。本模型基于 Python 框架构建,能够使用您提供的 API key 请求 GLM-4V 大模型服务。
您可以在边缘智能控制台的 官方模型 列表访问本模型。下图展示了本模型的基本信息。
本模型是 Python 格式的模型。
名称 | 类型 | 形状 |
---|---|---|
IMAGE | STRING | -1 |
输入说明:
名称 | 类型 | 形状 |
---|---|---|
RESPONSE_TEXT | STRING | -1 |
输出说明:
本模型提供 1 个可部署版本。
版本名称 | 最大批处理大小 | 硬件架构要求 | 其他说明 |
---|---|---|---|
v1 | 0 | 无 | 无 |
部署本模型前,您必须先从智谱AI开放平台获取您的 API key。
参考 部署模型服务进行模型服务的部署。在 部署模型服务 参数配置页面,修改以下配置:
说明
下表中未包含的配置项无需修改,统一使用默认值。
类型 | 配置项 | 说明 |
---|---|---|
基本信息 | 一体机 | 选择一台一体机。 |
服务名称 | 设置一个服务名称。服务名称在一台一体机上必须保持唯一。 | |
模型信息 | 模型 | 选择 LLM-API-Python。 |
模型版本 | 选择 v1。 | |
服务配置 | HTTP端口 | 指定一个一体机上空闲的端口。 |
GRPC端口 | 指定一个一体机上空闲的端口。 | |
高级配置 | 参数配置 | 修改以下示例代码,然后将修改后的代码粘贴到 参数配置 输入框。需要修改的字段包括:
|
完成模型服务部署后,您可以使用客户端脚本进行模型的调用。以下是 Client 脚本的示例。
import requests import base64 server = "<server_ip:port>" # 修改为模型服务的服务地址(可从模型服务详情中获取) img_path = "./img/cat.jpeg'" # 修改为要从本地计算机读取的图片地址 url = "http://%s/v2/models/m-official-28/infer" % server def request_glm_vl(): data = { "inputs": [ { "name": "IMAGE", "shape": [1], "datatype": "BYTES", "data": [ base64.b64encode(open(imgpath, 'rb').read()).decode('utf-8') ] } ] } response = requests.post(url, json=data) if response.status_code == 200: # 获取响应文本 response_text = response.json()["outputs"][0]["data"][0] print(f"Response: {response_text}") else: print(f"Error: {response.status_code} - {response.text}") request_glm_vl()