You need to enable JavaScript to run this app.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们

使用LangChain获取Ollama可用模型列表时遇导入报错,求正确实现方案

LangChain获取Ollama可用模型列表时遇导入报错,求正确实现方案

你遇到的导入错误是因为**Ollama类并不在根级的langchain模块中**,最新版本的LangChain已经把Ollama相关功能拆分到了独立的langchain-ollama包,旧版本则是放在langchain.llms.ollama子模块下。下面给你两种可行的解决方法:


方法一:使用LangChain官方推荐的langchain-ollama包(最新方案)

  1. 首先确保安装正确的依赖包:
pip install langchain-ollama
  1. 修改代码为正确的导入和调用方式:
from langchain_ollama import Ollama

# 初始化Ollama客户端
ollama_client = Ollama()
# 获取可用模型列表
model_list = ollama_client.list_models()

# 遍历打印模型详情
for model in model_list:
    print(f"Model Name: {model.name}, Version: {model.version}, Description: {model.description}")

方法二:直接调用Ollama的REST API(更轻量,无需LangChain)

如果只是单纯获取模型列表,完全可以不用依赖LangChain,直接调用Ollama本地运行的API接口:

import requests

# 调用Ollama默认的标签查询接口
response = requests.get("http://localhost:11434/api/tags")
model_data = response.json()

# 解析并打印模型信息
for model in model_data["models"]:
    print(f"Model Name: {model['name']}, Version: {model['version']}, Description: {model['details']['description']}")

这种方法不需要安装任何LangChain相关包,只要本地Ollama服务处于运行状态即可。


补充说明

如果你仍在使用较旧版本的LangChain(v0.1.x之前),可以尝试这种导入方式:

from langchain.llms.ollama import Ollama

但更推荐使用最新的langchain-ollama包,因为LangChain正在逐步将第三方集成拆分到独立包中,后续维护和更新会更高效。

备注:内容来源于stack exchange,提问作者Factor Three

火山引擎 最新活动