我正在用Python编写一个程序,我想连接GPT4ALL,以便该程序像GPT聊天一样工作,仅在我的编程环境中本地运行。为此,我已经安装了 GPT4All-13B-snoozy.ggmlv3.q4_0.bin 模型(以下是下载链接:https://huggingface.co/TheBloke/GPT4All-13B-snoozy-GGML/resolve/main/GPT4All-13B-snoozy.ggmlv3.q4_0.bin),我在本地有模型,位置:C:\Models\GPT4All-13B-snoozy.ggmlv3.q4_0.bin。据我了解,问题出在GPT4ALL的安装上。但我跑了pip install gpt4all在终端中输入命令,它会下载所有内容并且一切正常(它不会给出错误)。程序会看到模型,但在运行代码时会出现以下错误:
pip install gpt4all
Found model file at C:\\Models\\GPT4All-13B-snoozy.ggmlv3.q4_0.bin Unable to load the model: 1 validation error for GPT4All __root__ Unable to instantiate model (type=value_error) Invalid model file Process finished with exit code 0
我正在 PyCharm 中编写代码(如果很重要),langchain 库已安装并正在运行(其最新版本)。程序看到并找到了模型,但给出了此错误。我从这个网站下载了模型:https://gpt4all.io/index.html。 使用langchain官方文档进行连接。我不明白出了什么问题。
我尝试从同一站点下载其他模型 - 给出了相同的错误。还更改了模型的格式 - 不起作用。
None