本地部署免费AI大模型+知识库

利用Ollama部署本地大模型

一:终端实现与大模型对话
1.去Ollama官网下载

https://ollama.com/download

在这里插入图片描述
2.下载之后按照提示一步步安装即可
在这里插入图片描述

3.Win+R, 输入cmd,打开命令行提示符

请添加图片描述

输入:ollama run llama3运行大模型

在这里插入图片描述

4.使用其他开源大模型,比如qwen2

请添加图片描述

请添加图片描述
请添加图片描述
命令:ollama run qwen2

在这里插入图片描述
管理ollama

ollama list

删除模型

ollama rm+模型名字

在这里插入图片描述

如何结束在终端与大模型的对话?
1.Ctrl+D
2.直接输入“bye”

二:Open WebUI中与大模型对话

1.下载Docker
在这里插入图片描述
2.命令行中运行命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

在这里插入图片描述
在这里插入图片描述
如果出现了上述错误“unknown flag: --add See ‘docker run --help’.”,这种情况,需要检查下输入的语句是否正确!

正常运行的状态,时间会有点久……大概几分钟,因为需要远程下载个包

成功后回自动弹出浏览器页面,如果没有弹出,你可以手动在搜索栏输入“localhost:3000",跳转进入页面或者进入docker中点击跳转链接
在这里插入图片描述

在这里插入图片描述
创建账号,登录
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结:
使用效果:【生成答案速度太慢,基本答非所问,体验感不太行……】
学习链接:https://www.bilibili.com/video/BV1zZ421T7Ep/spm_id_from=autoNext&vd_source=20a76bd7aa0358839f0334c33018daa6

本地部署知识库MaxKB

前面我们已经下载安装好了Docker,所以只需要在命令行中输入以下命令:

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb

在这里插入图片描述
MaxKB部署:https://github.com/1panel-dev/MaxKB?tab=readme-ov-file

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb

# 用户名: admin
# 密码: MaxKB@123..

Docker中点击链接或者浏览器输入“`localhost:8080”进入页面,输入账号和密码
在这里插入图片描述
在这里插入图片描述

添加模型:

点击系统设置-选择模型设置-添加模型-ollama[进行具体设置]
在这里插入图片描述

如果API域名无法设置,改成这个http://host.docker.internal:11434/,即可添加模型
在这里插入图片描述

添加应用:

点击应用-创建应用-
在这里插入图片描述在这里插入图片描述

添加知识库

在这里插入图片描述

将应用与知识库进行链接

在这里插入图片描述

学习链接:
https://www.bilibili.com/video/BV1bU411Z7eo/spm_id_from=333.788.recommend_more_video.30&vd_source=20a76bd7aa0358839f0334c33018daa6

上一篇:OpenResty