【内网Tesla T4_16G为例】超详细部署安装ollama、加载uugf格式大模型qwen2、chatglm3及大模型的使用-前言

1. 因为是内网环境,所以文章中的安装过程,不贴实际安装过程的图片。

2. 因为是内网环境,所以所有的安装包都是先外网下载好,拷贝到内网执行的。下面所有安装包都是如此,不再赘述

3. 该服务器除系统盘60G之外,还有一个扩展盘100G,我们可以理解为windows电脑的D盘,我的所有安装包都会装在该盘,如果你只有一个盘,可以新建一个文件夹安装,不建议安装在系统盘的其他文件夹中

上一篇:【Linux】详解加锁实现线程互斥


下一篇:Web开发-LinuxGit基础3-本地-文件删除