步骤

Step1. 下载ollama(根据平台选择)

https://ollama.com/download
在这里插入图片描述
下载后将软件安装,解压后拷贝到应用程序:
在这里插入图片描述
安装用户态命令:(点击install)
在这里插入图片描述

Step2:下载模型文件

支持的模型列表:https://ollama.com/library
比如llama3:
在这里插入图片描述
安装步骤:命令行直接安装

ollama pull llama3

实操:
在这里插入图片描述

这里需要耗费一些时间,具体根据网络和模型大小确定,模型大小参考:

Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Mistral 7B 4.1GB ollama run mistral
Dolphin Phi 2.7B 1.6GB ollama run dolphin-phi
Phi-2 2.7B 1.7GB ollama run phi
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Orca Mini 3B 1.9GB ollama run orca-mini
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar

官方的参考资源:
8 GB 内存跑 7B models
16 GB to run the 13B models
32 GB to run the 33B models
比如M1有16G内存,可以跑7B的模型。

Step:运行模型

ollama run llama3

实操:(在M1的笔记本大概是s级别的,其他比如intel笔记本可能需要十几秒,M3等笔记本应该非常快)
并且测试的时候可以尝试关闭网络。
比如让他回答一个 gcc编译的问题:
gcc
再来一个:“python如何使用list,举一个实际的例子”
py

Step:退出聊天

Ctrl + d 或者 /bye退出聊天

上一篇:白杨SEO:2024年短视频怎么做?转型做抖音、快手、视频号等短视频流量难吗?怎么做更好?


下一篇:百度网盘svip白嫖永久手机2024最新教程