部署接入 M3E和chatglm2-m3e文本向量模型-前言

FastGPT 默认使用了 openai 的 embedding 向量模型,如果你想私有部署的话,可以使用 M3E 向量模型进行替换。M3E 向量模型属于小模型,资源使用不高,CPU 也可以运行。下面教程是基于 “睡大觉” 同学提供的一个的镜像。

上一篇:第49期|GPTSecurity周报


下一篇:【软芯民用】水务大数据中心建设集成分析平台