本地部署 AI 语言大模型
极简版教程,本机系统是 MacOS14,方法应该是通用的。
第一问,怎么跑模型?下载这个软件 Ollama ,全平台可用。
第二问,模型在哪找?打开 Ollama 就可以下主流的模型,或者去这个网站 Hugging Face
第三问,有没有更功能多样且更好看的 UI 界面?有的兄弟,有的。
这个稍微复杂一点,首先 UI 界面是这个开源项目 open-webui ,支持 docker 一键部署。
如果你像我一样之前不知道 docker 是什么,那么……先放 下载链接 ,然后科普一下,
这就是个小沙箱,类似于虚拟机,用于快速配置隔离开发环境,不会污染你的电脑环境。
接着复制 open-webui 上那个 computer 的指令(如下),打开终端粘贴(相信你一定会打开终端的)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
等它部署一会儿,然后用浏览器打开 http://127.0.0.1:3000/ ,就可以用啦
第四问,怎么调教AI模型呢?这个么,点那个“工作空间”,创建自定义模型,然后改一下系统提示词就好了。
下面是我折腾了一番折腾出的效果,用的是 8B 的模型,我电脑的 16GB 统一内存正好可以跑
对不起,看板娘(在那边👉),我们还是爱你的。