Featured image of post 手把手教学:用Docker3分钟安装本地ollama3

手把手教学:用Docker3分钟安装本地ollama3

背景:

随着AI和LLM大模型的发展和成熟,在本机运行大模型已经比较普及,今天我们主要是用Docker来安装ollama前端并且调用ollama3模型。

安装ollama和下载模型

这个比较基础,也可以参考我的另一篇博客

打开https://www.ollama.com/download,下载适合你系统的安装包,安装ollama

安装时,会提示你要下载那个模型,我们可以进入到https://www.ollama.com/library,查看所有可用的模型,这次我们选择ollama3 8B模型,这个模型大小适中,推理和理解能力大概可以与GPT3.5持平,可以运行“ollama run llama3” 或者“ollama pull llama3”来下载模型。

安装OpenWebUI前端

OpenWebUI是一个通用的支持多种LLM的前端应用,可以帮组我们来调用LLM模型

这里有个注意点:就是我在本机安装的ollama和docker,而Open-WebUI是安装在Docker容器里的,所以我们需要注意网络联通性。由于ollama默认运行在11434端口,对于运行在Docker容器中的OpenWebUI来说,它需要访问一个它可以见的服务地址。

以我当前的安装为例,我的macOS的IP是192.168.2.10,我的Docker主机的地址是192.168.2.20, Docker容器需要访问到我macOS的11434端口,所以使用Docker命令安装OpenWebUI时需要指定Base URL:

docker run -d --network=myhome \
-p 3000:8080 \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://192.168.2.10:11434 \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:main

测试一下:

这样安装完之后就可以访问了

http://192.168.2.20:3000

首次登录时需要输入email地址sign up,这个地址不会真的给你发email,只是用于记录用户,所以你写任意的email都可以,不过密码得牢记,否则第二次就登不进去了。

登录之后,在页面的中间可以从下拉菜单选择需要的LLM模型,注意根据自己的需要和硬件的能力来选,对于无GPU的我来说,llama3 70b的资源需求量是太高,不过llama3 8b还是可以的

By 大可出奇迹