Ollama在Docker下的安装与配置详细教程
作者:goomind
这篇文章主要介绍了如何通过Docker拉取Ollama镜像并运行,包括可视化界面和命令行两种方式,文中通过图文介绍的非常详细,需要的朋友可以参考下
一、拉取 Ollama 镜像
方式一:Docker 软件在可视化界面中搜索并下载
方式二:官网推荐直接使用下面的指令拉取下载镜像,本项目只需在CPU上即可运行。
# CPU 或者 Nvidia GPU docker pull ollama/ollama # AMD GPU docker pull ollama/ollama:rocm
注:如果读者想要使用具体的版本的镜像,明确运行环境,可以使用下面的指令:
# CPU 或 Nvidia GPU下载ollama 0.3.0 docker pull ollama/ollama:0.3.0 # AMD GPU下载ollama 0.3.0 docker pull ollama/ollama:0.3.0-rocm
二、运行ollama镜像
方式一:Docker在可视化界面中运行镜像
- 下载完成后,可以在
Images
中找到Ollama
镜像,点击run
标识即可运行,注意运行前在弹出的可选设置里面,选定一个端口号(如8089)。
- 在
Containers
中找到该镜像,点击OLLM
即可进入 Ollama 界面
- 验证安装完成,在
Exec
处输入:
ollama -h
输出如下:即表示安装成功🎉
Large language model runner Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command Flags: -h, --help help for ollama -v, --version Show version information
- 终端使用 Ollama :
以下是 Ollama 使用常见的指令:
ollama serve #启动ollama ollama create #从模型文件创建模型 ollama show #显示模型信息 ollama run #运行模型 ollama pull #从注册表中拉取模型 ollama push #将模型推送到注册表 ollama list #列出模型 ollama cp #复制模型 ollama rm #删除模型 ollama help #获取有关任何命令的帮助信息
ollama run llama3
下载速度取决于你的带宽,下载完毕即可使用✌记得使用
control + D
退出聊天
方式二:命令行启动
- CPU 版本:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
总结
到此这篇关于Ollama在Docker下的安装与配置的文章就介绍到这了,更多相关Ollama在Docker下安装与配置内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!