Python访问本地deepseek示例【含deepseek本地部署】
作者:会长
本文实例讲述了Python访问本地deepseek功能。分享给大家供大家参考,具体如下:
需要下载的软件
- OllamaSetup.exe(Ollama是一个管理和运行大语言模型的开源工具)
- Hollama_0.25.1-win-x64.exe【可选】(Hollama是一个Ollama的可视化工具)
- python-3.13.1-amd64.exe
- VSCodeUserSetup-x64-1.96.4.exe【可选】
安装步骤
安装Ollama并运行模型DeepSeek
从官网下载相应的版本,这里使用的是Windows版本,双击执行安装文件默认会安装到C盘,可通过如下方式指定安装路径:OllamaSetup.exe /DIR=your path
安装完毕后运行Ollama.exe即可,可通过命令ollama help
查看参数。其中,应先了解以下参数:
- serve,用来启动ollama(windows上通过安装包安装的Ollama会开机自动启动,启动后可以在浏览器中查看,地址为:http://127.0.0.1:11434/)
- run 运行一个模型(初次运行,会自动下载模型)
- list 列出所有模型
- cp 列出正在运行的模型
- rm 删除模型
- help 帮助
安装完毕并启动Ollama后,可通过执行以下命令下载并运行DeepSeek:ollama run deepseek-r1:1.5b
更多模型请见 https://ollama.com/search, 我电脑配置低,故选的是1.5b。
如果一切正常,DeepSeek运行起来后是这样的:
这时候可以发一些文字并得到反馈了:
可输入/?
看到帮助信息
安装Hollama
Hollama也是一个开源软件,它和ollama的关系类似于Navicat和Mysql,有了它,就不用在黑糊糊的CMD下面和模型交互了,类似的软件有还有很多,请参见:https://github.com/ollama/ollama
运行起来的效果如下:
试用python调用
这里列出了可以调用Ollama服务的很多类库:https://github.com/ollama/ollama。 暂使用Python测试:
先安装模块:
pip install ollama
用VS Code编写代码如下:
import ollama if __name__ == '__main__': res = ollama.chat(model='deepseek-r1:1.5b', stream=False, messages=[{'role': 'user', 'content':'how are you'}]) print(res)
执行结果:
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。