Deepseek-R1本地部署过程
最近很多人都在研究本地大模型的部署,我也来踩个坑,其实部署方式很简单,本篇主要记录了本地部署和本地图形化UI工具的部署过程
访问https://ollama.com/download下载ollama
下载完成后进行默认安装,之后任务栏里会出现托盘图标
起一个新的CMD窗口看看是否已经自动配好了环境变量
接下来确定一下本地的GPU版本,可以用一些工具如GPU-z等,我用了MATLAB自带的gpuinfo进行查看,我的GPU型号为NVIDIA RTX 3080Ti,有点老了,毕竟电脑用了好多年了已经
以下为网上找的一个适配版本的图,可以参考一下自己的GPU能够跑哪些版本的模型
如果已经可以正常使用,就可以通过以下命令进行安装,稳妥起见用了1.5b,如果用7B其实也问题不大,经测试如果让显卡能烤地瓜的话8B也能跑,别说是我说的
ollama run deepseek-r1:1.5b
安装完成后如下图,可以直接提问,且响应速度还挺快的
接下来配置一下本地UI,使用chatbox这个工具进行,地址为https://chatboxai.app/zh
安装完成后进行配置,首先创建OLLAMA的环境变量,确保能够访问到服务
然后再chatbox中进行配置
选择ollama的API
选择本地模型
此时已经成功连接了本地的ollama
这时候一些简单的东西在无互联网连接的情况下也能正常回答,非常流畅可以说是