发布时间:2025-02-06 18:06:14作者:kaifamei阅读:次
首先,下载并安装Ollama客户端(支持Windows、MacOS和Linux),然后访问Ollama官网找到DeepSeek R1模型,根据设备配置选择合适版本下载。下载完成后,通过命令行启动模型:
安装Ollama后,打开命令行窗口,输入以下命令以部署7B模型:
ollama run deepseek-r1:7b
部署成功后,即可体验DeepSeek R1的强大推理能力。
如需更高性能模型,请参考高级特性部分。
1. 确认电脑是否能运行特定参数量的模型
关键在于显卡显存大小。即使是老显卡如1080、2080也能流畅运行。以下是显存要求参考表:
2. 选择不同参数量的模型
了解显存后,可选择适合的模型。访问Ollama官网搜索DeepSeek,找到R1系列的不同参数模型,并复制右侧命令在命令行中运行。
3. 使用命令行客户端
终端程序如下:
4. 使用美观的客户端与模型互动
推荐使用Open Web UI或Lobe-Chat等开源客户端,填入本地服务地址localhost:11434(默认端口为11431)即可开始对话。