零基础也能搞定!手把手教你本地安装DeepSeek(D盘版)
一、为什么选择本地安装DeepSeek?
DeepSeek作为一款开源的AI推理框架,其本地部署的优势在于隐私安全(数据不出本地)、定制化开发(自由调整模型参数)和无网络依赖(适合离线场景)。对于零基础用户而言,本地安装避免了云端服务的复杂权限配置,且D盘存储可减少系统盘压力,尤其适合数据量较大的模型训练场景。
二、安装前的准备工作
1. 硬件要求
- 操作系统:Windows 10/11(64位)或Linux(Ubuntu 20.04+推荐)
- CPU/GPU:至少4核CPU,若使用GPU加速需NVIDIA显卡(CUDA 11.x支持)
- 内存:8GB以上(推荐16GB)
- 磁盘空间:D盘预留至少50GB(模型文件较大)
2. 软件依赖
- Python环境:安装Python 3.8-3.10(通过官网下载,勾选“Add to PATH”)
- 验证安装:命令行输入
python --version,显示版本即成功。
- 验证安装:命令行输入
- CUDA与cuDNN(GPU用户需配置):
- 从NVIDIA官网下载与显卡匹配的CUDA Toolkit(如CUDA 11.8)。
- 下载对应版本的cuDNN(需注册NVIDIA开发者账号),解压后复制到CUDA安装目录(如
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8)。
3. 创建D盘专用文件夹
在D盘根目录新建DeepSeek文件夹,内部再创建models(存放模型文件)、data(输入数据)、output(输出结果)三个子文件夹,便于后续管理。
三、分步安装指南
步骤1:安装DeepSeek核心库
通过Python包管理工具pip安装官方库:
pip install deepseek-ai -i https://pypi.tuna.tsinghua.edu.cn/simple # 使用清华镜像加速
若遇到权限问题,可添加--user参数安装到用户目录。
步骤2:下载预训练模型
DeepSeek提供多种规模的预训练模型(如7B、13B参数版本),推荐从官方GitHub仓库或Hugging Face下载:
# 示例:下载7B模型到D盘models文件夹git lfs install # 启用Git大文件支持cd D:\DeepSeek\modelsgit clone https://huggingface.co/deepseek-ai/deepseek-7b .
注:模型文件较大(约14GB),需确保网络稳定。
步骤3:配置环境变量(GPU用户)
若使用GPU,需设置CUDA路径:
- 右键“此电脑”→“属性”→“高级系统设置”→“环境变量”。
- 在“系统变量”中新建变量
CUDA_PATH,值为C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8。 - 在
Path变量中添加%CUDA_PATH%\bin和%CUDA_PATH%\libnvvp。
步骤4:启动DeepSeek服务
进入DeepSeek安装目录,运行启动脚本:
cd D:\DeepSeekpython -m deepseek.server --model_path D:\DeepSeek\models\deepseek-7b --port 8000
参数说明:
--model_path:指定模型文件路径。--port:设置服务端口(默认8000)。--device:可选cpu或cuda(GPU加速)。
四、验证安装成功
1. 访问Web界面
打开浏览器输入http://localhost:8000,若看到API文档页面,说明服务已启动。
2. 发送测试请求
使用Python发送简单请求验证:
import requestsurl = "http://localhost:8000/v1/chat/completions"headers = {"Content-Type": "application/json"}data = {"model": "deepseek-7b","messages": [{"role": "user", "content": "你好,DeepSeek!"}],"temperature": 0.7}response = requests.post(url, json=data, headers=headers)print(response.json()["choices"][0]["message"]["content"])
若返回类似“你好!我是DeepSeek,有什么可以帮你的吗?”的回复,则安装成功。
五、常见问题解决方案
1. 依赖冲突
若安装时提示torch版本不兼容,可指定版本重装:
pip install torch==2.0.1 torchvision==0.15.2 -f https://download.pytorch.org/whl/cu118/torch_stable.html
2. GPU内存不足
降低batch_size参数或切换至CPU模式:
python -m deepseek.server --device cpu
3. 端口被占用
修改启动脚本中的端口号(如8001),并确保防火墙允许该端口通信。
六、进阶优化建议
- 模型量化:使用
bitsandbytes库将模型量化为4/8位,减少显存占用(需修改启动参数--load_in_8bit)。 - 日志管理:在启动脚本中添加
--log_path D:\DeepSeek\logs,便于排查问题。 - 自动启动:创建批处理文件(.bat)并添加到Windows启动文件夹,实现开机自启。
七、总结
通过本文的步骤,零基础用户也能在D盘完成DeepSeek的本地部署。关键点在于:
- 提前规划磁盘空间与文件夹结构;
- 严格按顺序安装依赖(Python→CUDA→模型);
- 通过测试请求验证功能。
遇到问题时,可优先检查环境变量、依赖版本和端口占用情况。本地部署后,用户可自由探索模型微调、API开发等高级功能,真正实现AI技术的自主掌控。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权请联系我们,一经查实立即删除!