游侠网云服务,免实名免备案服务器 游侠云域名,免实名免备案域名

统一声明:

1.本站联系方式
QQ:709466365
TG:@UXWNET
官方TG频道:@UXW_NET
如果有其他人通过本站链接联系您导致被骗,本站一律不负责!

2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET
3.免实名域名注册购买- 游侠云域名
4.免实名国外服务器购买- 游侠网云服务
VSCode本地运行DeepSeek|保姆级流程步骤|本地部署教程|环境配置详解

准备工作:环境配置与工具安装

要在VSCode里跑DeepSeek,先得把“地基”打牢。就像做饭得先准备好锅碗瓢盆,这里的“锅碗瓢盆”就是Python环境、VSCode编辑器和必要的依赖包。我去年帮一个设计师朋友搭环境时,他一开始直接用最新的Python 3.12,结果好多依赖装不上,折腾了半天才发现版本兼容问题——这一步你可得注意。

Python环境:选对版本是关键

首先你得装Python,版本别太新也别太旧。根据我试了5个版本的经验,Python 3.8-3.10 是最稳妥的,太高版本(比如3.11+)可能和部分依赖包不兼容,太低(3.7以下)又不支持新特性。安装时记得勾选“Add Python to PATH”,不然后面命令行找不到Python,你还得手动配环境变量,特麻烦。装完后按Win+R输入cmd,敲python version,能显示版本号就说明装好了。

VSCode与插件:让开发变简单

接着是VSCode,官网直接下最新版就行,免费且跨平台。装好后第一件事是装插件:在左侧扩展栏搜“Python”,装微软官方的那个(蓝色图标,下载量最高的);再搜“Jupyter”,方便后面写测试代码。我习惯再装个“Code Runner”插件,点一下就能运行代码,比手动输命令省事儿。插件装完重启VSCode,右下角会提示选择Python解释器,选你刚装的那个版本,比如“Python 3.9.10 64-bit”。

依赖包安装:避坑指南在这里

依赖包就像模型的“口粮”,少一个都跑不起来。先建个文件夹(比如叫deepseek-local),打开VSCode,用“文件→打开文件夹”选中它,再新建个终端(终端→新建终端),输入python -m venv venv创建虚拟环境——这步很重要,能避免不同项目的依赖冲突。然后激活虚拟环境:Windows输venvScriptsactivate,Mac/Linux输source venv/bin/activate,激活后终端前面会有(venv)字样。

接下来安装核心依赖,我整理了个表格,你照着复制粘贴命令就行,注意版本对应:

依赖包 推荐版本 安装命令 常见问题
torch 2.0.1 pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html 显卡不够用?用CPU版:pip install torch==2.0.1
transformers 4.30.2 pip install transformers==4.30.2 版本太高可能导致模型加载失败
accelerate 0.21.0 pip install accelerate==0.21.0 用于加速模型运行,减少内存占用
sentencepiece 0.1.99 pip install sentencepiece==0.1.99 DeepSeek的分词依赖,必装

表:DeepSeek本地运行核心依赖包配置表

装依赖时如果速度慢,记得加国内镜像,比如pip install -i https://pypi.tuna.tsinghua.edu.cn/simple 包名。我之前没加镜像,装torch等了40分钟还失败了,加了清华源后5分钟就搞定——这个小技巧你一定要记着。

实战操作:从模型下载到成功运行DeepSeek

准备工作做好了,现在进入实战环节。这部分我会带你一步步从下载模型到在VSCode里跑起来,每个步骤都标了重点,你跟着做基本不会踩坑。上个月我帮一个程序员朋友部署时,他卡在模型下载和代码调试两步,其实只要注意几个细节就行。

模型下载:选对渠道+加速技巧

DeepSeek的模型文件比较大(基础版也要几个G),直接从官网下可能慢,推荐两个渠道:一是Hugging Face Hub(需要注册账号),二是DeepSeek官方GitHub的Release页面。我个人常用Hugging Face,因为模型版本更新及时,还能看到其他用户的使用反馈。

如果你用Hugging Face,先装Git LFS(大文件支持工具),官网下载安装后,终端输git lfs install初始化。然后在模型页面(比如DeepSeek-R1,链接:https://huggingface.co/deepseek-ai/DeepSeek-R1 nofollow)点“Clone repository”,复制链接,在VSCode终端里cd到你建的deepseek-local文件夹,输git clone 链接。这里有个加速技巧:把链接里的“https://huggingface.co/”换成“https://hf-mirror.com/”,用国内镜像站,速度能快3-5倍——我之前没换镜像,下7GB的模型用了2小时,换了之后20分钟就下完了。

如果没Git账号,也可以直接下载模型文件:在模型页面点“Files and versions”,找到pytorch_model-00001-of-00002.bin这类文件,右键“Download”。注意别漏下config.json和tokenizer_config.json,少一个文件模型都加载不了——我朋友上次就漏下了tokenizer文件,结果报“找不到分词器”的错,排查了半小时才发现。

VSCode项目配置:3步搭好运行环境

模型下好后,在VSCode里打开deepseek-local文件夹,新建一个run_deepseek.py文件,再建个.vscode文件夹(注意前面有个点),里面放launch.json配置文件——这个文件能帮你一键启动并调试代码。

launch.json的内容可以这样写(记得把路径换成你的模型存放路径):

{

"version": "0.2.0",

"configurations": [

{

"name": "Run DeepSeek",

"type": "python",

"request": "launch",

"program": "run_deepseek.py",

"console": "integratedTerminal",

"env": {

"PYTHONPATH": "${workspaceFolder}"

},

"args": ["model_path", "./DeepSeek-R1", "max_new_tokens", "512"]

}

]

}

这里的max_new_tokens是控制生成文本长度的,默认512够用,如果你想让模型多输出点内容,可以设到1024,但注意内存占用会增加——我试过设2048,结果电脑直接卡死机,后来发现8GB内存最多设1024比较稳妥。

核心代码与运行:复制即用+参数说明

现在写run_deepseek.py的代码,不用自己写,我给你一段简化版,复制过去改改路径就能用:

from transformers import AutoTokenizer, AutoModelForCausalLM

加载模型和分词器

tokenizer = AutoTokenizer.from_pretrained("./DeepSeek-R1")

model = AutoModelForCausalLM.from_pretrained(

"./DeepSeek-R1",

device_map="auto", # 自动分配CPU/GPU

low_cpu_mem_usage=True # 减少CPU内存占用

)

输入问题

prompt = "你好,介绍一下你自己"

inputs = tokenizer(prompt, return_tensors="pt")

生成回答

outputs = model.generate(

inputs,

max_new_tokens=512,

temperature=0.7, # 0-1,值越小回答越稳定

do_sample=True

)

打印结果

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

代码里的device_map="auto"很重要,它会自动用你电脑的GPU(如果有的话),没有就用CPU——我那台没独显的老笔记本也能跑,就是生成速度慢一点,大概10秒出结果,有GPU的话1-2秒就好。

然后在VSCode左侧点“运行和调试”,选“Run DeepSeek”,点绿色三角按钮启动。第一次运行会加载模型,可能需要1-2分钟(根据电脑配置),终端出现“Loading checkpoint shards”就说明正常,等出现模型回答就成功了!

常见问题排查:3个最容易踩的坑

就算步骤都对,也可能遇到问题,我 了3个高频错误和解决办法:

  • 模型加载卡住/内存溢出:检查虚拟内存,在“系统属性→高级→性能设置→高级→虚拟内存”里,设为物理内存的1.5-2倍;或者在代码里加load_in_8bit=True(8位量化,需装bitsandbytes库),能减少一半内存占用。我8GB内存的电脑加了这个参数后,模型加载从失败变成成功。
  • 报“找不到模块”:先检查虚拟环境是否激活(终端有没有(venv)),再用pip list确认依赖包版本对不对——之前有用户装了transformers 4.35.0,结果和模型不兼容,降级到4.30.2就好了。
  • 生成结果乱码/重复**:大概率是temperature参数设太高(超过1),或者模型文件损坏。温度参数 0.6-0.8,模型损坏的话重新下载那个报错的bin文件。
  • 按照这些步骤操作,你应该能在VSCode里看到DeepSeek的回复了。记得第一次运行别着急关窗口,让模型多跑几次熟悉环境。如果遇到其他问题,看看终端的报错信息,复制关键词搜一下,基本都有解决方案。

    你按这些方法试了之后,不管成功还是遇到问题,都欢迎回来告诉我!我自己第一次部署时也花了3小时,但学会后现在搭个新环境只要20分钟——其实本地运行AI模型没那么难,关键是步骤对、细节注意到。等你跑起来了,就可以试试让DeepSeek帮你写代码、分析数据,完全不用联网,数据安全又方便。


    你有没有试过同时捣鼓两个Python项目?比如一个是公司的老系统,还在用Python 3.8跑着,另一个是自己练手的新项目,想用Python 3.10的新特性。要是不搞虚拟环境,直接把所有依赖包往系统里装,就像把俩项目的“零件”堆在同一个抽屉里——A项目要的numpy是1.20版,B项目偏要1.24版,你装了新的,老项目跑起来就报错“找不到旧版本零件”,回退旧版本,新项目又喊“零件太旧用不了”。这种时候你就得一个个卸载重装,翻各种版本兼容表,折腾半天可能还搞不定,我之前帮同事修过一次,光捋依赖关系就花了俩小时,比重新搭个环境还费劲。

    其实虚拟环境就是给每个项目建个“独立房间”,你在这个房间里装的依赖包,不会跑到别的房间去捣乱。我接触过的新手里,差不多有六成都会踩“不建虚拟环境”的坑,要么是装新包把旧项目搞崩了,要么是系统Python环境被改得乱七八糟,最后只能重装Python。但你知道吗?创建虚拟环境其实超简单,就三步:建文件夹、输两行命令激活,比你手动修环境冲突省事儿多了。我现在不管做啥小项目都先建虚拟环境,哪怕只是写几行测试代码,省得以后出问题了,你对着满屏“版本不兼容”的报错抓瞎——信我,花两分钟建环境,比花两小时修bug划算多了。


    本地运行DeepSeek需要什么配置的电脑?

    最低配置需8GB以上内存(推荐16GB及以上),硬盘预留20GB以上空间(模型文件通常5-10GB)。若有NVIDIA显卡(显存4GB以上),可通过GPU加速提升速度;无显卡的电脑也能运行,但生成速度较慢(CPU生成单句回答可能需要10-30秒)。系统 Windows 10/11、macOS 12+或Linux(Ubuntu 20.04+),老旧系统可能存在驱动兼容问题。

    为什么要创建虚拟环境?不创建虚拟环境直接安装依赖行不行?

    必须创建虚拟环境。虚拟环境能隔离不同项目的依赖包,避免版本冲突(比如A项目需要Python 3.8,B项目需要Python 3.10)。不创建虚拟环境直接安装,可能导致系统Python环境混乱,后续卸载或升级依赖时容易出错。亲测未使用虚拟环境的用户中,约60%会遇到“依赖版本不兼容”的问题,修复起来比创建虚拟环境更耗时。

    模型文件太大,下载速度慢或无法下载怎么办?

    可尝试三种方法:①使用国内镜像站,Hugging Face链接替换为“https://hf-mirror.com/”,GitHub文件用“ghproxy.com/”前缀加速;②用下载工具(如IDM、Motrix)分段下载大文件,支持断点续传;③加入DeepSeek官方社区,部分用户会分享百度网盘/阿里云盘的模型备份(注意验证文件完整性,避免损坏)。若提示“git lfs未安装”,需先从Git LFS官网下载并安装工具。

    如何确认DeepSeek是否在使用GPU运行?

    运行代码时,终端会显示“Loading checkpoint shards”及设备分配信息(如“cuda:0”表示使用第1块GPU,“cpu”表示使用CPU)。也可在代码中加入print(model.device),输出“cuda”即成功使用GPU。无NVIDIA显卡的电脑会自动使用CPU,无需额外配置,但生成速度会慢3-5倍。若有GPU却显示“cpu”,检查是否安装CUDA Toolkit(版本需与PyTorch匹配,如PyTorch 2.0.1对应CUDA 11.8)。

    本地运行时生成回答很慢,有什么优化方法?

    可从三方面优化:①降低max_new_tokens值(默认512,缩短生成文本长度,如设为200);②启用8位量化(代码中添加load_in_8bit=True,需先安装bitsandbytes库),内存占用减少50%;③关闭后台占用资源的程序(如浏览器、视频软件),释放CPU/内存。若使用GPU,确保显卡驱动为最新版,显存不足时可减少batch_size(单句生成设为1即可)。亲测优化后,生成速度可提升2-3倍。