DeepSeek本地部署保姆级教程分享

2025-09-01 17:32:51admin

深度求索推出的DeepSeek,是一款功能极为强大的AI大模型,它在25年1月11日正式上线。其中,DeepSeek - R1的性能可与OpenAI o1正式版相媲美。值得一提的是,其手机版应用曾一度荣登美区App Store单日下载量榜首。这一成绩对ChatGPT的统治性地位以及世界AI格局都产生了不容小觑的冲击,使得DeepSeek更多地出现在大众的视野之中。

然而,DeepSeek因频繁遭受网络攻击,且访问量过大,用户在与它对话时,常常会碰到“服务器繁忙,请稍后再试。”的提示,这着实让不少朋友感到困扰。那么,有没有什么好办法能解决这种状况呢?

答案是存在的,即通过在用户本地部署DeepSeek大模型。然而,这种方法对电脑配置要求较高,普通用户大多只能在本地部署“残血版”的DeepSeek模型,其使用体验比不上官网的“满血版”。但要是你对使用要求以及信息时效性的要求没那么高,也还是能够凑合使用的。接下来言归正传,为大家分享DeepSeek本地部署的保姆级教程。

通过Ollama实现本地部署DeepSeek-R1大模型详细步骤(多数大模型部署通用)

①本地安装Ollama

给大家说明一下,Ollama是个开源框架,借助它,你能够在本地运行大模型,其他的无需理会,了解这一点就足够了。

进入Ollama官网,选择合适的版本下载即可。

官网:https://ollama.com/

根据你的系统选择您需要下载的Ollama版本。

下载完成后点击安装,安装成功后会弹出一个命令行界面。需要注意的是,Ollama本身并无可视化界面,不过这并不妨碍后续使用,毕竟它本质上只是一个框架。

完成上述步骤后,基础就打好了。

②下载DeepSeek-R1模型

访问下方链接,选择要下载的模型,并在右侧复制对应的命令,这里以最小的1.5b版本作为演示。

https://ollama.com/library/deepseek-r1

选择好您要下载的模型,并复制下载的指令。

DeepSeek-R1模型相关参考标准如下:

以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载,速度取决于你的网速。

如果下载完成后报错,就再运行一遍下载命令,提示“success”就代表下载完成了。

然后在命令行里输入“ollama list”来查看下载成功的模型,下图这种情况就代表一切准备就绪了。

接下来,在命令行中输入「ollama run deepseek-r1:1.5b + 问题」,就能开启AI对话。要是你下载的是7b模型,那就输入「ollama run deepseek-r1:7b + 问题」,依此类推。

很明显,单纯依靠命令行进行对话,体验感欠佳。因此,为了提升使用体验,我们需要借助一款第三方AI客户端来调用本地模型。

③通过Cherry Studio调用模型

官网(Win+Mac+Linux):

https://cherry-ai.com/

下载完成后,打开客户端,进入设置界面,选择「Ollama」选项,此时API地址会自动填充,该地址需与下图所示地址保持一致,完成上述操作后,点击“管理”按钮。

在弹出的窗口中可以看到自己本地的模型,点击右侧的按钮添加模型即可。

最后进入对话页面,点击顶部模型名称切换成本地部署的模型,至此大功告成。

以上便是3322软件站为各位分享的借助Ollama达成DeepSeek本地部署的保姆级教程的所有内容,期望能给您带来帮助!

相关文章