推广 热搜:     设备  机械  行业  参数  教师  系统  公司  企业 

Deepseek本地部署,培养自己的独有的AI伴侣

   日期:2025-03-27     浏览:93    移动:http://sicmodule.glev.cn/mobile/quote/20873.html

DeepSeek 模型大多数是基于 Transformer 结构的,需要强大的 GPU 进行推理和训练。具体需求如下:

Deepseek本地部署,培养自己的独有的AI伴侣

[图片上传失败...(image-c61d69-1739106056101)]

图片

如果仅做推理,CPU 需求相对较低,但建议:

  • 最低要求:8 核 / 16 线程(如 AMD Ryzen 7 5800X、Intel i7-12700)
  • 推荐:16 核 / 32 线程(如 AMD Ryzen 7950X、Intel i9-13900K)
  • 超大模型(如 671B)可能需要服务器级 CPU(如 AMD EPYC、Intel Xeon)。

如果完全用 CPU 运行(无 GPU),推理速度会极慢,甚至无法运行大模型。

ubuntu、window、macOS皆可

基本配置方法其实非常简单,我们今天先尝试将命令行版本的配置出来,下一章我们继续配置可视化界面。

部署我们可以使用很多工具,像Ollama、LM Studio、Docker等都可以,今天我们用Ollama来进行配置,简单快捷,并且支持多系统Windows、Linux 和 Mac 系统,同时提供命令行和 Docker 部署方式。

首先我们来安装ollama,官方地址是:https://ollama.com/。

我们可以看到可以选择多个系统的下载方式,这里我们就选择window,如果有其他需求的小伙伴可以自主选择。

之后我们就执行这个下载好的exe文件即可。

点击install,会默认下载到c盘,我尝试过也无法修改地址~~

安装好后就会自动弹出一个powershell界面。

这个时候需要输入指令来安装这里我使用的是。

ollama run deepseek-r1:1.5b,因为电脑有点拉垮,所以没有选择更高版本,有条件的可以选择,指令就在下面的地址当中。

地址:https://ollama.com/search

选择第一个就可以看到如下内容,数字越大代表要求就越高。

当然还有个更高的671b,有条件可以搞,哈哈~~

复制上面的指令,粘贴到ollama打开的powershell窗口中,执行下载即可。

下载需要时间,也可以自行给他提提速。

下载完成就可以看到如下输入窗口。

本文地址:http://sicmodule.glev.cn/quote/20873.html    歌乐夫 http://sicmodule.glev.cn/ , 查看更多

特别提示:本信息由相关企业自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


相关行业动态
推荐行业动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2023001713号