Z次元
文章 笔记 日志 代码
专题
专栏分类
文章归档
友链
友情链接
朋友圈
留言
头像
系列文章

简单十分钟在本地部署自己的DeepSeek大模型

系列文章
AI大模型
更新于:2025/2/15
|
发布于:2025/2/9
文章摘要
......

下载安装Ollama

Ollama是专门用来部署本地大模型的,非常的方便快捷,详情可见官网,这里不做赘述。

直接访问官网下载对应的版本安装即可:

下载安装完成之后,可以在任务栏看到图标,并且会自动弹出powershell,可以直接关闭。

打开cmd,输入下面命令查看Ollama版本号,顺便验证是否能正常使用:

ollama --version

能正常输出版本号即可。

下载大模型

在Ollama官网选择对应的模型,这里我们选择deepseek。

Ollama提供了各种1.5b-32b的蒸馏模型,以及671b的满血版,可以根据自己的电脑配置选择对应的版本。

选择后可以在右侧复制下载链接,此处博主选择的是8b的蒸馏版:

ollama run deepseek-r1:8b

打开cmd,输入复制的命令,Ollama会自动下载大模型,等待下载完成即可。

安装完成后我们就可以直接在命令行使用了。

可视化界面

直接在命令行操作实在过于简陋,所以我们可以选择可视化工具优化使用体验。

可以选择的工具也有很多,这里博主同样选择了操作便捷的ChatBox作为可视化工具。

同样直接在Chatbox官网下载安装即可。

打开ChatBox,选择使用本地模型,然后选择Ollama Api,按照默认配置即可

版权声明
本文依据 CC-BY-NC-SA 4.0 许可协议授权,请您在转载时注明文章来源为 Z次元 ,若本文涉及转载第三方内容,请您一同注明。
更多专栏文章推荐
AI大模型
拥抱AI,畅想未来
SpringBoot快速集成AI大模型
2026/1/21
人工智能与大模型基础
2025/6/30
Prompt工程——使用提示词让AI更懂你
2025/5/5
评论区

删除确认

评论删除后无法恢复,请确认是否继续?
发表评论

这里还没有评论哦

快来发一条评论抢占前排吧

目录
1
下载安装Ollama
2
下载大模型
3
可视化界面
目录
1
下载安装Ollama
2
下载大模型
3
可视化界面
博客
文章 笔记 日志 代码
专题
专栏分类 文章归档
友链
友情链接 朋友圈
交流
留言 关于我
主页
菜单
置顶
主题
我的
十玖八柒
每天进步多一点
欢迎到访φ(゜▽゜*)♪
最新评论
1232:
学习nuxt来看看博主的源码
柒: @NOXBB
因为我们项目组算是最晚升级的一批了,很多问题都已经在agent前面的迭代版本优化修复了,而且我看了其它项目组总结的问题,大都是一些第三方中间件版本不兼容的问题
NOXBB:
竟然只有1个坑点嘛,还是说其它的agent已经精准的避开了
柒:
测试回复
我的
关于我
个人主页
站点地图
RSS订阅
导航
十年之约
虫洞穿梭
开源博客
前端开源仓库
后端开源仓库
©2020 - 2026 By 十玖八柒 版权所有
豫ICP备20021466号