飞牛fnOS是由骨灰级玩家团队倾心打造的NAS系统,融合AI本地端模型,致力于为家庭和企业提供高效、安全的存储解决方案。
扫码关注公众号
点击蓝字 关注我们
update
元
宵
快
乐
LANTERN FESTIVAL
好久不见,大家元宵节快乐呀!
牛牛想死你们啦~
过去这一个月
大家都被DeepSeek刷屏了!
从12月DeepSeek
横空出世,宣布开源到现在
相信大家都已经通过各种渠道
感受到他的火爆!
面对源源不断的
DeepSeek服务器繁忙,稍后再试
与API涨价300%的新闻
粉丝群飞牛玩家纷纷向牛牛建议
主打听劝的牛牛
也是特别整理了一个快捷的
本地免费部署DeepSeek
喂饭级教程~
相比市面上已有教程
本攻略全程仅有一句代码
只需五个步骤
即使是毫无代码经验的朋友
也可以在飞牛NAS使用本地模型!
主打一个小白也能玩!
教程开始
第一步,通过飞牛docker安装Ollama
通过内网IP进入飞牛web页面
选择docker-镜像仓库-搜索ollama-点击下载
(若下载失败,可以尝试更换docker仓库:https://docker.1ms.run/)
第二步,配置与运行Ollama 镜像
进入容器-Ollama-右侧三个点-容器设置
端口设置-输入外部访问的端口11435 容器内部端口11434(默认)
储存位置-点击文件夹图标-添加新建的ollama文件夹
路径填写 /root/.ollama
进入环境变量-添加变量 OLLAMA_ORIGINS = *
第三步,拉取deepseek本地模型
启动容器
点击如图按钮-进入终端
选择链接/bin/bash
根据你的飞牛NAS配置,选择合适的模型版本对应的运行代码
输入ollama run deepseek-r1:[版本号] 回车
接着等待下载即可(这里具体时间看大家网速啦)
最后出现success,表示下载运行 deepseek-r1 成功!
第四步,安装LobeChat应用
进入飞牛应用中心-实用效率-找到LobeChat点击安装
直接下一步,完成后进入LobeChat页面啦!
第五步,在LobeChat上配置Ollama
选择应用设置
选择语言模型-开启Ollama开关
在服务地址输入 http://[你的局域网ip地址]:11435
获取并选择模型,deepseek-ri
点击检查,展示 检查通过 即为连接成功
返回LobeChat对话页面,选择已经配置好的模型,就可以开始对话啦!
接下来,直接跟你的本地飞牛NAS上的DeepSeek对话啦!
当然这里的对话速度跟NAS的配置有一定关系
不过牛牛亲测,十年前的笔记本组的NAS也可以流畅运行1.5b模型~
飞牛部署deepseek视频教程
我们也为大家准备了视频教程,欢迎大家体验!
\ | /
★
给大家带来另一条通知
飞牛社区上线【热点问题】专栏
每周三我们会在飞牛社区公布
近期热点建议反馈的最新动态
欢迎大家点击阅读原文
关注飞牛社区!