• 视频教程

    哔哩哔哩:https://www.bilibili.com/video/BV14aNReMEpE/

    今日头条:https://www.toutiao.com/video/7469699907520348682/

    抖音:https://v.douyin.com/iPhWb8Hx/ 

    youtube:https://youtu.be/bfwSh5eJqdc


    对于我们普通人来说,deepseek的本地部署,市场上用的最多的有两个软件,分别是Lm studio和ollama,本次教程我们使用ollama,ollama的问答是在命令框里,交互不方便,所以我们还要搭配可视化的界面来使用,本教程我们使用的是chatbox。

    1、安装ollama

    访问ollama的官网:https://ollama.com/

    下载对应的版本,提供MacOS,linux和windows的版本,windows要求在win10以上,下载好后安装,基本没啥复杂的步骤,下一步下一步即可。

    2、运行ollama

    先看下自己的状态栏里ollama是否运行,右键这个图标选择quit  ollama可以在后台退出ollama,减少占用

    浏览器访问http://127.0.0.1:11434/也可以验证ollama是否在运行

    假如没有的话,去ollama的安装文件夹双击ollama app.exe即可启动

    3、关闭开机自启(可选)

    ollama默认是随系统启动的,为了减少占用可以关闭自启,需要用的时候手动开,文件夹地址栏访问下面的地址

    %APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup

    删除ollama启动快捷方式即可

    4、拉取deepseek模型

    国内的模型网站有很多,可以选择ollama官方的模型库,点击顶部菜单的Models即可看到,目前热度排名第一的就是deepseek

    点击进入后可以看到不同参数量的模型,其中官方用了671b的参数量,这是我们个人电脑所不能企及的,建议量力选择,1.5b不需要调用独显,可以说大部分设备,甚至手机也可以完成,但效果也是最差的,网友的话就是人工智障,拥有独立显卡的都可以尝试7b或者8b,效果日常对话没啥问题,只能说差强人意。假如独显较好,拥有8g显存,那可以尝试14b,假如是顶级消费显卡,那可以尝试32b,70b土豪可以尝试。

    确认运行ollama后,右键开始菜单,打开终端,或者win+r键输入cmd打开,都可以打开cmd命令行工具。

    输入下面的命令

    ollama run deepseek-r1:1.5b

    其中1.5b可以改为你要的参数量,比如8b

    ollama run deepseek-r1:8b

    然后回车,ollama就会开始拉取模型

    模型拉取完后,就可以直接进行对话

    根据信息回复的时间间隔,我们可以大致判断你的硬件配置是否能带的动模型

    顺便列几个常用的ollama命令:

    运行模型:ollama run 模型名

    查看本地所有模型:ollama list

    删除指定模型:ollama rm 模型名

    5、安装可视化界面chatbox

    访问chatbox官网:https://chatboxai.app/zh下载软件并安装

    安装方式基本也是一直下一步

    安装好后点击设置,选择ollama,选择自己安装并且正在运行的模型,保存

    点击新对话,就可以开始愉快的聊天了

    本文来自于大海资源网(dhzy.fun)原创,欢迎转载,当然要是能加个来源就更加感激不尽了!!!

     

    发表回复

    后才能评论