一文读懂!DeepSeek R1超简易本地安装运行部署教程

未知
2025-02-18 15:14:37
0

概述

DeepSeek-R1模型在各项指标直逼甚至超越OpenAI及同类产品,迅速成为业界焦点。更令人惊喜的是该模型基于MIT协议免费开源,允许任何公司或个人自由商用,无需任何授权限制,一时间在AI界掀起了巨大波澜。

最近DeepSeek服务被外海攻击,有时候无法访问,既然DeepSeek-R1是开源的,那么我们其实可以部署自己的DeepSeek-R1模型,如果再结合全栈AI助手,效果将更加完美。

废话不多说,直接上教程教怎么本地部署DeepSeek-R1服务。

一、安装ollama

用浏览器打开 https://ollama.com/

一文读懂!DeepSeek R1超简易本地安装运行部署教程

点击download按钮,下载ollama.


一文读懂!DeepSeek R1超简易本地安装运行部署教程

选择对应的操作系统版本下载。

一文读懂!DeepSeek R1超简易本地安装运行部署教程

点击Install安装。

二、根据配置安装合适的版本的deepseek R1模型

打开https://ollama.com/search  模型页:

 选择deepseek-r1模型: https://ollama.com/library/deepseek-r1


一文读懂!DeepSeek R1超简易本地安装运行部署教程

根据你电脑的硬盘及显存(内存)大小,选择不同大小参数的模型。这里为了演示,选择了1.5b的模型:

在终端中运行ollama run deepseek-r1:1.5b 进行安装deepseek-r1:1.5b模型。

一文读懂!DeepSeek R1超简易本地安装运行部署教程

根据显存选择合适的版本,有条件的建议上32B或者70B,效果非常好。

三、对话

一文读懂!DeepSeek R1超简易本地安装运行部署教程

安装完之后就可以直接在命令行对话了。

以下内容为可选项

配合 全栈AI助手 (可选)

ollama 默认在命令行中对话,UI界面并不友好,如果配合全栈AI助手 也可以有更好的交互体验。

 通过以下步骤用全栈AI助手接入DeepSeek-R1

打开全栈AI助手网站https://aichat.p2hp.com/

测试

一文读懂!DeepSeek R1超简易本地安装运行部署教程

左上角选择“Ollma”模型,并在后面的自定义模型中输入你安装的deepseek-r1:1.5b。

OLLAMA调用 API跨域配置:

设置环境变量 OLLAMA_ORIGINS:​

打开系统属性(可以通过Win+R,输入sysdm.cpl,然后回车)。​

点击“高级”选项卡,然后点击“环境变量”按钮。​

在“用户变量”区域,点击“新建”。​

设置变量名为OLLAMA_ORIGINS,变量值为*(这表示允许所有来源的跨域请求)。​

点击“确定”保存设置。

重启Ollama服务

确保关闭并重新打开命令行窗口,使新的环境变量生效。​

重新启动Ollama服务。(结束所有ollama进程,再运行ollama run deepseek-r1:1.5b

然后就可以开始愉快的对话了!!!

以上就是一文读懂!DeepSeek R1超简易本地安装运行部署教程的详细内容,更多请关注全栈开发网其它相关文章!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 service@p2hp.com 进行投诉反馈,一经查实,立即处理!
-- -- 0

相关内容

本地运行DeepSeek R1的全面入门指南
本地运行DeepSeek R1的全面入门指南
本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。
2025-02-19 10:47:33
一文图解 DeepSeek-R1 的出众推理能力从何而来?
一文图解 DeepSeek-R1 的出众推理能力从何而来?
今天这篇深度解析 DeepSeek-R1 训练方法的文章,将展示一个令人耳目一新的解决方案...
2025-02-19 10:24:17
 DeepSeek创始人梁文锋是个什么样的人?
DeepSeek创始人梁文锋是个什么样的人?
梁文峰的成长经历与投资之路1. 出生背景和早期经历梁文峰,1985年出生于广东省湛江市吴川...
2025-02-18 17:29:20
老妈都能玩转的 deepseek 教程
老妈都能玩转的 deepseek 教程
其实还有很多人没用过大模型,就算不说老人小孩,成年人要是对新事物不太感冒,可能都没有用过。...
2025-02-18 14:38:04
《DeepSeek:从入门到精通》 104 页高清PDF,清华大学出品! ​
《DeepSeek:从入门到精通》 104 页高清PDF,清...
《DeepSeek从入门到精通2025》是由清华大学新闻与传播学院新媒体研究中心元宇宙文化...
2025-02-17 14:13:20
国内Ai大模型排行榜 国内AI大模型的发展呈现出多样化的态势,各种类型的大模型纷纷涌现,包括改头换面的、剑走偏锋的、借壳炒...
大模型的Tokens是什么 大模型中的"tokens"指的是模型处理的输入文本中的单词、标点符号或其他文本单...
一文读懂!DeepSeek R1超简易本地安装运行部署教程 部署 DeepSeek R1 本地模型,并通过 Ollama 提供 API 支持。配合全栈AI助手 ...
AI 的关键是语料 我的观点是,不管怎么调整模型的架构、功能、参数,作用是有限的,真正决定性的因素是训练模型的语料。不需...
2023 年度 AI 大事记 2023 年度 AI 大事记,记录了 2023 年人工智能的重要时间线(1 月至 12 月)
《DeepSeek:从入门到精通》 104 页高清PDF,清华大学出品! ​ 《DeepSeek从入门到精通2025》是由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室的余...
DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,以及如... DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,包含了推荐的温度设置、系统...
本地运行DeepSeek R1的全面入门指南 本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。
什么是模型蒸馏 模型被问的最多的一类问题是:“你是什么模型?你的开发者是谁?”,然而你有时候并不能得到准确的答案,很...
老妈都能玩转的 deepseek 教程 其实还有很多人没用过大模型,就算不说老人小孩,成年人要是对新事物不太感冒,可能都没有用过。考虑到这点...
国内Ai大模型排行榜 国内AI大模型的发展呈现出多样化的态势,各种类型的大模型纷纷涌现,包括改头换面的、剑走偏锋的、借壳炒...
一文读懂!DeepSeek R1超简易本地安装运行部署教程 部署 DeepSeek R1 本地模型,并通过 Ollama 提供 API 支持。配合全栈AI助手 ...
AI 的关键是语料 我的观点是,不管怎么调整模型的架构、功能、参数,作用是有限的,真正决定性的因素是训练模型的语料。不需...
《DeepSeek:从入门到精通》 104 页高清PDF,清华大学出品! ​ 《DeepSeek从入门到精通2025》是由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室的余...
DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,以及如... DeepSeek 团队分享了针对 DeepSeek-R1 部署的最佳设置,包含了推荐的温度设置、系统...
本地运行DeepSeek R1的全面入门指南 本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。

最新文章

除了 temperature 之外,还有哪些参数对大模型的输出有比较大的影响 除了 temperature 之外,还有哪些参数对大模型的输出有比较大的影响除了 temperatu...
ai大模型的接口的system role重要吗 在 AI 大模型接口中,system role 是非常重要的,它起到设置整个对话基调和上下文的作用。...
2025年国内外AI大模型的API接口网址整理 本文将盘点国内外的知名度较高的AI大模型平台,其中包括AI大语言模型和AI多模态模型,方便大家一探究...
大模型与知识库:区别与联系 随着人工智能技术的迅猛发展,大模型与知识库作为其中的两个重要组成部分,各自扮演着不同的角色,同时又存...
LLaMA模型系统全面解读 简介:LLaMA模型系统由Meta AI推出,基于Transformer架构,具有高效参数利用和灵活...
ai大模型一般有什么能力 ai大模型一般有什么能力 AI大模型通常具备以下几种核心能力
本地运行DeepSeek R1的全面入门指南 本地运行DeepSeek R1的全面入门指南,介绍各种本地运行DeepSeek R1方法。
一文图解 DeepSeek-R1 的出众推理能力从何而来? 今天这篇深度解析 DeepSeek-R1 训练方法的文章,将展示一个令人耳目一新的解决方案:如何通过...
OpenAI发布最新模型规范 OpenAI在官网发布了最新的模型规范,希望可以进一步强化对可定制性、透明度以及探索、辩论和使用AI...
大语言模型(LLM)学习路径和资料汇总 收集整理的一些大语言模型(LLM)学习路径和资料汇总