deepseek Windows安装和入门使用

deepseek > AI (75) 2025-02-06 10:30:04

安装环境

  1. windows 11
  2. ollama工具
  3. 平台 AMD Ryzen 7 4800U with Radeon Graphics /16G

下载ollama工具

ollama官网 Download Ollama on Windows

注:

  • 下载ollama慢可复制下载连接到迅雷,因迅雷缓存了下载贼快。
  • ollama同时支持Linux和mac os系统。
deepseek Windows安装和入门使用_图示-517fd12723ff4b5b82ca5fef86753d56.png
ollama 下载完成后的样子

ollama安装

和Windows系统大多数软件安装步骤一致,双击然后下一步到最后即可。中间没有配置环节(目前版本没有:0.5.7.0)

deepseek Windows安装和入门使用_图示-eadad37de65b4a0ba7209e12d627634c.png
安装Ollama
deepseek Windows安装和入门使用_图示-09013ceeb3b14429865de2422a760000.png
安装Ollama
deepseek Windows安装和入门使用_图示-09885986596140418c21198953b098d7.png
任务栏查看
deepseek Windows安装和入门使用_图示-6516d38d866046d5a817ab31a97301ee.png
查看ollama版本

安装成功后通过cmd执行命令

ollama --version

查看安装版本信息,安装成功会有版本信息输出,参考上面图所示。

ollama模型默认存放于c盘,建议修改ollama默认模型存储路径,修改方法参考:Ollama 修改模型存储/存放路径/目录

使用ollama安装和运行deepseek r1模型

打开ollama官网Ollama,搜索地方输入deepseek r1

deepseek Windows安装和入门使用_图示-499635cfbbcb45af8846bd0e869d9736.png
搜索deepseek r1 模型
deepseek Windows安装和入门使用_图示-df448df2ebf04263a421ce22a2b0eae1.png
选择对应的版本,这里选择的8b

选择好版本后,在后面有运行命令,如这里的

ollama run deepseek-r1:8b

显存多少 GB 就部署大概多少 b 的模型,比如 24GB 部署 32b,16GB 部署 14b,8GB 部署 7b。如果出现 OOM,也就是爆显存了,就部署小一档的模型。

显存超过 40GB,可以考虑 部署 70b 的模型,否则建议使用 32b 的模型。

Windows 上执行命令,打开cmd窗口,然后粘贴上面的命令回车即可。

deepseek Windows安装和入门使用_图示-f3c8c01d33d24e17b720182e7b71e649.png
deepseek Windows安装和入门使用_图示-9a72d5223f2e4548a3f0761542c73469.png
下载安装

下载估计需要一定的时间

下载完成后,即可输入内容测试,参考:写一份《关于2024年春节放假安排的通知》,需注明值班表报送截止日期。

deepseek Windows安装和入门使用_图示-d18f711dd9014877be342dabc38490b4.png
think内容。
deepseek Windows安装和入门使用_图示-9546aa9174b64a78b5d93d6977701e46.png
具体编写内容

 

至此一个简的deepseek r1 离线部署模型成功。

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 环境准备Ollama安装使用参考:Deepseek Windows安装和入门使用Spring Boot项目接入OllamaSpring Boot
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
效果参考这里的eval rate 就是平均的token速度执行命令参考ollama run deepseek-r1:8b --verbose重点:--verbo
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
下载harbor离线版打开GitHub上的harbor仓库地址https://github.com/goharbor/harbor/下载最新稳定离线版本上传harbor到服务器服务器创建目录/o...
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来