登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程教程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机教程
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源分享
在线工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
推荐
MP3下载/音乐下载
首页
ollama+模型存放路径
文章列表
ollama+模型存放路径相关文章
Ollama 修改模型存储/存放路径/目录
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
ollama
ollama 模型存放路径
ollama 修改路径
deepseek
Ollama GPU 兼容情况
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
ollama
ollama gpu
ollama linux
嵌入模型text-embedding-3-large / mxbai-embed-large / nomic-embed-text 对比
三者核心对比:text-embedding-3-large vs mxbai-embed-large vs nomic-embed-text特性OpenAI t
AI
嵌入模型
场景嵌入模型
Ollama 常用环境变量
Ollama 是一个用于运行和管理大型语言模型的工具,它支持通过环境变量来配置其行为。以下是一些常用的 Ollama 环境变量:1. OLLAMA_HOST作用
ollama环境配置
ollama配置
ollama
Ollama 运行输出token速度等统计信息
效果参考这里的eval rate 就是平均的token速度执行命令参考ollama run deepseek-r1:8b --verbose重点:--verbo
ollama token统计
ollama token速度
ollama
Ollama 国内下载模型慢/修改模型源地址
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
ollama
ollama镜像源
deepseek
Ollama调用AMD 780m集显详解(基于编译程序)
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
deepseek
ollama
ollama 780m
ollama AMD
ollama集成显卡
Dify 配置大模型
Dify配置大模型,接上一篇安装Dify登录Dify 在右上方点击用户头像弹窗选设置安装模型供应商插件注意:这里的安装成功只是排队成功。下载安装需要时间
Dify配置大模型
dify ollama配置
dify lm studio配置
Jenkins Publish over SSH 文件路径说明
Publish over SSH 组件是远程部署用的比较多的一个组件,这里说下它的目录相关一、相对于用户目录 如果在Jenkins的 【系统管理->l;系统配置】中,Remote Direc...
Jenkins路径
Publish over SSH路径设置
Publish over SSH
Jenkins
JavaFX图片路径设置_JavaFX图片路径怎么写
最近在学习JavaFX,发现资料很少,连基本的图片读取都很多错误版本
JavaFX图片路径
JavaFX怎么设置图片
Nginx location路径匹配详解
匹配语法匹配语法[ = | ~ | ~* | ^~ | @ ] /uri/ 解释:uri是指匹配路径[ = | ~ | ~* | ^~ | @ ] 是指匹配规则
Nginx location
location
Nginx路径配置
ollama 使用Nvidia显卡/GPU 跑deepseek r1安装配置
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
ollama
deepseek
cuda安装
Spring AI 基于Redis和Ollama实现RAG本地知识库
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
Ollama
Deepseek
Spring AI
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
deepspeek
deepseek r1
deepseek模型区别
LM Studio 离线模型下载和导入
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio
Deepseek
LM Studio 模型下载
下一页
热门文章
PVE 更新版本(小版本)
[Proxmox VE/PVE]
Windows 系统如何配置环境变量
[Softwares]
Ollama GPU 兼容情况
[deepseek]
ollama 使用Nvidia显卡/GPU 跑deepseek r1安装配置
[deepseek]
Deepseek 本地部署可视化界面/客户端工具(Cherry Studio)使用
[deepseek]
最近更新
Dify OpenAI-API-compatible 使用LM Studio
[AI]
Dify LLM大模型回复作为输出变量
[AI]
Dify 配置Stable Diffusion (SD)
[AI]
Dify 配置大模型
[AI]
MyBatis-Plus 乐观锁解决订单并发问题
[Spring]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意