首页
系统
Android
Mac&iOS
Windows
Debian
Ubuntu
CentOS
ProxmoxVE
编程语言
Go
Js/Ts
Java
C#
C/C++
软件使用
大模型
博客
Office
Docker
Nginx
MySQL
MongoDB
工具
IP查询接口
It-Tools
随笔
归档
动态
留言
关于
过客
累计撰写
436
篇文章
累计创建
56
个标签
累计收到
0
条评论
栏目
首页
系统
Android
Mac&iOS
Windows
Debian
Ubuntu
CentOS
ProxmoxVE
编程语言
Go
Js/Ts
Java
C#
C/C++
软件使用
大模型
博客
Office
Docker
Nginx
MySQL
MongoDB
工具
IP查询接口
It-Tools
随笔
归档
动态
留言
关于
目 录
CONTENT
以下是
Ollama
相关的文章
Ollama 启用GPU推理
前提条件 电脑有 NVIDIA 显卡。 已安装 NVIDIA 显卡驱动程序,可以使用命令 nvidia-smi 来检查驱动程序是否安装。 已安装 CUDA 工具包,可以使用命令 nvcc --version 来检查 CUDA 是否安装 如果电脑满足前提条件时,默认是使用GPU加速的。 如果未安装CU
2025-06-20
4
0
0
大模型
使用OpenWebUI与大模型交互
Open WebUI 是针对 LLM 用户友好的 WebUI,支持的 LLM 运行程序包括阿里百炼、 Ollama、OpenAI 兼容的 API。 一、安装Docker 之前写过Linux安装Docker,这里就不再过多复述了。 二、安装OpenWebUI 1. 拉去镜像 docker pull g
2025-06-17
3
0
0
大模型
本地部署DeepSeek
前言 最近DeepSeek很火,官网版本的时不时会出现服务器忙的状态,很多人就想部署本地版本。本地版本部署起来没什么技术含量,别人大模型已经封装好了几步就可以搞定了,这里拼的是硬件实力。对于DeepSeek除了671B满血版本外,其他的版本都只阉割的,不论是深度还是精度都不是你想要的那个DeepSe
2025-02-23
54
0
0
大模型
Ollama安装与配置-Linux系统篇
一、下载安装 直接进入Ollama 官方下载页面,复制安装命令并运行 curl -fsSL https://ollama.com/install.sh | sh 二、手动安装 先下载 Ollama Linux安装包 上传到Linux服务器中。 解压到/usr目录中,就可以直接使用。
2025-02-23
239
0
0
大模型
Ollama安装与配置-Windows系统篇
一、下载 直接进入Ollama 官方下载页面 二、安装 下载成功后直接双击OllamaSetup.exe运行,点Install安装 三、配置 1. 先退出运行 在右下角的导航栏可以看到Ollame标志,右键选择Quit Ollama就可以退出了。 2. 环境变量配置说明
2025-02-23
287
0
0
大模型