首页
文章分类
Android
Windows系统
Mac&iOS
Linux系统
Debian
Ubuntu
CentOS
ProxmoxVE
编程语言
Go
Js/Ts
Java
C#
C/C++
软件使用
大模型
博客
Office
Docker
Nginx
MySQL
MongoDB
随笔
关于
过客
编程有风险,入坑需谨慎!
累计撰写
399
篇文章
累计收到
0
条评论
累计收获
938
次访问
导航
首页
文章分类
Android
Windows系统
Mac&iOS
Linux系统
Debian
Ubuntu
CentOS
ProxmoxVE
编程语言
Go
Js/Ts
Java
C#
C/C++
软件使用
大模型
博客
Office
Docker
Nginx
MySQL
MongoDB
随笔
关于
目录
标签
Ollama
本地部署DeepSeek
2025-02-23 23:02
20
0
0
26.0℃
大模型
前言 最近DeepSeek很火,官网版本的时不时会出现服务器忙的状态,很多人就想部署本地版本。本地版本部署起来没什么技术含量,别人大模型已经封装好了几步就可以搞定了,这里拼的是硬件实力。对于DeepSeek除了671B满血版本外,其他的版本都只阉割的,不论是深度还是精度都不是你想要的那个DeepSe
Ollama安装与配置Linux系统
2025-02-23 22:25
13
0
0
25.3℃
大模型
一、下载安装 直接进入Ollama 官方下载页面,复制安装命令并运行 curl -fsSL https://ollama.com/install.sh | sh 二、手动安装 先下载 Ollama Linux安装包 上传到Linux服务器中。 解压到/usr目录中,就可以直接使用。 ta
Ollama 安装与配置 - Windows 系统篇
2025-02-23 21:56
36
0
0
27.6℃
大模型
一、下载 直接进入Ollama 官方下载页面 二、安装 下载成功后直接双击OllamaSetup.exe运行,点Install安装 三、配置 1. 先退出运行 在右下角的导航栏可以看到Ollame标志,右键选择Quit Ollama就可以退出了。 2. 环境变量配置说明
弹