Ubuntu 22.04 LTS + Obsidian + Ollama + OpenCode 搭建指南
本文详细介绍如何在 Ubuntu 22.04 LTS 系统上搭建一套完整的本地 AI 开发环境,包括 Obsidian(知识管理)、Ollama(本地大模型运行平台)和 OpenCode(AI 编程助手)。
系统准备
1. Ubuntu 22.04 LTS 安装
从 Ubuntu 官网 下载 Ubuntu 22.04 LTS 镜像,使用 Rufus 或 Ventoy 制作启动 U 盘进行安装。
安装时建议:
- 分配至少 100GB 磁盘空间
2. 系统更新与基础依赖
1 | sudo apt update && sudo apt upgrade -y |
3. NVIDIA 驱动(GPU 加速用)
Ubuntu 22.04 内置了 NVIDIA 驱动支持,安装非常简单:
1 | # 方法一:自动安装推荐驱动(推荐) |
Obsidian 安装
Obsidian 是一款强大的知识管理工具,支持双向链接和 Markdown 编辑。
1. 下载与安装
1 | # 下载 Obsidian |
2. 插件配置
安装 Local Rest API 插件,用于与 OpenCode 集成:
- Settings → Community Plugins → 关闭安全模式
- 浏览插件市场,搜索 “Local REST API” 并安装
- 启用插件后配置:Settings → Local REST API → 开启服务(默认端口 27123)
Ollama 安装
Ollama 是本地运行大语言模型的平台,支持 llama2、mistral、qwen 等多种模型。
1. 安装 Ollama
1 | # 安装 Ollama |
2. 模型安装位置
Ollama 模型默认存储位置:
- Linux 系统服务模式:
/usr/share/ollama/.ollama/models - Linux 用户模式:
~/.ollama/models/ - macOS:
~/Library/Application Support/Ollama/models - Windows:
C:\Users\用户名\.ollama\models
1 | # 查看当前模型存储位置 |
分区不够?使用软链接迁移
如果系统盘空间不足,可以将模型存储迁移到其他分区:
1 | # 1. 停止 Ollama 服务 |
或者直接修改环境变量(推荐):
1 | # 在 ~/.bashrc 中添加 |
3. 模型选择建议
1 | # 列出可用模型 |
小尺寸模型(笔记本首选)
| 模型 | 参数量 | 最低显存 | 特点 |
|---|---|---|---|
| qwen3.5:0.8b | 8亿 | 2GB | 极致轻量,推理极快,移动设备、IoT |
| qwen3.5:2b | 20亿 | 4GB | 小巧快速,端侧首选,移动设备 |
| qwen3.5:4b | ~46.6亿 | 6GB | 性能强劲,轻量级智能体 |
| qwen3.5:9b | 90亿 | 10GB | 越级性能,笔记本理想选择 |
1 | # 入门推荐 |
大尺寸模型(服务器/云端)
| 模型 | 参数量 | 特点 |
|---|---|---|
| qwen3.5:397b-a17b | 3970亿(激活170亿) | MoE 架构,性能超万亿参数 |
画图模型推荐
1 | # 图像生成模型 |
4. 上下文设置
Ollama 默认上下文长度为 2048-4096,可根据需要调整:
1 | # 设置默认上下文长度(添加到 ~/.bashrc) |
5. 性能调优参数
1 | # 添加到 /etc/systemd/system/ollama.service 或 ~/.bashrc |
| 参数 | 说明 | 推荐值 |
|---|---|---|
OLLAMA_NUM_PARALLEL |
并发处理请求数 | 2-4,显存低则设为 1 |
OLLAMA_MAX_LOADED_MODELS |
同时加载到内存的模型数 | 1-2,避免显存溢出 |
OLLAMA_KEEP_ALIVE |
模型在内存中保持时间 | 24h 或 -1 永久 |
6. 配置 GPU 加速
确保 Ollama 使用 GPU:
1 | # 设置环境变量(添加到 ~/.bashrc) |
6. Ollama API 服务
Ollama 默认提供本地 API:
1 | # 默认端口 11434 |
OpenCode 安装
OpenCode 是一款强大的 AI 编程助手,支持多模型集成和高级编程功能。
1. 安装 OpenCode
1 | # 安装 OpenCode(Linux) |
2. 配置 Ollama 作为后端
OpenCode 支持连接本地 Ollama:
1 | # 首次启动并配置 |
3. 配置 OpenCode
在 ~/.config/opencode/ 目录下创建或编辑配置文件:
1 | # ~/.config/opencode/config.yaml |
4. 常用命令
1 | # 启动对话 |
集成工作流
Obsidian + OpenCode 集成
可以通过 Shell Commands 插件在 Obsidian 中调用 OpenCode:
- 安装 Obsidian Shell Commands 插件
- 配置自定义命令:
1 | # 命令示例:选中内容让 AI 解释 |
Ollama + OpenCode 工作示例
1 | # 1. 确保 Ollama 正在运行 |
性能优化建议
1. Ollama 模型管理
1 | # 查看已加载模型 |
2. 系统资源监控
1 | # 监控 GPU 使用 |
3. 启动脚本优化
创建一键启动脚本 ~/start-dev.sh:
1 |
|
常见问题
Q1: Ollama 启动失败
A: 检查 NVIDIA 驱动是否正确安装,nvidia-smi 是否正常工作。
Q2: OpenCode 连接不上 Ollama
A: 确认 Ollama 服务正在运行,端口 11434 未被占用。
Q3: 模型下载速度慢
A: 可以尝试使用镜像源,或在网络较好时段下载。
Q4: 内存不足
A: 选择参数更小的模型(如 7b 以下),或增加 Swap 空间。
总结
通过本文的搭建,你已经拥有了一套完整的本地 AI 开发环境:
- Obsidian:知识管理与笔记
- Ollama:本地大模型运行平台
- OpenCode:AI 编程助手
这套组合可以在离线环境下使用,保护隐私的同时提供强大的 AI 辅助编程能力。
Ubuntu 22.04 LTS + Obsidian + Ollama + OpenCode 搭建指南
1.APE/CUE 文件无损转换 FLAC 完整指南
2.GitHub Actions 自动为博客文章添加封面图
3.Linux环境的几个自定义命令
4.Linux 终端邮件客户端 Himalaya 配置指南
5.Ubuntu2204安装LaTex完整版
6.Windows系统及常用工具激活大法
