Ollama
本指南讲解如何在 NVIDIA Jetson Orin 设备上安装、更新、配置和卸载 Ollama。Ollama 支持在 本地运行大语言模型(LLMs)推理,具备 CUDA 加速能力,并针对 Jetson 硬件进行了优化。
1. 概览
- 快速的本地推理
- CUDA 加速支持
- 模型版本管理
- 简洁的命令行工具与可选 WebUI
本文件涵盖:
- 使用脚本或 Docker 安装
- 模型运行
- 版本更新
- 可选的远程访问配置
- 完整卸载方法
2. 系统要求
硬件要求
组件 | 最低要求 |
---|---|
设备 | Jetson Orin Nano / NX / AGX |
内存 | 运行小/中型模型需 ≥ 8GB |
存储 | 模型与缓存存储需 ≥ 10GB |
软件要求
- Ubuntu 20.04 或 22.04(基于 JetPack)
- JetPack 5.1.1+(预装 CUDA、cuDNN、TensorRT)
- Python 3.8+(可选)
- Docker(可选,用于容器化模式)
3. 安装 Ollama
方法 A:脚本安装(推荐)
运行官方安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
- 会安装 CLI 二进制文件及后台服务
- 在 Jetson 上默认启用 CUDA 支持