趋近智
Ollama 是管理本地大型语言模型最直接的选项之一。它通过将模型权重 (weight)、配置以及运行模型所需的软件打包成一个易于管理的捆绑包,简化了在个人计算机上运行开源大型语言模型的过程。它是一个方便的命令行工具,旨在帮你快速开始使用。
Ollama 是一个受欢迎的选择,特别是对初学者来说,因为它简化了许多技术步骤。它支持 macOS、Windows 和 Linux 系统,其简单的命令使得模型下载和使用变得非常方便。尽管它主要通过命令行(macOS/Linux 上的终端,Windows 上的命令提示符或 PowerShell)运行,但其易于安装的特点使其成为一个很好的起点。
在继续之前,请回顾第 2 章中讨论的硬件考虑事项。Ollama 可以仅使用你的 CPU 和系统内存运行模型,但如果你有兼容的 GPU(图形处理单元)和足够的 VRAM(显存 (VRAM)),性能,尤其是推理 (inference)速度(模型生成文本的速度),将明显更好。Ollama 会尝试自动检测并使用兼容的硬件。
安装过程因你的操作系统而略有不同。请按照以下针对你具体系统的步骤进行操作。
.zip 文件。.zip 文件(通常双击即可)。将 Ollama 应用程序拖到你的 Applications(应用程序)文件夹中。Applications(应用程序)文件夹打开 Ollama 应用程序。你可能会在菜单栏中看到一个小图标,表示 Ollama 正在后台运行。首次启动时也可能会提示你安装其命令行工具。如果出现请求,请允许安装。.exe 安装程序文件。.exe 文件以启动安装程序。按照屏幕上的提示操作。安装程序会设置 Ollama 并将所需的命令行工具添加到你系统的 PATH 环境变量中,使其可以通过命令提示符或 PowerShell 访问。curl -fsSL https://ollama.com/install.sh | sh
此命令会下载安装脚本并执行它。脚本会检测你的系统并正确安装 Ollama。apt,Fedora 使用 dnf)。有关你 Linux 发行版的具体说明,请查阅 Ollama 的文档或 NVIDIA 的指南。render 或 docker)。如果遇到权限问题,安装脚本或 Ollama 的文档可能会提供指导。安装完成后,Ollama 通常作为后台服务运行。要确认它已安装并可从命令行访问:
ollama 并按回车键。如果安装成功,你将看到一个帮助消息,列出可用的 Ollama 命令,类似于这样:
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve 启动 ollama
create 从 Modelfile 创建模型
show 显示模型信息
run 运行模型
pull 从注册表拉取模型
push 将模型推送到注册表
list 列出模型
cp 复制模型
rm 移除模型
help 获取任何命令的帮助
Flags:
-h, --help 获取 ollama 的帮助
-v, --version 显示 ollama 的版本
Use "ollama [command] --help" 获取有关命令的更多信息。
看到这个输出确认你的系统识别 ollama 命令并且应用程序已准备好使用。如果你收到“command not found”(命令未找到)错误,请仔细检查安装步骤,确保 Ollama 正在运行(特别是在 macOS/Windows 上,它可能是一个菜单栏/系统托盘应用程序),并可能需要重启你的终端或计算机。
Ollama 安装并验证后,你现在已具备从终端直接下载和运行大型语言模型所需的条件。接下来的章节将引导你使用 ollama 命令拉取你的第一个模型并开始使用它。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造