什么是 Ollama?您应该知道的所有重要信息
导读:本文回答有关 Ollama 的常见问题。
Ollama 是一个免费的开源项目,可让您在本地运行各种开源 LLM。
无论您想使用像 Codestral 这样的开源 LLM 来生成代码,还是使用 LLaMa 3 作为ChatGPT 的替代方案,Ollama 都可以实现。
但这些是您可以在系统上使用 Ollama 本地实现的最终目标。您需要知道什么才能实现这一点?您如何做到这一切?
在本文中,我将提供有关 Ollama 的所有必要信息。
什么是 Ollama?
Ollama是一款免费的开源工具,可让任何人在系统上本地运行开放的 LLM。它支持 Linux(由 Systemd 提供支持的发行版)、Windows 和 macOS(Apple Silicon)。
Ollama 是一个命令行界面 (CLI) 工具,可让开发者方便地下载 LLM 并在本地私下运行。
只需要使用几个命令,您可以轻松下载 Llama 3、Mixtral 等模型。
我们将其完全想象成 Docker。使用 Docker,您可以从中央存储库下载各种像并在容器中运行它们。
同样地,使用 Ollama,您可以下载各种开源 LLM,然后在终端中运行它们。
下载Ollama
如果要下载 Ollama,请您访问Ollama官方网站- https://ollama.com/,并且请点击“download”按钮下载。
图-1 Ollama.com 官网主页
Ollama 支持 3 种不同的操作系统,当前 Windows 版本尚处于预览版模式。

为了向大家展示在本地使用开源模型的强大功能,我将展示具有不同用例的不同开源模型的多个示例。这将帮助你轻松使用任何未来的开源 LLM 模型。
现在,让我们开始第一个示例!
如何从 Meta 运行 LLama2 模型
Llama 2 模型是 Meta 的开源 LLM 模型,我们将像使用 ChatGPT(免费版本)一样与它交互,目前首先执行基于文本的交互。
首先,我们使用以下命令下载模型:
ollama run llama2br
Llama 2 模型是 Meta 的开源 LLM 模型,我们将像使用 ChatGPT(免费版本)一样与它交互,目前首先执行基于文本的交互。
首先,我们使用以下命令下载模型:
ollama run llama2br
首先,我们使用以下命令下载模型:
ollama run llama2br
ollama run llama2br