Ollama 教程
Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。
谁适合阅读本教程?
Ollama 适用于开发者、研究人员以及对数据隐私有较高要求的用户,它可以帮助用户在本地环境中快速部署和运行大型语言模型,同时提供灵活的定制化选项。
使用 Ollama,我们可以在在本地运行 Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 和其他模型。
学习本教程前你需要了解
本教程适合有 Python 基础的开发者学习,如果不了解 Python 可以查阅 Python 3.x 基础教程。
理解 Docker 镜像和容器的区别,知道如何从 Docker Hub 拉取镜像并运行容器,docker 相关内容参见: Docker 教程。
熟悉命令行工具(如终端或命令提示符)的基本操作,例如文件和目录的创建、删除、移动,以及如何运行脚本和程序。
创建新的模型
我们可以使用 ollama create 命令从 Modelfile 创建模型:
实例
ollama create model -of ./Modelfile
相关链接
Ollama 官方地址:https://ollama.com/
Github 开源地址:https://github.com/ollama/ollama
Ollama 官方文档:https://github.com/ollama/ollama/tree/main/docs