搭建自己的AI助手-ollama部署指南

1 分钟阅读时长

发布时间:

介绍

ollama 可以帮助你在本地启动并运行大型语言模型,来搭建专属于你自己的 AI 助手。

ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava

注意:运行 7B 需要至少 8 GB 可用 RAM,13B 需要至少 16 GB 来运行 RAM,33B 需要至少 32 GB 来运行 RAM。

准备环境

目前暂不支持 Windows 直接安装

部署 Ollama

安装

📢:Ollama 默认会占用 11434 端口

macOS

下载链接 下载安装即可

Linux

curl https://ollama.ai/install.sh | sh

Docker

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

下载模型文件

这里 Link 有可以使用的模型文件,你可以看下介绍,然后根据自己的电脑配置及需要下载不同的模型文件即可。 如下图所示,我是选择了 tinyllama 的模型文件。对于每个模型文件还有区分不同参数数量的模型细项,后面有对应的安装指令。 这里我选择使用 tinyllama 默认的选项,所以执行的如下命令。

ollama run tinyllama

安装完成后,会出现如下的提示:
此时在这里收入你的指令即可以使用了。如下所示(因为的电脑性能还可以,所以响应速度还不错):

Web 界面安装 chatbot ui

考虑到通过终端使用的不便利性,所以我们可以通过安装 chatbot ui 来使用我们的 AI。

效果如下图所示

安装步骤

1. 确保已安装好 Docker,如果没有安装可以参考 Docker 安装指南
2. 安装 Chatbot-ui

在终端执行如下命令即可,会占用电脑的 3000 端口,也可以通过修改“:”前的 3000 修改为其他的端口。

docker run -p 3000:3000 ghcr.io/ivanfioravanti/chatbot-ollama:main

到出现如下内容,即可打开浏览器并输入http://127.0.0.1:3000使用了。
效果如下: