安装

curl -fsSL https://ollama.com/install.sh | sh

运行模型示例

ollama run llama3.2

类似docker 命令,可以使用 ollama listollama ps 命令查看已安装的模型和正在运行的模型。

自定义模型

类似 dockerfile , 可以创建Modelfile 来自定义模型的行为及输出。

比如定义一个翻译助手,从英文翻译到中文。 Modelfile 可以创建如下:

FROM llama3.2

# set the system message
SYSTEM """
你的任务是把用户提供的{{.Prompt}} 直接翻译成中文。
"""

然后可以创建模型

ollama create fanyi-llama3.2 -f Modelfile

之后,可以运行

ollama run fanyi-llama3.2

Modelfile 的使用说明参考 https://github.com/ollama/ollama/blob/main/docs/modelfile.md

使用api 接口服务

启动 server 服务

ollama serve

在本地起一个 11434 端口。

然后另一个终端,运行模型

ollama run fanyi-llama3.2

接口请求

curl http://localhost:11434/api/generate -d '{
  "model": "fanyi-llama3.2",
  "prompt": "The SYSTEM instruction specifies the system message to be used in the template, if applicable.",
  "stream": false
}'