启动后台服务
bash
ollama serve- 默认监听 127.0.0.1:11434
查看本地已有模型
bash
ollama list- 名称 / ID / 大小 / 修改时间
拉取(下载)新模型
bash
ollama pull llama3- 首次 run 会自动 pull,可提前下载
运行并进入交互对话
bash
ollama run llama3- 进入 >>> 提示符,/bye 或 Ctrl+D 退出
非交互一次性输出
bash
ollama run llama3 "用中文写首秋天的诗"查看当前已加载到内存的模型
bash
ollama ps删除不再使用的模型
bash
ollama rm llama2查看模型详细信息
bash
ollama show llama3- 含 Modelfile、参数、系统提示等
交互模式下的常用快捷键/指令
清空上下文
bash
/clear把当前会话参数存成新模型
bash
/save <name>退出对话
bash
/bye