漏洞描述
Ollama 是一个开源的便于本地部署和运行 Llama 3、Mistral、Gemma 等大型语言模型的工具。
据描述,由于 Ollama 的默认部署配置未强制启用身份认证机制,如果服务端口(默认11434)直接暴露于公网,则攻击者可直接访问高危接口,从而读取、下载或删除私有模型文件,并窃取敏感业务数据或滥用模型推理资源,如果 Ollama 以 Docker 部署,则攻击者可能通过恶意指令注入实现容器逃逸。
- 模型管理接口(拉取/删除模型文件)
- 模型推理接口(执行任意 Prompt 指令)
- 系统配置接口(篡改服务参数)