ollama简介

Ollama 是一个使用 Go 开发的大模型运行工具,支持不同的后端 Ollama Library 。由于使用方便,跨平台,目前很受入门用户的欢迎。

对比

Hacker News上有一个讨论 Reminder: You don't need ollama, running llamacpp is as easy as ollama. Ollama is just a wrapper over llamacpp. :

  • ollama 实际上是 llama.cpp 的包装,虽然提供了更为简单的使用方法,但也导致无法在细粒度上控制 llama.cpp

  • ollama 的模型文件需要通过 import 导入,而不是直接使用下载的 .gguf

  • 既然 llama.cpp 现在已经提供了 llama-server 输出服务,并且能够兼容 OpenAI 的API,是否还需要再运行 ollama 这个包装层?

备注

我感觉深入学习 llama.cpp 的部署可能更可以控制底层技术,并且减轻中间层的消耗。但是也带来很多细节需要花费精力。这是一个投入产出的平衡,有待探索。

参考