开源大模型的本地部署,本地大语言模型部署工具对比:Ollama vs LM Studio 如何选择适合自己的 AI 助手

内容来自https://blog.eimoon.com/p/comparison-local-llm-deployment-tools-ollama-vs-lm-studio/
最后总结的情况:

总结

特性 llama.cpp Ollama vLLM LM Studio
核心定位 CPU/边缘推理 开发者本地工具 生产级 GPU 服务 非开发者桌面应用
用户界面 命令行 CLI + 简单 API API 服务器 图形化界面 (GUI)
硬件依赖 CPU CPU(可选 GPU) GPU CPU/GPU 自动适配
模型兼容性 GGUF/GGML 格式 多格式(依赖后端) HuggingFace 原生 HuggingFace 格式
部署复杂度 需手动配置 一键运行 需调优和集群部署 零配置,开箱即用
典型场景 嵌入式设备、量化推理 快速原型开发 云端高并发 API 个人体验、非技术用户
量化支持 :white_check_mark: :white_check_mark:(依赖后端) :cross_mark: :cross_mark:
开源/闭源 开源 开源 开源 闭源(免费)
6 个赞

注意LM Studio(基于llama.cpp)仅个人使用免费,并且ToS里面提到

为调查潜在的违规行为,会收集一些数据,并有权调查你的数据
收集设备信息,例如IP地址,设备型号等,用于识别用户身份和追踪违规行为。
可能会监控通信数据,以防止骚扰或不当行为。
可能会分析上传的文件和消息,以检测是否包含违反用户协议的信息。

2 个赞

LM Studio 能使用一些ollama上没有的模型.
还不知道怎么从ollama上加载这种模型会有两个gguf. :grimacing:

比如 qwen2.5 vl 、 mimicpm-o-2-6

另外还支持云行MLX模型, 我习惯会在上面测测ollama上没有的.

其实ollama也是可以CPU/GPU 自动适配,虽然只能通过ollama ps看看占用程度不能调节卸载层数 :joy:

请问Ollama是基于llama.cpp开发的吗

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。