Alma 内置的记忆功能非常实用,但要启用该功能需要配置 OpenAI 提供商来调用嵌入模型。
考虑到许多用户没有官方的 OpenAI API 密钥,且第三方服务商很少提供符合要求的嵌入模型,同时为了最大限度地节省使用成本,我决定探索本地部署方案。本教程将详细介绍如何使用 Ollama 在本地搭建嵌入模型环境,实测效果良好,与云端服务无明显差异。
环境配置
- 设备:MacBook Air M1(8GB 内存)
- 软件:Ollama
- 模型:qwen3-embedding:0.6b
操作步骤
第一步:安装 Ollama
虽然官网提供了带 GUI 的安装包,但后续操作(如下载模型)仍需在终端中进行。因此推荐使用 Homebrew 直接安装:
brew install ollama
第二步:启动服务并下载模型
在终端中依次执行以下命令:
# 启动 Ollama 服务(后台运行)
ollama serve &
# 拉取嵌入模型
ollama pull qwen3-embedding:0.6b
第三步:在 Alma 中添加自定义提供商
- 进入 Alma 的提供商设置页面,选择“添加自定义提供商”
- API 端点填写:
http://localhost:11434/v1 - API 密钥可以任意填写(本地部署无需验证)
- 点击下方的“Fetch”按钮,此时应该能看到刚刚下载的
qwen3-embedding模型出现在列表中
第四步:启用并测试记忆功能
- 打开 Alma 的记忆设置页面,开启记忆功能
- 在嵌入模型下拉菜单中选择
qwen3-embedding - 尝试在“添加记忆”区域手动添加一条测试记忆
- 如果添加成功,说明配置已完成;若遇到错误,可根据提示信息进一步排查或咨询 AI 助手获取解决方案
总结
通过以上四步,即可在本地免费使用嵌入模型,完整激活 Alma 的记忆功能。
尽情享受 Alma 吧!