本地部署嵌入模型,激活 Alma 记忆功能

Alma 内置的记忆功能非常实用,但要启用该功能需要配置 OpenAI 提供商来调用嵌入模型。

考虑到许多用户没有官方的 OpenAI API 密钥,且第三方服务商很少提供符合要求的嵌入模型,同时为了最大限度地节省使用成本,我决定探索本地部署方案。本教程将详细介绍如何使用 Ollama 在本地搭建嵌入模型环境,实测效果良好,与云端服务无明显差异。

环境配置

  • 设备:MacBook Air M1(8GB 内存)
  • 软件:Ollama
  • 模型:qwen3-embedding:0.6b

操作步骤

第一步:安装 Ollama

虽然官网提供了带 GUI 的安装包,但后续操作(如下载模型)仍需在终端中进行。因此推荐使用 Homebrew 直接安装:

brew install ollama

第二步:启动服务并下载模型

在终端中依次执行以下命令:

# 启动 Ollama 服务(后台运行)
ollama serve &
# 拉取嵌入模型
ollama pull qwen3-embedding:0.6b

第三步:在 Alma 中添加自定义提供商

  1. 进入 Alma 的提供商设置页面,选择“添加自定义提供商”
  2. API 端点填写:http://localhost:11434/v1
  3. API 密钥可以任意填写(本地部署无需验证)
  4. 点击下方的“Fetch”按钮,此时应该能看到刚刚下载的 qwen3-embedding 模型出现在列表中

第四步:启用并测试记忆功能

  1. 打开 Alma 的记忆设置页面,开启记忆功能
  2. 在嵌入模型下拉菜单中选择 qwen3-embedding
  3. 尝试在“添加记忆”区域手动添加一条测试记忆
  4. 如果添加成功,说明配置已完成;若遇到错误,可根据提示信息进一步排查或咨询 AI 助手获取解决方案

总结

通过以上四步,即可在本地免费使用嵌入模型,完整激活 Alma 的记忆功能。

尽情享受 Alma 吧!