沉浸式翻译配置Ollama

一直想用本地模型去翻译一些内容,主要是想利用本地模型去翻译书。我特别想看一些之前发布的新书,比如这些书: :point_down:

今天我发现沉浸式翻译有这个功能。

具体操作如下:

  • 沉浸式翻译配置
    基本设置选择OpenAI,自定义的API Key. ollama是固定的API key 填上即可.下面模型就是你想使用哪个模型把名字填在下面.我本地有几个,我选择了gemma:7b

  • 启动ollama
    本地启动ollama 服务, OLLAMA_ORIGINS="*" ollama serve (允许跨域访问并启动ollama)

最后就像介入其他模型一样使用了.

结果:

可以看到当前的翻译结果还不是很理想 :thinking:,这可能需要调试模型和prompt。每个模型对于prompt的效果都会有所不同。

这种方式适用于当您的API数量有限,或者当您无法连接到网络但需要进行翻译时使用。同时,请确保您有一台能够运行模型的设备 :computer::rofl:

完结~
感谢观看 :partying_face:

68 个赞

好文。要什么硬件跑?

15 个赞

CPU就可以,当然GPU最好
我写文了,即使ARM 版本的Windows也可以

11 个赞

另外一个翻译器,也支持ollama了
OpenAI Translator

8 个赞

这个模型m系列都能跑

6 个赞

赞赞赞

4 个赞

大佬,翻译速度和质量怎么样?对硬件的要求呢,能否贴一下你当前跑这个模型的配置

5 个赞

这是啥翻译

28 个赞

沉浸式翻译

3 个赞

特性

  1. 支持三种翻译模式:翻译、润色、总结
  2. 支持 55 种语言的相互翻译、润色和总结功能
  3. 支持实时翻译、润色和总结,以最快的速度响应用户,让翻译、润色和总结的过程达到前所未有的流畅和顺滑
  4. 支持自定义翻译文本
  5. 支持一键复制
  6. 支持 TTS
  7. 有桌面端应用,全平台(Windows + macOS + Linux)支持!
  8. 支持截图翻译
  9. 支持生词本,同时支持基于生词本里的单词生成帮助记忆的内容
  10. 同时支持 OpenAIAzure OpenAI Service
8 个赞

我现在就是m2pro 16G内存的笔记本。 基本上跑个7B或者以下的没问题。

6 个赞

嗯 他有双语翻译书吗? 我看沉浸式是需要他的翻译书籍功能。

5 个赞

目前我用的m2 pro +16G内存的 笔记本。

5 个赞

先码住,现在的笔记本还跑不起来

7 个赞

是的 也可以接入ide 通过插件模拟copilot的功能。

10 个赞

:kissing_heart: :kissing_heart: :kissing_heart:

36 个赞

我 m2 max 32G, 跑的qwen 14b, 流畅, 34token/s

10 个赞

的确有个开源插件,叫continue, 不过我这边装了它后,给我生成了超过70GB的向量数据库

9 个赞

统一大内存真好 我是买小了:joy:

14 个赞

我装了那个 而且他有体验gpt4v 等模型 。

15 个赞