こんにちは、たねやつです。
今回は、ローカルPC上で大規模言語モデル(LLM)を簡単に実行できるツール「Ollama」と、多機能ノートアプリObsidianのプラグイン「Copilot」を連携させて、セキュアで快適なAI執筆環境を構築する方法をご紹介します。
APIキーの管理や情報漏洩のリスクを気にすることなく、自分だけのAIと対話できる環境を手に入れてみませんか?
- この記事でできること
- 事前に必要なもの
- Ollamaをインストールする
- 好きなモデルをダウンロードして実行する
- Ollamaサーバーの動作確認
- Obsidian CopilotからOllamaに接続する
- 最後に
- 参考・引用
この記事でできること
- OllamaをWindowsにインストールできるようになる
- ローカル環境で好きなLLMをダウンロードして実行できるようになる
- Obsidian CopilotからローカルLLMを呼び出して、執筆アシスタントとして活用できるようになる
事前に必要なもの
- Windowsが動作するPC
- Obsidian
- Obsidianのコミュニティプラグイン「Copilot」がインストール済みであること'
Ollamaをインストールする
まずは、Ollama本体をPCにインストールします。以下の公式サイトにアクセスし、Windows版をダウンロードしてください。
ダウンロードしたインストーラーを実行すれば、インストールは完了です。特に難しい設定はありません。
好きなモデルをダウンロードして実行する
Ollamaのインストールが完了したら、次は動かしたいLLMモデルをダウンロードします。アプリを起動してモデルを選択してチャットを行うとモデルがダウンロードされます。

他にも、以下のようなモデルが比較的人気で、性能と要求スペックのバランスが良いのでオススメです。
deepseek-r1:8bqwen3:4bgpt-oss:20b(少し大きめ)
モデル名は [モデル名]:[パラメータサイズ] の形式で指定します。利用可能なモデルの詳細はOllamaの公式サイトで確認できます。
Ollamaサーバーの動作確認
モデルを実行すると、バックグラウンドでOllamaのサーバーが起動します。このサーバーがObsidian Copilotとの連携に必要になります。
サーバーが正しく動作しているか確認するために、Webブラウザで以下のURLにアクセスしてみてください。
http://localhost:11434
画面に「Ollama is running」と表示されていれば、サーバーは正常に起動しています。
Obsidian CopilotからOllamaに接続する
最後に、Obsidian Copilotの設定画面を開き、Ollamaに接続します。
- Obsidianの
設定>コミュニティプラグイン>Copilotを開きます。 Model→Add Custom Modelでモデルを追加します。- ProviderにOllamaを選択。
Ollama API URLはデフォルトのhttp://localhost:11434のままでOKです。Model Nameの項目で、先ほどダウンロードしたモデル名(例:qwen3:4b)を選択、あるいは入力します。

これで設定は完了です!Obsidianのノート上でCopilotを呼び出すと、ローカルで動作しているOllamaのLLMが応答を返してくれるようになります。
最後に
今回は、OllamaとObsidian Copilotを連携させて、自分だけのローカルLLM環境を構築する方法をご紹介しました。
クラウドサービスを利用する際のセキュリティリスクやプライバシーの懸念から解放され、オフラインでも気兼ねなくAIの力を借りることができるのは大きなメリットですね!ぜひ、あなたの知識創造活動に役立ててみてください。
