💜Qwen3.5 - ローカルで実行する方法
Medium の Qwen3.5-35B-A3B、27B、122B-A10B、Small の Qwen3.5-0.8B、2B、4B、9B、397B-A17B を含む新しい Qwen3.5 LLM を自分のローカルデバイスで実行しましょう!
Qwen3.5 は Alibaba の新しいモデルファミリーで、Qwen3.5- を含みます35B-A3B、 27B, 122B-A10B と 397B-A17B、そして新しい Small シリーズ: Qwen3.5-0.8B、2B、4B、9B。マルチモーダルなハイブリッド推論 LLM は、そのサイズ帯で最も強力な性能を発揮します。これらは 256K コンテキスト を 201 言語でサポートし、 thinking + non-thinking を備え、エージェント型コーディング、ビジョン、チャット、長文コンテキストのタスクに優れています。35B と 27B モデルは 22GB の Mac / RAM デバイスで動作します。すべての GGUF はここ.
Qwen3.5 チュートリアルを実行Qwen3.5 をファインチューニング
3 月 17 日更新: Qwen3.5 を Unsloth Studio.
3 月 5 日更新: Qwen3.5- を再ダウンロード35B, 27B, 122B および 397B.
すべての GGUF は現在、 改善された量子化 アルゴリズムで更新されています。
すべて 新しい imatrix データを使用しています。チャット、コーディング、長文コンテキスト、ツール呼び出しのユースケースでの改善をご覧ください。
ツール呼び出しが改善 されました。これは私たちのチャットテンプレート修正に続くものです。 修正は普遍的 であり、 あらゆる Qwen3.5 形式と あらゆる アップローダーに適用されます。
新しい GGUF ベンチマークを確認 して、Unsloth の性能結果と私たちの MXFP4 調査.
3 つの Qwen3.5 GGUF から MXFP4 レイヤーを廃止します: Q2_K_XL、Q3_K_XL、Q4_K_XL。
すべてのアップロードは Unsloth Dynamic 2.0 を使用しており、SOTA の量子化性能を実現しています - そのため 4-bit では重要なレイヤーが 8 または 16-bit にアップキャストされています。Unsloth にデイゼロアクセスを提供してくれた Qwen に感謝します。また、 ファインチューニング Qwen3.5 を Unsloth で行うこともできます。
thinking を有効または無効にするには、 Qwen3.5.Qwen3.5 Small モデルはデフォルトで無効です。
⚙️ 使用ガイド
表: 推論ハードウェア要件 (単位 = 合計メモリ: RAM + VRAM、またはユニファイドメモリ)
最高の性能を得るには、利用可能な総メモリ(VRAM + システム RAM)が、ダウンロードする量子化モデルファイルのサイズを上回っていることを確認してください。上回っていなくても llama.cpp は SSD/HDD オフロード経由で実行できますが、推論は遅くなります。
次の間では 27B および 35B-A3B、デバイスに収まらないが少しでも正確な結果が欲しいなら 27B を使ってください。はるかに高速な推論が欲しいなら 35B-A3B を選んでください。
推奨設定
最大コンテキストウィンドウ:
262,144(YaRN により 1M まで拡張可能)presence_penalty = 0.0 から 2.0デフォルトではこれはオフですが、繰り返しを減らすために使用できます。ただし高い値を使うと、 わずかな性能低下適切な出力長:
32,768ほとんどの問い合わせに対するトークン数
意味不明な出力が出る場合、コンテキスト長が低すぎる可能性があります。あるいは --cache-type-k bf16 --cache-type-v bf16 を試してください。役立つかもしれません。
Qwen3.5 はハイブリッド推論であるため、thinking モードと non-thinking モードでは設定が異なります:
Thinking モード:
temperature = 1.0
temperature = 0.6
top_p = 0.95
top_p = 0.95
top_k = 20
top_k = 20
min_p = 0.0
min_p = 0.0
presence_penalty = 1.5
presence_penalty = 0.0
repeat penalty = 無効または 1.0
repeat penalty = 無効または 1.0
一般タスク向け Thinking モード:
正確性が求められるコーディングタスク向け Thinking モード:
Instruct(non-thinking)モードの設定:
temperature = 0.7
temperature = 1.0
top_p = 0.8
top_p = 0.95
top_k = 20
top_k = 20
min_p = 0.0
min_p = 0.0
presence_penalty = 1.5
presence_penalty = 1.5
repeat penalty = 無効または 1.0
repeat penalty = 無効または 1.0
〜するには thinking / reasoning を無効化、次を使用します --chat-template-kwargs '{"enable_thinking":false}'
もし Windows Powershell を使っているなら、次を使用してください: --chat-template-kwargs "{\"enable_thinking\":false}"
'true' と 'false' は入れ替えて使えます。
Qwen3.5 0.8B、2B、4B、9B では、reasoning はデフォルトで無効です。有効にするには、次を使用します: --chat-template-kwargs '{"enable_thinking":true}'
一般タスク向け Instruct(non-thinking):
推論タスク向け Instruct(non-thinking):
Qwen3.5 推論チュートリアル:
Qwen3.5 にはさまざまなサイズがあるため、すべての推論ワークロードに Dynamic 4-bit MXFP4_MOE GGUF バリアントを使用します。下をクリックして、指定されたモデルの手順に移動してください:
Unsloth Studio で実行Qwen3.5-35B-A3B27B122B-A10B397B-A17BSmall(0.8B - 9B)
Unsloth Dynamic GGUF アップロード:
presence_penalty = 0.0 から 2.0 デフォルトではこれはオフですが、繰り返しを減らすために使用できます。ただし高い値を使うと、 わずかな性能低下。
現在、Qwen3.5 GGUF は分離された mmproj ビジョンファイルのため Ollama では動作しません。llama.cpp 互換バックエンドを使用してください。
🦥 Unsloth Studio ガイド
Qwen3.5 は Unsloth Studioで実行およびファインチューニングできます。これはローカル AI 向けの新しいオープンソース Web UI です。Unsloth Studio では、モデルを MacOS、Windows、Linux 上でローカル実行でき、さらに次のことができます:
検索、ダウンロード、 GGUF を実行 および safetensor モデル
自己修復型 ツール呼び出し + Web 検索
コード実行 (Python、Bash)
自動推論 パラメータ調整(temp、top-p など)
llama.cpp による高速 CPU + GPU 推論
LLM を学習 70% 少ない VRAM で 2 倍高速

Qwen3.5 を検索してダウンロード
初回起動時には、アカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。その後、モデル、データセット、基本設定を選ぶ短いオンボーディングウィザードが表示されます。いつでもスキップできます。
次に Studio Chat タブに移動し、検索バーで Qwen3.5 を検索して、希望するモデルと量子化版をダウンロードしてください。

Qwen3.5 を実行
Unsloth Studio を使用する場合、推論パラメータは自動設定されるはずですが、手動で変更することもできます。コンテキスト長、チャットテンプレート、その他の設定も編集できます。
詳細については、私たちの Unsloth Studio 推論ガイド.

🦙 Llama.cpp ガイド
Qwen3.5-35B-A3B
このガイドでは、高速推論のために 24GB RAM / Mac デバイスで非常にうまく動作する Dynamic 4-bit を使用します。モデルは完全な F16 精度でも約 72GB 程度なので、性能をそれほど心配する必要はありません。GGUF: Qwen3.5-35B-A3B-GGUF
これらのチュートリアルでは、 llama.cpp を高速なローカル推論のために使用します。特に CPU をお持ちの場合に有効です。
最新の llama.cpp を ここ GitHub で入手。以下のビルド手順に従うこともできます。 -DGGML_CUDA=ON を -DGGML_CUDA=OFF に変更してください。GPU がない場合、または CPU 推論のみを行いたい場合です。 Apple Mac / Metal デバイス向け、設定を -DGGML_CUDA=OFF してから通常どおり続けてください - Metal サポートはデフォルトで有効です。
モデルを読み込むために llama.cpp を直接使いたい場合は、以下のようにできます: (:Q4_K_M) は量子化タイプです。Hugging Face(ポイント 3)経由でもダウンロードできます。これは ollama run に似ています。 export LLAMA_CACHE="folder" を使うと、 llama.cpp が特定の場所に保存するよう強制できます。モデルの最大コンテキスト長は 256K です。
用途に応じて、以下の特定コマンドのいずれかに従ってください:
Thinking モード:
正確性が求められるコーディングタスク(例: WebDev):
一般タスク:
Non-thinking モード:
一般タスク:
推論タスク:
(インストール後に)モデルを経由してダウンロード pip install huggingface_hub hf_transfer )。Q4_K_M や、 UD-Q4_K_XL のような他の量子化版を選べます。サイズと精度のバランスを取るため、少なくとも 2-bit dynamic quant の UD-Q2_K_XL の使用を推奨します。ダウンロードが止まる場合は、次を参照してください: Hugging Face Hub、XET のデバッグ
次に会話モードでモデルを実行します:
Qwen3.5 Small(0.8B • 2B • 4B • 9B)
Qwen3.5 0.8B、2B、4B、9B では、 reasoning は無効 がデフォルトです。有効にするには、次を使用します: --chat-template-kwargs '{"enable_thinking":true}'
Windows では次を使用してください: --chat-template-kwargs "{\"enable_thinking\":true}"
Qwen3.5 Small シリーズは非常に小さいため、必要なのはスクリプト内のモデル名を希望するバリアントに変更することだけです。この特定のガイドでは 9B パラメータ版を使用します。これらすべてをほぼフル精度で実行するには、12GB の RAM / VRAM / ユニファイドメモリを備えたデバイスがあれば十分です。GGUF:
最新の llama.cpp を ここ GitHub で入手。以下のビルド手順に従うこともできます。 -DGGML_CUDA=ON を -DGGML_CUDA=OFF に変更してください。GPU がない場合、または CPU 推論のみを行いたい場合です。
モデルを読み込むために llama.cpp モデルを読み込むために ollama run に似ています。 export LLAMA_CACHE="folder" を使うと、 llama.cpp が特定の場所に保存するよう強制できます。モデルの最大コンテキスト長は 256K です。
用途に応じて、以下の特定コマンドのいずれかに従ってください:
9B 以外の別バリアントを使うには、'9B' を 0.8B、2B、4B などに変更できます。
Thinking モード(デフォルトでは無効)
Qwen3.5 Small モデルはデフォルトで thinking を無効にしています。有効にするには llama-server を使ってください。
一般タスク:
9B 以外の別バリアントを使うには、'9B' を 0.8B、2B、4B などに変更できます。
Non-thinking モードはすでにデフォルトで有効です
一般タスク:
推論タスク:
(インストール後に)モデルを経由してダウンロード pip install huggingface_hub hf_transfer )。Q4_K_M や、 UD-Q4_K_XL のような他の量子化版を選べます。サイズと精度のバランスを取るため、少なくとも 2-bit dynamic quant の UD-Q2_K_XL の使用を推奨します。ダウンロードが止まる場合は、次を参照してください: Hugging Face Hub、XET のデバッグ
次に会話モードでモデルを実行します:
Qwen3.5-27B
このガイドでは、高速推論のために 18GB RAM / Mac デバイスで非常にうまく動作する Dynamic 4-bit を使用します。GGUF: Qwen3.5-27B-GGUF
最新の llama.cpp を ここ GitHub で入手。以下のビルド手順に従うこともできます。 -DGGML_CUDA=ON を -DGGML_CUDA=OFF に変更してください。GPU がない場合、または CPU 推論のみを行いたい場合です。
モデルを読み込むために llama.cpp を直接使いたい場合は、以下のようにできます: (:Q4_K_M) は量子化タイプです。Hugging Face(ポイント 3)経由でもダウンロードできます。これは ollama run に似ています。 export LLAMA_CACHE="folder" を使うと、 llama.cpp が特定の場所に保存するよう強制できます。モデルの最大コンテキスト長は 256K です。
用途に応じて、以下の特定コマンドのいずれかに従ってください:
Thinking モード:
正確性が求められるコーディングタスク(例: WebDev):
一般タスク:
Non-thinking モード:
一般タスク:
推論タスク:
(インストール後に)モデルを経由してダウンロード pip install huggingface_hub hf_transfer )。次を選べます MXFP4_MOE または、次のような他の量子化版 UD-Q4_K_XL のような他の量子化版を選べます。サイズと精度のバランスを取るため、少なくとも 2-bit dynamic quant の UD-Q2_K_XL の使用を推奨します。ダウンロードが止まる場合は、次を参照してください: Hugging Face Hub、XET のデバッグ
次に会話モードでモデルを実行します:
Qwen3.5-122B-A10B
このガイドでは、高速推論のために 70GB RAM / Mac デバイスで非常にうまく動作する Dynamic 4-bit を使用します。GGUF: Qwen3.5-122B-A10B-GGUF
最新の llama.cpp を ここ GitHub で入手。以下のビルド手順に従うこともできます。 -DGGML_CUDA=ON を -DGGML_CUDA=OFF に変更してください。GPU がない場合、または CPU 推論のみを行いたい場合です。
モデルを読み込むために llama.cpp を直接使いたい場合は、以下のようにできます: (:Q4_K_M) は量子化タイプです。Hugging Face(ポイント 3)経由でもダウンロードできます。これは ollama run に似ています。 export LLAMA_CACHE="folder" を使うと、 llama.cpp が特定の場所に保存するよう強制できます。モデルの最大コンテキスト長は 256K です。
用途に応じて、以下の特定コマンドのいずれかに従ってください:
Thinking モード:
正確性が求められるコーディングタスク(例: WebDev):
一般タスク:
Non-thinking モード:
一般タスク:
推論タスク:
(インストール後に)モデルを経由してダウンロード pip install huggingface_hub hf_transfer )。次を選べます MXFP4_MOE (dynamic 4bit)または、次のような他の量子化版 UD-Q4_K_XL のような他の量子化版を選べます。サイズと精度のバランスを取るため、少なくとも 2-bit dynamic quant の UD-Q2_K_XL の使用を推奨します。ダウンロードが止まる場合は、次を参照してください: Hugging Face Hub、XET のデバッグ
次に会話モードでモデルを実行します:
Qwen3.5-397B-A17B
Qwen3.5-397B-A17B は、Gemini 3 Pro、Claude Opus 4.5、GPT-5.2 と同じ性能帯にあります。完全な 397B チェックポイントはディスク上で約 807GB ですが、 Unsloth の 397B GGUF を通じて、次を実行できます:
3-bit: 次に収まります 192GB RAM システム(例: 192GB Mac)
4-bit(MXFP4): 次に収まります 256GB RAM。Unsloth の 4-bit dynamic UD-Q4_K_XL は ディスク上で約 214GB です - 256GB M3 Ultra
に直接読み込めます 単一の 24GB GPU + 256GB システム RAM で実行可能 MoE オフロード経由で、 25+ tokens/s
8-bit には 約 512GB RAM/VRAM
が必要です。 397B 量子化ベンチマーク で Unsloth GGUF の性能をご確認ください。
最新の llama.cpp を ここ GitHub で入手。以下のビルド手順に従うこともできます。 -DGGML_CUDA=ON を -DGGML_CUDA=OFF に変更してください。GPU がない場合、または CPU 推論のみを行いたい場合です。
モデルを読み込むために llama.cpp を直接使いたい場合は、以下のようにできます: (:Q4_K_M) は量子化タイプです。Hugging Face(ポイント 3)経由でもダウンロードできます。これは ollama run に似ています。 export LLAMA_CACHE="folder" を使うと、 llama.cpp が特定の場所に保存するようにします。モデルの最大コンテキスト長は 256K のみであることを忘れないでください。
これに従って thinking モードを使用してください:
これに従って non-thinking モードを使用してください:
(インストール後に)モデルを経由してダウンロード pip install huggingface_hub hf_transfer )。次を選べます MXFP4_MOE (dynamic 4bit)または、次のような他の量子化版 UD-Q4_K_XL のような他の量子化版を選べます。サイズと精度のバランスを取るため、少なくとも 2-bit dynamic quant の UD-Q2_K_XL の使用を推奨します。ダウンロードが止まる場合は、次を参照してください: Hugging Face Hub、XET のデバッグ
次を編集できます --threads 32 は CPU スレッド数、 --ctx-size 16384 はコンテキスト長、 --n-gpu-layers 2 は GPU オフロードするレイヤー数です。GPU がメモリ不足になる場合は調整してみてください。CPU のみの推論なら削除してください。
👾 LM Studio ガイド
このガイドでは、 LM Studioを使用します。これは LLM を実行するための統合 UI インターフェースです。'💡Thinking' と 'Non-thinking' の切り替えはデフォルトでは表示されない場合があるため、動作させるには追加の手順が必要です。
ダウンロード LM Studio をお使いのデバイス向けに行ってください。その後 Model Search を開き、'unsloth/qwen3.5' を検索して、希望する GGUF(量子化版)をダウンロードしてください。

Thinking トグルの手順: ダウンロード後、ターミナル / PowerShell を開いて次を試してください: lms --help。その後、LM Studio が通常どおり多数のコマンドとともに表示されたら、次を実行してください:
これにより、GGUF に '💡Thinking' と 'Non-thinking' のトグルを表示させる yaml ファイルを取得できます。 4b を希望する量子化版に変更できます。

それ以外の場合は、 私たちの LM Studio ページ に移動して、特定の yaml ファイルをダウンロードできます。
LM Studio を再起動し、ダウンロードしたモデル(ダウンロードした特定の thinking トグル付き)をロードしてください。これで Thinking トグルが有効になっているはずです。 正しいパラメータ.

🦙 Llama-server 配信 & OpenAI の completion ライブラリ
本番運用向けに Qwen3.5-397B-A17B をデプロイするには、 llama-server 新しいターミナルで、たとえば tmux 経由で、次のようにモデルをデプロイします:
次に新しいターミナルで、 pip install openaiを行った後、次を実行します:
🤔 reasoning と thinking を有効または無効にする方法
以下のコマンドでは、'true' と 'false' を入れ替えて使えます。
Unsloth Studio には thinking モデル用の 'Think' トグルが自動的にあります。
LM Studio で Think トグルを使うには、 私たちのガイドを読む.

〜するには 無効化 thinking / reasoning するには、llama-server 内で次を使用してください:
もし Windows または Powershell では、次を使用してください: --chat-template-kwargs "{\"enable_thinking\":false}"
〜するには 有効化 thinking / reasoning するには、llama-server 内で次を使用してください:
もし Windows または Powershell では、次を使用してください: --chat-template-kwargs "{\"enable_thinking\":true}"
Qwen3.5 0.8B、2B、4B、9B では、reasoning はデフォルトで無効です。有効にするには、次を使用します: --chat-template-kwargs '{"enable_thinking":true}'
また、Windows または Powershell では: --chat-template-kwargs "{\"enable_thinking\":true}"
例として、Qwen3.5-9B で thinking を有効化するには(デフォルトでは無効):
そして Python では:

👨💻 OpenAI Codex & Claude Code
ローカルのコーディング系エージェント的ワークロードでモデルを実行するには、 こちらのガイドに従ってください。あとはモデル名を目的の「Qwen3.5」バリアントに変更し、正しい Qwen3.5 のパラメータと使用手順に従っていることを確認するだけです。 llama-server 先ほど設定したものを使います。
たとえば Claude Code の手順に従うと、次のように表示されます。

それでは、たとえば次のように依頼できます チェスの Python ゲームを作成して :



🔨Qwen3.5 でのツール呼び出し
が必要です。 Tool Calling Guide ツール呼び出しの方法について詳しくは。新しいターミナルで(tmux を使っている場合は CTRL+B+D を押します)、2つの数値の加算、Python コードの実行、Linux 関数の実行など、いくつかのツールを作成します。
それでは以下の関数(コピーして貼り付けて実行)を使います。これにより関数呼び出しが自動的に解析され、どのモデルでも OpenAI エンドポイントが呼び出されます。
Qwen3.5 を起動した後、 llama-server のように Qwen3.5 または Tool Calling Guide を参照すると、さらに詳細を確認でき、その後いくつかのツール呼び出しができます。
📊 ベンチマーク
Unsloth GGUF ベンチマーク
Qwen3.5-35B Unsloth Dynamic quant を更新し、 SOTA である ことを、ほぼすべてのビットで確認しました。150件以上の KL ダイバージェンス・ベンチマークを実施し、合計で 9TB の GGUFを扱いました。研究成果物はすべて公開しています。また、 ツール呼び出し チャットテンプレート の バグ
すべての GGUF は現在、 改善された量子化 アルゴリズムで更新されています。
すべて 新しい imatrix データを使用しています。チャット、コーディング、長文コンテキスト、ツール呼び出しのユースケースでの改善をご覧ください。
(すべての quant アップローダーに影響します)も修正しました。Qwen3.5-35B-A3B GGUF は新しい修正を使うよう更新されています(112B、27B はまだ変換中です。更新後に再ダウンロードしてください)
99.9% の KL ダイバージェンスで SOTA を示しています UD-Q4_K_XL、IQ3_XXS などのパレート最前線上で。
MXFP4 を廃止 すべての GGUF quant から: Q2_K_XL、Q3_K_XL、Q4_K_XL。ただし純粋な MXFP4_MOE は除きます。


詳細な QWEN3.5 分析とベンチマークはこちらでご覧ください:
Qwen3.5 GGUF ベンチマークQwen3.5-397B-A17B ベンチマーク

Benjamin Marie(第三者)がベンチマークを実施 Qwen3.5-397B-A17B Unsloth GGUF を使って 750プロンプトの混成スイートで (LiveCodeBench v6、MMLU Pro、GPQA、Math500)、以下の両方を報告しています 全体精度 および 相対誤差増加 (量子化モデルが元のモデルよりどれだけ頻繁にミスをするか)。
主な結果(精度;元からの変化;相対誤差増加):
元の重み: 81.3%
UD-Q4_K_XL: 80.5% (−0.8ポイント;相対誤差増加 +4.3%)
UD-Q3_K_XL: 80.7% (−0.6ポイント;相対誤差増加 +3.5%)
UD-Q4_K_XL および UD-Q3_K_XL は元のものに非常に近いままで、 精度低下は 1 ポイント未満 このスイートでは、Ben はあなたが メモリ使用量を大幅に削減できる ((約500GB削減)一方で、テストしたタスクでは実用上ほとんど、あるいはまったく損失がないことを示唆しています。
選び方: ここで Q3 のスコアが Q4 よりわずかに高いのは、この規模では通常の実行ごとのばらつきとして十分にあり得ることなので、 Q3 と Q4 は実質的に同程度の品質 としてこのベンチマークでは扱ってください:
選ぶのは Q3 次のような場合です 最小のフットプリント / 最大のメモリ節約
選ぶのは Q4 次のような場合です やや保守的な 選択肢で 同等の 結果がほしい場合
記載されているすべての quant は、私たちの動的手法を利用しています。 UD-IQ2_M も同じ動的手法を使っていますが、変換プロセスは UD-Q2-K-XL とは異なります。K-XL は通常 UD-IQ2_M より大きくても高速なので、そのため UD-IQ2_M のほうがより良い性能を示す場合があります UD-Q2-K-XL.
公式 Qwen ベンチマーク
Qwen3.5-35B-A3B、27B、122B-A10B ベンチマーク

Qwen3.5-4B および 9B ベンチマーク

Qwen3.5-397B-A17B ベンチマーク

最終更新
役に立ちましたか?


