Google Gemma 4 × LM Studio 0.4.9 での導入と利用ガイド

スポンサーリンク
この記事は約7分で読めます。

Gemma 4は、Googleが2026年4月2日にリリースした、最新のオープンウェイトAIモデルのファミリーです。

Googleの最上位AIである「Gemini 3」と同じ技術(リサーチとテクノロジー)をベースに構築されており、従来のオープンモデルの常識を覆す高い推論能力と、開発者にとって非常に扱いやすいライセンス体系が特徴です。

今回の世代では、論理的に考える力が大きく向上しただけでなく、画像を理解できるマルチモーダル機能も標準で備わっています。

参考:Gemma 4 モデルカード

この記事では、こうしたGemma 4の特長を踏まえ、最新のLM Studio環境で上手に活用するためのポイントを分かりやすくまとめています。

Gemma 4 とは

Gemma 4は、Googleの最先端AI「Gemini」シリーズと同じ技術スタックで構築されています。

主な特徴

  • Apache 2.0 ライセンスの採用:
    Gemma 4から、完全にオープンソースな「Apache 2.0」ライセンスに変更されました。
    これにより、商用利用、改変、再配布がこれまで以上に自由に行えます。
  • 「パラメータあたりの知性」の向上:
    小規模なモデルでありながら、その数十倍のサイズを持つ旧世代の大型モデルに匹敵する性能(Reasoning、数学、コード生成など)を実現しています。
  • ネイティブ・マルチモーダル:
    テキストだけでなく、画像や動画を標準で理解できます。さらに一部のモデルでは音声入力にもネイティブ対応しています。
  • エージェント特化型:
    ツール実行(Function Calling)や構造化データ(JSON)の出力能力が高く、自律的なAIエージェントの開発に適しています。

モデルのラインナップ

用途に合わせて4つのサイズが提供されています。

モデル名パラメータ数特徴コンテキスト長
Effective 2B (E2B)約5.1B (実効2B)スマホ・IoT向け。音声入力対応。128K
Effective 4B (E4B)約8.0B (実効4.5B)エッジデバイス向け。高い画像認識能力。128K
26B MoE25.2B (実効3.8B)初のMoE構成。低レイテンシで高速。256K
31B Dense30.7Bシリーズ最高性能。ファインチューニングに最適。256K

Gemma 4:モデルの概要

LM Studio 0.4.9 での利用

最新の LM Studio アップデートLM Studio0.4.9 (build 1)では、Gemma 4 の能力を「安定」させるための重要なマイルストーンです。

ツール利用(Tool Use)の信頼性:
Gemma 4 が外部ツール(計算機、検索、APIなど)を呼び出す際のプロンプト理解が大幅に向上しました。

思考プロセスの制御:
Anthropic 互換の v1/messages 形式に対応し、output_config.effort(low, medium, high, max)によって、モデルが回答を生成する際のリソース投入量を制御可能になりました。

UIの堅牢性:
チャットフォルダ削除時のフリーズ解消や、Markdown リンクのポップオーバー表示のバグ修正など、長時間の開発作業に耐えうる安定性が確保されています。

LM Studio(GUI)での使い方

GUIでは、視覚的な操作で簡単にモデルをセットアップできます。

検索とダウンロード:

検索窓に gemma-4-it と入力し、lmstudio-community 版を選択します。

gemma-4-itの指定

Vision機能の確認:

モデル名の横に Vision バッジがあることを確認してください。

google/gemma-4-26B-A4B-itを選択

lms コマンド(CLI)の利用

設定の確認

lms コマンド(CLI)をターミナルで使用するには、
Settings(設定)⚙️ > Developer(開発者向け) タブのDeveloper modeがONであることを確認します。

Developer modeがONを確認

基本手順

  1. モデル確認: lms ls でロード可能な Gemma 4 の正確なIDを確認。
  2. ロード: lms load gemma-4-26b-a4b-it でメモリ(RAM/VRAM)へ展開。
  3. モード選択:
    • 直接対話: lms chat
    • APIとして運用: lms server start(デフォルトでポート1234を使用)

コマンド一覧(Gemma 4 運用編)

コマンドGemma 4 での活用例詳細説明
lms ls正確なモデルIDの取得インストール済みの Gemma 4 (E2B や 26B) の正確な識別子を確認します。スクリプトに記述する際のミスを防ぎます。
lms load [ID]スマートなメモリ展開特定のモデルをロードします。LM Studio 0.4.9 では、VRAMとRAMの空き状況を自動的に判断し、最適なデバイスへ割り当てます。
lms unload --allメモリの完全解放26Bモデルなどの巨大なリソースを解放し、PCを通常の作業(コンパイルや動画編集など)に戻す際に必須です。
lms server start常駐型APIサーバー化lms chat を使わずに、バックグラウンドで推論エンジンを待機させます。自作ツールやPythonスクリプトからの呼び出しの起点となります。
lms status稼働リソースの監視現在どのモデルがアクティブで、どれだけのメモリを占有しているかをリアルタイムで確認できます。
lms log推論プロセスの可視化ツール呼び出し(Tool Use)の成否や、推論中の内部エラーをデバッグするために使用します。

CLIでのマルチモーダル(画像解析)を実行

実行ワークフロー

  1. サーバー起動:
    ターミナルで lms server start を実行し、APIを有効にします。
  2. 解析スクリプトの実行:
    以下のスクリプト(vision_test.py)を使用して、画像をBase64エンコードして送信します。

このvision_test.pyを実行(python vision_test.py)することで、GUIを開かずに画像を解析できます。

解析に指定した画像

まとめ:ローカルAIの新時代

Gemma 4 と LM Studio 0.4.9 の組み合わせは、プライバシーを守りながら、商用AIに匹敵するパワーをローカルPCで使用できます。

特にマルチモーダル機能の CLI 活用は、大量のデータ処理を自動化する強力な武器となります。

参照リンク

関連記事