【LM Studio 0.4.0】ローカルAIの常識が変わる!劇的進化した最新アップデート解説

スポンサーリンク
この記事は約9分で読めます。

2026年1月28日、ローカルLLM(大規模言語モデル)界の定番アプリ LM Studio がバージョン 0.4.0 へとメジャーアップデートされました。

今回の更新は単なるUIの変更ではありません。
内部エンジンが刷新され、「デスクトップアプリ」から「汎用AIサーバー基盤」へと進化した、まさに神アップデートです。
その全貌と、新導入されたCLIツール「lms」の使い方を詳しく解説します。

主な新機能と進化のポイント

「並列リクエスト(Parallel Requests)」対応

これまでのローカルAIは、1つの質問に答えている間、次の質問を待たせる必要がありました。0.4.0では Continuous Batching(継続的バッチ処理) を導入。

  • 同時に複数のチャットが可能:
    複数のユーザーやアプリから同時にリクエストを送っても、効率的に処理されます。
  • 開発効率の向上:
    複数のAIエージェントを並行して動かすような高度なタスクも、ローカル環境でスムーズに動作します。
Split表示のLM Studio画面

真の「ヘッドレスモード(llmster)」

新開発のバックグラウンドエンジン 「llmster(リムスター)」 により、GUI(画面)なしでの運用が可能になりました。

  • リソースの節約:
    メモリを消費するGUIをオフにして、AI推論に全パワーを集中。
  • 常駐サーバー化:
    バックグラウンドで起動させ、常にAPIサーバーとして待機させることができます。

モダンなユーザーインターフェース

  • 分割ビュー (Split View):
    2つのチャットを並べて、異なるモデルの回答を比較。
  • エクスポート機能:
    会話を PDF、Markdown、プレーンテキスト で書き出せるようになりました。

「lms」CLI のセットアップ

0.4.0 では、コマンドラインから AI を操作する専用ツール lms が標準搭載されました。

インストールの確認

lmsは、Developer modeをONにすると、ローカルLLMサービスの設定がONになっているのですぐに使えます。
この設定により、LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用することができます。

Settings->Developer

基本コマンド

指示構文ドキュメント
コマンドラインからローカル モデルとのチャット セッションを開始します。lms chatlms chat
コマンドラインからモデルを検索してダウンロードします。lms getlms get
LM Studio インストールでダウンロードしたすべてのモデルを一覧表示します。lms lslms ls
コマンドラインから現在ロードされているモデルに関する情報を表示します。lms pslms ps
カスタマイズ可能なポートとログ記録オプションを使用して LM Studio ローカル サーバーを起動します。lms server startlms server start
推論ランタイムの管理と更新lms runtime

参考:lms— LM StudioのCLI

ターミナル(PowerShell等)を開き、lms –helpコマンドを入力するとヘルプ画面が表示されます。

LLMモデルのロード

LLMモデル確認

LLMサーバー起動と停止

UIの刷新と利便性の向上

エンジニア向けの機能だけでなく、一般ユーザー向けの使い勝手も大きく向上しました。

  • 分割ビュー (Split View):
    左右にチャットを並べ、異なるモデルの回答精度をリアルタイムに比較。
  • ファイル書き出し:
    会話内容を PDF, Markdown, Plain Text で保存可能。
  • 開発者モード:
    詳細な推論パラメータ(Context Length, Flash Attention等)に素早くアクセス。
特徴以前のバージョン (0.3.x)新バージョン (0.4.0)
同時リクエスト非対応(順番待ち)対応(Continuous Batching)
起動形態GUIが必須ヘッドレス(GUIなし)にも対応
操作系マウスによるGUI操作CLI (lms) による完全制御
API仕様標準的なOpenAI互換最新のステートフルAPI

自分のPCが「最強のAIサーバー」になる

今回のアップデートにより、LM Studio は、単に AI とチャットするための道具を超え、「自前で高性能なAIインフラを構築するためのプラットフォーム」 へと進化しました。

「画面を表示せずに裏でAIを動かし続けたい」「自作アプリから高速に呼び出したい」というユーザーにとって、以下の様に新たな選択肢となるでしょう。

  • 一般ユーザー:
    より洗練されたUIとPDF出力で、日常的なAI利用が快適に。
  • 開発者:
    lms コマンドと並列処理により、自作アプリへの組み込みが圧倒的に容易に。
  • パワーユーザー:
    自宅のPCを「画面なしのAIサーバー」として24時間稼働させる運用が可能に。

参考記事

WindowsでLM Studioを使ってローカルでgpt-oss-20bを動かす
この記事では、Windows環境でLM Studioを使って「gpt-oss-20b」を動かす方法を、初心者でも分かるように解説します。gpt-oss-20b/120bの違いと用途、LM Studioの基本、Windowsでの導入~GPU設定も紹介。
error: Content is protected !!