そういえばコーディングエージェントでローカルLLMを使ったことないなと思ったので使ってみよう、と思ったのでそのための環境を構築してみます。
環境
今回はMac上に環境を構築していきます。
- OS : macOS Sequoia
- CPU : Apple M4
- メモリ : 32GB
環境構築の手順
Ollamaのインストール
まずはローカルLLMを動かすためにOllamaをインストールします。
下記の公式ページを参照すると、curlでインストールする方法とdmgファイルをダウンロードしてからインストールする方法の2つが記載されています。

今回はdmgファイルをダウンロードしてからインストールしました。
$ ollama --version
ollama version is 0.23.0
2026年5月5日現在だと、0.23.0がインストールされました。
インストール後、Ollamaが正常に起動することを確認します。

ローカルLLMのモデルをダウンロード
利用するローカルLLMのモデルをダウンロードします。
最近だとGemma 4の評判が良さそうなので、今回はこちらを利用してみます。
Gemma 4にもいくつか種類があるみたいですがが、Macにはメモリを32GB積んでいるのでGemma 4 26Bが使い勝手が良さそうです。
なのでこのモデルをダウンロードしてきます。
$ ollama pull gemma4:26b
OpenCodeのインストール
ローカルLLMに対応したコーディングエージェントをインストールします。
今回は仕事でも使っていて個人的にお気に入りなOpenCodeをインストールします。
homebrewを利用しているならコマンド一発でインストール可能です。
$ brew install anomalyco/tap/opencode
無事にインストールできていそうです。2026年5月5日現在では1.14.33がインストールされました。
$ opencode --version
1.14.33
OpenCodeでローカルLLMを利用するように設定する
必要なものはインストールできたので、OpenCodeでGemma 4を利用するための設定を作っていきます。
~/.config/opencode/opencode.jsoncに設定を記述していきます。
OpenCodeの公式にOllamaを利用する際の設定ファイルの例があるので、これをベースにモデルのみ変更します。
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"gemma4:26b": { // ダウンロードしたモデルを指定
"name": "gemma4:26b"
}
}
}
}
}

これで準備は完了したので、次は実際にOpenCodeでGemma 4を動かしてみます。
動作確認
OpenCodeの起動
AIにコーディングさせたいプロジェクトのディレクトリに移動して、OpenCodeを起動します。
$ cd <プロジェクトのディレクトリ>
$ opencode
すると以下のようにCLI (TUI) 上でOpenCodeが起動します。

/modelsと入力してEnterを押すとモデルを選択できるため、そこでgemma4:26bを選択します。


これで、ローカルLLMのGemma 4を使ってOpenCodeを利用できるようになりました。

参考:


コメント