OpenCode + Ollamaを使ってローカルLLMを使った開発環境を構築する

そういえばコーディングエージェントでローカルLLMを使ったことないなと思ったので使ってみよう、と思ったのでそのための環境を構築してみます。

環境

今回はMac上に環境を構築していきます。

  • OS : macOS Sequoia
  • CPU : Apple M4
  • メモリ : 32GB

環境構築の手順

Ollamaのインストール

まずはローカルLLMを動かすためにOllamaをインストールします。

下記の公式ページを参照すると、curlでインストールする方法とdmgファイルをダウンロードしてからインストールする方法の2つが記載されています。

Download Ollama on macOS
Download Ollama for macOS

今回はdmgファイルをダウンロードしてからインストールしました。

$ ollama --version
ollama version is 0.23.0

2026年5月5日現在だと、0.23.0がインストールされました。

インストール後、Ollamaが正常に起動することを確認します。

ローカルLLMのモデルをダウンロード

利用するローカルLLMのモデルをダウンロードします。

最近だとGemma 4の評判が良さそうなので、今回はこちらを利用してみます。

Gemma 4にもいくつか種類があるみたいですがが、Macにはメモリを32GB積んでいるのでGemma 4 26Bが使い勝手が良さそうです。

なのでこのモデルをダウンロードしてきます。

$ ollama pull gemma4:26b

OpenCodeのインストール

ローカルLLMに対応したコーディングエージェントをインストールします。

今回は仕事でも使っていて個人的にお気に入りなOpenCodeをインストールします。

homebrewを利用しているならコマンド一発でインストール可能です。

$ brew install anomalyco/tap/opencode

無事にインストールできていそうです。2026年5月5日現在では1.14.33がインストールされました。

$ opencode --version
1.14.33

OpenCodeでローカルLLMを利用するように設定する

必要なものはインストールできたので、OpenCodeでGemma 4を利用するための設定を作っていきます。

~/.config/opencode/opencode.jsoncに設定を記述していきます。

OpenCodeの公式にOllamaを利用する際の設定ファイルの例があるので、これをベースにモデルのみ変更します。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "gemma4:26b": { // ダウンロードしたモデルを指定
          "name": "gemma4:26b"
        }
      }
    }
  }
}
Providers
Using any LLM provider in OpenCode.

これで準備は完了したので、次は実際にOpenCodeでGemma 4を動かしてみます。

動作確認

OpenCodeの起動

AIにコーディングさせたいプロジェクトのディレクトリに移動して、OpenCodeを起動します。

$ cd <プロジェクトのディレクトリ>
$ opencode

すると以下のようにCLI (TUI) 上でOpenCodeが起動します。

/modelsと入力してEnterを押すとモデルを選択できるため、そこでgemma4:26bを選択します。

これで、ローカルLLMのGemma 4を使ってOpenCodeを利用できるようになりました。

参考:

OllamaとOpenCodeでローカルAIコーディング環境を構築してみた | DevelopersIO

コメント