Googleの大規模言語モデル「Gemma 3」は、2025年3月12日に公開されました。
サイズは色々あるのですが、一番軽量な1Bでも割と使えるということなのでインストールしてみます。
index
手順
M2 MacBook AirでGoogleのGEMMA3:1Bモデルを動作させ、Page Assistを利用して快適に使うまでの手順をまとめました。
1. Ollamaのインストール
GEMMA3:1Bをローカルで動作させるために、Ollamaをインストールします。
- 公式サイトからダウンロード
- Ollamaの公式サイトへアクセス。
- “Download for macOS” をクリックしてインストール。
- インストールの確認
- ターミナルを開いて、以下のコマンドを実行。
ollama --version
- バージョンが表示されれば、正常にインストールされています。
- ターミナルを開いて、以下のコマンドを実行。
2. GEMMA3:1Bのダウンロードとセットアップ
次に、GEMMA3:1BをOllama経由でダウンロードします。
ollama pull gemma3:1b
ダウンロードが完了したら、以下のコマンドで実行可能か確認します。
ollama run gemma3:1b
これで、ターミナル上でGEMMA3:1Bとの対話が可能になります。/byeで終了します。
3. Page Assistのインストール
Page Assistは、ブラウザ上でローカルのLLM(大規模言語モデル)を操作できる便利な拡張機能です。
- Page Assistをインストール
- Page AssistのGitHubページ にアクセス。
- “Install” をクリックし、ChromeまたはFirefoxに拡張機能を追加。
- 設定の変更
- Page Assistの設定ページを開く。
- “Local Model” を選択。
- Ollamaのエンドポイント(通常
http://localhost:11434
) を設定。
4. Page AssistでGEMMA3:1Bを動かす
- ブラウザを開く
- Page Assistの拡張アイコンをクリック
- モデルを
gemma3:1b
に設定 - プロンプトを入力して動作確認


これで、ブラウザ上でGEMMA3:1Bを使うことができます!
まとめ
- Ollamaをインストール
- GEMMA3:1Bをダウンロード
- Page Assistをセットアップ
- ブラウザで快適にAIを活用!
M2 MacBook Airでもスムーズに動作するので、ぜひ試してみてください!
ローカルでこれが動くならChatGPTとかいらなくない?
おっとだれかきたようだ
(了)
コメント