M2 MacBook AirにGEMMA3:1BをインストールしてPage Assistで動かす方法

Tips
この記事は約3分で読めます。
この記事を書いたひと
らばでぃぱみゅ²ぱみゅ₂

熟れた甘い果実。
うるとら諸島みらくる島おらくる市原産。
主に毒電波を発する事を生業とする。
人間ウォッチングが趣味。

らばでぃぱみゅ²ぱみゅ₂をフォローする

Googleの大規模言語モデル「Gemma 3」は、2025年3月12日に公開されました。

サイズは色々あるのですが、一番軽量な1Bでも割と使えるということなのでインストールしてみます。

手順

M2 MacBook AirでGoogleのGEMMA3:1Bモデルを動作させ、Page Assistを利用して快適に使うまでの手順をまとめました。


1. Ollamaのインストール

GEMMA3:1Bをローカルで動作させるために、Ollamaをインストールします。

  1. 公式サイトからダウンロード
  2. インストールの確認
    • ターミナルを開いて、以下のコマンドを実行。 ollama --version
    • バージョンが表示されれば、正常にインストールされています。

2. GEMMA3:1Bのダウンロードとセットアップ

次に、GEMMA3:1BをOllama経由でダウンロードします。

ollama pull gemma3:1b

ダウンロードが完了したら、以下のコマンドで実行可能か確認します。

ollama run gemma3:1b

これで、ターミナル上でGEMMA3:1Bとの対話が可能になります。/byeで終了します。


3. Page Assistのインストール

Page Assistは、ブラウザ上でローカルのLLM(大規模言語モデル)を操作できる便利な拡張機能です。

  1. Page Assistをインストール
  2. 設定の変更
    • Page Assistの設定ページを開く。
    • “Local Model” を選択。
    • Ollamaのエンドポイント(通常 http://localhost:11434 を設定。

4. Page AssistでGEMMA3:1Bを動かす

  1. ブラウザを開く
  2. Page Assistの拡張アイコンをクリック
  3. モデルを gemma3:1b に設定
  4. プロンプトを入力して動作確認

これで、ブラウザ上でGEMMA3:1Bを使うことができます!


まとめ

  1. Ollamaをインストール
  2. GEMMA3:1Bをダウンロード
  3. Page Assistをセットアップ
  4. ブラウザで快適にAIを活用!

M2 MacBook Airでもスムーズに動作するので、ぜひ試してみてください!

ローカルでこれが動くならChatGPTとかいらなくない?

おっとだれかきたようだ

(了)

コメント

タイトルとURLをコピーしました