コンテンツにスキップ

Goose 完全ガイド:2026年オープンソースAIプログラミングアシスタントの新選択

Gooseとは?

GooseはBlock社がオープンソース化したAIプログラミングアシスタントで、開発者に無料でカスタマイズ可能なコーディングアシスタントの選択肢を提供します。Claude CodeやCursorなどの商用ツールとは異なり、Gooseは完全にオープンソースで、ローカルモデルを含む複数のLLMバックエンドをサポートします。

コア機能

  • マルチモデル対応: Anthropic、OpenAI、Google、Ollamaなどと互換性
  • ローカルファースト: ローカルで動作するオープンソースモデルをサポートし、コードプライバシーを保護
  • 完全無料: MITライセンス、サブスクリプション費用なし
  • ターミナルネイティブ: コマンドラインインターフェース、開発ワークフローにシームレスに統合
  • 拡張可能: カスタムプラグインとツールをサポート

なぜGooseを選ぶのか?

商用ツールとの比較

機能 Goose Claude Code Cursor
価格 無料 $20/月 $20/月
オープンソース
ローカルモデル 限定的
プライバシー保護
カスタム拡張 限定的 限定的

適用シーン

  1. 予算が限られる開発者: サブスクリプション費用不要
  2. プライバシーに敏感なプロジェクト: ローカルモデルを使用、コードはローカルに留まる
  3. 企業の自社デプロイ: カスタマイズ可能、内部デプロイ可能
  4. 学習・研究: オープンソースコードで学習可能

クイックスタート

インストール要件

  • Python 3.10+
  • pipまたはuvパッケージマネージャー
  • 最低8GB RAM(ローカルモデル使用時は16GB+推奨)

インストール手順

# 方法1: pip使用
pip install goose-ai

# 方法2: uv使用(推奨、高速)
uv pip install goose-ai

# 方法3: ソースからインストール
git clone https://github.com/block/goose.git
cd goose
pip install -e .

モデル設定

Gooseは複数のモデルバックエンドをサポートします。一般的な設定:

# Anthropic Claude使用(APIキー必要)
goose configure --provider anthropic --model claude-sonnet-4-20250514

# OpenAI使用
goose configure --provider openai --model gpt-4.1

# ローカルOllamaモデル使用(無料)
goose configure --provider ollama --model llama3.1:8b

# Google Gemini使用
goose configure --provider google --model gemini-2.5-pro

環境変数設定

# ~/.bashrc または ~/.zshrc
export ANTHROPIC_API_KEY="your-api-key"
export OPENAI_API_KEY="your-api-key"
export GOOGLE_API_KEY="your-api-key"

# OllamaはAPIキー不要、サービスが実行されていることを確認
ollama serve

コア機能の詳細

1. コード生成と補完

Gooseは完全な機能モジュールを生成できます:

# 新規ファイル作成
goose create file src/utils.py --prompt "文字列処理、日付フォーマット、JSON解析機能を持つPythonユーティリティモジュールを作成"

# 既存ファイル編集
goose edit src/main.py --prompt "エラーハンドリングとログ機能の追加"

2. コードレビュー

# コード変更のレビュー
goose review --diff git diff HEAD~1

# 潜在的な問題の発見
goose analyze --security src/

3. テスト生成

# 既存コードのテストを生成
goose test src/calculator.py --framework pytest

# 完全なテストスイートを生成
goose test --all src/

4. ドキュメント生成

# 関数ドキュメントの生成
goose doc src/api.py --format google

# プロジェクトREADMEの生成
goose doc --readme

実践例

例1: REST APIの作成

# Gooseに完全なFastAPIプロジェクトを作成させる
goose create project my-api --template fastapi

# ユーザー認証機能を追加
goose add auth --provider oauth2

# データベースモデルを生成
goose generate model User --fields "name:str,email:str,created_at:datetime"

例2: 既存コードのリファクタリング

# パフォーマンスを向上させるため関数をリファクタリング
goose refactor src/slow_function.py --goal "時間計算量をO(n²)からO(n)に最適化"

# 非同期コードに変換
goose convert src/sync_code.py --to async

例3: デバッグ支援

# エラーログの分析
goose debug --error "Traceback: IndexError: list index out of range" --context src/parser.py

# インタラクティブデバッグセッション
goose debug --interactive src/main.py

高度な設定

カスタムプラグイン

Gooseはカスタムツールプラグインの作成をサポートしています:

# plugins/custom_tool.py
from goose.plugins import Plugin

class CustomTool(Plugin):
    name = "custom_tool"

    def execute(self, query: str) -> str:
        # カスタムロジック
        return f"処理結果:{query}"

ワークフロー自動化

# .goose/workflow.yaml
name: Daily Code Review
trigger: daily 9:00 AM
steps:
  - analyze: src/
  - review: --pending-changes
  - report: --output slack

モデル切替戦略

# モデルルーティングの設定
goose route --simple-tasks ollama/llama3.1:8b
goose route --complex-tasks anthropic/claude-sonnet-4
goose route --code-review openai/gpt-4.1

パフォーマンス最適化

ローカルモデル最適化

# メモリ使用量を減らすため量子化モデルを使用
ollama pull llama3.1:8b-q4_K_M

# GPUアクセラレーションの設定
export OLLAMA_NUM_GPU=1
export OLLAMA_MAX_VRAM=8GB

キャッシュ戦略

# レスポンスキャッシュを有効化
goose config set cache.enabled true
goose config set cache.ttl 3600

# よく使うモデルをプリフェッチ
goose prefetch llama3.1:8b claude-sonnet-4

よくある質問

Q: GooseとClaude Codeの違いは何ですか?

A: Gooseはオープンソースで無料、ローカルモデルをサポートしています。Claude Codeは商用製品でAnthropicモデルのみをサポートしています。Gooseは予算が限られる場合やプライバシー保護が必要なシーンに適しています。

Q: ローカルモデルの効果はどうですか?

A: 単純なタスクではLlama 3.1 8Bで十分な性能を発揮します。複雑なタスクにはクラウドモデルまたはより大きなローカルモデル(70B+)の使用を推奨します。

Q: コードのプライバシーを保護するには?

A: ローカルOllamaモデルを使用すれば、コードは完全にローカルで処理されます。goose config set privacy.mode localで外部呼び出しを無効にできます。

Q: どのIDE統合がサポートされていますか?

A: 現在主にターミナルでの使用をサポートしています。VS CodeおよびJetBrainsプラグインは開発中です。公式GitHubをフォローしてください。

まとめ

Gooseは開発者に強力なオープンソースAIプログラミングアシスタントの選択肢を提供します。マルチモデルサポート、ローカル実行能力、完全無料の特性により、Claude CodeやCursorの有力な代替手段となっています。

推奨スタート手順:

  1. pip install goose-aiで高速インストール
  2. Ollamaとローカルモデルを設定して無料体験
  3. 必要に応じてクラウドモデルのAPIキーを追加
  4. 日常開発で徐々にGooseワークフローに統合

プライバシー重視、予算に限りがある、またはオープンソースエコシステムが好きな開発者にとって、Gooseは試す価値があります。


関連リンク: