Goose 完全ガイド:2026年オープンソースAIプログラミングアシスタントの新選択
Gooseとは?
GooseはBlock社がオープンソース化したAIプログラミングアシスタントで、開発者に無料でカスタマイズ可能なコーディングアシスタントの選択肢を提供します。Claude CodeやCursorなどの商用ツールとは異なり、Gooseは完全にオープンソースで、ローカルモデルを含む複数のLLMバックエンドをサポートします。
コア機能
- マルチモデル対応: Anthropic、OpenAI、Google、Ollamaなどと互換性
- ローカルファースト: ローカルで動作するオープンソースモデルをサポートし、コードプライバシーを保護
- 完全無料: MITライセンス、サブスクリプション費用なし
- ターミナルネイティブ: コマンドラインインターフェース、開発ワークフローにシームレスに統合
- 拡張可能: カスタムプラグインとツールをサポート
なぜGooseを選ぶのか?
商用ツールとの比較
| 機能 | Goose | Claude Code | Cursor |
|---|---|---|---|
| 価格 | 無料 | $20/月 | $20/月 |
| オープンソース | ✅ | ❌ | ❌ |
| ローカルモデル | ✅ | ❌ | 限定的 |
| プライバシー保護 | ✅ | ❌ | ❌ |
| カスタム拡張 | ✅ | 限定的 | 限定的 |
適用シーン
- 予算が限られる開発者: サブスクリプション費用不要
- プライバシーに敏感なプロジェクト: ローカルモデルを使用、コードはローカルに留まる
- 企業の自社デプロイ: カスタマイズ可能、内部デプロイ可能
- 学習・研究: オープンソースコードで学習可能
クイックスタート
インストール要件
- Python 3.10+
- pipまたはuvパッケージマネージャー
- 最低8GB RAM(ローカルモデル使用時は16GB+推奨)
インストール手順
# 方法1: pip使用
pip install goose-ai
# 方法2: uv使用(推奨、高速)
uv pip install goose-ai
# 方法3: ソースからインストール
git clone https://github.com/block/goose.git
cd goose
pip install -e .
モデル設定
Gooseは複数のモデルバックエンドをサポートします。一般的な設定:
# Anthropic Claude使用(APIキー必要)
goose configure --provider anthropic --model claude-sonnet-4-20250514
# OpenAI使用
goose configure --provider openai --model gpt-4.1
# ローカルOllamaモデル使用(無料)
goose configure --provider ollama --model llama3.1:8b
# Google Gemini使用
goose configure --provider google --model gemini-2.5-pro
環境変数設定
# ~/.bashrc または ~/.zshrc
export ANTHROPIC_API_KEY="your-api-key"
export OPENAI_API_KEY="your-api-key"
export GOOGLE_API_KEY="your-api-key"
# OllamaはAPIキー不要、サービスが実行されていることを確認
ollama serve
コア機能の詳細
1. コード生成と補完
Gooseは完全な機能モジュールを生成できます:
# 新規ファイル作成
goose create file src/utils.py --prompt "文字列処理、日付フォーマット、JSON解析機能を持つPythonユーティリティモジュールを作成"
# 既存ファイル編集
goose edit src/main.py --prompt "エラーハンドリングとログ機能の追加"
2. コードレビュー
# コード変更のレビュー
goose review --diff git diff HEAD~1
# 潜在的な問題の発見
goose analyze --security src/
3. テスト生成
# 既存コードのテストを生成
goose test src/calculator.py --framework pytest
# 完全なテストスイートを生成
goose test --all src/
4. ドキュメント生成
# 関数ドキュメントの生成
goose doc src/api.py --format google
# プロジェクトREADMEの生成
goose doc --readme
実践例
例1: REST APIの作成
# Gooseに完全なFastAPIプロジェクトを作成させる
goose create project my-api --template fastapi
# ユーザー認証機能を追加
goose add auth --provider oauth2
# データベースモデルを生成
goose generate model User --fields "name:str,email:str,created_at:datetime"
例2: 既存コードのリファクタリング
# パフォーマンスを向上させるため関数をリファクタリング
goose refactor src/slow_function.py --goal "時間計算量をO(n²)からO(n)に最適化"
# 非同期コードに変換
goose convert src/sync_code.py --to async
例3: デバッグ支援
# エラーログの分析
goose debug --error "Traceback: IndexError: list index out of range" --context src/parser.py
# インタラクティブデバッグセッション
goose debug --interactive src/main.py
高度な設定
カスタムプラグイン
Gooseはカスタムツールプラグインの作成をサポートしています:
# plugins/custom_tool.py
from goose.plugins import Plugin
class CustomTool(Plugin):
name = "custom_tool"
def execute(self, query: str) -> str:
# カスタムロジック
return f"処理結果:{query}"
ワークフロー自動化
# .goose/workflow.yaml
name: Daily Code Review
trigger: daily 9:00 AM
steps:
- analyze: src/
- review: --pending-changes
- report: --output slack
モデル切替戦略
# モデルルーティングの設定
goose route --simple-tasks ollama/llama3.1:8b
goose route --complex-tasks anthropic/claude-sonnet-4
goose route --code-review openai/gpt-4.1
パフォーマンス最適化
ローカルモデル最適化
# メモリ使用量を減らすため量子化モデルを使用
ollama pull llama3.1:8b-q4_K_M
# GPUアクセラレーションの設定
export OLLAMA_NUM_GPU=1
export OLLAMA_MAX_VRAM=8GB
キャッシュ戦略
# レスポンスキャッシュを有効化
goose config set cache.enabled true
goose config set cache.ttl 3600
# よく使うモデルをプリフェッチ
goose prefetch llama3.1:8b claude-sonnet-4
よくある質問
Q: GooseとClaude Codeの違いは何ですか?
A: Gooseはオープンソースで無料、ローカルモデルをサポートしています。Claude Codeは商用製品でAnthropicモデルのみをサポートしています。Gooseは予算が限られる場合やプライバシー保護が必要なシーンに適しています。
Q: ローカルモデルの効果はどうですか?
A: 単純なタスクではLlama 3.1 8Bで十分な性能を発揮します。複雑なタスクにはクラウドモデルまたはより大きなローカルモデル(70B+)の使用を推奨します。
Q: コードのプライバシーを保護するには?
A: ローカルOllamaモデルを使用すれば、コードは完全にローカルで処理されます。goose config set privacy.mode localで外部呼び出しを無効にできます。
Q: どのIDE統合がサポートされていますか?
A: 現在主にターミナルでの使用をサポートしています。VS CodeおよびJetBrainsプラグインは開発中です。公式GitHubをフォローしてください。
まとめ
Gooseは開発者に強力なオープンソースAIプログラミングアシスタントの選択肢を提供します。マルチモデルサポート、ローカル実行能力、完全無料の特性により、Claude CodeやCursorの有力な代替手段となっています。
推奨スタート手順:
pip install goose-aiで高速インストール- Ollamaとローカルモデルを設定して無料体験
- 必要に応じてクラウドモデルのAPIキーを追加
- 日常開発で徐々にGooseワークフローに統合
プライバシー重視、予算に限りがある、またはオープンソースエコシステムが好きな開発者にとって、Gooseは試す価値があります。
関連リンク: