Continue.dev のローカル開発環境を Dev Container で構築するプロジェクトです。Ollama と React + TypeScript + Vite を組み合わせて、ローカル LLM を使った開発環境を提供します。
- Dev Container: 完全に隔離された開発環境
- Ollama 統合: ローカル LLM モデルの自動ダウンロードとセットアップ
- Continue.dev: VS Code 拡張機能による AI アシスタント
- React + TypeScript + Vite: モダンなフロントエンド開発環境
- Tailwind CSS: ユーティリティファーストの CSS フレームワーク
-
Docker
-
Docker Compose
-
Visual Studio Code
-
Dev Containers 拡張機能
-
GPU を使用する (NVIDIA GPU 搭載マシン向け)
git clone https://github.com/haruki26/continue-local-devcontainer.git
cd continue-local-devcontainerVS Code でプロジェクトを開き、以下のいずれかの方法で Dev Container を起動:
- コマンドパレット(Ctrl+Shift+P)から
Dev Containers: Reopen in Container - 右下に表示される通知から「Reopen in Container」をクリック
Dev Container 内で以下のコマンドを実行して Ollama モデルをダウンロード:
make setupこれにより以下のモデルが自動的にダウンロードされます:
qwen2.5-coder:7b-instruct-q4_K_M- コード生成用 7B モデルqwen2.5-coder:1.5b- 軽量コード生成モデルnomic-embed-text- テキスト埋め込み用モデル
npm run devブラウザで http://localhost:5173 にアクセスして開発環境を確認できます。
├── .devcontainer/ # Dev Container設定
├── scripts/ # ユーティリティスクリプト
├── src/ # Reactアプリケーションソース
├── public/ # 静的ファイル
├── Makefile # タスク管理
├── package.json # Node.js依存関係
├── vite.config.ts # Vite設定
└── tsconfig.json # TypeScript設定
# 開発サーバー起動
npm run dev
# プロダクションビルド
npm run build
# ESLintによるコード検証
npm run lint# Ollamaモデルの一括ダウンロード
make setup
# 個別モデルの追加(例: gpt-oss:20b)- 自動設定: Dev Container 起動時に Continue.dev 拡張機能が自動インストール
- 設定ファイル:
.continue/config.yamlで Ollama モデルが自動設定 - チャット: VS Code のサイドバーから Continue アイコンをクリックしてチャット開始
- コード生成: エディタ内で
Ctrl+Iでインラインコード生成
- Runtime: Node.js 22
- Frontend: React 19.1.0, TypeScript 5.8.3
- Build Tool: Vite 7.0.4
- Styling: Tailwind CSS 4.1.11
- Linting: ESLint 9.30.1
- AI Models: Ollama (Qwen2.5-Coder, Nomic-Embed)
- Container: Docker + Dev Containers
# Ollamaサービスの状態確認
curl http://ollama:11434
# Ollamaサービス再起動
docker-compose restart ollama.continue/config.yamlの設定を確認- VS Code を再起動
- Continue 拡張機能を再読み込み
Dev Container のポートタブで Port 5173 が正しくフォワードされているか確認してください。
プルリクエストやイシューの報告を歓迎します。開発環境のセットアップや新機能の提案など、お気軽にご連絡ください。