Skip to content

Latest commit

 

History

History
547 lines (423 loc) · 29.5 KB

File metadata and controls

547 lines (423 loc) · 29.5 KB

AutoResearchClaw Logo

アイデアを話す。論文を手に入れる。完全自動 & 自己進化。

OpenClaw にチャットするだけ:「Xを研究して」→ 完了。

AutoResearchClaw Framework

MIT License Python 3.11+ 1823 Tests Passed GitHub OpenClaw Compatible Discord

🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية

🏆 論文ショーケース · 📖 統合ガイド · 💬 Discordコミュニティ


Sample Paper 🏆 生成論文ショーケース

8つの分野にわたる8本の論文 — 数学、統計、生物学、コンピューティング、NLP、RL、ビジョン、ロバスト性 — 人間の介入なしに完全自律生成。

View Showcase

🧪 テスターを募集しています! あなた自身の研究アイデアで — どの分野からでも — パイプラインをお試しください。ご意見をお聞かせください。あなたのフィードバックが次のバージョンに直接反映されます。 → Testing Guide | → 中文测试指南 | → 日本語テストガイド


🔥 News

  • [03/22/2026] v0.3.2クロスプラットフォーム対応 + 安定性大幅向上 — ACP互換AIエージェントバックエンド(Claude Code、Codex CLI、Copilot CLI、Gemini CLI、Kimi CLI)に対応し、OpenClawブリッジ経由でメッセージングプラットフォーム(Discord、Telegram、Lark、WeChat)もサポート。新しいCLIエージェントコード生成バックエンドにより、ステージ10と13を外部CLIエージェントに委任し、予算制御とタイムアウト管理に対応。反データ捏造システム(VerifiedRegistry + 実験診断・修復ループ)、100件以上のバグ修正、モジュラーexecutorリファクタリング、--resume自動検出、LLMリトライ強化、コミュニティ報告の修正を含む。
  • [03/18/2026] v0.3.1OpenCode Beast Mode + Community Contributions — New "Beast Mode" routes complex code generation to OpenCode with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit.
  • [03/17/2026] v0.3.0MetaClaw Integration — AutoResearchClaw now supports MetaClaw cross-run learning: pipeline failures → structured lessons → reusable skills, injected into all 23 stages. +18.3% robustness in controlled experiments. Opt-in (metaclaw_bridge.enabled: true), fully backward-compatible. See Integration Guide.
  • [03/16/2026] v0.2.0 — Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs.
  • [03/15/2026] v0.1.0 — We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required.

⚡ ワンコマンド。ワンペーパー。

pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approve

🤔 これは何?

あなたが考える。AutoResearchClawが書く。

研究トピックを入力するだけで — OpenAlex、Semantic Scholar、arXivからの実際の文献、ハードウェア対応のサンドボックス実験(GPU/MPS/CPUを自動検出)、統計分析、マルチエージェント査読、NeurIPS/ICML/ICLR対応の学会グレードLaTeXを含む完全な学術論文が得られます。監視不要。コピペ不要。幻覚された参考文献なし。

📄paper_draft.md完全な学術論文(序論、関連研究、手法、実験、結果、結論)
📐paper.tex学会対応LaTeX(NeurIPS / ICLR / ICMLテンプレート)
📚references.bibOpenAlex、Semantic Scholar、arXivからの実際のBibTeX参考文献 — 本文中の引用に合わせて自動整理
🔍verification_report.json4層の引用整合性 + 関連性検証(arXiv、CrossRef、DataCite、LLM)
🧪experiment runs/生成されたコード + サンドボックス実行結果 + 構造化JSONメトリクス
📊charts/誤差棒と信頼区間付きの条件比較チャートを自動生成
📝reviews.md手法-証拠の一貫性チェック付きマルチエージェント査読
🧬evolution/各実行から抽出された自己学習の教訓
📦deliverables/すべての最終成果物を1フォルダに集約 — Overleafですぐにコンパイル可能

パイプラインは人手の介入なしにエンドツーエンドで実行されます。実験が失敗すれば自己修復します。仮説が成り立たなければ方向転換します。引用が偽物なら削除します。

🌍 どこでも実行可能。 AutoResearchClaw は特定のプラットフォームに縛られません。CLI でスタンドアロン実行、OpenClaw に接続、または ACP 互換の AI エージェント —— 🤖 Claude Code、💻 Codex CLI、🐙 Copilot CLI、♊ Gemini CLI、🌙 Kimi CLI など —— と連携できます。さらに OpenClaw のメッセージブリッジにより、💬 Discord、✈️ Telegram、🐦 Lark(飛書)、💚 WeChat など、チームが普段使っているプラットフォームから研究を開始できます。トピックを入力すれば、論文が出力されます —— どこからでも。


🚀 クイックスタート

# 1. クローン & インストール
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .

# 2. セットアップ(対話式 — OpenCode Beast Modeのインストール、Docker/LaTeXの確認)
researchclaw setup

# 3. 設定
researchclaw init          # 対話式:LLMプロバイダーを選択、config.arc.yamlを作成
# または手動:cp config.researchclaw.example.yaml config.arc.yaml

# 4. 実行
export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve

出力先 → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ — コンパイル可能なLaTeX、BibTeX、実験コード、チャート。

📝 最小限の必要設定
project:
  name: "my-research"

research:
  topic: "Your research topic here"

llm:
  base_url: "https://api.openai.com/v1"
  api_key_env: "OPENAI_API_KEY"
  primary_model: "gpt-4o"
  fallback_models: ["gpt-4o-mini"]

experiment:
  mode: "sandbox"
  sandbox:
    python_path: ".venv/bin/python"

🧠 他と何が違うのか

機能 仕組み
🔄 PIVOT / REFINE ループ ステージ15が自律的に判定:PROCEED、REFINE(パラメータ調整)、またはPIVOT(新方向)。成果物は自動バージョン管理。
🤖 マルチエージェント討論 仮説生成、結果分析、査読のそれぞれで構造化された多視点討論を実施。
🧬 自己学習 各実行から教訓を抽出(判定根拠、ランタイム警告、メトリクス異常)、30日の時間減衰付き。将来の実行が過去のミスから学習。
📚 知識ベース 各実行で6カテゴリ(判定、実験、発見、文献、質問、レビュー)にわたる構造化知識ベースを構築。
🛡️ Sentinel Watchdog バックグラウンド品質モニター:NaN/Inf検出、論文-証拠の一貫性、引用関連性スコアリング、捏造防止ガード。

🦞 OpenClaw統合

AutoResearchClawはOpenClaw互換サービスです。 OpenClawにインストールして、メッセージ1つで自律研究を開始できます — CLI、Claude Code、その他のAIコーディングアシスタントを使ってスタンドアロンでも利用可能です。

🚀 OpenClawで使う(推奨)

OpenClawをすでにAIアシスタントとしてお使いの場合:

1️⃣  GitHubリポジトリのURLをOpenClawに共有
2️⃣  OpenClawがRESEARCHCLAW_AGENTS.mdを自動読み込み → パイプラインを理解
3️⃣  「Research [あなたのトピック]」と話しかける
4️⃣  完了 — OpenClawがクローン、インストール、設定、実行、結果の返却まですべて自動実行

以上です。 OpenClawがgit clonepip install、設定、パイプライン実行を自動的に処理します。チャットするだけです。

💡 内部で何が起きているか
  1. OpenClawがRESEARCHCLAW_AGENTS.mdを読み取り → 研究オーケストレーターの役割を学習
  2. OpenClawがREADME.mdを読み取り → インストールとパイプライン構造を理解
  3. OpenClawがconfig.researchclaw.example.yamlconfig.yamlにコピー
  4. LLMのAPIキーを要求(または環境変数を使用)
  5. pip install -e . + researchclaw run --topic "..." --auto-approveを実行
  6. 論文、LaTeX、実験、引用を返却

🔌 OpenClaw Bridge(上級)

より深い統合のために、AutoResearchClawには6つのオプション機能を備えたブリッジアダプターシステムが含まれています:

# config.arc.yaml
openclaw_bridge:
  use_cron: true              # ⏰ スケジュール実行
  use_message: true           # 💬 進捗通知(Discord/Slack/Telegram)
  use_memory: true            # 🧠 セッション間の知識永続化
  use_sessions_spawn: true    # 🔀 並列サブセッションの生成
  use_web_fetch: true         # 🌐 文献レビュー中のライブWeb検索
  use_browser: false          # 🖥️ ブラウザベースの論文収集

各フラグは型付きアダプタープロトコルをアクティブにします。OpenClawがこれらの機能を提供する場合、アダプターはコード変更なしにそれらを利用します。詳細はintegration-guide.mdをご覧ください。

ACP (Agent Client Protocol)

AutoResearchClawは任意のACP互換コーディングエージェントをLLMバックエンドとして使用できます — APIキーは不要です。エージェントはacpxを介して通信し、全23パイプラインステージにわたって単一の永続セッションを維持します。

エージェント コマンド 備考
Claude Code claude Anthropic
Codex CLI codex OpenAI
Copilot CLI gh GitHub
Gemini CLI gemini Google
OpenCode opencode SST
Kimi CLI kimi Moonshot
# config.yaml — ACP例
llm:
  provider: "acp"
  acp:
    agent: "claude"   # 任意のACP互換エージェントCLIコマンド
    cwd: "."          # エージェントの作業ディレクトリ
  # base_urlやapi_keyは不要 — エージェントが独自の認証を処理します。
# そのまま実行 — エージェントは独自の認証情報を使用
researchclaw run --config config.yaml --topic "Your research idea" --auto-approve

🛠️ その他の実行方法

方法 手順
スタンドアロンCLI researchclaw setupresearchclaw initresearchclaw run --topic "..." --auto-approve
Python API from researchclaw.pipeline import Runner; Runner(config).run()
Claude Code RESEARCHCLAW_CLAUDE.mdを読み取り — *「Run research on [トピック]」*と言うだけ
Copilot CLI researchclaw run --topic "..."llm.acp.agent: "gh" を使用
OpenCode .claude/skills/を読み取り — 同じ自然言語インターフェース
任意のAI CLI RESEARCHCLAW_AGENTS.mdをコンテキストとして提供 → エージェントが自動ブートストラップ

🔬 パイプライン:23ステージ、8フェーズ

フェーズ A: 研究スコーピング          フェーズ E: 実験実行
  1. TOPIC_INIT                      12. EXPERIMENT_RUN
  2. PROBLEM_DECOMPOSE               13. ITERATIVE_REFINE  ← 自己修復

フェーズ B: 文献探索                フェーズ F: 分析と判定
  3. SEARCH_STRATEGY                 14. RESULT_ANALYSIS    ← マルチエージェント
  4. LITERATURE_COLLECT  ← 実API    15. RESEARCH_DECISION  ← PIVOT/REFINE
  5. LITERATURE_SCREEN   [ゲート]
  6. KNOWLEDGE_EXTRACT               フェーズ G: 論文執筆
                                     16. PAPER_OUTLINE
フェーズ C: 知識統合                  17. PAPER_DRAFT
  7. SYNTHESIS                       18. PEER_REVIEW        ← 証拠チェック
  8. HYPOTHESIS_GEN    ← 討論        19. PAPER_REVISION

フェーズ D: 実験設計               フェーズ H: 最終処理
  9. EXPERIMENT_DESIGN   [ゲート]     20. QUALITY_GATE      [ゲート]
 10. CODE_GENERATION                 21. KNOWLEDGE_ARCHIVE
 11. RESOURCE_PLANNING               22. EXPORT_PUBLISH     ← LaTeX
                                     23. CITATION_VERIFY    ← 関連性チェック

ゲートステージ(5, 9, 20)は人間の承認を待つか、--auto-approveで自動承認されます。却下時にはパイプラインがロールバックします。

判定ループ: ステージ15はREFINE(→ ステージ13)またはPIVOT(→ ステージ8)をトリガーでき、成果物のバージョン管理が自動的に行われます。

📋 各フェーズの詳細
フェーズ 処理内容
A: スコーピング LLMがトピックを研究質問を含む構造化された問題ツリーに分解
A+: ハードウェア GPU(NVIDIA CUDA / Apple MPS / CPUのみ)を自動検出、ローカルハードウェアが限定的な場合は警告、コード生成を適応
B: 文献 マルチソース検索(OpenAlex → Semantic Scholar → arXiv)で実際の論文を取得、関連性でスクリーニング、知識カードを抽出
C: 統合 発見事項をクラスタリング、研究ギャップを特定、マルチエージェント討論で検証可能な仮説を生成
D: 設計 実験計画を設計、ハードウェア対応の実行可能Python(GPUティア→パッケージ選択)を生成、リソース需要を推定
E: 実行 サンドボックスで実験を実行、NaN/Infとランタイムバグを検出、LLMによる的確な修復で自己修復
F: 分析 マルチエージェントによる結果分析;根拠付きの自律的PROCEED / REFINE / PIVOT判定
G: 執筆 アウトライン → セクション別ドラフト(5,000〜6,500語)→ 査読(手法-証拠の一貫性付き)→ 文字数ガード付き改訂
H: 最終処理 品質ゲート、知識アーカイブ、学会テンプレート付きLaTeXエクスポート、引用の整合性 + 関連性検証

✨ 主な機能

機能 説明
📚 マルチソース文献 OpenAlex、Semantic Scholar、arXivからの実際の論文 — クエリ拡張、重複排除、三状態サーキットブレーカーとグレースフルデグラデーション
🔍 4層引用検証 arXiv IDチェック → CrossRef/DataCite DOI → Semantic Scholarタイトルマッチ → LLM関連性スコアリング。幻覚された参考文献は自動削除。
🖥️ ハードウェア対応実行 GPU(NVIDIA CUDA / Apple MPS / CPUのみ)を自動検出し、コード生成、インポート、実験スケールを適応
🦾 OpenCode Beast Mode 複雑な実験を自動的にOpenCodeにルーティング — カスタムアーキテクチャ、トレーニングループ、アブレーション研究を含むマルチファイルプロジェクトを生成。researchclaw setupでインストール。
🧪 サンドボックス実験 AST検証済みコード、不変ハーネス、NaN/Inf早期停止、自己修復、反復的改良(最大10ラウンド)、部分結果の保持
📝 学会グレード執筆 NeurIPS/ICML/ICLRテンプレート、セクション別ドラフト(5,000〜6,500語)、捏造防止ガード、改訂文字数ガード、免責事項抑制
📐 テンプレート切り替え neurips_2025iclr_2026icml_2026 — Markdown → LaTeX(数式、表、図、相互参照、\cite{}対応)
🚦 品質ゲート 3つのHuman-in-the-loopゲート(ステージ5, 9, 20)、ロールバック対応。--auto-approveでスキップ。

🧠 MetaClaw統合

AutoResearchClaw + MetaClaw = すべての実行から学習するパイプライン。

MetaClawはAutoResearchClawにクロスラン知識転移を追加します。有効にすると、パイプラインは失敗や警告から自動的に教訓を抽出し、再利用可能なスキルに変換し、後続の実行で全23ステージに注入します — 同じ過ちを二度と繰り返しません。

仕組み

Run N executes → failures/warnings captured as Lessons
                      ↓
          MetaClaw Lesson → Skill conversion
                      ↓
          arc-* Skill files stored in ~/.metaclaw/skills/
                      ↓
Run N+1 → build_overlay() injects skills into every LLM prompt
                      ↓
          LLM avoids known pitfalls → higher quality, fewer retries

クイックセットアップ

# 1. MetaClawをインストール(未インストールの場合)
pip install metaclaw

# 2. 設定で有効化
# config.arc.yaml
metaclaw_bridge:
  enabled: true
  proxy_url: "http://localhost:30000"        # MetaClawプロキシ(オプション)
  skills_dir: "~/.metaclaw/skills"          # スキルの保存場所
  fallback_url: "https://api.openai.com/v1" # 直接LLMフォールバック
  fallback_api_key: ""                      # フォールバックURLのAPIキー
  lesson_to_skill:
    enabled: true
    min_severity: "warning"                 # warning + errorを変換
    max_skills_per_run: 3
# 3. 通常通り実行 — MetaClawは透過的に動作
researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approve

各実行後、~/.metaclaw/skills/arc-*/SKILL.mdを確認して、パイプラインが学習したスキルを確認できます。

実験結果

対照A/B実験(同じトピック、同じLLM、同じ設定):

メトリクス ベースライン MetaClaw使用時 改善
ステージリトライ率 10.5% 7.9% -24.8%
Refineサイクル数 2.0 1.2 -40.0%
パイプラインステージ完了率 18/19 19/19 +5.3%
総合ロバスト性スコア(複合) 0.714 0.845 +18.3%

複合ロバスト性スコアは、ステージ完了率(40%)、リトライ削減(30%)、Refineサイクル効率(30%)の加重平均です。

後方互換性

  • デフォルト: オフ。 metaclaw_bridgeが存在しないかenabled: falseの場合、パイプラインは以前と全く同じように動作します。
  • 新しい依存関係なし。 MetaClawはオプションです — コアパイプラインはMetaClawなしで動作します。
  • 既存の1,823テストすべてがパス(統合コードを含む)。

⚙️ 設定リファレンス

クリックして設定リファレンスの全体を展開
# === プロジェクト ===
project:
  name: "my-research"              # プロジェクト識別子
  mode: "docs-first"               # docs-first | semi-auto | full-auto

# === 研究 ===
research:
  topic: "..."                     # 研究トピック(必須)
  domains: ["ml", "nlp"]           # 文献検索の研究ドメイン
  daily_paper_count: 8             # 検索クエリあたりの目標論文数
  quality_threshold: 4.0           # 論文の最小品質スコア

# === ランタイム ===
runtime:
  timezone: "America/New_York"     # タイムスタンプ用
  max_parallel_tasks: 3            # 同時実験数の上限
  approval_timeout_hours: 12       # ゲートステージのタイムアウト
  retry_limit: 2                   # ステージ失敗時のリトライ回数

# === LLM ===
llm:
  provider: "openai-compatible"    # openai | openrouter | deepseek | minimax | acp | openai-compatible
  base_url: "https://..."          # APIエンドポイント(openai-compatible必須)
  api_key_env: "OPENAI_API_KEY"    # APIキーの環境変数(openai-compatible必須)
  api_key: ""                      # またはここにキーを直接記入
  primary_model: "gpt-4o"          # プライマリモデル
  fallback_models: ["gpt-4o-mini"] # フォールバックチェーン
  s2_api_key: ""                   # Semantic Scholar APIキー(オプション、レート制限緩和)
  acp:                             # provider: "acp" の場合のみ使用
    agent: "claude"                # ACP Agent CLIコマンド(claude, codex, gemini等)
    cwd: "."                       # エージェントの作業ディレクトリ

# === 実験 ===
experiment:
  mode: "sandbox"                  # simulated | sandbox | docker | ssh_remote
  time_budget_sec: 300             # 実行あたりの最大実行時間(デフォルト: 300秒)
  max_iterations: 10               # 最大最適化反復回数
  metric_key: "val_loss"           # プライマリメトリクス名
  metric_direction: "minimize"     # minimize | maximize
  sandbox:
    python_path: ".venv/bin/python"
    gpu_required: false
    allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
    max_memory_mb: 4096
  docker:
    image: "researchclaw/experiment:latest"
    network_policy: "setup_only"   # none | setup_only | pip_only | full
    gpu_enabled: true
    memory_limit_mb: 8192
    auto_install_deps: true        # importを自動検出 → requirements.txt
  ssh_remote:
    host: ""                       # GPUサーバーのホスト名
    gpu_ids: []                    # 利用可能なGPU ID
    remote_workdir: "/tmp/researchclaw_experiments"
  opencode:                          # OpenCode Beast Mode(`researchclaw setup`で自動インストール)
    enabled: true                    # マスタースイッチ(デフォルト: true)
    auto: true                       # 確認なしで自動トリガー(デフォルト: true)
    complexity_threshold: 0.2        # 0.0-1.0 — 高い = 複雑な実験のみトリガー
    model: ""                        # モデルのオーバーライド(空 = llm.primary_modelを使用)
    timeout_sec: 600                 # OpenCode生成の最大秒数
    max_retries: 1                   # 失敗時のリトライ回数
    workspace_cleanup: true          # 収集後に一時ワークスペースを削除

# === エクスポート ===
export:
  target_conference: "neurips_2025"  # neurips_2025 | iclr_2026 | icml_2026
  authors: "Anonymous"
  bib_file: "references"

# === プロンプト ===
prompts:
  custom_file: ""                  # カスタムプロンプトYAMLのパス(空 = デフォルト)

# === セキュリティ ===
security:
  hitl_required_stages: [5, 9, 20] # 人間の承認が必要なステージ
  allow_publish_without_approval: false
  redact_sensitive_logs: true

# === 知識ベース ===
knowledge_base:
  backend: "markdown"              # markdown | obsidian
  root: "docs/kb"

# === 通知 ===
notifications:
  channel: "console"               # console | discord | slack
  target: ""

# === MetaClaw Bridge(オプション)===
metaclaw_bridge:
  enabled: false                   # trueに設定してクロスラン学習を有効化
  proxy_url: "http://localhost:30000"  # MetaClawプロキシURL
  skills_dir: "~/.metaclaw/skills" # arc-*スキルの保存場所
  fallback_url: ""                 # プロキシがダウン時の直接LLMフォールバック
  fallback_api_key: ""             # フォールバックエンドポイントのAPIキー
  lesson_to_skill:
    enabled: true                  # 教訓をスキルに自動変換
    min_severity: "warning"        # 変換する最小重大度
    max_skills_per_run: 3          # パイプラン実行あたりの最大新規スキル数

# === OpenClaw Bridge ===
openclaw_bridge:
  use_cron: false                  # スケジュール研究実行
  use_message: false               # 進捗通知
  use_memory: false                # セッション間の知識永続化
  use_sessions_spawn: false        # 並列サブセッションの生成
  use_web_fetch: false             # ライブWeb検索
  use_browser: false               # ブラウザベースの論文収集

🙏 謝辞

以下のプロジェクトに着想を得ています:

  • 🔬 AI Scientist (Sakana AI) — 自動研究のパイオニア
  • 🧠 AutoResearch (Andrej Karpathy) — エンドツーエンドの研究自動化
  • 🌐 FARS (Analemma) — 完全自動研究システム

📄 ライセンス

MIT — 詳細はLICENSEをご覧ください。


📌 引用

AutoResearchClawが役に立った場合は、以下を引用してください:

@misc{liu2026autoresearchclaw,
  author       = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming  and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
  title        = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper},
  year         = {2026},
  organization = {GitHub},
  url          = {https://github.com/aiming-lab/AutoResearchClaw},
}

Built with 🦞 by the AutoResearchClaw team