Discutez avec OpenClaw : "Recherche X" → termine.
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
🏆 Vitrine des articles · 📖 Guide d'integration · 💬 Communaute Discord
🧪 Nous recherchons des testeurs ! Essayez le pipeline avec votre propre idee de recherche — dans n'importe quel domaine — et dites-nous ce que vous en pensez. Vos retours faconnent directement la prochaine version. → Testing Guide | → 中文测试指南 | → 日本語テストガイド
- [03/22/2026] v0.3.2 — Support multiplateforme + stabilite majeure — AutoResearchClaw fonctionne desormais avec tout agent compatible ACP (Claude Code, Codex CLI, Copilot CLI, Gemini CLI, Kimi CLI) et supporte les plateformes de messagerie (Discord, Telegram, Lark, WeChat) via le pont OpenClaw. Nouveau backend de generation de code CLI-agent qui delegue les Stages 10 et 13 a des agents CLI externes avec controle de budget et gestion des timeouts. Inclut le systeme anti-fabrication (VerifiedRegistry + boucle diagnostic/reparation), 100+ corrections de bugs, refactoring modulaire de l'executor, auto-detection
--resume, renforcement des retries LLM, et corrections communautaires. - [03/18/2026] v0.3.1 — OpenCode Beast Mode + Community Contributions — New "Beast Mode" routes complex code generation to OpenCode with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit.
- [03/17/2026] v0.3.0 — MetaClaw Integration — AutoResearchClaw now supports MetaClaw cross-run learning: pipeline failures → structured lessons → reusable skills, injected into all 23 stages. +18.3% robustness in controlled experiments. Opt-in (
metaclaw_bridge.enabled: true), fully backward-compatible. See Integration Guide. - [03/16/2026] v0.2.0 — Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs.
- [03/15/2026] v0.1.0 — We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required.
pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approveVous y pensez. AutoResearchClaw l'ecrit.
Donnez un sujet de recherche — recevez un article academique complet avec de la vraie litterature provenant d'OpenAlex, Semantic Scholar et arXiv, des experiences en sandbox adaptees au materiel (detection automatique GPU/MPS/CPU), une analyse statistique, une relecture multi-agents, et du LaTeX pret pour les conferences ciblant NeurIPS/ICML/ICLR. Aucune supervision. Aucun copier-coller. Aucune reference hallucinee.
| 📄 | paper_draft.md | Article academique complet (Introduction, Travaux connexes, Methode, Experiences, Resultats, Conclusion) |
| 📐 | paper.tex | LaTeX pret pour les conferences (templates NeurIPS / ICLR / ICML) |
| 📚 | references.bib | References BibTeX reelles provenant d'OpenAlex, Semantic Scholar et arXiv — auto-elaguees pour correspondre aux citations dans le texte |
| 🔍 | verification_report.json | Verification d'integrite et de pertinence des citations sur 4 couches (arXiv, CrossRef, DataCite, LLM) |
| 🧪 | experiment runs/ | Code genere + resultats sandbox + metriques JSON structurees |
| 📊 | charts/ | Graphiques de comparaison de conditions auto-generes avec barres d'erreur et intervalles de confiance |
| 📝 | reviews.md | Relecture multi-agents avec verification de coherence methodologie-preuves |
| 🧬 | evolution/ | Lecons d'auto-apprentissage extraites de chaque execution |
| 📦 | deliverables/ | Tous les livrables finaux dans un seul dossier — pret a compiler pour Overleaf |
Le pipeline s'execute de bout en bout sans intervention humaine. Quand les experiences echouent, il s'auto-repare. Quand les hypotheses ne tiennent pas, il pivote. Quand les citations sont fausses, il les supprime.
🌍 Utilisable partout. AutoResearchClaw n'est pas verrouille sur une seule plateforme. Utilisez-le en CLI autonome, connectez-le a OpenClaw, ou integrez-le avec n'importe quel agent compatible ACP — 🤖 Claude Code, 💻 Codex CLI, 🐙 Copilot CLI, ♊ Gemini CLI, 🌙 Kimi CLI, et bien d'autres. Grace au pont de messagerie d'OpenClaw, vous pouvez lancer une recherche complete depuis 💬 Discord,
# 1. Cloner & installer
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
# 2. Setup (interactif — installe OpenCode beast mode, verifie Docker/LaTeX)
researchclaw setup
# 3. Configurer
researchclaw init # Interactif : choisir le fournisseur LLM, cree config.arc.yaml
# Ou manuellement : cp config.researchclaw.example.yaml config.arc.yaml
# 4. Executer
export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approveSortie → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ — LaTeX pret a compiler, BibTeX, code d'experience, graphiques.
📝 Configuration minimale requise
project:
name: "my-research"
research:
topic: "Your research topic here"
llm:
base_url: "https://api.openai.com/v1"
api_key_env: "OPENAI_API_KEY"
primary_model: "gpt-4o"
fallback_models: ["gpt-4o-mini"]
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"| Capacite | Fonctionnement |
|---|---|
| 🔄 Boucle PIVOT / REFINE | L'etape 15 decide de maniere autonome : PROCEED, REFINE (ajuster les parametres) ou PIVOT (nouvelle direction). Artefacts auto-versionnes. |
| 🤖 Debat multi-agents | La generation d'hypotheses, l'analyse de resultats et la relecture par les pairs utilisent chacune un debat structure multi-perspectives. |
| 🧬 Auto-apprentissage | Lecons extraites a chaque execution (justification des decisions, avertissements d'execution, anomalies de metriques) avec decroissance temporelle a 30 jours. Les executions futures apprennent des erreurs passees. |
| 📚 Base de connaissances | Chaque execution construit une KB structuree couvrant 6 categories (decisions, experiences, resultats, litterature, questions, relectures). |
| 🛡️ Sentinel Watchdog | Moniteur de qualite en arriere-plan : detection NaN/Inf, coherence article-preuves, score de pertinence des citations, protection anti-fabrication. |
AutoResearchClaw est un service compatible OpenClaw. Installez-le dans OpenClaw et lancez une recherche autonome avec un seul message — ou utilisez-le de maniere autonome via CLI, Claude Code, ou tout assistant de codage IA.
Si vous utilisez deja OpenClaw comme assistant IA :
1️⃣ Partagez l'URL du depot GitHub avec OpenClaw
2️⃣ OpenClaw lit automatiquement RESEARCHCLAW_AGENTS.md → comprend le pipeline
3️⃣ Dites : "Research [votre sujet]"
4️⃣ C'est fait — OpenClaw clone, installe, configure, execute et renvoie les resultats
C'est tout. OpenClaw gere git clone, pip install, la configuration et l'execution du pipeline automatiquement. Vous n'avez qu'a discuter.
💡 Ce qui se passe en coulisses
- OpenClaw lit
RESEARCHCLAW_AGENTS.md→ apprend le role d'orchestrateur de recherche - OpenClaw lit
README.md→ comprend l'installation et la structure du pipeline - OpenClaw copie
config.researchclaw.example.yaml→config.yaml - Demande votre cle API LLM (ou utilise votre variable d'environnement)
- Execute
pip install -e .+researchclaw run --topic "..." --auto-approve - Renvoie l'article, le LaTeX, les experiences et les citations
Pour une integration plus poussee, AutoResearchClaw inclut un systeme d'adaptateurs pont avec 6 fonctionnalites optionnelles :
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ Executions de recherche planifiees
use_message: true # 💬 Notifications de progression (Discord/Slack/Telegram)
use_memory: true # 🧠 Persistance des connaissances inter-sessions
use_sessions_spawn: true # 🔀 Lancement de sous-sessions paralleles pour les etapes concurrentes
use_web_fetch: true # 🌐 Recherche web en direct pendant la revue de litterature
use_browser: false # 🖥️ Collecte d'articles via navigateurChaque option active un protocole d'adaptateur type. Quand OpenClaw fournit ces fonctionnalites, les adaptateurs les consomment sans modification de code. Voir integration-guide.md pour tous les details.
AutoResearchClaw peut utiliser n'importe quel agent de codage compatible ACP comme backend LLM — sans cle API requise. L'agent communique via acpx, en maintenant une session persistante unique a travers les 23 etapes du pipeline.
| Agent | Commande | Notes |
|---|---|---|
| Claude Code | claude |
Anthropic |
| Codex CLI | codex |
OpenAI |
| Copilot CLI | gh |
GitHub |
| Gemini CLI | gemini |
|
| OpenCode | opencode |
SST |
| Kimi CLI | kimi |
Moonshot |
# config.yaml — exemple ACP
llm:
provider: "acp"
acp:
agent: "claude" # N'importe quel agent CLI compatible ACP
cwd: "." # Repertoire de travail pour l'agent
# Pas besoin de base_url ou api_key — l'agent gere sa propre authentification.# Executez simplement — l'agent utilise ses propres identifiants
researchclaw run --config config.yaml --topic "Your research idea" --auto-approve| Methode | Comment |
|---|---|
| CLI autonome | researchclaw setup → researchclaw init → researchclaw run --topic "..." --auto-approve |
| API Python | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | Lit RESEARCHCLAW_CLAUDE.md — dites simplement "Run research on [sujet]" |
| Copilot CLI | researchclaw run --topic "..." avec llm.acp.agent: "gh" |
| OpenCode | Lit .claude/skills/ — meme interface en langage naturel |
| Tout CLI IA | Fournissez RESEARCHCLAW_AGENTS.md comme contexte → l'agent s'auto-initialise |
Phase A : Cadrage de la recherche Phase E : Execution des experiences
1. TOPIC_INIT 12. EXPERIMENT_RUN
2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← auto-reparation
Phase B : Decouverte de litterature Phase F : Analyse et decision
3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← multi-agents
4. LITERATURE_COLLECT ← API reelle 15. RESEARCH_DECISION ← PIVOT/REFINE
5. LITERATURE_SCREEN [porte]
6. KNOWLEDGE_EXTRACT Phase G : Redaction de l'article
16. PAPER_OUTLINE
Phase C : Synthese des connaissances 17. PAPER_DRAFT
7. SYNTHESIS 18. PEER_REVIEW ← verif. preuves
8. HYPOTHESIS_GEN ← debat 19. PAPER_REVISION
Phase D : Conception experimentale Phase H : Finalisation
9. EXPERIMENT_DESIGN [porte] 20. QUALITY_GATE [porte]
10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE
11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX
23. CITATION_VERIFY ← verif. pertinence
Etapes de validation (5, 9, 20) : pause pour approbation humaine ou approbation automatique avec
--auto-approve. En cas de rejet, le pipeline revient en arriere.
Boucles de decision : l'etape 15 peut declencher REFINE (→ etape 13) ou PIVOT (→ etape 8), avec versionnement automatique des artefacts.
📋 Ce que fait chaque phase
| Phase | Ce qui se passe |
|---|---|
| A : Cadrage | Le LLM decompose le sujet en un arbre de problemes structure avec des questions de recherche |
| A+ : Materiel | Detection automatique du GPU (NVIDIA CUDA / Apple MPS / CPU uniquement), avertissement si le materiel local est limite, adaptation de la generation de code en consequence |
| B : Litterature | Recherche multi-sources (OpenAlex → Semantic Scholar → arXiv) de vrais articles, filtrage par pertinence, extraction de fiches de connaissances |
| C : Synthese | Regroupement des resultats, identification des lacunes de recherche, generation d'hypotheses testables via debat multi-agents |
| D : Conception | Conception du plan experimental, generation de Python executable adapte au materiel (niveau GPU → selection de packages), estimation des besoins en ressources |
| E : Execution | Execution des experiences en sandbox, detection de NaN/Inf et bugs d'execution, auto-reparation du code via reparation ciblee par LLM |
| F : Analyse | Analyse multi-agents des resultats ; decision autonome PROCEED / REFINE / PIVOT avec justification |
| G : Redaction | Plan → redaction section par section (5 000-6 500 mots) → relecture (avec verification de coherence methodologie-preuves) → revision avec controle de longueur |
| H : Finalisation | Porte qualite, archivage des connaissances, export LaTeX avec template de conference, verification d'integrite et de pertinence des citations |
| Fonctionnalite | Description |
|---|---|
| 📚 Litterature multi-sources | Vrais articles depuis OpenAlex, Semantic Scholar et arXiv — expansion de requetes, deduplication, disjoncteur avec degradation gracieuse |
| 🔍 Verification des citations en 4 couches | Verification arXiv ID → DOI CrossRef/DataCite → correspondance de titre Semantic Scholar → score de pertinence LLM. References hallucinées auto-supprimees. |
| 🖥️ Execution adaptee au materiel | Detection automatique du GPU (NVIDIA CUDA / Apple MPS / CPU uniquement) et adaptation de la generation de code, des imports et de l'echelle experimentale |
| 🦾 OpenCode Beast Mode | Les experiences complexes sont automatiquement dirigees vers OpenCode — genere des projets multi-fichiers avec architectures personnalisees, boucles d'entrainement et etudes d'ablation. Installation via researchclaw setup. |
| 🧪 Experiences en sandbox | Code valide par AST, harnais immuable, echec rapide NaN/Inf, reparation auto-guerison, raffinement iteratif (jusqu'a 10 tours), capture de resultats partiels |
| 📝 Redaction de qualite conference | Templates NeurIPS/ICML/ICLR, redaction section par section (5 000-6 500 mots), protection anti-fabrication, controle de longueur en revision, application anti-clause de non-responsabilite |
| 📐 Changement de template | neurips_2025, iclr_2026, icml_2026 — Markdown → LaTeX avec formules, tableaux, figures, references croisees, \cite{} |
| 🚦 Portes qualite | 3 portes avec intervention humaine possible (etapes 5, 9, 20) avec retour en arriere. A passer avec --auto-approve. |
AutoResearchClaw + MetaClaw = Un pipeline qui apprend de chaque execution.
MetaClaw ajoute le transfert de connaissances inter-executions a AutoResearchClaw. Lorsqu'il est active, le pipeline capture automatiquement les lecons des echecs et avertissements, les convertit en competences reutilisables, et injecte ces competences dans les 23 etapes du pipeline lors des executions suivantes — pour ne jamais repeter les memes erreurs.
Execution N s'execute → echecs/avertissements captures comme Lecons
↓
MetaClaw Lecon → conversion en Competence
↓
Fichiers de competences arc-* stockes dans ~/.metaclaw/skills/
↓
Execution N+1 → build_overlay() injecte les competences dans chaque prompt LLM
↓
Le LLM evite les pieges connus → meilleure qualite, moins de tentatives
# 1. Installer MetaClaw (si ce n'est pas deja fait)
pip install metaclaw
# 2. Activer dans votre configuration# config.arc.yaml
metaclaw_bridge:
enabled: true
proxy_url: "http://localhost:30000" # Proxy MetaClaw (optionnel)
skills_dir: "~/.metaclaw/skills" # Ou les competences sont stockees
fallback_url: "https://api.openai.com/v1" # Repli direct vers le LLM
fallback_api_key: "" # Cle API pour l'URL de repli
lesson_to_skill:
enabled: true
min_severity: "warning" # Convertir avertissements + erreurs
max_skills_per_run: 3# 3. Executez comme d'habitude — MetaClaw fonctionne de maniere transparente
researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approveApres chaque execution, verifiez ~/.metaclaw/skills/arc-*/SKILL.md pour voir les competences que votre pipeline a apprises.
Dans des experiences controlees A/B (meme sujet, meme LLM, meme configuration) :
| Metrique | Reference | Avec MetaClaw | Amelioration |
|---|---|---|---|
| Taux de relance des etapes | 10.5% | 7.9% | -24.8% |
| Nombre de cycles REFINE | 2.0 | 1.2 | -40.0% |
| Completion des etapes du pipeline | 18/19 | 19/19 | +5.3% |
| Score de robustesse global (composite) | 0.714 | 0.845 | +18.3% |
Le score de robustesse composite est une moyenne ponderee du taux de completion des etapes (40%), de la reduction des tentatives (30%) et de l'efficacite des cycles REFINE (30%).
- Par defaut : DESACTIVE. Si
metaclaw_bridgeest absent ouenabled: false, le pipeline se comporte exactement comme avant. - Aucune nouvelle dependance. MetaClaw est optionnel — le pipeline de base fonctionne sans.
- Les 1 823 tests existants passent avec le code d'integration present.
Cliquez pour afficher la reference complete de configuration
# === Projet ===
project:
name: "my-research" # Identifiant du projet
mode: "docs-first" # docs-first | semi-auto | full-auto
# === Recherche ===
research:
topic: "..." # Sujet de recherche (requis)
domains: ["ml", "nlp"] # Domaines de recherche pour la revue de litterature
daily_paper_count: 8 # Nombre cible d'articles par requete de recherche
quality_threshold: 4.0 # Score qualite minimum pour les articles
# === Execution ===
runtime:
timezone: "America/New_York" # Pour les horodatages
max_parallel_tasks: 3 # Limite d'experiences concurrentes
approval_timeout_hours: 12 # Timeout des etapes de validation
retry_limit: 2 # Nombre de tentatives en cas d'echec d'etape
# === LLM ===
llm:
provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible
base_url: "https://..." # Point d'acces API (requis pour openai-compatible)
api_key_env: "OPENAI_API_KEY" # Variable d'env pour la cle API (requis pour openai-compatible)
api_key: "" # Ou cle en dur ici
primary_model: "gpt-4o" # Modele principal
fallback_models: ["gpt-4o-mini"] # Chaine de repli
s2_api_key: "" # Cle API Semantic Scholar (optionnel, limites de debit plus elevees)
acp: # Utilise uniquement quand provider: "acp"
agent: "claude" # Commande CLI de l'agent ACP (claude, codex, gemini, etc.)
cwd: "." # Repertoire de travail pour l'agent
# === Experience ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 300 # Temps d'execution max par lancement (defaut : 300s)
max_iterations: 10 # Iterations d'optimisation max
metric_key: "val_loss" # Nom de la metrique principale
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # Detection auto des imports → requirements.txt
ssh_remote:
host: "" # Nom d'hote du serveur GPU
gpu_ids: [] # Identifiants GPU disponibles
remote_workdir: "/tmp/researchclaw_experiments"
opencode: # OpenCode Beast Mode (auto-installe via `researchclaw setup`)
enabled: true # Interrupteur principal (defaut : true)
auto: true # Declenchement auto sans confirmation (defaut : true)
complexity_threshold: 0.2 # 0.0-1.0 — plus eleve = ne se declenche que pour les experiences complexes
model: "" # Modele a forcer (vide = utilise llm.primary_model)
timeout_sec: 600 # Duree max en secondes pour la generation OpenCode
max_retries: 1 # Nombre de tentatives en cas d'echec
workspace_cleanup: true # Supprimer l'espace de travail temporaire apres collecte
# === Export ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === Prompts ===
prompts:
custom_file: "" # Chemin vers un YAML de prompts personnalises (vide = defauts)
# === Securite ===
security:
hitl_required_stages: [5, 9, 20] # Etapes necessitant une approbation humaine
allow_publish_without_approval: false
redact_sensitive_logs: true
# === Base de connaissances ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === Notifications ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === Pont MetaClaw (Optionnel) ===
metaclaw_bridge:
enabled: false # Mettre a true pour activer l'apprentissage inter-executions
proxy_url: "http://localhost:30000" # URL du proxy MetaClaw
skills_dir: "~/.metaclaw/skills" # Ou les competences arc-* sont stockees
fallback_url: "" # Repli direct vers le LLM quand le proxy est indisponible
fallback_api_key: "" # Cle API pour le point d'acces de repli
lesson_to_skill:
enabled: true # Conversion automatique des lecons en competences
min_severity: "warning" # Severite minimum pour la conversion
max_skills_per_run: 3 # Max de nouvelles competences par execution
# === Pont OpenClaw ===
openclaw_bridge:
use_cron: false # Executions de recherche planifiees
use_message: false # Notifications de progression
use_memory: false # Persistance des connaissances inter-sessions
use_sessions_spawn: false # Lancement de sous-sessions paralleles
use_web_fetch: false # Recherche web en direct
use_browser: false # Collecte d'articles via navigateurInspire par :
- 🔬 AI Scientist (Sakana AI) — Pionnier de la recherche automatisee
- 🧠 AutoResearch (Andrej Karpathy) — Automatisation de la recherche de bout en bout
- 🌐 FARS (Analemma) — Systeme de recherche entierement automatise
MIT — voir LICENSE pour les details.
Si vous trouvez AutoResearchClaw utile, veuillez citer :
@misc{liu2026autoresearchclaw,
author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper},
year = {2026},
organization = {GitHub},
url = {https://github.com/aiming-lab/AutoResearchClaw},
}Construit avec 🦞 par l'equipe AutoResearchClaw

