Converse com o OpenClaw: "Pesquise X" → pronto.
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
🏆 Galeria de Artigos · 📖 Guia de Integração · 💬 Comunidade Discord
|
|
🏆 Galeria de Artigos Gerados 8 artigos em 8 domínios — matemática, estatística, biologia, computação, NLP, RL, visão, robustez — gerados de forma totalmente autônoma sem intervenção humana. |
🧪 Estamos procurando testadores! Experimente o pipeline com sua própria ideia de pesquisa — de qualquer área — e diga-nos o que achou. Seu feedback molda diretamente a próxima versão. → Testing Guide | → 中文测试指南 | → 日本語テストガイド
- [03/18/2026] v0.3.1 — OpenCode Beast Mode + Community Contributions — New "Beast Mode" routes complex code generation to OpenCode with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit.
- [03/17/2026] v0.3.0 — MetaClaw Integration — AutoResearchClaw now supports MetaClaw cross-run learning: pipeline failures → structured lessons → reusable skills, injected into all 23 stages. +18.3% robustness in controlled experiments. Opt-in (
metaclaw_bridge.enabled: true), fully backward-compatible. See Integration Guide. - [03/16/2026] v0.2.0 — Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs.
- [03/15/2026] v0.1.0 — We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required.
pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approveVocê pensa. AutoResearchClaw escreve.
Forneça um tópico de pesquisa — receba de volta um artigo acadêmico completo com literatura real do OpenAlex, Semantic Scholar & arXiv, experimentos em sandbox com detecção automática de hardware (GPU/MPS/CPU), análise estatística, revisão por pares multi-agente, e LaTeX pronto para conferência mirando NeurIPS/ICML/ICLR. Sem babá. Sem copiar e colar. Sem referências alucinadas.
| 📄 | paper_draft.md | Artigo acadêmico completo (Introdução, Trabalhos Relacionados, Método, Experimentos, Resultados, Conclusão) |
| 📐 | paper.tex | LaTeX pronto para conferência (templates NeurIPS / ICLR / ICML) |
| 📚 | references.bib | Referências BibTeX reais do OpenAlex, Semantic Scholar e arXiv — auto-podadas para corresponder às citações inline |
| 🔍 | verification_report.json | Verificação de integridade + relevância de citações em 4 camadas (arXiv, CrossRef, DataCite, LLM) |
| 🧪 | experiment runs/ | Código gerado + resultados do sandbox + métricas JSON estruturadas |
| 📊 | charts/ | Gráficos de comparação de condições gerados automaticamente com barras de erro e intervalos de confiança |
| 📝 | reviews.md | Revisão por pares multi-agente com verificações de consistência metodologia-evidência |
| 🧬 | evolution/ | Lições de autoaprendizagem extraídas de cada execução |
| 📦 | deliverables/ | Todas as saídas finais em uma pasta — pronto para compilar no Overleaf |
O pipeline roda de ponta a ponta sem intervenção humana. Quando experimentos falham, ele se auto-repara. Quando hipóteses não se sustentam, ele pivota. Quando citações são falsas, ele as elimina.
# 1. Clone & instale
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
# 2. Setup (interativo — instala OpenCode beast mode, verifica Docker/LaTeX)
researchclaw setup
# 3. Configure
researchclaw init # Interativo: escolha provedor LLM, cria config.arc.yaml
# Ou manualmente: cp config.researchclaw.example.yaml config.arc.yaml
# 4. Execute
export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approveSaída → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ — LaTeX, BibTeX, código de experimentos, gráficos prontos para compilação.
📝 Configuração mínima necessária
project:
name: "my-research"
research:
topic: "Your research topic here"
llm:
base_url: "https://api.openai.com/v1"
api_key_env: "OPENAI_API_KEY"
primary_model: "gpt-4o"
fallback_models: ["gpt-4o-mini"]
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"| Capacidade | Como Funciona |
|---|---|
| 🔄 Loop PIVOT / REFINE | O Estágio 15 decide autonomamente: PROCEED, REFINE (ajustar parâmetros) ou PIVOT (nova direção). Artefatos versionados automaticamente. |
| 🤖 Debate Multi-Agente | Geração de hipóteses, análise de resultados e revisão por pares usam debate estruturado com múltiplas perspectivas. |
| 🧬 Autoaprendizagem | Lições extraídas por execução (justificativa de decisões, avisos de runtime, anomalias em métricas) com decaimento temporal de 30 dias. Execuções futuras aprendem com erros passados. |
| 📚 Base de Conhecimento | Cada execução constrói uma KB estruturada com 6 categorias (decisões, experimentos, descobertas, literatura, questões, revisões). |
| 🛡️ Sentinel Watchdog | Monitor de qualidade em segundo plano: detecção de NaN/Inf, consistência artigo-evidência, pontuação de relevância de citações, guarda anti-fabricação. |
AutoResearchClaw é um serviço compatível com OpenClaw. Instale-o no OpenClaw e inicie pesquisa autônoma com uma única mensagem — ou use-o de forma independente via CLI, Claude Code ou qualquer assistente de codificação IA.
Se você já usa o OpenClaw como seu assistente de IA:
1️⃣ Compartilhe a URL do repositório GitHub com o OpenClaw
2️⃣ O OpenClaw lê automaticamente RESEARCHCLAW_AGENTS.md → entende o pipeline
3️⃣ Diga: "Pesquise [seu tópico]"
4️⃣ Pronto — o OpenClaw clona, instala, configura, executa e retorna os resultados
É isso. O OpenClaw gerencia git clone, pip install, configuração e execução do pipeline automaticamente. Você apenas conversa.
💡 O que acontece por baixo dos panos
- O OpenClaw lê
RESEARCHCLAW_AGENTS.md→ aprende o papel de orquestrador de pesquisa - O OpenClaw lê
README.md→ entende a instalação e estrutura do pipeline - O OpenClaw copia
config.researchclaw.example.yaml→config.yaml - Solicita sua chave de API do LLM (ou usa sua variável de ambiente)
- Executa
pip install -e .+researchclaw run --topic "..." --auto-approve - Retorna o artigo, LaTeX, experimentos e citações
Para integração mais profunda, o AutoResearchClaw inclui um sistema de adaptadores bridge com 6 capacidades opcionais:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ Execuções de pesquisa agendadas
use_message: true # 💬 Notificações de progresso (Discord/Slack/Telegram)
use_memory: true # 🧠 Persistência de conhecimento entre sessões
use_sessions_spawn: true # 🔀 Criar sub-sessões paralelas para estágios concorrentes
use_web_fetch: true # 🌐 Busca web ao vivo durante revisão de literatura
use_browser: false # 🖥️ Coleta de artigos baseada em navegadorCada flag ativa um protocolo de adaptador tipado. Quando o OpenClaw fornece essas capacidades, os adaptadores as consomem sem alterações no código. Consulte integration-guide.md para detalhes completos.
O AutoResearchClaw pode usar qualquer agente de codificação compatível com ACP como seu backend LLM — sem necessidade de chaves de API. O agente se comunica via acpx, mantendo uma única sessão persistente ao longo de todos os 23 estágios do pipeline.
| Agente | Comando | Notas |
|---|---|---|
| Claude Code | claude |
Anthropic |
| Codex CLI | codex |
OpenAI |
| Copilot CLI | gh |
GitHub |
| Gemini CLI | gemini |
|
| OpenCode | opencode |
SST |
| Kimi CLI | kimi |
Moonshot |
# config.yaml — exemplo ACP
llm:
provider: "acp"
acp:
agent: "claude" # Qualquer comando CLI de agente compatível com ACP
cwd: "." # Diretório de trabalho para o agente
# Sem base_url ou api_key necessários — o agente gerencia sua própria autenticação.# Basta executar — o agente usa suas próprias credenciais
researchclaw run --config config.yaml --topic "Your research idea" --auto-approve| Método | Como |
|---|---|
| CLI Independente | researchclaw setup → researchclaw init → researchclaw run --topic "..." --auto-approve |
| API Python | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | Lê RESEARCHCLAW_CLAUDE.md — basta dizer "Execute pesquisa sobre [tópico]" |
| Copilot CLI | researchclaw run --topic "..." com llm.acp.agent: "gh" |
| OpenCode | Lê .claude/skills/ — mesma interface em linguagem natural |
| Qualquer CLI de IA | Forneça RESEARCHCLAW_AGENTS.md como contexto → o agente faz bootstrap automaticamente |
Fase A: Escopo da Pesquisa Fase E: Execução de Experimentos
1. TOPIC_INIT 12. EXPERIMENT_RUN
2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← auto-reparo
Fase B: Descoberta de Literatura Fase F: Análise & Decisão
3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← multi-agente
4. LITERATURE_COLLECT ← API real 15. RESEARCH_DECISION ← PIVOT/REFINE
5. LITERATURE_SCREEN [gate]
6. KNOWLEDGE_EXTRACT Fase G: Escrita do Artigo
16. PAPER_OUTLINE
Fase C: Síntese de Conhecimento 17. PAPER_DRAFT
7. SYNTHESIS 18. PEER_REVIEW ← verif. evidência
8. HYPOTHESIS_GEN ← debate 19. PAPER_REVISION
Fase D: Design de Experimentos Fase H: Finalização
9. EXPERIMENT_DESIGN [gate] 20. QUALITY_GATE [gate]
10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE
11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX
23. CITATION_VERIFY ← verif. relevância
Estágios gate (5, 9, 20) pausam para aprovação humana ou aprovam automaticamente com
--auto-approve. Em caso de rejeição, o pipeline faz rollback.
Loops de decisão: O Estágio 15 pode acionar REFINE (→ Estágio 13) ou PIVOT (→ Estágio 8), com versionamento automático de artefatos.
📋 O Que Cada Fase Faz
| Fase | O Que Acontece |
|---|---|
| A: Escopo | O LLM decompõe o tópico em uma árvore de problemas estruturada com questões de pesquisa |
| A+: Hardware | Detecta automaticamente GPU (NVIDIA CUDA / Apple MPS / apenas CPU), avisa se o hardware local é limitado, adapta a geração de código adequadamente |
| B: Literatura | Busca multi-fonte (OpenAlex → Semantic Scholar → arXiv) por artigos reais, triagem por relevância, extração de fichas de conhecimento |
| C: Síntese | Agrupa descobertas, identifica lacunas de pesquisa, gera hipóteses testáveis via debate multi-agente |
| D: Design | Projeta plano de experimento, gera Python executável com consciência de hardware (tier de GPU → seleção de pacotes), estima necessidades de recursos |
| E: Execução | Executa experimentos em sandbox, detecta NaN/Inf e bugs de runtime, auto-repara código via reparo direcionado por LLM |
| F: Análise | Análise multi-agente dos resultados; decisão autônoma PROCEED / REFINE / PIVOT com justificativa |
| G: Escrita | Outline → redação seção por seção (5.000-6.500 palavras) → revisão por pares (com consistência metodologia-evidência) → revisão com guarda de tamanho |
| H: Finalização | Quality gate, arquivamento de conhecimento, exportação LaTeX com template de conferência, verificação de integridade + relevância de citações |
| Funcionalidade | Descrição |
|---|---|
| 📚 Literatura Multi-Fonte | Artigos reais do OpenAlex, Semantic Scholar & arXiv — expansão de consultas, deduplicação, circuit breaker com degradação graciosa |
| 🔍 Verificação de Citações em 4 Camadas | Verificação de arXiv ID → CrossRef/DataCite DOI → correspondência de título no Semantic Scholar → pontuação de relevância por LLM. Referências alucinadas removidas automaticamente. |
| 🖥️ Execução com Consciência de Hardware | Detecta automaticamente GPU (NVIDIA CUDA / Apple MPS / apenas CPU) e adapta geração de código, imports e escala de experimentos |
| 🦾 OpenCode Beast Mode | Experimentos complexos roteados automaticamente para o OpenCode — gera projetos multi-arquivo com arquiteturas customizadas, loops de treinamento e estudos de ablação. Instale via researchclaw setup. |
| 🧪 Experimentos em Sandbox | Código validado por AST, harness imutável, fast-fail para NaN/Inf, reparo auto-reparável, refinamento iterativo (até 10 rodadas), captura de resultados parciais |
| 📝 Escrita com Qualidade de Conferência | Templates NeurIPS/ICML/ICLR, redação seção por seção (5.000-6.500 palavras), guarda anti-fabricação, guarda de tamanho na revisão, imposição anti-disclaimer |
| 📐 Troca de Template | neurips_2025, iclr_2026, icml_2026 — Markdown → LaTeX com matemática, tabelas, figuras, referências cruzadas, \cite{} |
| 🚦 Quality Gates | 3 gates com human-in-the-loop (Estágios 5, 9, 20) com rollback. Pule com --auto-approve. |
AutoResearchClaw + MetaClaw = Um pipeline que aprende com cada execução.
MetaClaw adiciona transferência de conhecimento entre execuções ao AutoResearchClaw. Quando ativado, o pipeline captura automaticamente lições de falhas e avisos, converte-as em habilidades reutilizáveis e injeta essas habilidades em todos os 23 estágios do pipeline em execuções subsequentes — para que os mesmos erros nunca se repitam.
Run N executa → falhas/avisos capturados como Lessons
↓
MetaClaw Lesson → conversão em Skill
↓
Arquivos arc-* Skill armazenados em ~/.metaclaw/skills/
↓
Run N+1 → build_overlay() injeta skills em cada prompt LLM
↓
LLM evita armadilhas conhecidas → maior qualidade, menos retentativas
# 1. Instale o MetaClaw (se ainda não tiver)
pip install metaclaw
# 2. Ative na sua configuração# config.arc.yaml
metaclaw_bridge:
enabled: true
proxy_url: "http://localhost:30000" # Proxy MetaClaw (opcional)
skills_dir: "~/.metaclaw/skills" # Onde as skills são armazenadas
fallback_url: "https://api.openai.com/v1" # Fallback direto para LLM
fallback_api_key: "" # Chave de API para URL de fallback
lesson_to_skill:
enabled: true
min_severity: "warning" # Converte warnings + errors
max_skills_per_run: 3# 3. Execute normalmente — MetaClaw funciona de forma transparente
researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approveApós cada execução, verifique ~/.metaclaw/skills/arc-*/SKILL.md para ver as skills que seu pipeline aprendeu.
Em experimentos A/B controlados (mesmo tópico, mesmo LLM, mesma configuração):
| Métrica | Baseline | Com MetaClaw | Melhoria |
|---|---|---|---|
| Taxa de retentativa por estágio | 10.5% | 7.9% | -24.8% |
| Contagem de ciclos REFINE | 2.0 | 1.2 | -40.0% |
| Conclusão de estágios do pipeline | 18/19 | 19/19 | +5.3% |
| Pontuação de robustez geral (composta) | 0.714 | 0.845 | +18.3% |
A pontuação composta de robustez é uma média ponderada da taxa de conclusão de estágios (40%), redução de retentativas (30%) e eficiência de ciclos REFINE (30%).
- Padrão: DESATIVADO. Se
metaclaw_bridgeestiver ausente ouenabled: false, o pipeline funciona exatamente como antes. - Sem novas dependências. MetaClaw é opcional — o pipeline principal funciona sem ele.
- Todos os 1.634 testes existentes passam com o código de integração presente.
Clique para expandir a referência completa de configuração
# === Projeto ===
project:
name: "my-research" # Identificador do projeto
mode: "docs-first" # docs-first | semi-auto | full-auto
# === Pesquisa ===
research:
topic: "..." # Tópico de pesquisa (obrigatório)
domains: ["ml", "nlp"] # Domínios de pesquisa para busca de literatura
daily_paper_count: 8 # Artigos alvo por consulta de busca
quality_threshold: 4.0 # Pontuação mínima de qualidade para artigos
# === Runtime ===
runtime:
timezone: "America/New_York" # Para timestamps
max_parallel_tasks: 3 # Limite de experimentos concorrentes
approval_timeout_hours: 12 # Timeout de estágios gate
retry_limit: 2 # Contagem de retentativas em falha de estágio
# === LLM ===
llm:
provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible
base_url: "https://..." # Endpoint da API (obrigatório para openai-compatible)
api_key_env: "OPENAI_API_KEY" # Variável de ambiente para chave da API (obrigatório para openai-compatible)
api_key: "" # Ou insira a chave diretamente aqui
primary_model: "gpt-4o" # Modelo primário
fallback_models: ["gpt-4o-mini"] # Cadeia de fallback
s2_api_key: "" # Chave API do Semantic Scholar (opcional, limites de taxa maiores)
acp: # Usado apenas quando provider: "acp"
agent: "claude" # Comando CLI do agente ACP (claude, codex, gemini, etc.)
cwd: "." # Diretório de trabalho para o agente
# === Experimento ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 300 # Tempo máximo de execução por run (padrão: 300s)
max_iterations: 10 # Máximo de iterações de otimização
metric_key: "val_loss" # Nome da métrica primária
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # Detecção automática de imports → requirements.txt
ssh_remote:
host: "" # Hostname do servidor GPU
gpu_ids: [] # IDs de GPU disponíveis
remote_workdir: "/tmp/researchclaw_experiments"
opencode: # OpenCode Beast Mode (auto-instalado via `researchclaw setup`)
enabled: true # Interruptor principal (padrão: true)
auto: true # Acionamento automático sem confirmação (padrão: true)
complexity_threshold: 0.2 # 0.0-1.0 — maior = só aciona em experimentos complexos
model: "" # Modelo override (vazio = usa llm.primary_model)
timeout_sec: 600 # Máximo de segundos para geração OpenCode
max_retries: 1 # Contagem de retentativas em falha
workspace_cleanup: true # Remove workspace temporário após coleta
# === Exportação ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === Prompts ===
prompts:
custom_file: "" # Caminho para YAML de prompts customizados (vazio = padrões)
# === Segurança ===
security:
hitl_required_stages: [5, 9, 20] # Estágios que requerem aprovação humana
allow_publish_without_approval: false
redact_sensitive_logs: true
# === Base de Conhecimento ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === Notificações ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === MetaClaw Bridge (Opcional) ===
metaclaw_bridge:
enabled: false # Defina como true para ativar aprendizado entre execuções
proxy_url: "http://localhost:30000" # URL do proxy MetaClaw
skills_dir: "~/.metaclaw/skills" # Onde as skills arc-* são armazenadas
fallback_url: "" # Fallback direto para LLM quando o proxy está fora
fallback_api_key: "" # Chave de API para endpoint de fallback
lesson_to_skill:
enabled: true # Auto-converter lições em skills
min_severity: "warning" # Severidade mínima para converter
max_skills_per_run: 3 # Máximo de novas skills por execução do pipeline
# === Bridge OpenClaw ===
openclaw_bridge:
use_cron: false # Execuções de pesquisa agendadas
use_message: false # Notificações de progresso
use_memory: false # Persistência de conhecimento entre sessões
use_sessions_spawn: false # Criar sub-sessões paralelas
use_web_fetch: false # Busca web ao vivo
use_browser: false # Coleta de artigos baseada em navegadorInspirado por:
- 🔬 AI Scientist (Sakana AI) — Pioneiro em pesquisa automatizada
- 🧠 AutoResearch (Andrej Karpathy) — Automação de pesquisa de ponta a ponta
- 🌐 FARS (Analemma) — Fully Automated Research System
MIT — veja LICENSE para detalhes.
Se você achar o AutoResearchClaw útil, por favor cite:
@misc{liu2026autoresearchclaw,
author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper},
year = {2026},
organization = {GitHub},
url = {https://github.com/aiming-lab/AutoResearchClaw},
}Construído com 🦞 pela equipe AutoResearchClaw

