Comparação Rápida
| Recurso | /agent | /extract | /scrape (modo JSON) |
|---|---|---|---|
| Status | Ativo | Use /agent em seu lugar | Ativo |
| URL Obrigatória | Não (opcional) | Sim (curingas suportados) | Sim (URL única) |
| Escopo | Descoberta em toda a web | Múltiplas páginas/domínios | Página única |
| Descoberta de URL | Pesquisa autônoma na web | Rastreia a partir das URLs fornecidas | Nenhuma |
| Processamento | Assíncrono | Assíncrono | Síncrono |
| Schema Obrigatório | Não (prompt ou schema) | Não (prompt ou schema) | Não (prompt ou schema) |
| Preços | Dinâmico (5 execuções gratuitas/dia) | Baseado em tokens (1 crédito = 15 tokens) | 1 crédito/página |
| Melhor Para | Pesquisa, descoberta, coleta complexa | Extração em várias páginas (quando você sabe as URLs) | Extração de uma única página conhecida |
1. Endpoint /agent
/agent é o recurso mais avançado do Firecrawl — o sucessor de /extract. Ele usa agentes de IA para pesquisar, navegar e coletar dados de forma autônoma em toda a web.
Características principais
- URLs opcionais: Basta descrever o que você precisa no
prompt; o uso de URLs é totalmente opcional - Navegação autônoma: O agente pesquisa e navega profundamente em sites para encontrar seus dados
- Busca profunda na web: Descobre autonomamente informações em diversos domínios e páginas
- Processamento paralelo: Processa múltiplas fontes simultaneamente para resultados mais rápidos
- Modelos disponíveis:
spark-1-mini(padrão, 60% mais barato) espark-1-pro(maior precisão)
Exemplo
Melhor caso de uso: Pesquisa e descoberta autônomas
/agent: Você não sabe quais sites contêm essas informações. O agent irá pesquisar de forma autônoma na web, navegar até fontes relevantes (Crunchbase, sites de notícias, páginas das empresas) e compilar os dados estruturados para você.
Para mais detalhes, consulte a documentação do Agent.
2. Endpoint /extract
Use
/agent em vez disso: Recomendamos migrar para /agent — é mais rápido, mais confiável, não requer URLs e cobre todos os casos de uso de /extract e mais./extract coleta dados estruturados de URLs especificadas ou de domínios inteiros usando extração com LLMs.
Características principais
- URLs normalmente necessárias: Forneça pelo menos uma URL (aceita curingas como
example.com/*) - Rastreamento de domínio: Pode rastrear e analisar todas as URLs descobertas em um domínio
- Aprimoramento com busca na web:
enableWebSearchopcional para seguir links fora dos domínios especificados - Schema opcional: Suporta JSON Schema rígido OU prompts em linguagem natural
- Processamento assíncrono: Retorna um ID de tarefa para verificação de status
A limitação de URLs
/extract é que você normalmente precisa conhecer as URLs de antemão:
- Lacuna de descoberta: para tarefas como “encontrar startups da YC W24”, você não sabe quais URLs contêm os dados. Você precisaria de uma etapa de pesquisa separada antes de chamar
/extract. - Busca na web pouco prática: embora
enableWebSearchexista, ele é limitado a começar pelas URLs que você fornece — um fluxo de trabalho pouco prático para tarefas de descoberta. - Por que
/agentfoi criado:/extracté bom em extrair de locais conhecidos, mas menos eficaz em descobrir onde os dados estão.
Exemplo
Caso de uso ideal: extração direcionada em múltiplas páginas
docs.competitor.com/*.
Por que /extract funcionou aqui: Você conhecia exatamente o domínio. Mas, mesmo assim, /agent com URLs fornecidas normalmente oferece resultados melhores hoje.
Para mais detalhes, consulte a documentação do Extract.
3. Endpoint /scrape com modo JSON
/scrape com modo JSON é a abordagem mais controlada — ele extrai dados estruturados de uma única URL conhecida usando um LLM para analisar o conteúdo da página no schema que você especificar.
Características principais
- Apenas uma URL: Projetado para extrair dados de uma única página específica por vez
- URL exata obrigatória: Você deve conhecer a URL exata que contém os dados
- Schema opcional: Pode usar JSON Schema OU apenas um prompt (o LLM escolhe a estrutura)
- Síncrono: Retorna os dados imediatamente (sem necessidade de polling de jobs)
- Formatos adicionais: Pode combinar extração em JSON com markdown, HTML e capturas de tela em uma única requisição
Exemplo
Melhor caso de uso: Extração de alta precisão em página única
/scrape com modo JSON: Você sabe exatamente qual página contém os dados, precisa de uma extração precisa de uma única página e quer resultados síncronos sem a sobrecarga de gerenciar tarefas.
Para mais detalhes, consulte a documentação do modo JSON.
Guia de decisão
- NÃO → Use
/agent(descoberta autônoma na web) - SIM
- Página única? → Use
/scrapecom modo JSON - Múltiplas páginas? → Use
/agentcom URLs (ou/scrapeem lote)
- Página única? → Use
Recomendações por Cenário
| Cenário | Endpoint Recomendado |
|---|---|
| ”Encontrar todas as startups de IA e seus financiamentos” | /agent |
| ”Extrair dados desta página de produto específica” | /scrape (modo JSON) |
| “Obter todos os artigos do blog de competitor.com” | /agent com URL |
| ”Monitorar preços em várias URLs conhecidas” | /scrape com processamento em lote |
| ”Pesquisar empresas em um setor específico” | /agent |
| ”Extrair informações de contato de 50 páginas de empresas conhecidas” | /scrape com processamento em lote |
Preços
| Endpoint | Custo | Observações |
|---|---|---|
/scrape (modo JSON) | 1 crédito/página | Fixo, previsível |
/extract | Cobrado por tokens (1 crédito = 15 tokens) | Variável de acordo com o conteúdo |
/agent | Dinâmico | 5 execuções gratuitas por dia; varia de acordo com a complexidade |
Exemplo: “Encontre os fundadores da Firecrawl”
| Endpoint | Como funciona | Créditos usados |
|---|---|---|
/scrape | Você encontra a URL manualmente e depois faz scrape de 1 página | ~1 crédito |
/extract | Você fornece URL(s) e ele extrai dados estruturados | Variável (baseado em tokens) |
/agent | Basta enviar o prompt — o agente encontra e extrai | ~15 créditos |
/scrape é o mais barato, mas exige que você saiba a URL. /agent custa mais, mas cuida da descoberta automaticamente.
Para preços detalhados, consulte Firecrawl Pricing.
Migração: /extract → /agent
/extract atualmente, a migração é simples:
Antes (extract):
/agent, você pode simplesmente descrever o que precisa, sem nem precisar informar URLs.
Principais pontos
-
Sabe a URL exata? Use
/scrapecom modo JSON — é a opção mais barata (1 crédito/página), mais rápida (síncrona) e mais previsível. -
Precisa de pesquisa autônoma? Use
/agent— ele cuida da descoberta automaticamente, com 5 execuções grátis/dia e depois precificação dinâmica baseada na complexidade. -
Migrando de
/extractpara/agentem novos projetos —/agenté o sucessor, com recursos mais avançados. -
Trade-off entre custo e conveniência:
/scrapeé mais econômico quando você já conhece suas URLs;/agentcusta mais, mas elimina a descoberta manual de URLs.

