Comparación rápida
| Función | /agent | /extract | /scrape (modo JSON) |
|---|---|---|---|
| Estado | Activo | Usa /agent en su lugar | Activo |
| URL requerida | No (opcional) | Sí (se admiten comodines) | Sí (URL única) |
| Alcance | Descubrimiento en toda la web | Varias páginas/dominios | Una sola página |
| Descubrimiento de URL | Búsqueda web autónoma | Rastrea desde las URL dadas | Ninguno |
| Procesamiento | Asíncrono | Asíncrono | Síncrono |
| Esquema requerido | No (prompt o esquema) | No (prompt o esquema) | No (prompt o esquema) |
| Precios | Dinámico (5 ejecuciones gratuitas al día) | Basado en tokens (1 crédito = 15 tokens) | 1 crédito/página |
| Ideal para | Investigación, descubrimiento, recopilación compleja | Extracción multipágina (cuando ya conoces las URL) | Extracción de una sola página conocida |
1. Endpoint /agent
/agent es la funcionalidad más avanzada de Firecrawl, el sucesor de /extract. Utiliza agentes de IA para buscar, navegar y recopilar datos de forma autónoma en toda la web.
Características clave
- URLs opcionales: Solo tienes que describir lo que necesitas mediante el
prompt; las URLs son completamente opcionales - Navegación autónoma: El agente busca y navega en profundidad por sitios web para encontrar tus datos
- Búsqueda profunda en la web: Descubre información de forma autónoma en múltiples dominios y páginas
- Procesamiento en paralelo: Procesa múltiples fuentes simultáneamente para obtener resultados más rápidos
- Modelos disponibles:
spark-1-mini(predeterminado, 60% más económico) yspark-1-pro(mayor precisión)
Ejemplo
Caso de uso ideal: investigación y descubrimiento autónomos
/agent: No sabes qué sitios web contienen esta información. El agente buscará de forma autónoma en la web, navegará a fuentes relevantes (Crunchbase, sitios de noticias, páginas de empresas) y recopilará los datos estructurados por ti.
Para más información, consulta la documentación del agente.
2. Endpoint /extract
Usa
/agent en su lugar: Recomendamos migrar a /agent: es más rápido, más fiable, no requiere URL y cubre todos los casos de uso de /extract y más./extract recopila datos estructurados a partir de URL específicas o dominios completos usando extracción basada en LLM.
Características clave
- URLs normalmente requeridas: Proporciona al menos una URL (admite comodines como
example.com/*) - Rastreo de dominio: Puede rastrear y analizar todas las URLs descubiertas en un dominio
- Mejora de la búsqueda web:
enableWebSearchopcional para seguir enlaces fuera de los dominios especificados - Esquema opcional: Admite un esquema JSON estricto O prompts en lenguaje natural
- Procesamiento asíncrono: Devuelve un ID de tarea para comprobar el estado
La limitación de las URL
/extract es que normalmente necesitas conocer las URL de antemano:
- Brecha de descubrimiento: Para tareas como “find YC W24 companies”, no sabes qué URL contienen los datos. Necesitarías un paso de búsqueda por separado antes de llamar a
/extract. - Búsqueda web poco práctica: Aunque existe
enableWebSearch, está limitado a comenzar desde las URL que proporcionas, lo que resulta en un flujo de trabajo poco práctico para tareas de descubrimiento. - Por qué se creó
/agent:/extractes bueno para extraer desde ubicaciones conocidas, pero es menos efectivo para descubrir dónde están los datos.
Ejemplo
Mejor caso de uso: extracción específica de múltiples páginas
docs.competitor.com/*.
Por qué /extract funcionó aquí: Conocías el dominio exacto. Pero incluso así, hoy en día /agent con URLs proporcionadas normalmente ofrece mejores resultados.
Para más detalles, consulta la documentación de Extract.
3. Endpoint /scrape con modo JSON
/scrape con modo JSON es el enfoque con mayor control: extrae datos estructurados de una única URL conocida usando un LLM para convertir el contenido de la página en el esquema que especifiques.
Características clave
- Solo una URL: Diseñado para extraer datos de una única página específica a la vez
- URL exacta requerida: Debes conocer la URL precisa que contiene los datos
- Esquema opcional: Puedes usar un esquema JSON o solo un prompt (el LLM elige la estructura)
- Síncrono: Devuelve los datos de inmediato (no hace falta hacer polling de jobs)
- Formatos adicionales: Puede combinar la extracción en JSON con markdown, HTML y capturas de pantalla en una sola solicitud
Ejemplo
Caso de uso ideal: extracción precisa de una sola página
/scrape con modo JSON: Sabes exactamente qué página contiene los datos, necesitas una extracción precisa de una sola página y quieres resultados síncronos sin la sobrecarga de gestionar tareas.
Para más detalles, consulta la documentación del modo JSON.
Guía de decisiones
- NO → Usa
/agent(descubrimiento web autónomo) - SÍ
- ¿Una sola página? → Usa
/scrapecon modo JSON - ¿Múltiples páginas? → Usa
/agentcon URLs (o/scrapepor lotes)
- ¿Una sola página? → Usa
Recomendaciones por escenario
| Escenario | Endpoint recomendado |
|---|---|
| ”Encontrar todas las startups de IA y su financiación” | /agent |
| ”Extraer datos de esta página de producto específica” | /scrape (modo JSON) |
| “Obtener todas las publicaciones de blog de competitor.com” | /agent con URL |
| ”Monitorizar precios en múltiples URLs conocidas” | /scrape con procesamiento por lotes |
| ”Investigar empresas en un sector específico” | /agent |
| ”Extraer información de contacto de 50 páginas de empresas conocidas” | /scrape con procesamiento por lotes |
Precios
| Endpoint | Costo | Notas |
|---|---|---|
/scrape (modo JSON) | 1 crédito/página | Fijo, predecible |
/extract | Basado en tokens (1 crédito = 15 tokens) | Variable según el contenido |
/agent | Dinámico | 5 ejecuciones gratuitas al día; varía según la complejidad |
Ejemplo: “Encuentra a los fundadores de Firecrawl”
| Endpoint | Cómo funciona | Créditos usados |
|---|---|---|
/scrape | Encuentras la URL manualmente y luego haces scraping de 1 página | ~1 crédito |
/extract | Proporcionas una o varias URL y extrae datos estructurados | Variable (basado en tokens) |
/agent | Solo tienes que enviar el prompt: el agente encuentra y extrae | ~15 créditos |
/scrape es el más barato pero requiere que conozcas la URL. /agent cuesta más pero se encarga del descubrimiento automáticamente.
Para ver los precios detallados, consulta Precios de Firecrawl.
Migración: /extract → /agent
/extract, la migración es muy sencilla:
Antes (extract):
/agent, puedes prescindir por completo de las URL y simplemente describir lo que necesitas.
Puntos clave
-
¿Sabes la URL exacta? Usa
/scrapecon modo JSON: es la opción más barata (1 crédito/página), la más rápida (sincrónica) y la más predecible. -
¿Necesitas investigación autónoma? Usa
/agent: gestiona el descubrimiento automáticamente con 5 ejecuciones gratuitas al día y luego precios dinámicos según la complejidad. -
Migra de
/extracta/agentpara proyectos nuevos:/agentes el sucesor con mejores capacidades. -
Equilibrio entre costo y conveniencia:
/scrapees lo más rentable cuando conoces tus URLs;/agentcuesta más, pero elimina el descubrimiento manual de URLs.

