Comparaison rapide
| Fonctionnalité | /agent | /extract | /scrape (mode JSON) |
|---|---|---|---|
| Statut | Actif | Utiliser /agent à la place | Actif |
| URL requise | Non (facultative) | Oui (caractères génériques pris en charge) | Oui (URL unique) |
| Portée | Découverte à l’échelle du web | Plusieurs pages/domaines | Page unique |
| Découverte d’URL | Recherche autonome sur le web | Exploration à partir des URL fournies | Aucune |
| Traitement | Asynchrone | Asynchrone | Synchrone |
| Schéma requis | Non (prompt ou schéma) | Non (prompt ou schéma) | Non (prompt ou schéma) |
| Tarification | Dynamique (5 exécutions gratuites/jour) | Basée sur les tokens (1 crédit = 15 tokens) | 1 crédit/page |
| Idéal pour | Recherche, découverte, collecte complexe | Extraction sur plusieurs pages (lorsque vous connaissez les URL) | Extraction sur une page unique connue |
1. /agent Endpoint
/agent est l’offre la plus avancée de Firecrawl, le successeur de /extract. Il utilise des agents IA pour rechercher, naviguer et collecter de manière autonome des données sur l’ensemble du web.
Caractéristiques clés
- URL facultatives : décrivez simplement ce dont vous avez besoin via
prompt; les URL sont entièrement facultatives - Navigation autonome : l’agent explore et navigue en profondeur dans les sites pour trouver vos données
- Recherche web approfondie : découvre de manière autonome des informations sur plusieurs domaines et pages
- Traitement parallèle : traite plusieurs sources simultanément pour des résultats plus rapides
- Modèles disponibles :
spark-1-mini(par défaut, 60 % moins cher) etspark-1-pro(précision plus élevée)
Exemple
Cas d’usage idéal : recherche et découverte autonomes
/agent : Vous ne savez pas quels sites web contiennent ces informations. L’agent va rechercher sur le web de manière autonome, naviguer vers les sources pertinentes (Crunchbase, sites d’actualités, pages d’entreprise) et compiler les données structurées pour vous.
Pour plus de détails, consultez la documentation de l’agent.
2. Endpoint /extract
Utilisez plutôt
/agent : nous recommandons de migrer vers /agent — il est plus rapide, plus fiable, ne nécessite pas d’URL et couvre tous les cas d’usage de /extract, et plus encore./extract collecte des données structurées à partir d’URL spécifiées ou de domaines entiers grâce à une extraction pilotée par des modèles de langage (LLM).
Caractéristiques clés
- URL généralement requises : fournissez au moins une URL (prend en charge les caractères génériques comme
example.com/*) - Exploration de domaine : peut explorer et analyser toutes les URL découvertes dans un domaine
- Amélioration via la recherche Web :
enableWebSearch(optionnel) pour suivre des liens en dehors des domaines spécifiés - Schéma facultatif : prend en charge un schéma JSON strict OU des prompts en langage naturel
- Traitement asynchrone : renvoie un ID de tâche pour le suivi de l’état
La limitation liée aux URL
/extract est que vous devez généralement connaître les URL à l’avance :
- Lacune en matière de découverte : pour des tâches comme « trouver les entreprises YC W24 », vous ne savez pas quelles URL contiennent les données. Vous auriez besoin d’une étape de recherche séparée avant d’appeler
/extract. - Recherche sur le web peu fluide : même si
enableWebSearchexiste, il se limite à démarrer à partir des URL que vous fournissez — un workflow peu adapté aux tâches de découverte. - Pourquoi
/agenta été créé :/extractest efficace pour extraire à partir d’emplacements connus, mais moins performant pour découvrir où se trouvent les données.
Exemple
Cas d’utilisation idéal : extraction ciblée sur plusieurs pages
docs.competitor.com/*.
Pourquoi /extract fonctionne ici : vous connaissez précisément le domaine. Mais même dans ce cas, /agent avec les URL fournies donnera généralement de meilleurs résultats aujourd’hui.
Pour plus de détails, consultez la documentation Extract.
3. Endpoint /scrape avec mode JSON
/scrape en mode JSON est l’approche la plus contrôlée : il extrait des données structurées à partir d’une seule URL connue en utilisant un LLM pour analyser le contenu de la page selon le schéma que vous avez spécifié.
Caractéristiques principales
- Une seule URL : Conçu pour extraire des données d’une page spécifique à la fois
- URL exacte requise : Vous devez connaître l’URL précise qui contient les données
- Schéma facultatif : Peut utiliser un schéma JSON OU simplement un prompt (le LLM choisit la structure)
- Synchrone : Retourne les données immédiatement (aucune interrogation de tâche nécessaire)
- Formats supplémentaires : Peut combiner l’extraction JSON avec du markdown, du HTML et des captures d’écran dans une seule requête
Exemple
Cas d’utilisation idéal : extraction précise sur une seule page
/scrape avec le mode JSON : Vous savez exactement quelle page contient les données, vous avez besoin d’une extraction précise sur une seule page et vous voulez des résultats synchrones sans la charge de gestion de jobs.
Pour plus de détails, voir la documentation du mode JSON.
Guide de décision
- NON → Utilisez
/agent(découverte web autonome) - OUI
- Page unique ? → Utilisez
/scrapeavec le mode JSON - Pages multiples ? → Utilisez
/agentavec les URL (ou/scrapeen traitement par lot)
- Page unique ? → Utilisez
Recommandations par scénario
| Scénario | Endpoint recommandé |
|---|---|
| « Trouver toutes les startups d’IA et leurs financements » | /agent |
| « Extraire les données de cette page produit spécifique » | /scrape (mode JSON) |
| « Récupérer tous les articles de blog de competitor.com » | /agent avec URL |
| « Surveiller les prix sur plusieurs URL connues » | /scrape avec traitement par lots |
| « Rechercher des entreprises dans un secteur spécifique » | /agent |
| « Extraire les coordonnées de contact depuis 50 pages d’entreprises connues » | /scrape avec traitement par lots |
Tarification
| Endpoint | Coût | Remarques |
|---|---|---|
/scrape (mode JSON) | 1 crédit/page | Fixe et prévisible |
/extract | Basé sur les jetons (1 crédit = 15 jetons) | Variable en fonction du contenu |
/agent | Dynamique | 5 exécutions gratuites/jour ; varie en fonction de la complexité |
Exemple : « Trouver les fondateurs de Firecrawl »
| Endpoint | Fonctionnement | Crédits utilisés |
|---|---|---|
/scrape | Vous trouvez l’URL manuellement, puis scrapez 1 page | ~1 crédit |
/extract | Vous fournissez une ou plusieurs URL, il extrait des données structurées | Variable (en fonction des tokens) |
/agent | Envoyez simplement le prompt — l’agent trouve et extrait | ~15 crédits |
/scrape est le moins cher mais nécessite que vous connaissiez l’URL. /agent coûte plus cher mais gère la découverte automatiquement.
Pour consulter les tarifs détaillés, voir Tarifs Firecrawl.
Migration : /extract → /agent
/extract, la migration est simple :
Avant (/extract) :
/agent, vous pouvez complètement vous passer des URL et simplement décrire ce dont vous avez besoin.
Points clés à retenir
-
Vous connaissez l’URL exacte ? Utilisez
/scrapeavec le mode JSON — c’est l’option la moins chère (1 crédit/page), la plus rapide (synchrone) et la plus prévisible. -
Besoin de recherche automatisée ? Utilisez
/agent— il gère la découverte automatiquement avec 5 exécutions gratuites/jour, puis une tarification dynamique selon la complexité. -
Migrez de
/extractvers/agentpour les nouveaux projets —/agentest le successeur avec de meilleures fonctionnalités. -
Compromis coût vs praticité :
/scrapeest le plus économique lorsque vous connaissez vos URL ;/agentcoûte plus cher mais élimine la découverte manuelle des URL.

