Passer au contenu principal

Installation

Installez la CLI Firecrawl globalement avec npm :
CLI
# Installer globalement avec npm
npm install -g firecrawl-cli
Si vous utilisez un agent IA comme Claude Code, vous pouvez installer le skill Firecrawl ci-dessous et l’agent pourra le configurer pour vous.
npx skills add firecrawl/cli
Après avoir installé le skill, redémarrez Claude Code pour qu’il prenne en compte le nouveau skill.

Authentification

Avant d’utiliser la CLI, vous devez vous authentifier avec votre clé API Firecrawl.

Connexion

CLI
# Interactive login (opens browser or prompts for API key)
firecrawl login

# Connexion avec authentification par navigateur (recommandé pour les agents)
firecrawl login --browser

# Login with API key directly
firecrawl login --api-key fc-YOUR-API-KEY

# Or set via environment variable
export FIRECRAWL_API_KEY=fc-YOUR-API-KEY

Afficher la configuration

CLI
# Voir la configuration actuelle et le statut d'authentification
firecrawl view-config

Déconnexion

CLI
# Effacer les identifiants enregistrés
firecrawl logout

Auto-hébergé / Développement local

Pour les instances Firecrawl auto-hébergées ou le développement local, utilisez l’option --api-url :
CLI
# Utiliser une instance locale de Firecrawl (aucune clé API requise)
firecrawl --api-url http://localhost:3002 scrape https://example.com

# Or set via environment variable
export FIRECRAWL_API_URL=http://localhost:3002
firecrawl scrape https://example.com

# Configure and persist the custom API URL
firecrawl config --api-url http://localhost:3002
Lorsque vous utilisez une URL d’API personnalisée (toute URL différente de https://api.firecrawl.dev), l’authentification par clé d’API est automatiquement contournée, ce qui vous permet d’utiliser des instances locales sans clé d’API.

Vérifier l’état

Vérifiez l’installation, l’authentification et affichez les limites de débit :
CLI
firecrawl --status
Sortie une fois prête :
  🔥 firecrawl cli v1.1.1

  ● Authenticated via FIRECRAWL_API_KEY
  Concurrency: 0/100 jobs (parallel scrape limit)
  Credits: 500,000 remaining
  • Concurrence : Nombre maximal de tâches en parallèle. Exécutez des opérations parallèles au plus près de cette limite, sans la dépasser.
  • Crédits : Crédits API restants. Chaque opération de scrape/crawl consomme des crédits.

Commandes

Scrape

Analysez une seule URL et extrayez son contenu dans différents formats.
Utilisez --only-main-content pour obtenir un résultat propre sans navigation, pied de page ni publicités. C’est recommandé pour la plupart des cas d’usage où vous souhaitez uniquement l’article ou le contenu principal de la page.
CLI
# Scraper une URL (par défaut : sortie markdown)
firecrawl https://example.com

# Ou utiliser la commande scrape explicite
firecrawl scrape https://example.com

# Recommandé : utiliser --only-main-content pour une sortie propre sans nav/footer
firecrawl https://example.com --only-main-content

Formats de sortie

CLI
# Obtenir la sortie HTML
firecrawl https://example.com --html

# Formats multiples (retourne du JSON)
firecrawl https://example.com --format markdown,links

# Obtenir les images d'une page
firecrawl https://example.com --format images

# Obtenir un résumé du contenu de la page
firecrawl https://example.com --format summary

# Suivre les modifications sur une page
firecrawl https://example.com --format changeTracking

# Formats disponibles : markdown, html, rawHtml, links, screenshot, json, images, summary, changeTracking, attributes, branding

Options de scraping

CLI
# Extraire uniquement le contenu principal (supprime les menus de navigation, pieds de page)
firecrawl https://example.com --only-main-content

# Wait for JavaScript rendering
firecrawl https://example.com --wait-for 3000

# Take a screenshot
firecrawl https://example.com --screenshot

# Include/exclude specific HTML tags
firecrawl https://example.com --include-tags article,main
firecrawl https://example.com --exclude-tags nav,footer

# Save output to file
firecrawl https://example.com -o output.md

# Pretty print JSON output
firecrawl https://example.com --format markdown,links --pretty

# Force JSON output even with single format
firecrawl https://example.com --json

# Show request timing information
firecrawl https://example.com --timing
Options disponibles :
OptionForme courteDescription
--url <url>-uURL à scraper (alternative à l’argument positionnel)
--format <formats>-fformats de sortie (séparés par des virgules) : markdown, html, rawHtml, links, screenshot, json, images, summary, suiviDesModifications, attributes, branding
--html-HRaccourci pour --format html
--only-main-contentExtraire uniquement le contenu principal
--wait-for <ms>Temps d’attente en millisecondes pour le rendu JS
--screenshotPrendre une capture d’écran
--include-tags <tags>Balises HTML à inclure (séparées par des virgules)
--exclude-tags <tags>Balises HTML à exclure (séparées par des virgules)
--output <path>-oEnregistrer la sortie dans un fichier
--jsonForcer la sortie JSON même avec un seul format
--prettyAfficher la sortie JSON de manière lisible
--timingAfficher le temps de la requête et d’autres informations utiles

Recherchez sur le Web et, si besoin, extrayez le contenu des résultats.
CLI
# Search the web
firecrawl search "web scraping tutorials"

# Limit results
firecrawl search "AI news" --limit 10

# Afficher les résultats avec formatage
firecrawl search "machine learning" --pretty

Options de recherche

CLI
# Search specific sources
firecrawl search "AI" --sources web,news,images

# Search with category filters
firecrawl search "react hooks" --categories github
firecrawl search "machine learning" --categories research,pdf

# Time-based filtering
firecrawl search "tech news" --tbs qdr:h   # Last hour
firecrawl search "tech news" --tbs qdr:d   # Last day
firecrawl search "tech news" --tbs qdr:w   # Dernière semaine
firecrawl search "tech news" --tbs qdr:m   # Last month
firecrawl search "tech news" --tbs qdr:y   # Last year

# Location-based search
firecrawl search "restaurants" --location "Berlin,Germany" --country DE

# Search and scrape results
firecrawl search "documentation" --scrape --scrape-formats markdown

# Save to file
firecrawl search "firecrawl" --pretty -o results.json
Options disponibles :
OptionDescription
--limit <number>Nombre maximal de résultats (par défaut : 5, max : 100)
--sources <sources>Sources à interroger : web, images, news (séparées par des virgules)
--categories <categories>Filtrer par catégorie : github, research, pdf (séparées par des virgules)
--tbs <value>Filtre temporel : qdr:h (heure), qdr:d (jour), qdr:w (semaine), qdr:m (mois), qdr:y (année)
--location <location>Ciblage géographique (p. ex. “Berlin,Germany”)
--country <code>Code de pays ISO (par défaut : US)
--timeout <ms>Délai d’expiration en millisecondes (par défaut : 60000)
--ignore-invalid-urlsExclure les URL invalides pour d’autres endpoints Firecrawl
--scrapeScraper les résultats de recherche
--scrape-formats <formats>Formats pour le contenu extrait (par défaut : markdown)
--only-main-contentInclure uniquement le contenu principal lors du scraping (par défaut : true)
--jsonRésultat au format JSON
--output <path>Enregistrer le résultat dans un fichier
--prettyAffichage JSON formaté

Map

Découvrez rapidement toutes les URL d’un site.
CLI
# Découvrir toutes les URL d'un site web
firecrawl map https://example.com

# Output as JSON
firecrawl map https://example.com --json

# Limit number of URLs
firecrawl map https://example.com --limit 500

Options de la commande Map

CLI
# Filter URLs by search query
firecrawl map https://example.com --search "blog"

# Include subdomains
firecrawl map https://example.com --include-subdomains

# Contrôler l'utilisation du sitemap
firecrawl map https://example.com --sitemap include   # Utiliser le sitemap
firecrawl map https://example.com --sitemap skip      # Ignorer le sitemap
firecrawl map https://example.com --sitemap only      # Utiliser uniquement le sitemap

# Ignore query parameters (dedupe URLs)
firecrawl map https://example.com --ignore-query-parameters

# Wait for map to complete with timeout
firecrawl map https://example.com --wait --timeout 60

# Save to file
firecrawl map https://example.com -o urls.txt
firecrawl map https://example.com --json --pretty -o urls.json
Options disponibles :
OptionDescription
--url <url>URL à cartographier (alternative à l’argument positionnel)
--limit <number>Nombre maximal d’URL à découvrir
--search <query>Filtrer les URL selon une requête de recherche
--sitemap <mode>Gestion du sitemap : include, skip, only
--include-subdomainsInclure les sous-domaines
--ignore-query-parametersConsidérer les URL avec des paramètres différents comme identiques
--waitAttendre la fin de l’opération de cartographie
--timeout <seconds>Délai d’expiration en secondes
--jsonRésultat au format JSON
--output <path>Enregistrer le résultat dans un fichier
--prettyAffichage JSON mis en forme

Crawl

Lancer un crawl sur l’ensemble d’un site web à partir d’une URL.
CLI
# Start a crawl (returns job ID immediately)
firecrawl crawl https://example.com

# Wait for crawl to complete
firecrawl crawl https://example.com --wait

# Attendre avec indicateur de progression
firecrawl crawl https://example.com --wait --progress

Consulter l’état du crawl

CLI
# Vérifier le statut du crawl avec l'ID de tâche
firecrawl crawl <job-id>

# Exemple avec un véritable ID de tâche
firecrawl crawl 550e8400-e29b-41d4-a716-446655440000

Options de crawl

CLI
# Limit crawl depth and pages
firecrawl crawl https://example.com --limit 100 --max-depth 3 --wait

# Include only specific paths
firecrawl crawl https://example.com --include-paths /blog,/docs --wait

# Exclude specific paths
firecrawl crawl https://example.com --exclude-paths /admin,/login --wait

# Include subdomains
firecrawl crawl https://example.com --allow-subdomains --wait

# Crawl entire domain
firecrawl crawl https://example.com --crawl-entire-domain --wait

# Rate limiting
firecrawl crawl https://example.com --delay 1000 --max-concurrency 2 --wait

# Intervalle de polling et délai d'expiration personnalisés
firecrawl crawl https://example.com --wait --poll-interval 10 --timeout 300

# Save results to file
firecrawl crawl https://example.com --wait --pretty -o results.json
Options disponibles :
OptionDescription
--url <url>URL à explorer (alternative à l’argument positionnel)
--waitAttendre la fin du crawl
--progressAfficher un indicateur de progression pendant l’attente
--poll-interval <seconds>Intervalle d’interrogation (par défaut : 5)
--timeout <seconds>Délai d’expiration de l’attente
--statusVérifier l’état d’une tâche de crawl existante
--limit <number>Nombre maximal de pages à explorer
--max-depth <number>Profondeur maximale du crawl
--include-paths <paths>Chemins à inclure (séparés par des virgules)
--exclude-paths <paths>Chemins à exclure (séparés par des virgules)
--sitemap <mode>Gestion du sitemap : include, skip, only
--allow-subdomainsInclure les sous-domaines
--allow-external-linksSuivre les liens externes
--crawl-entire-domainExplorer l’ensemble du domaine
--ignore-query-parametersConsidérer les URL avec des paramètres différents comme identiques
--delay <ms>Délai entre les requêtes
--max-concurrency <n>Nombre maximal de requêtes simultanées
--output <path>Enregistrer le résultat dans un fichier
--prettyAfficher la sortie JSON formatée

Agent

Recherchez et collectez des données sur le web à l’aide de prompts en langage naturel.
CLI
# Basic usage - URLs are optional
firecrawl agent "Find the top 5 AI startups and their funding amounts" --wait

# Focus on specific URLs
firecrawl agent "Compare pricing plans" --urls https://slack.com/pricing,https://teams.microsoft.com/pricing --wait

# Use a schema for structured output
firecrawl agent "Obtenez des informations sur l'entreprise" --urls https://example.com --schema '{"name": "string", "founded": "number"}' --wait

# Use schema from a file
firecrawl agent "Get product details" --urls https://example.com --schema-file schema.json --wait

Options de l’agent

CLI
# Use Spark 1 Pro for higher accuracy
firecrawl agent "Competitive analysis across multiple domains" --model spark-1-pro --wait

# Set max credits to limit costs
firecrawl agent "Collecter les informations de contact des sites web d'entreprises" --max-credits 100 --wait

# Check status of an existing job
firecrawl agent <job-id> --status

# Custom polling interval and timeout
firecrawl agent "Summarize recent blog posts" --wait --poll-interval 10 --timeout 300

# Save output to file
firecrawl agent "Find pricing information" --urls https://example.com --wait -o pricing.json --pretty
Options disponibles :
OptionDescription
--urls <urls>Liste facultative d’URL sur lesquelles concentrer l’agent (séparées par des virgules)
--model <model>Modèle à utiliser : spark-1-mini (par défaut, 60 % moins cher) ou spark-1-pro (meilleure précision)
--schema <json>Schéma JSON pour la sortie structurée (chaîne JSON intégrée)
--schema-file <path>Chemin vers le fichier de schéma JSON pour la sortie structurée
--max-credits <number>Nombre maximal de crédits à utiliser (la tâche échoue si la limite est atteinte)
--statusConsulter l’état d’une tâche d’agent existante
--waitAttendre que l’agent ait terminé avant de renvoyer les résultats
--poll-interval <seconds>Intervalle d’interrogation pendant l’attente (par défaut : 5)
--timeout <seconds>Délai d’attente maximal (par défaut : aucun délai)
--output <path>Enregistrer la sortie dans un fichier
--jsonSortie au format JSON
--prettyAffichage JSON formaté (pretty-print)

Utilisation des crédits

Consultez le solde et l’utilisation des crédits de votre équipe.
CLI
# Voir l'utilisation des crédits
firecrawl credit-usage

# Sortie en JSON
firecrawl credit-usage --json --pretty

Version

Afficher la version de la CLI.
CLI
firecrawl version
# ou
firecrawl --version

Options globales

Ces options sont disponibles pour toutes les commandes :
OptionRaccourciDescription
--statusAfficher la version, l’état d’authentification, le niveau de parallélisme et les crédits
--api-key <key>-kIgnorer la clé d’API enregistrée pour cette commande
--api-url <url>Utiliser une URL d’API personnalisée (pour l’auto-hébergement ou le développement local)
--help-hAfficher l’aide pour une commande
--version-VAfficher la version de la CLI

Gestion de la sortie

La CLI écrit sur stdout par défaut, ce qui facilite l’utilisation de pipes ou la redirection :
CLI
# Pipe markdown to another command
firecrawl https://example.com | head -50

# Redirect to a file
firecrawl https://example.com > output.md

# Save JSON with pretty formatting
firecrawl https://example.com --format markdown,links --pretty -o data.json

Comportement des formats

  • Un seul format : renvoie le contenu brut (texte markdown, HTML, etc.)
  • Plusieurs formats : renvoie du JSON avec toutes les données demandées
CLI
# Sortie markdown brute
firecrawl https://example.com --format markdown

# Sortie JSON avec plusieurs formats
firecrawl https://example.com --format markdown,links

Exemples

Scraping rapide

CLI
# Récupérer le contenu markdown d'une URL (utiliser --only-main-content pour une sortie épurée)
firecrawl https://docs.firecrawl.dev --only-main-content

# Get HTML content
firecrawl https://example.com --html -o page.html

Exploration complète du site

CLI
# Crawle un site de docs avec des limites
firecrawl crawl https://docs.example.com --limit 50 --max-depth 2 --wait --progress -o docs.json

Découverte de sites web

CLI
# Trouver tous les articles de blog
firecrawl map https://example.com --search "blog" -o blog-urls.txt

Flux de recherche

CLI
# Rechercher et scraper les résultats pour la recherche
firecrawl search "machine learning best practices 2024" --scrape --scrape-formats markdown --pretty

Agent

CLI
# Les URL sont facultatives
firecrawl agent "Find the top 5 AI startups and their funding amounts" --wait

# Se concentrer sur des URL spécifiques
firecrawl agent "Compare pricing plans" --urls https://slack.com/pricing,https://teams.microsoft.com/pricing --wait

Combiner avec d’autres outils

CLI
# Extract URLs from search results
jq -r '.data.web[].url' search-results.json

# Récupérer les titres des résultats de recherche
jq -r '.data.web[] | "\(.title): \(.url)"' search-results.json

# Extract links and process with jq
firecrawl https://example.com --format links | jq '.links[].url'

# Count URLs from map
firecrawl map https://example.com | wc -l

Télémétrie

La CLI collecte des données d’utilisation anonymes lors de l’authentification afin d’améliorer le produit :
  • Version de la CLI, système d’exploitation et version de Node.js
  • Détection de l’outil de développement (par exemple, Cursor, VS Code, Claude Code)
Aucune donnée relative aux commandes, aux URL ou au contenu des fichiers n’est collectée via la CLI. Pour désactiver la télémétrie, définissez la variable d’environnement :
CLI
export FIRECRAWL_NO_TELEMETRY=1

Open Source

La CLI et la Skill Firecrawl sont open source et disponibles sur GitHub : firecrawl/cli