Use this file to discover all available pages before exploring further.
Pesquise na web e obtenha conteúdo limpo e estruturado de cada resultado em uma única chamada de API. Envie uma consulta para /search e o Firecrawl retorna títulos, descrições e URLs. Adicione scrapeOptions para também recuperar, para cada resultado, o markdown, HTML, links ou capturas de tela da página completa.Para a lista completa de parâmetros, consulte a Referência da API do endpoint /search.
Experimente no Playground
Teste buscas no Playground interativo — sem precisar de código.
Os SDKs retornarão o objeto de dados diretamente. O cURL retornará a carga completa.
JSON
{ "success": true, "data": { "web": [ { "url": "https://www.firecrawl.dev/", "title": "Firecrawl - The Web Data API for AI", "description": "The web crawling, scraping, and search API for AI. Built for scale. Firecrawl delivers the entire internet to AI agents and builders.", "position": 1 }, { "url": "https://github.com/firecrawl/firecrawl", "title": "mendableai/firecrawl: Turn entire websites into LLM-ready ... - GitHub", "description": "Firecrawl is an API service that takes a URL, crawls it, and converts it into clean markdown or structured data.", "position": 2 }, ... ], "images": [ { "title": "Quickstart | Firecrawl", "imageUrl": "https://mintlify.s3.us-west-1.amazonaws.com/firecrawl/logo/logo.png", "imageWidth": 5814, "imageHeight": 1200, "url": "https://docs.firecrawl.dev/", "position": 1 }, ... ], "news": [ { "title": "Y Combinator startup Firecrawl is ready to pay $1M to hire three AI agents as employees", "url": "https://techcrunch.com/2025/05/17/y-combinator-startup-firecrawl-is-ready-to-pay-1m-to-hire-three-ai-agents-as-employees/", "snippet": "It's now placed three new ads on YC's job board for “AI agents only” and has set aside a $1 million budget total to make it happen.", "date": "3 months ago", "position": 1 }, ... ] }}
Além dos resultados da web padrão, o Search oferece tipos de resultados especializados por meio do parâmetro sources:
web: resultados da web padrão (padrão)
news: resultados focados em notícias
images: resultados de busca de imagens
Você pode solicitar várias fontes em uma única chamada (por exemplo, sources: ["web", "news"]). Quando fizer isso, o parâmetro limit é aplicado por tipo de fonte — assim, limit: 5 com sources: ["web", "news"] retorna até 5 resultados da web e até 5 resultados de notícias (10 no total). Se você precisar de parâmetros diferentes por fonte (por exemplo, valores diferentes de limit ou scrapeOptions diferentes), faça chamadas separadas.
Use includeDomains para restringir os resultados da busca a domínios específicos ou excludeDomains para remover domínios específicos da busca. Esses campos adicionam internamente os operadores site: e -site: à consulta, então informe apenas os domínios, sem protocolo nem caminho.
includeDomains e excludeDomains são mutuamente exclusivos. Use um ou outro em uma única requisição.
Pesquise e recupere conteúdo dos resultados de busca em uma única operação.
from firecrawl import Firecrawlfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Pesquisar e fazer scraping de conteúdoresults = firecrawl.search( "firecrawl web scraping", limit=3, scrape_options={ "formats": ["markdown", "links"] })
Todas as opções do endpoint /scrape são compatíveis neste endpoint de busca por meio do parâmetro scrapeOptions.
{ "success": true, "data": [ { "title": "Firecrawl - A API definitiva de web scraping", "description": "A Firecrawl é uma poderosa API de web scraping que transforma qualquer site em dados limpos e estruturados para IA e análise.", "url": "https://firecrawl.dev/", "markdown": "# Firecrawl\n\nA API definitiva de web scraping\n\n## Transforme qualquer site em dados limpos e estruturados\n\nA Firecrawl facilita a extração de dados de sites para aplicações de IA, pesquisa de mercado, agregação de conteúdo e muito mais...", "links": [ "https://firecrawl.dev/pricing", "https://firecrawl.dev/docs", "https://firecrawl.dev/guides" ], "metadata": { "title": "Firecrawl - A API definitiva de web scraping", "description": "A Firecrawl é uma poderosa API de web scraping que transforma qualquer site em dados limpos e estruturados para IA e análise.", "sourceURL": "https://firecrawl.dev/", "statusCode": 200 } } ]}
from firecrawl import Firecrawlfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Pesquisa com configuração de localização (Alemanha)search_result = firecrawl.search( "ferramentas de web scraping", limit=5, location="Germany")# Processar os resultadosfor result in search_result.data: print(f"Título: {result['title']}") print(f"URL: {result['url']}")
Use o parâmetro tbs para filtrar resultados por período. Observe que tbs se aplica apenas a resultados da fonte web — ele não filtra resultados de news ou images. Se você precisar de notícias com filtro de tempo, considere usar a fonte web com o operador site: para direcionar domínios de notícias específicos.
Para um filtro temporal mais preciso, você pode especificar intervalos de datas exatos usando o formato de intervalo personalizado:
from firecrawl import Firecrawl# Inicialize o cliente com sua API keyfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Buscar resultados de dezembro de 2024search_result = firecrawl.search( "firecrawl updates", limit=10, tbs="cdr:1,cd_min:12/1/2024,cd_max:12/31/2024")
Você pode combinar sbd:1 com filtros de tempo para obter resultados ordenados por data dentro de um intervalo de tempo. Por exemplo, sbd:1,qdr:w retorna resultados da última semana ordenados do mais recente para o mais antigo, e sbd:1,cdr:1,cd_min:12/1/2024,cd_max:12/31/2024 retorna resultados de dezembro de 2024 ordenados por data.
Defina um tempo limite personalizado para operações de pesquisa:
from firecrawl import Firecrawl# Inicialize o cliente com sua chave de APIfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Defina um tempo limite de 30 segundossearch_result = firecrawl.search( "complex search query", limit=10, timeout=30000 # 30 segundos em milissegundos)
Para equipes com requisitos rigorosos de tratamento de dados, a Firecrawl oferece opções de Zero Data Retention (ZDR) para o endpoint /search por meio do parâmetro enterprise. A busca com ZDR está disponível nos planos Enterprise — visite firecrawl.dev/enterprise para começar.
Isso é diferente da opção de scraping zeroDataRetention, que controla o ZDR para operações de scraping. Consulte Scrape ZDR para mais detalhes. O parâmetro enterprise se aplica apenas à parte de busca da requisição.
Com o ZDR de ponta a ponta, tanto o Firecrawl quanto nosso provedor de busca upstream aplicam retenção zero de dados. Nenhum dado de consulta ou de resultado é armazenado em nenhum ponto do pipeline.
Com o ZDR anonimizado, o Firecrawl aplica retenção zero total de dados do nosso lado. Nosso provedor de busca pode armazenar a consulta em cache, mas ela é totalmente anonimizada — nenhuma informação identificável é anexada.
Se você estiver usando busca com scraping de conteúdo (scrapeOptions), o parâmetro enterprise cobre a parte da busca, enquanto zeroDataRetention em scrapeOptions cobre a parte do scraping. Para obter ZDR completo em ambos, defina os dois:
O custo de uma busca é de 2 créditos por 10 resultados, arredondado para cima (1–10 resultados = 2 créditos, 11–20 = 4 créditos, e assim por diante). Se as opções de scraping estiverem ativadas, os custos padrão de scraping se aplicam a cada resultado de busca:
Basic scrape: 1 crédito por página da web
PDF parsing: 1 crédito por página de PDF
Enhanced proxy mode: 4 créditos adicionais por página da web
JSON mode: 4 créditos adicionais por página da web
Para ajudar a controlar os custos:
Defina parsers: [] se a análise de PDF não for necessária
Use proxy: "basic" em vez de "enhanced" quando possível, ou defina como "auto"
Limite o número de resultados de busca com o parâmetro limit
Para mais detalhes sobre as opções de scraping, consulte a documentação do recurso Scrape. Tudo, exceto o Agente FIRE-1 e os recursos de rastreamento de alterações, é compatível com este endpoint de busca.
Você é um agente de IA que precisa de uma chave de API da Firecrawl? Consulte firecrawl.dev/agent-onboarding/SKILL.md para obter instruções de onboarding automatizado.