Híbrido
Tempo Integral

Data Hacker

Resumo da Vaga

Sobre a Nuvia

A Nuvia é a plataforma de AI-Powered Growth para vendas B2B. No ano passado, fechamos uma rodada com NXTP Ventures, Gilgamesh Ventures, 16|16 Ventures, LASP Capital e o scout fund da a16z e logo depois adquirimos a Datasaga.ai (consultoria de dados e IA para vendas) para acelerar nossa operação.

Não vendemos promessa, entregamos pipeline. Com isso, nossos clientes têm em média, +35% de conversão e -50% no custo de aquisição de clientes.

Agora estamos expandindo o time que vai escalar isso para centenas de empresas (nacionais e internacionais). Se você quer ajudar construir a máquina de vendas do futuro (e não só operar ferramentas) esse é o seu lugar.

Seu Papel

O Data Hacker (como o próprio nome diz) é uma posição que mistura habilidades de Data Analysis com Growth Hacking e é um elemento chave na implantação do Nuvia Growth System em nossos clientes. 

Você vai ser a inteligência por trás dos dados que alimentam toda a operação de vendas - nossa e dos nossos clientes. Enquanto o GTM Engineer executa campanhas, você descobre quem são os alvos, quais sinais indicam intenção de compra, e constrói os pipelines que entregam esses dados de forma contínua e escalável.

Você vai operar na interseção de dados, scraping e automação. Se você nunca raspou dados de uma fonte não-óbvia, se não sabe o que é um waterfall de enriquecimento, ou se acha que "pegar dados" é exportar CSV do LinkedIn Sales Navigator - essa vaga não é pra você.

Seu trabalho não termina na lista. Você vai produtizar e escalar esses pipelines para injetar dados continuamente no nosso Datalake, alimentando AI Agents e operações de dezenas de clientes simultaneamente.

Responsabilidades

O que você vai fazer

  • Descobrir e mapear fontes de dados para construção de listas qualificadas (APIs públicas, scraping, bases alternativas, sinais de intenção)
  • Construir pipelines de enriquecimento que transformam nome de empresa em perfil completo com decisores, tecnologias, sinais e scores
  • Desenvolver e manter scrapers que capturam dados de forma contínua e confiável (sem quebrar toda semana)
  • Produtizar pipelines de dados para alimentar o Datalake da Nuvia de forma contínua.
  • Identificar e capturar sinais de intenção (contratações, funding, mudanças de stack, vagas abertas, expansão)
  • Criar waterfalls de enriquecimento que maximizam cobertura com menor custo (Apollo → Clearbit → Hunter → fallback)
  • Garantir qualidade e padronização dos dados (deduplicação, normalização, validação)
  • Documentar fontes, lógicas e pipelines para escalar a operação sem depender de você e para te liberar para construir coisas ainda mais legais (como modelos de leadsocre, assertividade de dados, dentre outros).

Requisitos

Quem você é hoje

Você é Data Analyst, BI Analyst, ou Growth Analyst em uma startup B2B que precisava de dados que não existiam prontos — e você foi atrás.

Você já construiu scrapers que funcionam, já integrou APIs obscuras, já montou pipelines de enriquecimento que rodaram por meses sem quebrar. Entende que dado bom é dado limpo, atualizado e acionável.

Ou: 

Você era dev/analista que se especializou em dados de growth porque percebeu que a vantagem competitiva está em saber coisas que os outros não sabem. Você já raspou dados que ninguém tinha pedido, só porque viu oportunidade.

Requisitos Obrigatórios

  • 2-4 anos de experiência com dados para growth, sales ops, ou lead gen (B2B)
  • Python intermediário — scraping (BeautifulSoup, Selenium, Playwright), APIs, manipulação de dados (Pandas), automação de pipelines
  • SQL intermediário — queries complexas, joins, agregações, CTEs. Você vai viver no banco.
  • APIs de dados — já consumiu Apollo, Clearbit, Hunter, Crunchbase, LinkedIn (oficial ou não), ou similares
  • N8N ou Make — workflows de enriquecimento, transformação, roteamento de dados
  • Experiência real com scraping — já construiu scrapers que rodaram em produção, não só tutorial
  • Noção de qualidade de dados — sabe o que é deduplicação, normalização, validação, cobertura
  • Noção de arquitetura de dados — entende conceito de data lake, ETL/ELT, batch vs streaming

Qualificações Preferenciais

Diferenciais que pesam

  • Experiência com Databricks, Spark, ou PySpark
  • Conhecimento de Delta Lake, Apache Airflow, ou orquestração de pipelines
  • Já trabalhou com ingestão de dados em data lakes (não só consulta)
  • Experiência com Clay (enrichment, waterfalls, AI columns)
  • Conhecimento de Phantombuster, Apify, Bright Data, ScrapingBee ou ferramentas similares
  • Experiência com bases de dados alternativas (job boards, registro de empresas, patents, news)
  • Conhecimento de proxies, rotação de IPs, anti-bot bypass
  • Background em BI ou analytics (Power BI, Metabase, Looker)
  • Inglês intermediário (muita documentação e fonte de dados em inglês)

O que você NÃO é

  • Analista de BI que só sabe fazer dashboard bonito mas nunca foi atrás do dado na fonte
  • Dev que acha scraping "sujo" e prefere esperar API oficial que nunca vai existir
  • Pessoa que depende de ferramenta pronta - se não existe, você constrói
  • Quem precisa de especificação detalhada pra começar a resolver um problema
  • Quem entrega lista uma vez e esquece - aqui é pipeline contínuo

Benefícios

  • Remuneração competitiva com variável AGRESSIVO por performance
  • Contratação PJ
  • Benefícios de saúde/alimentação
  • Verba para cursos e formações em Dados/Automações/AI
  • Modelo de trabalho remoto (disponibilidade para calls em horário comercial BR)

Parece com você?
Candidate-se agora

Candidatura envidada com sucesso!
Oops! Something went wrong while submitting the form.