Engenheiro de Big Data/Engenheiro de Dados (Operação)

Buscamos um profissional para atuar na operação e sustentação do ambiente de BigData, garantindo estabilidade, performance, governança e disponibilidade das plataformas e pipelines de dados. Este perfil será responsável por operar, monitorar, executar procedimentos, apoiar equipes de engenharia e produto, atuar em incidentes críticos e contribuir para a evolução contínua do ecossistema de dados. O profissional atuará em um ambiente complexo e de missão crítica, envolvendo múltiplas plataformas analíticas, processos ETL/ELT, clusters distribuídos e integrações corporativas.
Brasil SP São Paulo Remota

Responsabilidades

Operação e Sustentação

  • Executar a operação diária do ambiente BigData, seguindo os procedimentos definidos no Runbook do time.
  • Monitorar a saúde dos clusters, jobs, pipelines e serviços de dados.
  • Atuar na investigação e resolução de incidentes, garantindo restabelecimento rápido das operações.
  • Realizar troubleshooting técnico em pipelines, workflows, jobs, clusters e integrações.

Pipelines e Processos

  • Acompanhar e validar execuções de processos ETL/ELT e cargas críticas.
  • Realizar reprocessamentos, correções, ajustes e retomadas de fluxos conforme necessidade operacional.
  • Atuar em problemas relacionados a performance, consistência e falhas em ingestões.

Ferramentas e Ecossistema BigData

  • Operar e monitorar plataformas como Hadoop, Spark, Kafka, Nifi, Cloudera, Databricks ou equivalentes (ajustar conforme o ambiente real).
  • Acompanhar dashboards, indicadores e métricas operacionais.
  • Utilizar ferramentas corporativas para controle de chamados, demandas e incidentes (ex.: Jira, ServiceNow).

Governança, Segurança e Compliance

  • Garantir aderência aos processos de auditoria, segurança, acesso e compliance da empresa.
  • Atualizar e manter documentações, RACI/RASCI, procedimentos operacionais e fluxos.

Procedimentos e Mudanças

  • Executar atividades de GMUDs relacionadas a mudanças no ambiente analítico.
  • Apoiar equipes de engenharia e projeto em novas implementações, atualizações e releases.
  • Realizar validações pós-mudança e acompanhar estabilização dos ambientes.

Colaboração e Comunicação

  • Interagir constantemente com times de Engenharia de Dados, Arquitetura, Segurança, DevOps e aplicações.
  • Realizar passagem de turno, atualizações de status e comunicação clara em incidentes.
  • Participar de reuniões de alinhamento para tratativas de incidentes críticos.

Requisitos

Formação Acadêmica

  • Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação, Análise e Desenvolvimento de Sistemas ou áreas correlatas.

Experiência

  • Experiência atuando com BigData, Data Engineering ou operação de ambientes analíticos.
  • Experiência prévia com troubleshooting e sustentação de pipelines e workflows críticos.

Soft Skills:

  • Comprometimento com horários, entregas e responsabilidades.
  • Proatividade para resolver problemas complexos em ambientes críticos.
  • Capacidade analítica e atenção a detalhes.
  • Boa comunicação e habilidade de trabalhar com múltiplos times.
  • Organização, disciplina e orientação a processos.
  • Resiliência para atuar sob pressão em incidentes de alta criticidade.

Descrição perfil técnico:

Big Data & Processamento Distribuído

  • Experiência em ambientes Hadoop, Spark, Hive, Impala, HDFS ou plataformas equivalentes.
  • Conhecimento prático em pipelines de ingestão, transformação e orquestração de dados.
  • Uso de ferramentas de orquestração como Airflow, Oozie, Control-M ou similares.

Streaming & Integrações

  • Conhecimento de mensageria/streaming (Kafka, EventHub, Kinesis).

Linguagens e Scripts

  • Conhecimento em SQL avançado.
  • Experiência com Python e Shell Script para automações e análises.

Monitoramento e Observabilidade

  • Experiência com Dynatrace, Grafana, Kibana, Splunk ou ferramentas similares.
  • Cloud
  • Conhecimento de serviços de dados em Cloud OCI (Obrigatório) – Desejável Azure e AWS.
  • Conhecimento de Data Lake, Data Lakehouse e integrações com ambientes híbridos.

Ferramentas Operacionais

  • Jira / ServiceNow
  • Git / Versionamento
  • Ferramentas de documentação (Confluence, SharePoint)

Diferenciais:

  • Experiência prévia em operação de ambientes BigData corporativos.
  • Experiência com Databricks, Cloudera ou HDInsight.
  • Certificações de Engenharia de Dados ou Cloud.
  • Conhecimento em Data Mesh, Data Governance e arquiteturas modernas de dados.
  • Experiência com CI/CD aplicado a dados.
CANDIDATAR-SE

    Aceito que meus dados sejam utilizados para possibilitar que a Jump Label identifique e entre em contato com o titular dos dados para fins de relacionamento e ações de seleção para vaga.

    Nível de experiência: Sênior

    Tipo de alocação: Remota