Requisitos
- Experiência em Databricks (PySpark, Spark SQL, Delta Lake e pipelines de dados).
- Conhecimentos avançados em SQL e Python.
- Forte atuação em processos ETL/ELT, incluindo mapeamento e entendimento de fluxos existentes.
- Vivência em análise e migração de sistemas legados para arquiteturas modernas.
- Vivência em modelagem de dados e boas práticas de engenharia de dados.
- Experiência com versionamento e CI/CD para pipelines.
- Atuação consultiva e capacidade de documentação técnica.