Responsabilidades
- Ajudar na expansão da plataforma analítica e na migração de on-premise para cloud;
- Desenvolver soluções com grandes volumes de dados;
- Garantir o tratamento e preparação dos dados;
- Fomentar a utilização de técnicas de automação para criação, configuração e monitoramento de ambientes analíticos;
- Analisar e corrigir eventuais problemas na execução de carga de dados;
Criar modelos de dados analíticos e indicadores.
Requisitos
- Proficiência em Python e SQL;
- Experiência em ambientes com BigData na nuvem (cloud), preferencialmente Databricks;
- Experiência em ambientes com Big Data em sistemas locais (on-premise), preferencialmente no ecossistema Hadoop (Hive, HDFS, Kafka, Spark etc) e suas arquiteturas;
- Conhecimento em construção e otimização de ETL/ELT;
- Conhecimento e/ou experiência em GitHub/Bitbucket;
- Conhecimento e/ou experiência com metodologia Ágil;
- Perfil Analítico e postura engajada na busca de soluções, resiliência e flexibilidade;
- Habilidades de comunicação em diversos níveis;
- Compreensão de requisitos de negócio.
Indispensáveis: Databricks, Python e Hive