Responsabilidades
Pensamento LEAN:
- Entende e apoia o processo de experimentação.
- Entende e aplica no dia a dia o conceito “errar é permitido e aprendemos com o mesmo“.
- Mergulha nos problemas do dia a dia, ajudando o time a encontrar a saída.
- Contribui ativamente na evolução dos times, recebendo e dando feedbacks constantes.
Processo:
- Implementa soluções adequadas em Hadoop, MapReduce, Spark, HBase, Hive, Teradata, Kafka e as distribuições Horton / Cloudera, conforme a necessidade do projeto.
- Utiliza programação e manutenção em códigos escritos em Python, Java, SQL e/ou R para preparar dados.
Implementa soluções adequadas em Linux incluindo construção de shell script. - Conhece esteira de DevOps (Micro serviços, Jira, Bitbucket, Bamboo, Nexus, Docker).
- Aplica a arquitetura da plataforma SAS, Teradata, e ecossistema Hadoop.
- Atua de forma a definir e construir banco de dados relacionais com arquitetura distribuída para processamento de Big Data.
- Responsável por extrair, transformar e carregar (ETL) dados de um banco de dados para outro.
- Efetua a análise de requerimentos dos usuários.
- Responsável por mapear pipeline de dados utilizando BPMN ou similar.
- Realiza pesquisa, desenho e desenvolvimento de novos programas de software.
Negócio:
- Provê dados que geram valor para as áreas de negócio.
Melhoria Contínua:
- Atua de forma a identificar maneiras de melhorar a confiabilidade, a eficiência e a qualidade dos dados.
- Dissemina conhecimento analítico entre o time e para a organização.
Requisitos
Diferenciais:
- Conhecer APIs de Genesys, Salesforce e Servicenow
- Necessário fortes conhecimentos de pyspark
- Atuará em desenvolvimentos na Cloud Azure utilizando Databricks