Engenheiro de Dados Pleno
Estamos em busca de um(a) Engenheiro(a) de Dados Pleno para fortalecer nosso time de dados. Essa pessoa terá um papel estratégico na construção, manutenção e otimização de pipelines e arquiteturas em nuvem, assegurando alta disponibilidade, escalabilidade e segurança das informações.
O foco principal será o desenvolvimento de novos pipelines alinhados aos padrões e boas práticas já estabelecidos pela equipe. A atuação será integrada tanto à squad já existente no cliente quanto à nova equipe dedicada a este projeto, que contará com GP, Analista de Dados, Engenheiros e Cientistas.
Nosso ambiente é baseado em GCP, com entregas organizadas pela metodologia ágil Scrum e comunicação das demandas realizada via Jira e Teams.
Obrigatório:
- Experiência sólida em engenharia de dados;
- Experiência no ecossistema GCP ( Cloud Storage, BigQuery, Cloud Run, Dataproc, Composer (Airflow), Cloud Functions);
- Proficiência em SQL e em linguagens como Python e PySpark;
- Experiência com pipelines de dados (ETL/ELT);
- Vivência com modelagem de dados (relacional e dimensional);
- Conhecimento em ferramentas de versionamento (Git) e métodos ágeis;
- Valorizamos muito: Proatividade, organização, planejamento, capacidade de estimar e cumprir prazos, busca contínua por aprendizado e desenvolvimento.
Desejável:
- Certificação Google Associate ou Professional Data Engineer;
- Experiência com orquestração de pipelines (Airflow);
- Experiência com ambientes de Big Data e streaming (Kafka, PubSub);
- Noções de DataOps e CI/CD para dados.
- Projetar, desenvolver e manter pipelines de dados eficientes e escaláveis em GCP;
- Trabalhar com serviços como Cloud Storage, BigQuery, Cloud Run, Dataproc, Composer (Airflow), Cloud Functions, entre outros serviços da stack GCP;
- Realizar a ingestão, transformação e modelagem de dados estruturados e não estruturados;
- Implementar boas práticas de governança, qualidade e segurança dos dados;
- Colaborar com times de ciência de dados, engenharia e negócio para disponibilizar dados confiáveis;
- Monitorar e otimizar a performance das soluções de dados;
- Documentar processos e apoiar na evolução da arquitetura de dados.