Estamos em busca de Data Engineers Plenos para se juntarem à nossa equipe de dados.
Se você é apaixonado por construir pipelines de dados robustos, escaláveis e eficientes, e tem uma expertise sólida com o ecossistema do Google Cloud Platform (GCP), essa vaga é para você! 🚀💜
Responsabilidades :
Projetar, construir e manter pipelines de dados ETL / ELT para ingestão de dados de diversas fontes.
- Atuar de forma autônoma no desenvolvimento de pipelines e otimização de processos.
Desenvolver soluções de processamento de dados em larga escala usando tecnologias como Dataflow, Dataproc e Cloud Functions.
Otimizar e gerenciar nossos data warehouses e data lakes, incluindo o BigQuery.
Implementar boas práticas de engenharia de dados, incluindo monitoramento, alertas e governança de dados.
Colaborar com times de Data Scientists, Analytics Engineers e Analistas de Negócio para entender as necessidades e fornecer as soluções de dados necessárias.
Participar de revisões de código e contribuir para a melhoria contínua dos nossos processos e arquiteturas.REQUISITOS MÍNIMOS
Perfil analítico com forte capacidade de pensamento crítico, lógico e sistemático.Perfil autônomo, dinâmico e autogerenciável.Habilidade para trabalhar de forma independente e em equipe, com excelente comunicação.Experiência comprovada como Data Engineer (mínimo de 2 anos).Vivência em versionamento de código, CI / CD e testes de pipelines de dados.Proficiência em Python e SQL.Conhecimento em serviços do Google Cloud, com foco em : BigQuery, Dataflow, Cloud Storage, Cloud Pub / Sub, Cloud Functions e Cloud Composer.Experiência com ferramentas de orquestração de fluxos de trabalho, como Apache Airflow.Familiaridade com conceitos de data warehouse, data lake e modelagem de dados (ex : Kimball).Habilidade para trabalhar de forma independente e em equipe, com excelente comunicação.Diferenciais :
Certificação Google Cloud (como Professional Data Engineer, Professional Cloud Architect, ou similar).Experiência com outras tecnologias do GCP (Looker Studio, DataprocI).Conhecimento em metodologias ágeis (Scrum / Kanban).Experiência com IaC (Infrastructure as Code), como Terraform.Conhecimentos em Python para análises estatísticas avançadas.Experiência em governança de dados (Dataplex, Data Catalog).Conhecimento em Vertex AI e integração de pipelines de dados com soluções de IA.Conhecimento em Google Agentspace.Se identificou com essa oportunidade? Então inscreva-se e #VemPraSauter💜