Detalhes do Cargo
Somos uma das principais empresas de transformação digital no país. Nossa missão é conectar, transformar e empoderar cada um dos nossos profissionais para que todos tenham a chance de usar sua paixão para transformar o mundo com tecnologia.
Buscamos um profissional empreendedor e proativo que seja o verdadeiro protagonista do seu sucesso. Queremos em nosso time pessoas motivadas por desafios, constante evolução e, claro, que são apaixonadas por tecnologia e transformação.
Responsabilidades :
- Projetar, implementar e manter pipelines e arquiteturas de dados em ambiente multicloud (AWS, GCP e OCI), com foco em AWS e GCP.
- Desenvolver integrações e processamentos de dados utilizando Pyspark e Spark. Orquestrar workflows de dados complexos com Apache Airflow. Criar, manter e evoluir pipelines de CI / CD (Jenkins, AWS CodePipeline, Google Cloud Build, etc.).
- Automatizar infraestrutura e recursos de dados com Terraform. Desenvolver, containerizar e gerenciar aplicações de dados com Docker e orquestração em Kubernetes.
- Atuar ativamente na definição de arquitetura, padrões de desenvolvimento, governança e segurança dos dados.
Requisitos Obrigatórios :
6+ anos de experiência em Engenharia de Dados, com forte atuação em nuvem (AWS e GCP).Experiência avançada em serviços de dados da AWS (S3, Redshift, EMR, Glue, Lambda, Athena) e da GCP (BigQuery, Dataflow, Pub / Sub, Dataproc).Proficiência avançada em Python e experiência comprovada em Pyspark / Spark.Experiência com Apache Airflow (criação e manutenção de DAGs). Forte experiência em CI / CD (Jenkins, AWS CodePipeline, Google Cloud Build ou similares).Sólido conhecimento em Docker e Kubernetes. Experiência prática com Terraform para automação de infraestrutura.Vivência em projetos com Apache Kafka (integração de dados em tempo real).Nossas Ofertas :
Plano de Saúde; Plano Odontológico; Seguro de Vida; Vale Refeição; Vale Alimentação; Horário Flexível; Atuação híbrida; Gympass, Telemedicina, Telenutrição, Canal de suporte emocional 24h e muito mais.