AtividadesSerá responsável pelo desenvolvimento e manutenção de pipelines de dados escaláveis e robustos, garantindo a governança, segurança e eficiência do ecossistema de dados da empresa.Requisitos e QualificaçõesExperiência em cloud platform (GCP) com habilidades em BigQuery, Dataflow, Pub / Sub, Cloud Storage, Cloud Composer (Airflow), IAMConhecimento avançado em linguagens Python, SQL e Apache BeamOrquestração Apache Airflow (Cloud Composer) e workflows automatizados com CI / CDInfraestrutura como Código (IaC) com Terraform, Cloud Build e GitHub ActionsModelagem de dados analíticos, Data Lake, Data Warehouse e Data VaultBoas práticas de controle de acesso, mascaramento, criptografia e DLPFerramentas DevOps / DataOps como Git, Docker e monitoramento de pipelinesBenefíciosCapacidade de trabalhar com independência e tomar iniciativa para resolver problemas e sugerir melhoriasColaboração eficiente com equipes multidisciplinares e distribuídas geograficamentePensamento analítico para entender e resolver problemas complexos de dadosAdaptabilidade em ambientes dinâmicos e tecnologias em constante evoluçãoOrganização e gestão de tempo para gerenciar múltiplas tarefas e prioridades simultaneamenteMentalidade de dono com atitude de responsabilidade, comprometimento e foco em resultadosDias da Semana : Não InformadoHorário / Período : Não InformadoOs interessados devem se candidatar através do portal Caderno Nacional
#J-18808-Ljbffr
Engenheiro Dados Gcp • Curitiba, Paraná, Brasil