Estamos em busca de um Engenheiro de Dados com sólida experiência na construção e otimização de pipelines de dados. Este profissional terá papel fundamental no desenho, desenvolvimento e manutenção de soluções de integração de dados confiáveis, escaláveis e seguras. O candidato ideal deve ter forte conhecimento em plataformas de nuvem, práticas modernas de engenharia de dados e perfil analítico para garantir o fluxo eficiente de dados na organização. Responsabilidades Principais
Projetar, desenvolver e manter pipelines ETL / ELT para ingestão, transformação e entrega de dados estruturados e não estruturados.
Implementar frameworks de ingestão de dados a partir de múltiplas fontes (bancos de dados, APIs, arquivos, streaming etc.).
Garantir qualidade, consistência e confiabilidade dos dados por meio de validação, monitoramento e testes automatizados.
Otimizar fluxos de processamento de dados visando custo e performance.
Colaborar com Cientistas de Dados, Analistas e áreas de negócio para fornecer datasets limpos, confiáveis e bem documentados.
Trabalhar com serviços nativos de nuvem (ex. : BigQuery, Dataproc, Dataflow, Databricks, Snowflake) para implementar arquiteturas escaláveis.
Aplicar boas práticas de CI / CD, versionamento e Infraestrutura como Código (IaC) em pipelines de dados.
Assegurar conformidade com normas de segurança, governança e privacidade (ex. : PII, GDPR, LGPD).
Qualificações Necessárias
Graduação em Ciência da Computação, Sistemas de Informação, Engenharia ou áreas correlatas.
Experiência comprovada em engenharia de dados, com foco em construção de pipelines.
Domínio em SQL, Python e Spark.
Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure).
Sólidos conhecimentos em modelagem de dados, data warehouse e arquiteturas lake / lakehouse.
Vivência com ferramentas de orquestração (Airflow, Cloud Composer, Prefect, Dagster).
Familiaridade com práticas de DevOps (Git, pipelines CI / CD, Terraform ou similares).
Diferenciais Desejáveis
Experiência com streaming em tempo real (Kafka, Pub / Sub, Kinesis).
Conhecimentos em containerização (Docker, Kubernetes).
Vivência com pipelines de machine learning e MLOps.
Experiência com catálogos de dados, metadata management e ferramentas de governança.
Competências Comportamentais
Perfil analítico e orientado à resolução de problemas.
Capacidade de comunicar conceitos técnicos complexos de forma clara a públicos não técnicos.
Trabalho em equipe, postura proativa e colaborativa.
espanhol será considerado um diferencial.
Engenheiro Dados Gcp • Estância Velha, Rio Grande do Sul, Brazil