Necessário : Experiência sólida com Databricks (Delta Lake, Unity Catalog, Databricks SQL e configuração de Jobs / Clusters).
É essencial domínio de Azure (ADLS, Key V ault, Synapse), Python, PySpark e SQL avançado.
Conhecimento em arquitetura medalhão (Bronze / Silver / Gold) e modelagem de dados (dimensional e analítica) são fundamentais.
É esperado também experiência em versionamento com GitHub e configuração de esteiras CI / CD, aplicando boas práticas de DataOps e FinOps.O trabalho segue metodologias ágeis, com interação frequente com diferentes áreas, exigindo autonomia, organização e visão ponta a ponta no ciclo de dados.Desejável : Idioma Espanhol e experiência em Instituição Financeira.Atividades a serem desempenhadas : Será responsável pela manutenção e criação de processos de ETL, garantindo que os requisitos de negócio sejam atendidos com qualidade.Atuará na construção de pipelines para ingestão de dados em batch e near real time, promovendo a democratização das informações na nuvem.Terá papel protagonista no projeto de modernização da área, propondo e implementando soluções inovadoras que agreguem valor ao negócio.
Sua atuação será ponta a ponta (E2E), desde o entendimento da necessidade, definição da solução, desenvolvimento, testes, implantação e suporte aos consumidores.
Além disso, deverá assegurar a disponibilidade, confiabilidade e performance das aplicações, contribuindo para que a área de Finanças tenha acesso a dados confiáveis e em tempo hábil para a tomada de decisões estratégicas.Escolaridade Mínima : Ensino Superior
Engenheiro Dados Clt • São Paulo, Brasil