Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia. Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!
- Todas as nossas vagas são abertas para PCDs! Benefícios? É claro que temos! Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais Auxílio home office no valor de R$ 150,00 mensais Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais Plano de saúde e auxílio odontológico de alta qualidade ❤️ Seguro de vida que cobre doenças ocupacionais Participação nos lucros Gympass e TotalPass para se manter saudável Licença maternidade estendida : 180 dias Licença paternidade estendida : 30 dias Desconto em consultas nutricionais Desconto em terapia online ️ Clube de benefícios para quem gosta de comprar com descontos Knowledge transfer através do Frame KT Plataforma de cursos e atividades educativas para as crianças e adolescentes da sua família Bonificação por indicação de novos colaboradores E não paramos por aí! Horário flexível No dress code Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas Ambiente leve, flexível e cultura colaborativa. E qual será a sua missão na Framework? Desenhar e Desenvolver Pipelines de Dados : Arquitetar, implementar e manter pipelines ETL / ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados. Integração e Processamento de Dados : Construir arquiteturas orientadas a eventos para viabilizar o processamento de dados em tempo real e a integração fluida entre sistemas. Gestão de Infraestrutura em Nuvem : Utilizar serviços da AWS (como S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta. Desenvolvimento e Otimização de Código : Escrever código limpo, eficiente e de fácil manutenção em Python para ingestão, transformação e orquestração de dados. Colaboração em Ambientes Ágeis : Trabalhar em estreita colaboração com times multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas. Qualidade e Governança de Dados : Implementar boas práticas de qualidade de dados, monitoramento e conformidade para garantir integridade, consistência e segurança dos dados. Otimização de Performance : Otimizar pipelines de dados e consultas em ambientes em nuvem visando desempenho, escalabilidade e eficiência de custos. Mentoria e Liderança : Oferecer orientação técnica a membros juniores do time, promovendo uma cultura de aprendizado contínuo e melhoria constante. Documentação e Compartilhamento de Conhecimento : Documentar projetos técnicos, processos e fluxos de trabalho para garantir a manutenção e o repasse de conhecimento. O que é preciso para fazer parte do time? Formação superior em Engenharia da Computação, Ciência da Computação, Tecnologia da Informação, Ciência de Dados ou áreas correlatas. Pelo menos 5 anos de experiência como Engenheiro de Dados ou em funções similares, com foco em desenvolvimento de pipelines e soluções de dados em nuvem. Domínio avançado de Python para processamento de dados, automações e scripts. Experiência prática com Databricks , incluindo uso de Spark, Delta Lake e workflows da plataforma. Sólido conhecimento em serviços AWS , como S3, Redshift, Glue, Lambda, Kinesis e Athena, para construção e gestão de infraestrutura de dados. Especialista em processos ETL / ELT , utilizando ferramentas como Apache Airflow, AWS Glue ou similares. Experiência com arquitetura orientada a eventos , como AWS Kinesis e Kafka, para pipelines em tempo real. Vivência em ambientes ágeis (Scrum ou Kanban), com boa capacidade de adaptação a times multidisciplinares. Proficiência em bancos de dados relacionais e não relacionais , como PostgreSQL, MySQL, DynamoDB e MongoDB, incluindo otimização de queries SQL. Forte entendimento de modelagem de dados (ex : star schema, snowflake) voltada para análise e relatórios. Familiaridade com práticas DevOps, incluindo CI / CD, versionamento (Git) e infraestrutura como código (Terraform, AWS CloudFormation). Excelentes habilidades analíticas e de resolução de problemas, com foco em entregar soluções escaláveis e eficientes. Boa comunicação escrita e verbal, com capacidade de colaborar com stakeholders técnicos e não técnicos. Será um diferencial se você : Inglês : nível intermediário a avançado. Experiência com tecnologias de conteinerização (ex : Docker, Kubernetes) para implantação de aplicações de dados. Conhecimento em frameworks de governança de dados e normas de conformidade (ex : GDPR, CCPA). Familiaridade com ferramentas adicionais de big data , como Apache Spark, Hadoop ou Snowflake. Certificações em AWS (ex : AWS Certified Data Analytics, AWS Certified Solutions Architect) ou Databricks . A NOSSA EVOLUÇÃO É CRESCENTE! E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios! Gostou da oportunidade? Vamos juntos e faça parte da nossa história! #vempraframe