Somos a plataforma líder de inteligência para crescimento na América Latina . Usamos ciência de dados e Big Data em informações do mercado e do cliente para alavancar resultados de marketing, comunicação e vendas.
Nosso propósito é transformar com inteligência o caminho de pessoas e negócios. Em 2020, com o aporte de R$ 170 milhões da SoftBank Group e Riverwood Capital e mais recentemente, em 2022, com o aporte de R$260 milhões liderado pelo Lightrock, nos consolidamos como o maior investimento de IA e Big Data da América Latina e entramos em um seleto grupo de empresas sul americanas que estão fazendo história.
E no capítulo mais recente, temos consolidado a nossa liderança através das aquisições. Com elas, o portfólio de soluções Cortex aumenta e nossa plataforma segue em constante inovação.
VEM FAZER PARTE DO TIME!
Aqui na Cortex você encontrará um ambiente receptivo às diferenças e às necessidades das pessoas. Crescemos rápido porque crescemos juntos.
Tudo isso faz com que ser cortexiane seja uma experiência única de descobertas, transformação e crescimento a partir de um ambiente colaborativo de criação e realização. Vamos juntos?
Então aproveite e conheça a Jornada Cortex da Pessoa Candidata. Você encontrará tudo sobre o nosso processo seletivo, dicas sobre cada etapa e nossa história e cultura :
Acesse aqui 👉 https : / / bit.ly / 3LpUx0i
BeCortex
- Conhecimentos importantes para a posição :
- Formação em Ciência da Computação, Engenharia de Dados, Sistemas de Informação ou áreas relacionadas.
- Experiência comprovada como Data Engineer ou em funções similares.
- Experiência com ferramentas de orquestração de workflows, como Apache Airflow.
- Conhecimento em linguagens de programação como Python.
- Conhecimento intermediário em Apache Spark.
- Experiência com Databricks e suas funcionalidades.
- Experiência em arquitetura de dados na AWS, incluindo serviços como S3,RDS, DynamoDB, ECS, EKS, Glue e Lambda.
- Sólidos conhecimentos em SQL e na modelagem de dados.
- Experiência com ferramentas de ETL / ELT.
- Capacidade de trabalhar de forma colaborativa em um ambiente ágil.
- Boas habilidades de comunicação e capacidade de traduzir requisitos de negócio em soluções técnicas.
Desafios que você vai encontrar :
Desenvolver, manter e otimizar pipelines de dados utilizando Apache Spark.Implementar e gerenciar soluções de dados na plataforma Databricks.Implementar e gerenciar soluções de orquestração de pipeline de dados na plataforma Apache Airflow.Projetar e implementar arquitetura de dados na AWS, utilizando serviços como S3, RDS, DynamoDB, ECS, EKS, Glue, Lambda, entre outros.Garantir a qualidade e integridade dos dados através de práticas de validação e monitoramento.Colaborar com equipes de análise de dados, ciência de dados e outros stakeholders para entender necessidades de dados e fornecer soluções eficazes.Participar na definição e implementação de boas práticas de engenharia de dados.Documentar processos, pipelines e arquitetura de dados de forma clara e detalhada.