Talent.com
A vaga não está disponível no seu país.
Data Engineer Pleno

Data Engineer Pleno

CortexBrasil
Há 15 dias
Descrição da vaga

Somos a  plataforma líder de inteligência para crescimento na América Latina . Usamos ciência de dados e Big Data em informações do mercado e do cliente para alavancar resultados de marketing, comunicação e vendas.

Nosso propósito é transformar com inteligência o caminho de pessoas e negócios. Em 2020, com o aporte de R$ 170 milhões da SoftBank Group e Riverwood Capital e mais recentemente, em 2022, com o aporte de R$260 milhões liderado pelo Lightrock, nos consolidamos como o maior investimento de IA e Big Data da América Latina e entramos em um seleto grupo de empresas sul americanas que estão fazendo história.

E no capítulo mais recente, temos consolidado a nossa liderança através das aquisições. Com elas, o portfólio de soluções Cortex aumenta e nossa plataforma segue em constante inovação.

VEM FAZER PARTE DO TIME!

Aqui na Cortex você encontrará um ambiente receptivo às diferenças e às necessidades das pessoas. Crescemos rápido porque crescemos juntos.

Tudo isso faz com que ser cortexiane seja uma experiência única de descobertas, transformação e crescimento a partir de um ambiente colaborativo de criação e realização. Vamos juntos?

Então aproveite e conheça a Jornada Cortex da Pessoa Candidata. Você encontrará tudo sobre o nosso processo seletivo, dicas sobre cada etapa e nossa história e cultura :

Acesse aqui 👉 https : / / bit.ly / 3LpUx0i

BeCortex

  • Conhecimentos importantes para a posição :
  • Formação em Ciência da Computação, Engenharia de Dados, Sistemas de Informação ou áreas relacionadas.
  • Experiência comprovada como Data Engineer ou em funções similares.
  • Experiência com ferramentas de orquestração de workflows, como Apache Airflow.
  • Conhecimento em linguagens de programação como Python.
  • Conhecimento intermediário em Apache Spark.
  • Experiência com Databricks e suas funcionalidades.
  • Experiência em arquitetura de dados na AWS, incluindo serviços como S3,RDS, DynamoDB, ECS, EKS, Glue e Lambda.
  • Sólidos conhecimentos em SQL e na modelagem de dados.
  • Experiência com ferramentas de ETL / ELT.
  • Capacidade de trabalhar de forma colaborativa em um ambiente ágil.
  • Boas habilidades de comunicação e capacidade de traduzir requisitos de negócio em soluções técnicas.

Desafios que você vai encontrar :

  • Desenvolver, manter e otimizar pipelines de dados utilizando Apache Spark.
  • Implementar e gerenciar soluções de dados na plataforma Databricks.
  • Implementar e gerenciar soluções de orquestração de pipeline de dados na plataforma Apache Airflow.
  • Projetar e implementar arquitetura de dados na AWS, utilizando serviços como S3, RDS, DynamoDB, ECS, EKS, Glue, Lambda, entre outros.
  • Garantir a qualidade e integridade dos dados através de práticas de validação e monitoramento.
  • Colaborar com equipes de análise de dados, ciência de dados e outros stakeholders para entender necessidades de dados e fornecer soluções eficazes.
  • Participar na definição e implementação de boas práticas de engenharia de dados.
  • Documentar processos, pipelines e arquitetura de dados de forma clara e detalhada.