Buscamos profissionais de dados experimentados para construir soluções escaláveis e inovadoras em ambientes híbridos.Desenvolver e suportar pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka.Projetar, desenvolver e manter pipelines de dados escaláveis;Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas);Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala;Otimizar e ajustar jobs Spark e Hadoop para melhor performance;Atuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big Data;Integrar soluções com Azure, Snowflake e infraestrutura on-premises;Colaborar com cientistas de dados, analistas, arquitetos e stakeholders para entender requisitos e entregar soluções robustas;Apoiamos nossos clientes para encontrar a melhor maneira que seu gap de talentos seja endereçado.
Contamos com uma equipe experiente em Big Data e soluções relacionadas.Requisitos Técnicos : Bacharelado em Ciência da Computação ou áreas correlatas;Experiência : 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop;Linguagens : Scala, Java e / ou Python;Ferramentas e tecnologias utilizadas incluem Apache Spark, Hadoop Ecosystem, Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink e Oozie;Diferenciais : Conhecimento em Apache NiFi;Habilidades de modelagem de dados;Experiência prévia no setor de energia (Oil & Gas).
Benefícios : Uma oportunidade de carreira na área de Big Data;Participar de projetos inovadores e impactantes;Colaborar com uma equipe experiementada;Opportunidade de crescimento profissional.
Especialista Em Dados • Curitiba, Paraná, Brasil