A Dexian está comprometida com responsabilidade social corporativa e investe em programas que apoiam a diversidade e inclusão.
A empresa atua como ponte entre profissionais altamente qualificados e oportunidades consistentes e prósperas.Descrição do Cargo : Desenvolver pipelines de dados escaláveis utilizando Apache Hadoop, Spark e KafkaImplementar processos de ETL e integração de dados de múltiplas fontes (internas e externas)Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escalaOtimizar e ajustar jobs Spark e Hadoop para melhor performanceAtuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big DataIntegrar soluções com Azure, Snowflake e infraestrutura on-premisesColaborar com cientistas de dados, analistas, arquitetos e stakeholders para entender requisitos e entregar soluções robustasUtilizar ferramentas de versionamento como GitHub e automações via GitHub Actions e / ou Azure DevOpsExplorar e implementar novas tecnologias de acordo com o roadmap interno de Big DataGarantir segurança, integridade e governança dos dadosRequisitos Técnicos : Formação : Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo : 6.5 / 10Experiência : 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes HadoopLinguagens : Scala, Java e / ou PythonFrameworks e Ferramentas : Apache Spark, Hadoop EcosystemHive, Iceberg, HBaseSolrKafka, Spark Streaming ou Apache FlinkOozie (Airflow é diferencial)Sistemas UNIX / LinuxGit, GitHub, DevOps (desejável Azure DevOps)Cloud : Experiência com Azure (desejável conhecimento em AWS)Diferenciais : Conhecimento em Apache NiFiHabilidades de modelagem de dadosExperiência prévia no setor de energia (Oil & Gas)Nossa equipe é composta por profissionais altamente qualificados e experientes na área de Big Data.Você pode contribuir para nossos projetos e trabalhar em uma equipe dinâmica e motivada.
Engenheiro Trabalho • Porto Alegre, Rio Grande do Sul, Brasil