Projetar, construir e manter pipelines de dados escaláveis e eficientes.
Integrar e tratar dados de diversas fontes com foco em qualidade, integridade e automação.
Utilizar BigQuery para modelagem analítica e exploração de dados.
Usar de modelos de segregação de dados e enriquecimento, incluindo o uso de RAG
Escrever código limpo e eficiente em Python para automação e processamento de dados.
Participar ativamente na evolução da arquitetura de dados e na definição de boas práticas de governança.
Requisitos :
Experiência prática com Datalakes, Sparks e notebooks para ingestão e transformação de dados.
Proficiência em Python com foco em manipulação e automação de dados.
Conhecimento sólido em BigQuery e modelagem em ambientes cloud-based.
Colaborar e aprimorar a estrutura de criação de dashboards usando Power BI ou Looker , promovendo a democratização dos dados para áreas como Vendas, Produto e Operações.
Experiência em processos ETL / ELT e arquiteturas de Data Lake.
Conhecimento de versionamento e CI / CD para pipelines de dados (Git, DevOps ou similar).
Capacidade de identificar oportunidades de melhoria contínua e propor soluções inovadoras para os fluxos de dados.
Diferenciais :
Conhecimento em ferramentas de orquestração (ex : Airflow, dbt).
Conhecimento de projetos de IA
Familiaridade com outras soluções do ecossistema Google Cloud ou outra cloud.