Descrição da Vaga
Transforme dados em estratégias e inove com IA!
Na Datlo, estamos revolucionando o mercado com uma plataforma de IA especializada em estratégias Go-To-Market (GTM). Nossa tecnologia permite que empresas tomem decisões mais inteligentes, acelerem a entrada no mercado e ampliem seu impacto com dados precisos e acionáveis. Se você busca desafios técnicos, inovação constante e um ambiente dinâmico, essa oportunidade é para você!
As atividades que você vai desenvolver no seu dia-a-dia são:
- Manutenção e evolução da arquitetura de processamento de dados;
- Desenvolvimento e otimização de pipelines;
- Integração de dados;
- Gestão de infraestrutura de Cloud;
- Desenvolvimento de APIs e Serviços de Mensageria;
- Dockerização e conteinerização.
Requisitos Indispensáveis
Experiência:
- Experiência mínima de 2 anos como engenheiro de dados ou em funções similares.
Competências Técnicas:
- Proficiência em Python e bibliotecas voltadas para manipulação e transformação de dados (ex: Pandas, PySpark);
- Domínio de ferramentas de integração e orquestração de dados como DBT e Prefect;
- Conhecimento de Google Cloud Platform (GCP);
- Experiência com arquitetura de dados, incluindo otimização de pipelines;
- Conhecimento em práticas de segurança, backup e recuperação de dados na nuvem;
- Experiência com Docker e containers;
- Conhecimento de metodologias ágeis e práticas DevOps.
Requisitos Desejáveis
Formação:
Graduação (concluída ou em andamento) em Engenharia de Computação, Ciência da Computação, Sistemas de Informação, Análise de Sistemas ou áreas correlatas.
Regime de Contratação
CLT
PCD
INDIFERENTE
Benefícios
- Plano de saúde;
- Plano odontológico;
- Day Off no mês do aniversário;
- Gympass (Wellhub);
- Vale-refeição/Alimentação;
- Ambiente de trabalho descontraído e inclusivo;
- Oportunidades de crescimento profissional e desenvolvimento de habilidades.
Horário de Trabalho
Segunda a Sexta-Feira, híbrido.
Informações Adicionais
Responsável por atuar na manutenção e evolução da arquitetura de dados da empresa, com foco em integração de dados, construção e otimização de pipelines de ELT utilizando a arquitetura medalhão, além de garantir a qualidade, confiabilidade e performance dos processos de dados. Atuará de forma colaborativa com outras equipes e será fundamental na construção de soluções escaláveis, confiáveis e eficientes.