Engenheiro de Dados

Descrição da vaga:

A Teddy está em busca de um Engenheiro de Dados apaixonado por transformar informações em insights impactantes. Se você tem experiência com pipelines de dados, garante a qualidade e a consistência, e adora trabalhar com tecnologias como Apache Airflow, Git e AWS, queremos você no nosso time! Junte-se a nós para desenvolver soluções inovadoras em um ambiente colaborativo, usando suas habilidades em SQL, NoSQL, ETL e Python. Se está pronto para esse desafio e deseja impulsionar nossa estratégia de dados, estamos ansiosos para conhecê-lo!


Responsabilidades:

  • Ingestão de Dados no Data Lake: Desenvolver e gerenciar pipelines de dados que permitem a ingestão de grandes volumes de dados em tempo real ou em batch no Data Lake, garantindo a qualidade e a consistência dos dados armazenados.
  • Conhecimento em Bancos de Dados: Forte entendimento de bancos de dados relacionais (SQL) e não relacionais (NoSQL), incluindo modelagem de dados, consultas complexas e otimização de performance.
  • ETL (Extract, Transform, Load): Design e implementação de processos ETL para transformar dados brutos em informações utilizáveis, garantindo que os dados estejam limpos, formatados e prontos para análise.


Ferramentas e Tecnologias:

  • Apache Airflow: Automação de fluxos de trabalho e orquestração de processos de dados para garantir que as tarefas sejam executadas de forma eficiente e em sequência correta.
  • Git: Controle de versão de código, garantindo que todas as alterações em scripts e pipelines de dados sejam registradas e que as colaborações em equipe sejam organizadas e seguras.
  • AWS (Amazon Web Services): Utilização de serviços de cloud computing para armazenamento, processamento e análise de dados, incluindo S3, Redshift, Lambda, e outros serviços relevantes.
  • Programação em Python: Uso avançado de Python para desenvolvimento de scripts de automação, manipulação de dados, integração de APIs, e criação de pipelines de dados complexos. Python é frequentemente utilizado em conjunto com bibliotecas específicas para manipulação de dados, como Pandas, PySpark, entre outras.


Habilidades:

  • Sólidos conhecimentos em SQL e NoSQL.
  • Experiência prática com ETL e Data Lakes.
  • Proficiência em Python e bibliotecas relacionadas a dados.
  • Familiaridade com ferramentas de orquestração e automação de fluxos de trabalho, especialmente Airflow.
  • Capacidade de trabalhar com sistemas de controle de versão, como Git.
  • Experiência com serviços de nuvem, particularmente AWS.


Benefícios:

  • VR/VA Flash Benefícios
  • Assistência Médica - Bradesco Saúde
  • Assistência Odontológica - Bradesco
  • Programa de Orientação Pessoal – C4Life
  • Day Off de Aniversário
  • Plano de Carreira
  • Total Pass
  • Seguro de Vida
  • FIAP
  • Alura


Localização
Modelo de contratação
Modelo de trabalho
São Bernardo do Campo, SP, BR
Efetivo CLT
Remoto