Engenheiro de Dados AWS Sênior (Banco de Talentos - Remoto)

Descrição da vaga:

Engenheiro de Dados AWS Sênior (Banco de Talentos - Remoto)

Papel na empresa: O Engenheiro de Dados Sênior na Dataside atua como liderança técnica nos projetos, apoiando o Tech Lead e contribuindo para o desenvolvimento da equipe e disseminação de conhecimento. Tem autonomia para decisões técnicas de ponta a ponta, garantindo entregas alinhadas às necessidades do cliente. Além disso, realiza mentorias, revisões criteriosas e impulsiona a evolução técnica da empresa. Com uma visão estratégica sobre o valor dos dados, conecta suas entregas ao impacto nos negócios. Mais do que desenvolver soluções, atua como parceiro consultivo, provocando reflexões e fortalecendo a relação com o cliente por meio de propostas bem fundamentadas e confiança.

Como será o seu dia a dia:

  • Ser engenheiro principal em contratos e conduzir decisões técnicas de forma autônoma.
  • Apoiar o Tech Lead na liderança técnica e estratégica dos projetos.
  • Realizar revisões técnicas aprofundadas e mentorias com o time.
  • Propor arquiteturas batch e streaming com visão de escalabilidade, eficiência e alinhamento ao negócio.
  • Construir planos de melhoria de performance e redução de custo.
  • Diagnosticar gargalos técnicos e operacionais e propor soluções sustentáveis.
  • Comunicar soluções de forma clara para diferentes níveis (negócio, técnico, gestão).
  • Trabalhar com múltiplas integrações, altos volumes de dados e demandas críticas de performance.

O que buscamos:

  • Experiência sólida em projetos de engenharia de dados de altíssima complexidade.
  • Capacidade de atuar em contextos sem experiência prévia com a stack, aprendendo com rapidez.
  • Forte domínio de Spark (avançado) e Python com boas práticas de engenharia de software (modelo SOLID).
  • SQL avançado, com tuning e leitura de planos de execução.
  • Experiência com integração via APIs RESTful e sistemas distribuídos.
  • Domínio da stack analítica da AWS, incluindo: S3, Athena, Redshift, Glue, EMR, Kinesis, Lambda, Step Functions, Lake Formation, Secrets Manager, CloudWatch, SNS, Cost Explorer, Glue DataBrew, Amazon Macie.
  • Vivência com Databricks, incluindo: Gerenciamento de clusters e políticas, Unity Catalog (lineage, controle de acesso, versionamento), SQL Warehouse, Workflows, Delta Live Tables (DLT).
  • Conhecimento de técnicas variadas de modelagem de dados: Data Vault, modelagem dimensional, pipelines orientados a eventos.
  • Conhecimento em bancos NoSQL como DynamoDB, MongoDB e Cassandra.
  • Domínio em dimensionamento de clusters, computação distribuída e análise de custo detalhado.

Hard Skills:

  • Spark (avançado), com domínio de Catalyst Optimizer, persistência, broadcast joins, caching e bucketing.
  • Python com padrões SOLID e reutilização de componentes.
  • SQL avançado com tuning, particionamento, otimização de planos de execução.
  • Consumo e integração via APIs RESTful.
  • Databricks (avançado): Unity Catalog, SQL Warehouse, Workflows, DLT, Pools e configuração de clusters.
  • AWS Analytics Stack: S3, Athena, Glue, EMR, Redshift, Kinesis, Lambda, Step Functions, Lake Formation, Glue DataBrew, Macie, CloudWatch, SNS, Cost Explorer.
  • Amazon Redshift (nível avançado): Otimização com sort keys, compressão, vacuum tuning, WLM avançado, SVL/SVV logs, Redshift Spectrum, arquitetura híbrida com S3.
  • Modelagem de dados: Data Vault, 3NF, dimensional, pipelines event-driven.
  • Bancos NoSQL (DynamoDB, MongoDB).
  • CI/CD com Git, GitHub Actions ou GitLab CI.
  • Conceito de testes unitários aplicados à pipelines de dados.
  • Frameworks e práticas de observabilidade e qualidade de dados: Great Expectations, Airflow, Prometheus, Grafana.
  • Criação de soluções reutilizáveis e componíveis, com foco em Data Products e estratégias Data Mesh.
  • Avaliação e planejamento de custo em nuvem: uso de Cost Explorer, dimensionamento com AWS Pricing Calculator.

Soft Skills:

  • Liderança técnica e influência estratégica.
  • Capacidade de “aprender a aprender”.
  • Clareza e profundidade na comunicação com áreas técnicas e de negócio.
  • Postura consultiva, com escuta ativa e proatividade.
  • Espírito de colaboração, mentoria e formação de equipe.
  • Organização, foco em entrega e alto senso de responsabilidade.
  • Inglês intermediário.

Certificações desejáveis:

  • AWS Data Engineer Associate.
  • AWS Solutions Architect Associate.

Diferenciais:

  • AWS Certified Data Analytics Specialty.
  • AWS Solutions Architect – Professional.
  • Databricks Certified Professional Data Engineer.

O que oferecemos:

  1. 🏥 Auxílio médico: ajuda de custo mensal para apoiar na contratação do seu plano de saúde.
  2. 💪 Wellhub, pra manter corpo e mente ativos, do jeito que você gosta.
  3. 🧠 Terapia online 100% custeada pela empresa, porque saúde mental importa.
  4. 🥗 Atendimento em nutrição online, com até 2 consultas mensais para cuidar da sua saúde alimentar.
  5. 🛡️ Seguro de vida com apólice no valor de R$ 125 mil, garantindo mais segurança para você e sua família.
  6. 🎉 Day off no aniversário, porque o seu dia merece ser especial.
  7. 🌴 Descanso remunerado, para que você possa recarregar as energias.
  8. 🏆 Gamificação interna, transformando conquistas em prêmios e reconhecimento.
  9. 🎓 Parcerias educacionais com faculdades como FIAP, Anhanguera e Instituto Infnet, pra apoiar seu crescimento e aprendizado.
  10. 📚 Bônus por certificação técnica, reconhecendo e recompensando seu esforço em aprender.

Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.

Localização
Modelo de contratação
Modelo de trabalho
São José dos Campos, SP, BR
Autônomo PJ
Remoto