Engenheiro de Dados AWS Sênior (Remoto)

Descrição da vaga:

Papel na empresa: O Engenheiro de Dados Sênior na Dataside atua como liderança técnica nos projetos, apoiando o Tech Lead e contribuindo para o desenvolvimento da equipe e disseminação de conhecimento. Tem autonomia para decisões técnicas de ponta a ponta, garantindo entregas alinhadas às necessidades do cliente. Além disso, realiza mentorias, revisões criteriosas e impulsiona a evolução técnica da empresa. Com uma visão estratégica sobre o valor dos dados, conecta suas entregas ao impacto nos negócios. Mais do que desenvolver soluções, atua como parceiro consultivo, provocando reflexões e fortalecendo a relação com o cliente por meio de propostas bem fundamentadas e confiança.


Responsabilidades:

Ser engenheiro principal em contratos e conduzir decisões técnicas de forma autônoma.

Apoiar o Tech Lead na liderança técnica e estratégica dos projetos.

Realizar revisões técnicas aprofundadas e mentorias com o time.

Propor arquiteturas batch e streaming com visão de escalabilidade, eficiência e alinhamento ao negócio.

Construir planos de melhoria de performance e redução de custo.

Diagnosticar gargalos técnicos e operacionais e propor soluções sustentáveis.

Comunicar soluções de forma clara para diferentes níveis (negócio, técnico, gestão).

Trabalhar com múltiplas integrações, altos volumes de dados e demandas críticas de performance.


Requisitos:

Experiência sólida em projetos de engenharia de dados de altíssima complexidade.

Capacidade de atuar em contextos sem experiência prévia com a stack, aprendendo com rapidez.

Forte domínio de Spark (avançado) e Python com boas práticas de engenharia de software (modelo SOLID).

SQL avançado, com tuning e leitura de planos de execução.

Experiência com integração via APIs RESTful e sistemas distribuídos.

Domínio da stack analítica da AWS, incluindo: S3, Athena, Redshift, Glue, EMR, Kinesis, Lambda, Step Functions, Lake Formation, Secrets Manager, CloudWatch, SNS, Cost Explorer, Glue DataBrew, Amazon Macie.

Vivência com Databricks, incluindo: Gerenciamento de clusters e políticas, Unity Catalog (lineage, controle de acesso, versionamento), SQL Warehouse, Workflows, Delta Live Tables (DLT).

Conhecimento de técnicas variadas de modelagem de dados: Data Vault, modelagem dimensional, pipelines orientados a eventos.

Conhecimento em bancos NoSQL como DynamoDB, MongoDB e Cassandra.

Domínio em dimensionamento de clusters, computação distribuída e análise de custo detalhado.


Hard Skills:

Spark (avançado), com domínio de Catalyst Optimizer, persistência, broadcast joins, caching e bucketing.

Python com padrões SOLID e reutilização de componentes.

SQL avançado com tuning, particionamento, otimização de planos de execução.

Consumo e integração via APIs RESTful.

Databricks (avançado): Unity Catalog, SQL Warehouse, Workflows, DLT, Pools e configuração de clusters.

AWS Analytics Stack: S3, Athena, Glue, EMR, Redshift, Kinesis, Lambda, Step Functions, Lake Formation, Glue DataBrew, Macie, CloudWatch, SNS, Cost Explorer.

Amazon Redshift (nível avançado): Otimização com sort keys, compressão, vacuum tuning, WLM avançado, SVL/SVV logs, Redshift Spectrum, arquitetura híbrida com S3.

Modelagem de dados: Data Vault, 3NF, dimensional, pipelines event-driven.

Bancos NoSQL (DynamoDB, MongoDB).

CI/CD com Git, GitHub Actions ou GitLab CI.

Conceito de testes unitários aplicados à pipelines de dados.

Frameworks e práticas de observabilidade e qualidade de dados: Great Expectations, Airflow, Prometheus, Grafana.

Criação de soluções reutilizáveis e componíveis, com foco em Data Products e estratégias Data Mesh.

Avaliação e planejamento de custo em nuvem: uso de Cost Explorer, dimensionamento com AWS Pricing Calculator.


Soft Skills:

Liderança técnica e influência estratégica.

Capacidade de “aprender a aprender”.

Clareza e profundidade na comunicação com áreas técnicas e de negócio.

Postura consultiva, com escuta ativa e proatividade.

Espírito de colaboração, mentoria e formação de equipe.

Organização, foco em entrega e alto senso de responsabilidade.

Inglês intermediário.


Certificações desejáveis:

AWS Data Engineer Associate.

AWS Solutions Architect Associate.


Diferenciais:

AWS Certified Data Analytics Specialty.

AWS Solutions Architect – Professional.

Databricks Certified Professional Data Engineer.


Nossos incentivos:

  1. Auxílio médico: ajuda de custo mensal para apoiar na contratação do seu plano de saúde.
  2. Wellhub, pra manter corpo e mente ativos, do jeito que você gosta.
  3. Terapia online 100% custeada pela empresa, porque saúde mental importa.
  4. Atendimento em Nutrição online, com até 2 consultas mensais para cuidar da sua saúde alimentar.
  5. Seguro de vida com apólice no valor de R$125 mil, garantindo mais segurança para você e sua família.
  6. Day off no aniversário, porque o seu dia merece ser especial.
  7. Descanso remunerado, para que você possa recarregar as energias.
  8. Gamificação interna, transformando conquistas em prêmios e reconhecimento.
  9. Parcerias educacionais com faculdades como FIAP, Anhanguera e Instituto Infnet, pra apoiar seu crescimento e aprendizado.
  10. Bônus por certificação técnica, reconhecendo e recompensando seu esforço em aprender.


Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.

Localização
Modelo de contratação
Modelo de trabalho
São José dos Campos, SP, BR
Autônomo PJ
Remoto