Retour
Analista de Processamento de Dados Sr.
Addresse: São Paulo, Avenida Francisco Matarazzo Ground Floor
Posté: 1 Jours
Type d’emploi: Regular
Ref: R098305
Un groupe de cinq personnes est assis sur un canapé gris, avec une série de tableaux abstraits encadrés derrière eux. De gauche à droite. Une femme noire est assise sur l'accoudoir du canapé. Elle porte un T-shirt noir et une jupe rouge. Ensuite, un homme blanc, portant un jean bleu et une chemise bleu marine. Au milieu, une femme blonde portant une chemise rose vif, un jean et des baskets blanches. Quatrième, un autre homme, également portant une chemise bleu marine et un jean bleu. Assise sur l'autre accoudoir du canapé, une femme en jean noir, baskets blanches et haut marron.

Certifique-se de anexar seu currículo atualizado e a ciência de seu gestor no ato da candidatura!

#IBOPEMEDIA

#LI-MV1

#LI-Remote

O que você fará:

·              Realizar o deploy e manutenção de ambientes em Azure, AWS e GCP, garantindo performance, segurança e alta disponibilidade;

·              Atuar como Desenvolvedor BI, elaborando dashboards, relatórios e diagramas técnicos que assegurem a integridade e consistência dos dados;

·              Instalar e validar novas versões de software em ambiente de produção, conforme o cronograma estabelecido, minimizando riscos de indisponibilidade;

·              Testar e validar alterações de configuração em ambientes de homologação, garantindo qualidade antes da liberação em produção;

·              Supervisionar e validar a coleta de dados de sites de referência e medidores de painel, assegurando a acuracidade das informações;

·              Colaborar com as equipes de Desenvolvimento, Suporte e Infraestrutura para identificar gargalos, automatizar processos e implementar melhorias contínuas;

·              Criar, monitorar e documentar tickets no ServiceNow, ITSM e Jira, acompanhando incidentes e solicitações de dados reportados por clientes e times internos;

·              Participar de daily meetings, revisões técnicas e cerimônias ágeis, interagindo com times globais e contribuindo para o alinhamento estratégico entre as áreas;

·              Apoiar projetos de integração entre plataformas cloud e sistemas de BI, propondo soluções técnicas que melhorem o fluxo de dados e a eficiência operacional;

·              Garantir o processamento de dados em ambientes de desenvolvimento e produção, atuando na correção de problemas dentro da plataforma Apache Airflow;

·              Realizar consultas, tuning e otimização de consultas SQL em bancos relacionais (PostgreSQL, Oracle, SQL Server);

·              Monitorar e manter infraestruturas containerizadas utilizando Kubernetes, Docker e Terraform, incluindo AKS (Azure Kubernetes Service);

·              Implementar e administrar ferramentas de monitoramento e observabilidade, como Kibana, Grafana, Prometheus, Zabbix e ElasticSearch;

·              Desenvolver e manter scripts em Python e Shell/Bash para automação de tarefas e integração entre sistemas;

·              Atuar na administração de redes e segurança, com experiência em VPN, roteamento, balanceamento e troubleshooting de conectividade;

·              Gerenciar acessos e transferências seguras de dados via SFTP e ambientes de Data Lake e Databricks;

·       Utilizar ferramentas de colaboração e documentação técnica, como SharePoint e Confluence;

·              Trabalhar com práticas DevOps, versionamento em Git e pipelines automatizados;

·              Produzir e analisar indicadores de desempenho (BI) utilizando Excel avançado e ferramentas analíticas;

·       Executar outras atividades compatíveis com a função, conforme demanda.

O que buscamos:

·              Sólido conhecimento em Linux, desenvolvimento web, tecnologias Cloud (Azure, AWS, GCP) e arquiteturas de dados modernas;

·              Experiência comprovada em implantação e suporte de clusters AKS (Azure Kubernetes Service), Azure Storage e outros recursos de nuvem;

·              Domínio em containers e infraestrutura como código (IaC) com Terraform, Kubernetes e Docker;

·              Familiaridade com ElasticSearch, Kibana, Prometheus, Grafana, Databricks, Airflow, Zabbix e Apache;

·              Experiência com Python e Shell Script, com foco em automação e integração de ambientes;

·              Conhecimento em arquitetura de redes (VPN, switches, roteamento) e diagnóstico de falhas de conectividade;

·              Experiência com bancos de dados relacionais (PostgreSQL, SQL Server, Oracle), incluindo consultas complexas e otimização de performance;

·              Conhecimento em ferramentas de BI (Power BI, Grafana, ou similares) e análise de dados;

·              Conhecimento em ferramentas de versionamento e automação DevOps (Git, pipelines CI/CD);

·              Experiência em ambientes Linux virtualizados e plataformas de virtualização;

·              Formação superior completa em Tecnologia da Informação, Engenharia da Computação ou áreas correlatas;

·              Perfil colaborativo, comunicativo e orientado a resultados, com interesse genuíno em crescimento profissional e trabalho em equipe;

·              Inglês e espanhol intermediário, com capacidade de comunicação técnica em ambientes multiculturais e distribuídos globalmente.

Candidaturas até 21/11/2025.

Postulez maintenant
Retour