Candidatura - Data Engineer/DevOps Pleno/Sênior - Birdie
O Birdie é uma startup fundada em 2018 para atender ao mercado americano e crescer para o mercado global. Sediada em Palo Alto, no Vale do Silício, o Birdie tem seu time de Pesquisa e Desenvolvimento orgulhosamente baseado em São Carlos e São Paulo e acabamos de captar ~ R$1.5 milhão em nossa primeira rodada de investimento.

Nós contamos com um time de especialistas em Data Science escavando e estruturando informação de todos os cantos da internet para montar uma gigante base de conhecimentos de produtos e suas opiniões e estamos procuramos por profissional para se juntar ao time para gerenciar nosso ambiente da nuvem e otimizar os processos armazenamento, recuperação, transformação e segurança de dados, bem como apoiar o time de cientistas de dados em todas as tarefas relacionadas à infra-estrutura.

Você irá fazer parte um time multi-disciplinar que compõem diferentes partes do projeto desde a coleta e estruturação de diferentes tipos dados sobre produtos até a criação de experiência (UX) web com usuários e seu marketing para atração de consumidores.

Principais responsabilidades
• Gerenciar uma infra-estrutura otimizada de pipeline de dados para armazenar, recuperar, transformar grandes volumes e variedade de dados em formato relacional e não-relacional
• Monitorar e manter os níveis de serviço e performance da infra-estrutura de dados para atender às aplicações em produção
• Implementar melhorias nos processos internos
• Implementar e utilizar ferramentas analytics para monitorar indicadores de negócio e de saúde do processo
• Apoiar o time de cientistas de dados em relação às necessidades técnicas de infra-estrutura e à integração ao pipeline dos métodos criados
• Gerenciar infra-estrutura de micro-serviços que acessam dados consolidados e disponibilizam para aplicações da empresa

Para isso é necessário conhecer...
• Infra-estrutura na nuvem (utilizamos Google Cloud)
• Bancos relacionais e não-relacionais
• Agendamento, automação e monitoramento de tarefas
• Recuperação, transformação e armazenamento de grande quantidade dados
• Criação e gestão de micro-serviços

Seria ainda mais incrível se você tiver...
• Experiência com ferramentas para processamento de grandes volumes de dados e computação distribuída como Apache Hadoop/Spark ou equivalentes
• Experiência em implementação de soluções de busca com tecnologias como SOLR, Elasticsearch ou Lucene
• Conhecimento em ferramentas de orquestração e automação de workflows como Apache Airflow ou equivalentes

Gostou do desafio!? Quer participar dessa mudança e ajudar as pessoas a consumirem melhor ao invés de comprarem mais!? Queremos te conhecer!!!

Email address *
Qual é seu nome completo? *
Qual é o número do seu celular? *
Indique o link de seu perfil LinkedIn. *
Em que cidade você mora atualmente? *
Você tem disponibilidade para trabalhar em São Carlos/SP? (Caso já resida na cidade, por favor desconsidere esta pergunta). *
Você tem graduação completa ou cursando em Tecnologia, Estatística ou Matemática? Qual? *
Quanto tempo de experiência como Data Engineer você tem? *
Qual seu conhecimento e vivência com infra-estrutura na nuvem (especialmente Google Cloud)? Comente. *
Conte sobre seu conhecimento e experiência com bancos relacionais e não-relacionais. *
Você conhece agendamento, automação e monitoramento de tarefas ? Comente *
Qual a sua experiência com recuperação, transformação e armazenamento de grande quantidade dados ? Comente *
Você tem experiência em criação e gestão de micro-serviços ? Comente *
Você tem vivência em time ágil? Comente *
Você já trabalhou em startup? Comente. *
Qual seu nível de conhecimento em Inglês? *
Qual é sua pretensão salarial? (Considerando regime CLT). Por favor, não colocar à combinar. *
Você tem disponibilidade para trabalhar 40 horas semanais? *
Por favor, anexe aqui o seu currículo! *
Required
Submit
Never submit passwords through Google Forms.
This form was created inside of ONOVOLAB. - Terms of Service