Vaga de Data Engineer em São Paulo - SP - Liv Up

Veja a descrição da vaga e candidate-se!

Data Engineer

Postada em 26 de fevereiro de 2019
Quem somos
A Liv Up é a startup que está construindo a alimentação do nosso tempo com dos nossos investidores. Somos digitais, temos controle total da cadeia produtiva, desde formar parcerias com produtores orgânicos, criar e desenvolver receitas até o desenvolvimento do nosso site e aplicativo. Tudo isso com o compromisso de gerar impacto positivo do campo ao consumidor final. Já somos mais de 620 livupers, estamos em mais de 40 cidades no Brasil e crescendo a cada dia. Por isso, estamos em busca de talentos. Acreditamos na igualdade de oportunidades, e o único ingrediente que não pode faltar é o alinhamento com nossos valores. Bora?
Porque trabalhar aqui
- Oportunidade de estar em uma empresa de alto impacto que afeta positivamente a vida das pessoas em todos os momentos da sua alimentação; - Uma cultura que sempre tenta capacitar seus membros, tornando-os responsáveis pela sua carreira; - Uma equipe horizontal e transparente, que não apenas valoriza suas ideias, mas também espera que você faça parta da construção da empresa com a gente.
Contrato
CLT (Efetivo)
Remuneração
a combinar
Benefícios
a combinar
Descrição
Data Analytics at Liv Up: A core part of our strategy is data analytics. Our data team is responsible for driving business decisions through the entire organization and develop state-of-art data products. In order to achieve our mission, we centralize our data in a single integrated data warehouse that stores data for our business and operations algorithms, as well as our business intelligence tools. Our data warehouse is a PostgreSQL DB, integrating data from 10+ sources. We ETL data using Stitch data, custom Python scripts, and Pentaho Data Integration transformations. On top of the infrastructure, we visualize data using Tableau and Metabase. We integrate data products with our systems through APIs. Data Engineer at Liv Up responsibilities: • Design our data warehouse architecture. Understand business and operations data needs and plan our architecture to support every decision. • Integrate different sources of data. We gather data from internal sources (MongoDB) as well as external sources (through APIs and other methods). We expect you to orchestrate ETL processes to keep our data warehouse real-time updated. • Ensure service level to algorithms and dashboards that support business and operations. • Research and develop new processes and technologies to create a state-of-art data analytics stack.
Requisitos
We need you to: • Be motivated by hard challenges • Coding skill in Python (or other scripting languages) • A complete domain of SQL, data architecture and relational data models • Knowledge of ETL processes and technologies (Airflow, Luigi, Pentaho Data Integration, Talend)