* 3 años de experiência desarrollando data pipelines
- experiência desarrollando flujos etl
- conocimiento avanzado en hadoop& spark
- conocimiento en librerías python: pyspark
- desarrollo de flujos de integración en dataproc
- experiência en los servicios de gcp: bigquery, cloud storage, data proc, cloud iam, data studio, data prep y data flow
deseable:
- conocimientos en implementación de modelos de machine learning *conocimientos en gcp, aws: emr & dataproc
tipo de puesto: tiempo completo
salario: $40,000.00 - $50,000.00 al mes
horario:
- turno de 8 horas
prestaciones:
- aumentos salariales
- seguro de gastos médicos
- seguro de gastos médicos mayores
- seguro dental
- seguro de vida
- trabajar desde casa
tipos de compensaciones:
- bono anual
experiência:
- python: 2 años (deseable)
- pyspark: 2 años (deseable)
- gcp: 2 años (deseable)