*responsibilities*:
- diseñar, desarrollar y mantener procesos etl robustos y eficientes.
- trabajar con grandes volúmenes de datos utilizando servicios de aws o gcp, según la especialización.
- colaborar con equipos multifuncionales para integrar soluciones de datos.
- optimizar y gestionar el rendimiento de las bases de datos en aws o gcp.
- implementar y mantener pipelines de datos seguros y escalables.
- solucionar problemas y realizar análisis de fallos para garantizar la integridad de los datos.
*preferred qualifications*:
- experiência previa en etl y manejo de grandes volúmenes de datos.
- conocimientos en herramientas y servicios de aws (como s3, redshift, lambda) o gcp (como bigquery, dataflow, cloud storage), según la especialización.
- conocimientos básicos de arquitectura de datos y administración de bases de datos.
- competencia en lenguajes de programación como python, sql, y/o java.
- familiaridad con herramientas de orquestación de workflows como apache airflow.
*soft skills*:
- excelentes habilidades de comunicación y colaboración.
- capacidad para trabajar de manera independiente y en equipo.
- pensamiento analítico y resolución de problemas.
Tipo de puesto: tiempo completo
sueldo: $38,000.00 - $44,000.00 al mes
beneficios:
- apoyo para estudios
- aumentos salariales
- días de maternidad superiores a los de la ley
- días de paternidad superiores a los de la ley
- días por enfermedad
- opción a contrato indefinido
- vacaciones adicionales o permisos con goce de sueldo
- vales de despensa
tipo de jornada:
- turno de 8 horas
experiência:
- gcp: 2 años (obligatorio)
- aws: 2 años (obligatorio)
lugar de trabajo: remoto híbrido en 06600, ciudad de méxico