El data engineer será responsable de diseñar, construir y mantener soluciones de procesamiento, almacenamiento y análisis de datos en plataformas basadas en aws.
este rol implica trabajar estrechamente con equipos multidisciplinarios para garantizar la calidad, escalabilidad y seguridad de las soluciones de datos, habilitando el análisis avanzado y la toma de decisiones basada en datos.
*responsabilidades principales*- diseñar y desarrollar pipelines de datos altamente eficientes utilizando servicios de aws como aws glue, lambda, step functions, y emr.- implementar y optimizar arquitecturas de almacenamiento de datos en aws, utilizando s3, redshift, y otros servicios relacionados.- construir y mantener procesos etl/elt para integrar fuentes de datos internas y externas.- diseñar soluciones escalables para el procesamiento de datos en tiempo real y batch utilizando servicios como kinesis o kafka.- garantizar la calidad, integridad y seguridad de los datos en cumplimiento con políticas organizacionales y regulaciones aplicables.- automatizar flujos de trabajo y procesos repetitivos mediante scripting en python, scala o sql.- implementar controles de monitoreo, alertas y logging para garantizar la operatividad y rendimiento de los pipelines de datos.- colaborar con científicos de datos, analistas y arquitectos para garantizar que las soluciones de datos cumplan con los requisitos del negocio.- documentar diseños, procesos y flujos de datos para su mantenimiento y escalabilidad a largo plazo.
*requisitos*educación y experiência*:- licenciatura en ciencias de la computación, ingeniería de sistemas, matemáticas, estadística o carreras relacionadas.- de 3 a 5 años de experiência trabajando como data engineer, preferentemente en entornos aws.
*conocimientos técnicos esenciales*:- experiência práctica con servicios de aws relacionados con datos:- aws glue- s3- redshift- lambda- emr- kinesis- fuerte conocimiento en modelado de datos, diseño de bases de datos relacionales y no relacionales (dynamodb, postgresql, etc.
).- habilidad en lenguajes de programación y scripting, especialmente python, sql y/o scala.- conocimiento en frameworks de procesamiento de datos como apache spark, hadoop o flink.- experiência con herramientas de orquestación como apache airflow, step functions, o similares.- familiaridad con prácticas de ci/cd en entornos de datos, incluyendo herramientas como jenkins, git, y aws codepipeline.
*conocimientos adicionales valorados*:- certificaciones awstipo de puesto: tiempo completosueldo: $40,000.00 - $50,000.00 al mesbeneficios:- apoyo para estudios- aumentos salariales- días de maternidad superiores a los de la ley- días de paternidad superiores a los de la ley- días por enfermedad- opción a contrato indefinido- vacaciones adicionales o permisos con goce de sueldo- vales de despensatipo de jornada:- turno de 8 horasexperiência:- aws: 2 años (obligatorio)- python: 4 años (obligatorio)lugar de trabajo: empleo presencial