*descripción*:
*responsabilidades principales*
*implementación & desarrollo*
- diseñar y desarrollar pipelines etl/elt utilizando aws glue.
- implementar flujos de migración de datos mediante aws dms.
- configurar servicios de catalogación como aws lake formation y datazone.
- monitorear y optimizar procesos de datos para garantizar eficiencia y escalabilidad.
- implementar pruebas unitarias e integrales para garantizar la calidad de los datos.
*operaciones & mantenimiento*
- gestionar ambientes de datos en aws.
- implementar y supervisar controles de calidad de datos.
- monitorear y mantener jobs y pipelines en producción.
- resolver incidentes técnicos de manera proactiva.
*requisitos*:
*competencias clave*
*técnicas*
- manejo de servicios de datos en aws.
- desarrollo de procesos etl/elt.
- garantía y control de calidad de datos.
- implementación de sistemas de monitoreo y alertas.
*metodológicas*
- metodologías ágiles (agile y scrum).
- control de versiones de código mediante git.
- automatización de pruebas y procesos.
- documentación técnica estructurada.
*certificaciones requeridas*
- aws solutions architect associate.
- aws data analytics specialty o data engineer.
*expertise técnico*
- plataformas y herramientas aws
- dms: implementación y configuración de réplicas de datos.
- glue: desarrollo y optimización de jobs etl.
- lake formation: configuración de permisos y etiquetas de gobernanza.
- datazone: implementación de catálogos y activos de datos.
- redshift: optimización de consultas y diseño dimensional.
- s3: gestión de buckets y políticas de almacenamiento.
- kms: implementación de políticas de encripción.
- macie: configuración de escaneos y alertas de seguridad.
- cloudwatch: creación de dashboards y configuraciones de alarmas.
- cloudtrail: configuración de logs y auditorías.
- iam: implementación de roles y políticas de acceso.
- aws organizations: gestión de cuentas y políticas multi-cuenta.
*lenguajes y herramientas de desarrollo*
- python: desarrollo intermedio de scripts y aplicaciones.
- sql: optimización y desarrollo avanzado de queries.
- pyspark: transformaciones y optimizaciones etl.
- terraform/cloudformation: implementación de infraestructura como código (iac).
- ci/cd: implementación y mantenimiento de pipelines.
- git: control de versiones y estrategias de branching.
- shell scripting: automatización avanzada de tareas.
*orquestación y automatización*
- apache airflow o aws step functions: desarrollo de flujos de trabajo (dags o templates).
*habilidades requeridas*
- capacidad para trabajar de manera autónoma y colaborativa.
- orientación al detalle y compromiso con la calidad de los datos.
- habilidad para identificar y resolver problemas técnicos de manera eficaz.
- excelentes habilidades de comunicación y documentación.
- adaptabilidad en entornos dinámicos y ágiles.
*perks*
- horario: lunes a viernes 7am a 4pm / 8am a 5pm (trabajo híbrido en monterrey).
- *salario*: 65,000 mxn