Estamos en búsqueda de un dataops middle level con experiencia técnica sólida en el diseño, implementación y mantenimiento de soluciones de datos en aws.
el candidato ideal tendrá un enfoque en la automatización, calidad de datos y optimización de procesos, además de interés en colaborar dentro de un equipo dinámico y en constante crecimiento.
responsabilidades principales implementación & desarrollo diseñar y desarrollar pipelines etl/elt utilizando aws glue.
implementar flujos de migración de datos mediante aws dms.
configurar servicios de catalogación como aws lake formation y datazone.
monitorear y optimizar procesos de datos para garantizar eficiencia y escalabilidad.
implementar pruebas unitarias e integrales para garantizar la calidad de los datos.
operaciones & mantenimiento gestionar ambientes de datos en aws.
implementar y supervisar controles de calidad de datos.
monitorear y mantener jobs y pipelines en producción.
resolver incidentes técnicos de manera proactiva.
requisitos mínimos competencias clave técnicas manejo de servicios de datos en aws.
desarrollo de procesos etl/elt.
garantía y control de calidad de datos.
implementación de sistemas de monitoreo y alertas.
metodológicas metodologías ágiles (agile y scrum).
control de versiones de código mediante git.
automatización de pruebas y procesos.
documentación técnica estructurada.
certificaciones requeridas aws solutions architect associate.
aws data analytics specialty o data engineer.
expertise técnico plataformas y herramientas aws dms: implementación y configuración de réplicas de datos.
glue: desarrollo y optimización de jobs etl.
lake formation: configuración de permisos y etiquetas de gobernanza.
datazone: implementación de catálogos y activos de datos.
redshift: optimización de consultas y diseño dimensional.
s3: gestión de buckets y políticas de almacenamiento.
kms: implementación de políticas de encripción.
macie: configuración de escaneos y alertas de seguridad.
cloudwatch: creación de dashboards y configuraciones de alarmas.
cloudtrail: configuración de logs y auditorías.
iam: implementación de roles y políticas de acceso.
aws organizations: gestión de cuentas y políticas multi-cuenta.
lenguajes y herramientas de desarrollo python: desarrollo intermedio de scripts y aplicaciones.
sql: optimización y desarrollo avanzado de queries.
pyspark: transformaciones y optimizaciones etl.
terraform/cloudformation: implementación de infraestructura como código (iac).
ci/cd: implementación y mantenimiento de pipelines.
git: control de versiones y estrategias de branching.
shell scripting: automatización avanzada de tareas.
orquestación y automatización apache airflow o aws step functions: desarrollo de flujos de trabajo (dags o templates).
habilidades requeridas capacidad para trabajar de manera autónoma y colaborativa.
orientación al detalle y compromiso con la calidad de los datos.
habilidad para identificar y resolver problemas técnicos de manera eficaz.
excelentes habilidades de comunicación y documentación.
adaptabilidad en entornos dinámicos y ágiles.
perks horario: lunes a viernes 7am a 4pm / 8am a 5pm (trabajo híbrido en monterrey).
salario: 65,000 mxn