*descripción del puesto*
desarrollar productos de complejidad media-avanzada, con calidad y de acuerdo a la fecha y tiempo asignado.
*habilidades*
- pensamiento analítico i
actitud positiva ii
comunicación efectiva ii
enfoque al cliente i
pensamiento innovador ii
trabajo en equipo ii
administración del cambio i
gestión del conocimiento ii
compromiso ii
orientación a resultados ii- novato
intermedio
intermedio
intermedio
novato
intermedio
intermedio
novato
novato
intermedio
intermedio*calificaciones*
trabajar en conjunto del equipo de enterprise data management (edm) con el objetivo de apoyar en la gestión de los datos maestros, integridad y validez, además de desarrollar y ejecutar procesos para la integración de los datos de diferentes fuentes de información.
*habilidades / conocimientos*
- data quality
- mdm
- 3+ años de experiência en metodologías de calidad de datos y reglas de consolidación
- 2+ años de experiência utilizando herramientas de big data, data lake
- 2+ años experiência utilizando herramientas de gestión de datos maestros tales como: informatica, tibco ebx(deseable), stibo step, riversand o similar
- 2+ años de experiência en herramientas de orquestación de flujos de trabajo: airflow y automic
- habilidades avanzadas de sql, pl/sql (sentencias)
- amplio conocimiento de soluciones end to end para integración de data
- experiência trabajando en proyectos que siguen las metodologías agiles
conocimientos deseables:
- python intermedio
- 1+ año de experiência utilizando herramientas de gobierno de datos, tales como: collibra o similar (deseable)
- comunicación oral y escrita fluida en español y inglés (deseable)
- 2+ años de experiência en herramientas de visualización de datos tales como: power bi, tableau o similar (deseable)
*responsabilidades*
- apoya la creación y mantenimiento de datos maestros dentro de los sistemas
- identificación de reglas de negocio, así como proporcionar una solución técnica para implementarlas en herramientas de big data, data lake
- análisis e interpretación de datos de datos masivos bigdata.
- asegura la integridad de los datos maestros en los sistemas clave, así como el mantenimiento de los procesos de integración de datos.
- establecer reglas de homologación e integración de fuentes, golden record y matching de la información.
- realizar análisis de datos para la integración de datos de diferentes fuentes hacia una nueva fuente (recolección, almacenamiento, procesamiento y uso) y proporciona soluciones de integridad de datos
- documentar especificaciones de requerimientos de datos maestros (linaje de datos y transformaciones realizadas)
- participar en los procesos de pruebas de aceptación del usuario (uat) y de garantía de calidad requeridos por las empresas
- asiste a los business data owners, en el manejo de datos, la gobernanza y la calidad de los datos maestros para asegurar que la integridad sea consistente y cumpla con las reglas y requisitos establecidos
*acerca de nosotros*
creemos en el potencial innovador de latinoamérica, vivimos con pasión la transformación y la convergencia digital, por eso, queremos ayudarte a maximizar tus capacidades empresariales. Es hoy cuando debemos unificar los silos, converger en un propósito común y conectar las tecnologías para transformarlas en valor.
Axity, conexiones que transforman.