Subdir informes
country: mexico
*what you will be doing*
*requisitos*:
- experiência con herramientas de big data: hadoop, spark, kafka, etc.
- experiência con bases de datos relacionales sql y nosql, incluyendo cassandra.
- experiência con servicios en la nube de aws
- experiência con lenguajes orientados a objetos: python, java, c++, scala, etc.
- experiência con lenguajes analíticos sas, r
- conocimiento avanzado en sql y experiência en el trabajo con bases de datos relacionales, creación de consultas (sql), así como familiaridad en el trabajo con una variedad de bases de datos.
- experiência en la creación y optimización de pipelines, arquitecturas y conjuntos de datos de "big data".
- fuertes habilidades analíticas relacionadas con el trabajo con conjuntos de datos estructurados y no estructurados.
- crear procesos que admitan la transformación de datos, las estructuras de datos, los metadatos, la dependencia y la gestión de la carga de trabajo.
- proyectos exitosos de manipulación, procesamiento y extracción de valor de grandes conjuntos de datos.
- sólidas habilidades lidereando y gestionando proyectos.
- experiência apoyando y trabajando con equipos multifuncionales en un entorno dinámico.
*funciones*:
- crear y mantener una arquitectura de canalización de datos óptima,
- reunir conjuntos de datos grandes y complejos que cumplan con los requisitos comerciales funcionales y no funcionales.
- identificar, diseñar e implementar mejoras de procesos internos: automatización de procesos manuales, optimización de entrega de datos, rediseño de infraestructura para mayor escalabilidad, etc.
- crear la infraestructura necesaria para una extracción, transformación y carga óptimas de datos de una amplia variedad de fuentes de datos utilizando las tecnologías de 'big data' de sql y aws.
- crear herramientas de análisis que utilicen la canalización de datos para proporcionar información procesable sobre el negocio, la eficiencia operativa y métricas clave de riesgos estructurales y alm.
- trabajar con las partes interesadas, incluidos los equipos ejecutivos, de productos, de datos y de diseño, para ayudar con los problemas técnicos relacionados con los datos y respaldar sus necesidades de infraestructura de datos.
- procurar el data quality y consistencia de los datos en todo el pipeline de los datos.
- crear herramientas de datos para los miembros del equipo de negocio, de análisis y científicos de datos que los ayuden a construir y optimizar los análisis y las métricas de riesgo y gestión para la mejor toma de decisiones.
- trabajar con expertos en datos y análisis para luchar por una mayor funcionalidad en nuestros sistemas de datos.