Perfil arquitecto etl licenciatura en ingeniería en sistemas, ciencias de la computación, matemáticas o carreras afines.
3 a 5 años de experiencia en roles de ingeniería o arquitectura de datos.
experiencia comprobada en al menos 2 proyectos de arquitectura de datos implementados de principio a fin en empresas medianas o grandes .
experiencia en proyectos de: data management: definición de políticas de gobierno de datos y calidad.
data warehouse (data estehouse): diseño e implementación de soluciones de almacenamiento de datos.
business intelligence (bi): implementación de soluciones bi para la toma de decisiones.
experiencia en entornos on-premise, incluyendo: administración de bases de datos relacionales y nosql.
experiencia trabajando con múltiples plataformas en la nube, incluyendo: google cloud platform (gcp): bigquery, dataflow, dataproc, cloud storage.
aws: redshift, s3, glue, emr.
(opcional) azure: synapse, data lake, data factory.
(opcional) diseño e implementación de pipelines de datos (etl) y modelado de datos.
participación en proyectos de modernización de infraestructura de datos y optimización de costos.
conocimientos específicos en bases de datos: • bases de datos relacionales: • ejemplos: oracle, sql server, postgresql, mysql, teradata, db2.
• experiencia en diseño de esquemas, optimización de consultas y gestión del rendimiento.
• implementación de soluciones para grandes volúmenes de datos no estructurados.
• bases de datos en la nube: • ejemplos: google bigquery, amazon redshift, azure sql database.
• modelado de datos: • dimensional relacional y orientado a objetos.
conocimiento en herramientas bi: • herramientas bi clave: • power bi: desarrollo de dashboards interactivos para monitoreo de kpis.
• tableau: creación de reportes visuales para análisis avanzado.
• looker: modelado de datos para análisis exploratorio en gcp.
• qlik sense: integración de múltiples fuentes de datos para visualización en tiempo real.
• responsabilidades en bi: • implementación de soluciones bi para análisis de negocio.
• integración de herramientas bi con data warehouses.
• optimización de visualizaciones para toma de decisiones ágil.
calidad e integración de datos: • procesos etl/elt: diseño y supervisión de procesos eficientes para garantizar la integridad de los datos.
• estrategias de calidad de datos: • validación y limpieza de datos para asegurar su precisión.
• implementación de controles de calidad automatizados.
• herramientas de integración y calidad de datos: • apache airflow: orquestación de flujos de trabajo de datos.
• talend y dbt: transformación y calidad de datos en pipelines modernos.
• prácticas de integración de datos: • consolidación de datos desde múltiples fuentes internas y externas.
• integración de datos en tiempo real para análisis predictivo.
habilidades técnicas esenciales: • lenguajes de programación: sql (avanzado), python o scala.
• procesamiento big data: apache spark, kafka (deseable).
• gobernanza de datos: experiencia con herramientas de data catalog y control de calidad.
• conocimiento en arquitectura serverless y microservicios para flujos de datos.
certificaciones requeridas (indispensable tener minimo 1): • google professional data engineer (gcp).
• aws certified data analytics – specialty (aws).
• microsoft certified: azure data engineer associate (azure).
• certified data management professional (cdmp) por dama international (mínimo nivel associate).
• certificación en data warehouse architecture (data estehouse o equivalente).
habilidades blandas: • liderazgo y gestión de proyectos multidisciplinarios.
• excelentes habilidades de comunicación para interactuar con equipos técnicos y de negocio.
• enfoque estratégico orientado a resultados.
• capacidad para trabajar de forma independiente en entornos dinámicos.
• mentalidad analítica y resolutiva para enfrentar desafíos técnicos.
deseables (no excluyentes): • conocimiento de prácticas devops para flujos de datos.
• experiencia en proyectos de analítica avanzada o machine learning en múltiples nubes.
• especialización en seguridad y cumplimiento para entornos híbridos y multinube.
responsabilidades: • diseñar e implementar arquitecturas de datos escalables en entornos on-premise, nube (gcp, aws, azure) o híbridos, alineadas con las necesidades estratégicas de la organización.
• liderar proyectos de datos relacionados con: • data management: definición de políticas de gobierno de datos, calidad y seguridad.
• data warehouse: implementación y optimización de almacenes de datos, tanto on-premise como en la nube.
• business intelligence (bi): integración de soluciones bi para el análisis y visualización de datos.
• implementar procesos de calidad e integración de datos, asegurando precisión, consistencia y accesibilidad.
• diseñar y supervisar pipelines de datos (etl/elt) eficientes, integrando múltiples fuentes de datos en diversas plataformas.
• optimizar sistemas de almacenamiento y procesamiento de datos para maximizar el rendimiento y reducir costos.
• desarrollar estrategias de migración de datos desde entornos on-premise a plataformas en la nube.
• colaborar con equipos de ingeniería, analítica y negocio para transformar requerimientos en soluciones de datos efectivas.
• asegurar el cumplimiento de normativas y mejores prácticas en el manejo de datos (gdpr, ccpa, entre otros).
*nota: el candidato ideal deberá haber liderado al menos dos proyectos completos de arquitectura de datos, incluyendo data management, business intelligence (bi) y data warehouse (data estehouse).
además, se requiere un sólido conocimiento en bases de datos relacionales y nosql, experiencia en herramientas bi y habilidades para garantizar la calidad e integración eficiente de datos.
*