¿estás buscando desafíos y un lugar donde puedas encontrar un ambiente de trabajo cercano mientras aprendes constantemente?
somos una empresa con un propósito claro: "transformar la vida de las personas siendo el aliado tecnológico más confiable".
¡prepárate y sé parte de esta aventura!
¿qué encontrarás?
* retos técnicos y personales
* un equipo conectado con el crecimiento.
* un equipo donde tu bienestar físico y mental es importante.
* una cultura de mejora continua, fresca y colaborativa donde puedes encontrar una oportunidad y personas dispuestas a apoyarte.
* nuestro programa kaizenhub donde puedes crecer y desarrollar tus talentos donde será todo un reto y un juego, acompañado de feedback constante por tus líderes, mentorías y coaching por parte de sofka u ¡saca tu mejor potencial!
* programas dirigidos a potencializar tus competencias, viviendo diariamente la mejora continua y promoviendo tu bienestar físico y emocional. Se llaman happy kaizen y wesofka, en donde contarás con diferentes beneficios que irás adquiriendo en el tiempo cómo pólizas de salud para ti, tu familia y mascotas, ahorro con propósito, gimnasio y más.
¿qué buscamos?
arquitecto de datos semi senior con un sólido conocimiento en arquitecturas big data y experiencia en la integración de databricks con aws. Con habilidades avanzadas en la orquestación de pipelines de datos, así como en el procesamiento de grandes volúmenes de datos a través de arquitecturas batch y lambda. Este rol es clave para asegurar que nuestras soluciones de datos sean robustas, eficientes y estén alineadas con las mejores prácticas del sector.
responsabilidades:
* diseñar e implementar arquitecturas de datos escalables y eficientes en entornos de producción.
* integrar databricks con aws para la orquestación y gestión de pipelines de datos.
* optimizar queries y gestionar bases de datos distribuidas en entornos sql y nosql.
* implementar sistemas de almacenamiento distribuido (s3, redshift, delta lake) y garantizar su rendimiento.
* desarrollar soluciones de procesamiento en tiempo real utilizando apache kafka y flink.
* automatizar procesos etl en databricks y gestionar flujos de trabajo utilizando servicios de aws como glue, lambda y step functions.
* colaborar con otros equipos técnicos para garantizar la calidad y eficiencia de los datos.
conocimientos técnicos requeridos:
* arquitectura big data y integración de databricks con aws.
* gestión de bases de datos sql y nosql en entornos de producción.
* procesamiento distribuido y almacenamiento (s3, redshift, delta lake).
* manejo de apache kafka y flink para soluciones de streaming.
* automatización de procesos etl en databricks.
¡presentate!
condiciones
* contrato a término indefinido, nos encantan las relaciones a largo plazo por lo que queremos que formes parte de esta familia por mucho tiempo.
* puedes estar ubicado en cualquier lugar del mundo, ¡nos gusta que trabajes de forma remota! Pero si te encuentras en medellín y bogotá queremos que dos días al mes trabajes desde casa sofka, buscando generar sinergías y fortalecer lazos con tu equipo de trabajo, además que compartas un rico almuerzo... ¿y por qué no? Una bebida para refrescarte. Adicional si quieres ir mas días a la oficina tendrás tu almuerzo reservado para ese día.
* ¿buscas crecimiento profesional? Puedes diseñar tu plan carrera acorde a lo que buscas y te quieres proyectar.