Data Engineer Ssr./sr. - Remoto - 1494 (Buenos Aires)

Aliantec Ver todas las vacantes

  • Buenos Aires
  • Permanente
  • Tiempo completo
  • Hace 14 horas
**¿Qué hace la compañía?****Es una reconocida compañía de EE.UU que brinda soluciones de protección, ahorro, jubilación y beneficios en el mundo. **Lideran el mercado de seguros y están presentes en más de 40 países de Asia, Latam y EE.UU con más de 49.000 colaboradores que le brindan servicio a más de 90 millones de clientes.**¿Qué necesitás para ser parte del equipo?**A nível personal:- **Excelente trato interpersonal.**:- **Proactividad.**:- **Gran capacidad de análisis.**:- **Autonomía y compromiso.**:- **Capacidad para trabajar en equipo.**:- **Excelentes habilidades de comunicación**: Capacidad demostrada para explicar contenido técnico complejo a audiencias tanto técnicas como no técnicas.
- **Habilidades analíticas y de pensamiento crítico.**A nível técnico:- **Más de 5 años de experiência en desarrollo de ETL y data warehousing** | Excluyente.
- **Más de 3 años de experiência en el diseño de ETL y lagos de datos en la nube o plataformas basadas en big data** | Excluyente.
- Experiência demostrada en la **implementación y despliegue de centros de datos escalables y de alto rendimiento a escala global.**:- Experiência demostrada en **tecnologías de bases de datos de última generación y servicios en la nube** como Azure, GCP, Data Bricks o SnowFlake; experiência profunda en tecnologías como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs [en Azure use SPARK] | Excluyente.
- Experiência práctica en **implementación de almacenes de datos analíticos** en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.
- Sólidos conocimientos analíticos relacionados con el **trabajo con conjuntos de datos no estructurados** | Excluyente.
- Sólidos conocimientos de **SQL y habilidades de análisis de datos** para la detección de anomalías y el aseguramiento de la calidad de los datos | Excluyente.
- **Ganas de aprender nuevas tecnologías** sobre la marcha y llevarlas a producción.
- Experiência demostrada en **gestión de la configuración, automatización DevOps.**:- Experiência de trabajo en **programas empresariales complejos a gran escala, multiequipo y en metodologías de desarrollo ágil.**:- Experiência en **implementación de soluciones, pruebas de rendimiento y ajuste**; ADLS, base de datos Synapse SQL o gestión de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente.**¿Qué vas a hacer?**
- **Recopilar, almacenar, procesar y analizar grandes conjuntos de datos** para construir e implementar procesos de extracción, transferencia y carga (ETL).
- **Crear marcos y herramientas** para desarrolladores, diseñar materiales de formación, impartir formación para desarrolladores. Evangelizar nuevas ideas, estándares, mejores prácticas y soluciones con la comunidad de desarrolladores y técnicos.
- **Desarrollar código de calidad** con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.
- **Ganas de aprender** nuevas tecnologías y estar dispuesto a trabajar en nuevas tecnologías de vanguardia en la nube.
- **Ingerir grandes volúmenes de datos de diversas plataformas** para las necesidades y escribir código ETL de alto rendimiento, fiable y mantenible.
- **Interactuar con analistas de negocio y analistas funcionales** para obtener los requisitos e implementar las soluciones ETL.
- **Proporcionar apoyo técnico** a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnológicas, diseño de soluciones, seguridad, depuración, creación de perfiles, ajuste del rendimiento, etc.**¿Cuál es el desafío de la posición?**En LATAM Data Hub (LDH), la misión es **construir la próxima generación de data lake house para la compañía** y ayudar a desplegarlo en varios países de LATAM.Han desarrollado una **plataforma de clase mundial**, nativa de la nube, para permitir la presentación de informes, análisis, canalización de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologías propias y de código abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rápidamente y a bajo coste.La plataforma se ejecuta en un contexto en la nube elástico y totalmente en contenedores, y está diseñada para escalar y dar servicio a millones de usuarios.**¿Con quién trabajarás?**Formarás parte de un **equipo regional**, participando de proyectos en Brasil, Chile y México.**¿Cuándo y dónde trabajarás?**Vas a trabajar en un esquema de **9 a 18 hs. **Si sos de **Buenos Aires será híbrido** con 4 días de home office y 1 día on site en oficinas de Microcentro. En el caso de vivir en **otra provincia el esquema es 100% remoto.****¿Qué ofrecen?**
- **Relación de dependencia d

Kit Empleo

Empleos similares

  • Data engineer con Databricks

    NTT Data

    • Buenos Aires
    💙 Con +190.000 personas en 50 países, ayudamos a alcanzar el éxito de nuestros clientes e impactamos positivamente en la sociedad mediante una innovación responsable. Desde consul…
    • Hace 2 meses
  • Data Engineer Lead

    Nosotros

    • Buenos Aires
    En ÜMA no hay dos días iguales y eso, ¡nos encanta! Trabajamos con pasión y dedicación para ser la plataforma líder en LATAM de Salud y bienestar.Buscamos un Data Engineer Lead, r…
    • Hace 14 horas