Data Engineer

Agencia de MKT Arana

Argentina, Buenos Aires. Publicado hace 1 meses

Buscamos un/a Data Engineer apasionado/a y con experiencia, que se una a nuestro equipo para diseñar, construir y mantener la infraestructura de datos que impulsa nuestra toma de decisiones. Este rol es crucial para garantizar que nuestros datos sean confiables, accesibles y estén listos para ser utilizados por analistas, científicos de datos y otros equipos. Como Data Engineer, serás responsable de la arquitectura, el desarrollo y la optimización de pipelines de datos a gran escala. Trabajarás con una variedad de tecnologías y herramientas para mover, transformar y almacenar datos de diversas fuentes, asegurando su calidad y consistencia. Te integrarás a un equipo dinámico, colaborando estrechamente con otros ingenieros, analistas de negocio y partes interesadas para entender sus necesidades y ofrecer soluciones robustas de datos. Si tienes al menos tres años de experiencia, una mentalidad de resolución de problemas y te encanta trabajar con grandes volúmenes de datos, te invitamos a ser parte de nuestro crecimiento y a contribuir directamente al éxito de nuestra empresa. Roles y Funciones del Cargo: -Diseño y Desarrollo de Pipelines: Diseñar, construir y mantener pipelines de datos ETL/ELT eficientes y escalables para la ingestión y transformación de datos desde múltiples fuentes. -Gestión de la Infraestructura de Datos: Administrar y optimizar bases de datos (SQL y NoSQL), data warehouses y data lakes. -Optimización del Rendimiento: Monitorear y mejorar el rendimiento de los procesos de datos, identificando cuellos de botella y aplicando soluciones de optimización. -Garantía de Calidad: Implementar procesos de validación de datos para asegurar su exactitud y consistencia. -Automatización: Automatizar tareas rutinarias de gestión de datos, despliegue de pipelines y monitoreo. -Colaboración: Trabajar en estrecha colaboración con científicos de datos, analistas de negocio y otros equipos para entender sus necesidades y ofrecerles los datos que requieren. -Seguridad y Gobernanza: Asegurar la seguridad, privacidad y cumplimiento de las políticas de gobernanza de datos. -Documentación: Crear y mantener la documentación técnica de la arquitectura de datos, pipelines y procesos. Competencias Técnicas Requeridas (Al menos 3 años de experiencia): Lenguajes de Programación: Dominio de Python (uso de librerías como Pandas, NumPy) y SQL avanzado. Bases de Datos: Experiencia en bases de datos relacionales (ej. PostgreSQL, MySQL) y NoSQL (ej. MongoDB, Cassandra). Data Warehousing: Conocimiento sólido en el diseño e implementación de data warehouses (ej. Snowflake, Redshift, BigQuery). Computación en la Nube: Experiencia con al menos una de las principales plataformas cloud (AWS, Azure o GCP). Herramientas de ETL/ELT: Experiencia con herramientas de orquestación (ej. Apache Airflow, dbt) y frameworks de procesamiento distribuido (ej. Apache Spark). Procesamiento de Big Data: Experiencia con frameworks como Hadoop o Spark para el procesamiento de grandes volúmenes de datos. APIs y Web Scraping: Capacidad para extraer datos de APIs y fuentes web. Control de Versiones: Manejo de sistemas de control de versiones, preferiblemente Git. Contenedores: Experiencia con Docker y orquestación con Kubernetes. Diseño de Arquitecturas de Datos: Conocimiento en el diseño de arquitecturas de datos (ej. Arquitectura Lambda, Arquitectura Kappa). Competencias Blandas (Soft Skills): Pensamiento Analítico: Capacidad para analizar problemas complejos y proponer soluciones lógicas. Resolución de Problemas: Habilidad para identificar, diagnosticar y solucionar eficientemente los problemas de datos. Comunicación Efectiva: Capacidad para comunicar ideas técnicas complejas de manera clara a equipos no técnicos. Trabajo en Equipo: Habilidad para colaborar y contribuir positivamente en un equipo multidisciplinario. Adaptabilidad y Aprendizaje Continuo: Deseo de aprender nuevas tecnologías y adaptarse a un entorno en constante cambio. Certificaciones Deseables: AWS Certified Data Analytics - Specialty o Google Cloud Professional Data Engineer o Microsoft Certified: Azure Data Engineer Associate. dbt Analytics Engineering Certification. Snowflake SnowPro Core Certification. Beneficios del Empleo: Salario competitivo y plan de bonificación basado en el rendimiento. Horario flexible y posibilidad de trabajo remoto. Seguro de salud y bienestar integral. Presupuesto para capacitación y certificaciones profesionales. Ambiente de trabajo colaborativo e innovador. Oportunidades de crecimiento profesional y desarrollo de carrera dentro de la empresa. Acceso a las últimas herramientas y tecnologías en el campo de la ingeniería de datos.

Tipo de contrato:

Indefinido

Jornada:

Tiempo completo

Modalidad:

Híbrido

. Copyright©. Savuuru es propiedad de Telecapp Inc.