Ir al contenido

Data Engineer - AWS Specialist

--BIZIT GLOBAL, Remoto--

En Bizit Global, somos una empresa humana, innovadora y apasionada por la tecnología. Buscamos sumar un/a Data Engineer especializado/a en AWS a nuestro equipo multidisciplinario, en el que combinamos tecnología, comunicación y análisis de datos para crear soluciones de alto impacto.

Nos destacamos por nuestra colaboración cercana, el trabajo en equipo y el compromiso con el crecimiento tanto profesional como personal.

¿Por qué este rol es clave?

Impulso Estratégico con Datos

Serás parte del equipo responsable de estructurar, transformar y analizar grandes volúmenes de datos para mejorar nuestros productos y decisiones de negocio.

Visión Full Stack de Datos

Participarás en todas las etapas del ciclo de vida del dato, desde la integración y modelado, hasta el diseño de dashboards y reportes, aplicando arquitectura moderna y herramientas de vanguardia.

Colaboración Activa

Trabajarás junto a áreas clave como desarrollo, BI y producto para crear soluciones escalables, confiables y alineadas con los objetivos estratégicos de la empresa.

Nuestra Filosofía

En Bizit Global, no solo creamos software y soluciones tecnológicas; construimos relaciones sólidas y duraderas. Estamos orgullosos de ser un socio estratégico de TI a largo plazo para nuestros clientes, comprometidos con la excelencia, la innovación y la transparencia.

Nuestros valores

Experiencia: Un equipo de profesionales con amplia experiencia en consultoría TI, capaces de traer cambios positivos a los negocios de nuestros clientes.

Calidad: Comprometidos con altos estándares y una metodología que incluye controles y seguimientos para asegurar la calidad en cada proyecto.

Innovación: Explorar constantemente nuevas tecnologías para ofrecer soluciones de vanguardia a las empresas que confían en nosotros.

Esfuerzo y Transparencia Orientados a conseguir la máxima satisfacción de nuestros clientes, creciendo y expandiéndonos juntos.



Autonomía
Evolución personal
Proactividad
Trabajo administrativo
Conocimientos técnicos

Responsabilidades

  • Diseño de arquitectura de datos: Crear soluciones de Data Lakes y Data Warehouses en AWS utilizando servicios como S3, Lake Formation, Redshift, entre otros.
  • Modelado de datos: Diseñar esquemas óptimos (star schema, snowflake schema) y organizar zonas de datos (raw, curated, consumption).
  • Construcción de pipelines ETL/ELT: Desarrollar flujos de trabajo de extracción, transformación y carga (ETL) con herramientas como AWS Glue, AWS Data Pipeline, y soluciones de código abierto como Airflow en EC2/EKS.
  • Procesamiento en tiempo real: Configurar la ingestión de datos en tiempo real con Kinesis (Streams, Firehose, MSK) y procesar los datos usando Lambda o EMR con Apache Spark.
  • Optimización y escalabilidad: Optimizar instancias de Redshift, Glue y EMR para maximizar el rendimiento y minimizar costos. Implementar particionamiento, compresión y usar formatos columnar como Parquet y ORC.
  • Infraestructura como código: Desplegar recursos usando CloudFormation, Terraform o CDK y asegurar la integración de los pipelines en procesos de CI/CD (usando CodePipeline, CodeBuild, GitHub Actions).
  • Seguridad y calidad de los datos: Implementar políticas de acceso, cifrado, pruebas de integración y asegurar la monitorización con CloudWatch y AWS X-Ray.
  • Colaboración y documentación: Trabajar estrechamente con analistas de datos, científicos de datos y otros stakeholders para garantizar soluciones alineadas a las necesidades del negocio. 

Requisitos

  • Educación: Título universitario en Ingeniería de Sistemas, Informática, Ciencias de la Computación o afines.
  • Al menos 3 años de experiencia como Data Engineer trabajando con AWS.
  • Experiencia con soluciones de Data Lake y Data Warehouse.
  • Conocimiento en diseño de ETL/ELT y construcción de pipelines en AWS.
  • Experiencia en procesamiento de datos en tiempo real y por lotes.
  • Manejo de herramientas como AWS Glue, Kinesis, Redshift, Lambda, EMR, Step Functions.

 Habilidades técnicas:

  • Programación en Python y SQL.
  • Experiencia con herramientas de Infraestructura como código: Terraform, CloudFormation, CDK.
  • Conocimientos de DevOps y CI/CD (Jenkins, Git, Docker).
  • Conocimiento de bases de datos NoSQL (DynamoDB) y relacionales (RDS, Aurora).

Deseable

  • Certificación AWS 
  • Familiaridad con herramientas de DataOps.
  • Conocimiento en el uso de Airflow y otros sistemas de orquestación.

¿Cuáles son las ventajas del trabajo?


Trabajar con nosotros significa ser parte de un entorno innovador, con proyectos de alto impacto y acceso a tecnología de vanguardia. Valoramos la creatividad, el aprendizaje continuo y la colaboración con equipos multidisciplinarios. Además, ofrecemos flexibilidad laboral y oportunidades de desarrollo para que potencies tu carrera en el mundo del marketing digital y la tecnología.

Qué ofrecemos


  • Ambiente de trabajo dinámico y colaborativo.
  • Oportunidades de crecimiento y desarrollo profesional.
  • Capacitación continua.
  • Beneficios exclusivos para los biziers (días off, incentivos, eventos corporativos, entre otros).
  • Flexibilidad horaria.
  • Participación en iniciativas de bienestar y salud laboral.
  • Espacios de trabajo modernos y equipados. 

Comida y bebida

Ofrecemos almuerzo los días que quieras asistir a la oficina.