Data Engineer - AWS Specialist
--BIZIT GLOBAL, Remoto--
En Bizit Global, somos una empresa humana, innovadora y apasionada por la tecnología. Buscamos sumar un/a Data Engineer especializado/a en AWS a nuestro equipo multidisciplinario, en el que combinamos tecnología, comunicación y análisis de datos para crear soluciones de alto impacto.
Nos destacamos por nuestra colaboración cercana, el trabajo en equipo y el compromiso con el crecimiento tanto profesional como personal.
¿Por qué este rol es clave?
Impulso Estratégico con Datos
Serás parte del equipo responsable de estructurar, transformar y analizar grandes volúmenes de datos para mejorar nuestros productos y decisiones de negocio.
Visión Full Stack de Datos
Participarás en todas las etapas del ciclo de vida del dato, desde la integración y modelado, hasta el diseño de dashboards y reportes, aplicando arquitectura moderna y herramientas de vanguardia.
Colaboración Activa
Trabajarás junto a áreas clave como desarrollo, BI y producto para crear soluciones escalables, confiables y alineadas con los objetivos estratégicos de la empresa.
Nuestra Filosofía
En Bizit Global, no solo creamos software y soluciones tecnológicas; construimos relaciones sólidas y duraderas. Estamos orgullosos de ser un socio estratégico de TI a largo plazo para nuestros clientes, comprometidos con la excelencia, la innovación y la transparencia.
Nuestros valores
Experiencia: Un equipo de profesionales con amplia experiencia en consultoría TI, capaces de traer cambios positivos a los negocios de nuestros clientes.
Calidad: Comprometidos con altos estándares y una metodología que incluye controles y seguimientos para asegurar la calidad en cada proyecto.
Innovación: Explorar constantemente nuevas tecnologías para ofrecer soluciones de vanguardia a las empresas que confían en nosotros.
Esfuerzo y Transparencia Orientados a conseguir la máxima satisfacción de nuestros clientes, creciendo y expandiéndonos juntos.
Responsabilidades
- Diseño de arquitectura de datos: Crear soluciones de Data Lakes y Data Warehouses en AWS utilizando servicios como S3, Lake Formation, Redshift, entre otros.
- Modelado de datos: Diseñar esquemas óptimos (star schema, snowflake schema) y organizar zonas de datos (raw, curated, consumption).
- Construcción de pipelines ETL/ELT: Desarrollar flujos de trabajo de extracción, transformación y carga (ETL) con herramientas como AWS Glue, AWS Data Pipeline, y soluciones de código abierto como Airflow en EC2/EKS.
- Procesamiento en tiempo real: Configurar la ingestión de datos en tiempo real con Kinesis (Streams, Firehose, MSK) y procesar los datos usando Lambda o EMR con Apache Spark.
- Optimización y escalabilidad: Optimizar instancias de Redshift, Glue y EMR para maximizar el rendimiento y minimizar costos. Implementar particionamiento, compresión y usar formatos columnar como Parquet y ORC.
- Infraestructura como código: Desplegar recursos usando CloudFormation, Terraform o CDK y asegurar la integración de los pipelines en procesos de CI/CD (usando CodePipeline, CodeBuild, GitHub Actions).
- Seguridad y calidad de los datos: Implementar políticas de acceso, cifrado, pruebas de integración y asegurar la monitorización con CloudWatch y AWS X-Ray.
- Colaboración y documentación: Trabajar estrechamente con analistas de datos, científicos de datos y otros stakeholders para garantizar soluciones alineadas a las necesidades del negocio.
Requisitos
- Educación: Título universitario en Ingeniería de Sistemas, Informática, Ciencias de la Computación o afines.
- Al menos 3 años de experiencia como Data Engineer trabajando con AWS.
- Experiencia con soluciones de Data Lake y Data Warehouse.
- Conocimiento en diseño de ETL/ELT y construcción de pipelines en AWS.
- Experiencia en procesamiento de datos en tiempo real y por lotes.
- Manejo de herramientas como AWS Glue, Kinesis, Redshift, Lambda, EMR, Step Functions.
Habilidades técnicas:
- Programación en Python y SQL.
- Experiencia con herramientas de Infraestructura como código: Terraform, CloudFormation, CDK.
- Conocimientos de DevOps y CI/CD (Jenkins, Git, Docker).
- Conocimiento de bases de datos NoSQL (DynamoDB) y relacionales (RDS, Aurora).
Deseable
- Certificación AWS
- Familiaridad con herramientas de DataOps.
- Conocimiento en el uso de Airflow y otros sistemas de orquestación.
¿Cuáles son las ventajas del trabajo?
Trabajar con nosotros significa ser parte de un entorno innovador, con proyectos de alto impacto y acceso a tecnología de vanguardia. Valoramos la creatividad, el aprendizaje continuo y la colaboración con equipos multidisciplinarios. Además, ofrecemos flexibilidad laboral y oportunidades de desarrollo para que potencies tu carrera en el mundo del marketing digital y la tecnología.
Qué ofrecemos
- Ambiente de trabajo dinámico y colaborativo.
- Oportunidades de crecimiento y desarrollo profesional.
- Capacitación continua.
- Beneficios exclusivos para los biziers (días off, incentivos, eventos corporativos, entre otros).
- Flexibilidad horaria.
- Participación en iniciativas de bienestar y salud laboral.
- Espacios de trabajo modernos y equipados.
Comida y bebida
Ofrecemos almuerzo los días que quieras asistir a la oficina.