Data Engineer – GCP & Databricks Specialist
--BIZIT GLOBAL, Remoto--
En Bizit Global, somos una empresa humana, innovadora y apasionada por la tecnología. Estamos en la búsqueda de un/a Data Engineer con experiencia en GCP y Databricks, para sumarse a un proyecto internacional enfocado en la modernización y migración de plataformas de datos.
¿Por qué este rol es clave?
Modernización Estratégica de Datos
Serás parte del equipo responsable de estructurar, migrar y optimizar grandes volúmenes de datos, participando en la transición de plataformas como AWS Redshift hacia soluciones modernas basadas en GCP. Tu trabajo será clave para impulsar decisiones estratégicas y eficiencia operativa a través de los datos.
Ingeniería de Datos End-to-End en la Nube
Estarás involucrado en todas las etapas del ciclo de vida del dato: desde la ingesta y transformación con Python, pasando por el diseño de pipelines escalables con Databricks, hasta el análisis y almacenamiento en BigQuery. Aplicarás arquitectura cloud-native y herramientas de vanguardia en entornos de alto impacto.
Colaboración Técnica Global
Trabajarás en conjunto con equipos de desarrollo, BI y producto en un contexto internacional, diseñando soluciones de datos confiables, escalables y alineadas con los objetivos estratégicos del negocio. Tu rol será fundamental para garantizar el éxito de iniciativas de datos a gran escala.
Nuestra Filosofía
En Bizit Global, no solo creamos software y soluciones tecnológicas; construimos relaciones sólidas y duraderas. Estamos orgullosos de ser un socio estratégico de TI a largo plazo para nuestros clientes, comprometidos con la excelencia, la innovación y la transparencia.
Nuestros valores
Experiencia: Un equipo de profesionales con amplia experiencia en consultoría TI, capaces de traer cambios positivos a los negocios de nuestros clientes.
Calidad: Comprometidos con altos estándares y una metodología que incluye controles y seguimientos para asegurar la calidad en cada proyecto.
Innovación: Explorar constantemente nuevas tecnologías para ofrecer soluciones de vanguardia a las empresas que confían en nosotros.
Esfuerzo y Transparencia Orientados a conseguir la máxima satisfacción de nuestros clientes, creciendo y expandiéndonos juntos.
Responsabilidades
- Diseñar y mantener pipelines de datos escalables utilizando Databricks.
- Automatizar procesos de ingestión, transformación y validación de datos con Python.
- Desarrollar soluciones en Google Cloud Platform, integrando herramientas como BigQuery.
- Participar activamente en iniciativas de migración de plataformas de datos, especialmente desde AWS Redshift a GCP.
- Colaborar con equipos globales para impulsar buenas prácticas de ingeniería de datos cloud-native.
Requisitos
- Experiencia comprobable trabajando con Databricks en entornos productivos.
- Sólidos conocimientos de Python aplicado a casos de ingeniería de datos.
- Experiencia construyendo pipelines de datos en GCP.
- Dominio de BigQuery para almacenamiento y análisis a gran escala.
- Conocimientos o experiencia en proyectos de migración de plataformas de datos desde AWS.
- Inglés intermedio/avanzado para trabajo con equipos internacionales.
Valoramos
- Enfoque proactivo y capacidad de autogestión.
- Orientación a la mejora continua y modernización tecnológica.
- Buenas prácticas de trabajo colaborativo en entornos ágiles.
Actividad deportiva
Practique cualquier deporte con sus colegas
y nosotros lo pagamos.
Comida y bebida
Ofrecemos almuerzo los días que quieras asistir a la oficina.