Ir al contenido

Data Engineer – GCP & Databricks Specialist

--BIZIT GLOBAL, Remoto--

En Bizit Global, somos una empresa humana, innovadora y apasionada por la tecnología. Estamos en la búsqueda de un/a Data Engineer con experiencia en GCP y Databricks, para sumarse a un proyecto internacional enfocado en la modernización y migración de plataformas de datos.

¿Por qué este rol es clave?

Modernización Estratégica de Datos

Serás parte del equipo responsable de estructurar, migrar y optimizar grandes volúmenes de datos, participando en la transición de plataformas como AWS Redshift hacia soluciones modernas basadas en GCP. Tu trabajo será clave para impulsar decisiones estratégicas y eficiencia operativa a través de los datos.

Ingeniería de Datos End-to-End en la Nube

Estarás involucrado en todas las etapas del ciclo de vida del dato: desde la ingesta y transformación con Python, pasando por el diseño de pipelines escalables con Databricks, hasta el análisis y almacenamiento en BigQuery. Aplicarás arquitectura cloud-native y herramientas de vanguardia en entornos de alto impacto.

Colaboración Técnica Global

Trabajarás en conjunto con equipos de desarrollo, BI y producto en un contexto internacional, diseñando soluciones de datos confiables, escalables y alineadas con los objetivos estratégicos del negocio. Tu rol será fundamental para garantizar el éxito de iniciativas de datos a gran escala.

Nuestra Filosofía

En Bizit Global, no solo creamos software y soluciones tecnológicas; construimos relaciones sólidas y duraderas. Estamos orgullosos de ser un socio estratégico de TI a largo plazo para nuestros clientes, comprometidos con la excelencia, la innovación y la transparencia.

Nuestros valores

Experiencia: Un equipo de profesionales con amplia experiencia en consultoría TI, capaces de traer cambios positivos a los negocios de nuestros clientes.

Calidad: Comprometidos con altos estándares y una metodología que incluye controles y seguimientos para asegurar la calidad en cada proyecto.

Innovación: Explorar constantemente nuevas tecnologías para ofrecer soluciones de vanguardia a las empresas que confían en nosotros.

Esfuerzo y Transparencia Orientados a conseguir la máxima satisfacción de nuestros clientes, creciendo y expandiéndonos juntos.



Autonomía
Evolución personal
Proactividad
Trabajo administrativo
Conocimientos técnicos

Responsabilidades

    • Diseñar y mantener pipelines de datos escalables utilizando Databricks.
    • Automatizar procesos de ingestión, transformación y validación de datos con Python.
    • Desarrollar soluciones en Google Cloud Platform, integrando herramientas como BigQuery.
    • Participar activamente en iniciativas de migración de plataformas de datos, especialmente desde AWS Redshift a GCP.
    • Colaborar con equipos globales para impulsar buenas prácticas de ingeniería de datos cloud-native.

Requisitos

    • Experiencia comprobable trabajando con Databricks en entornos productivos.
    • Sólidos conocimientos de Python aplicado a casos de ingeniería de datos.
    • Experiencia construyendo pipelines de datos en GCP.
    • Dominio de BigQuery para almacenamiento y análisis a gran escala.
    • Conocimientos o experiencia en proyectos de migración de plataformas de datos desde AWS.
    • Inglés intermedio/avanzado para trabajo con equipos internacionales.

Valoramos

    • Enfoque proactivo y capacidad de autogestión.
    • Orientación a la mejora continua y modernización tecnológica.
    • Buenas prácticas de trabajo colaborativo en entornos ágiles.




Actividad deportiva

Practique cualquier deporte con sus colegas
y nosotros lo pagamos.


Comida y bebida

Ofrecemos almuerzo los días que quieras asistir a la oficina.