Tallo logoTallo logo

INGENIERO DE DATOS (Certificado en GCP / BigQuery / Dataflow) (ID49234)

Job

KERALTY S.A.S

Bogota, NJ (In Person)

Full-Time

Posted 2 weeks ago (Updated 1 day ago) • Actively hiring

Expires 6/7/2026

Apply for this opportunity

This job application is on an outside website. Be sure to review the job posting there to verify it's the same.

Review key factors to help you decide if the role fits your goals.
Pay Growth
?
out of 5
Not enough data
Not enough info to score pay or growth
Job Security
?
out of 5
Not enough data
Calculating job security score...
Total Score
82
out of 100
Average of individual scores

Were these scores useful?

Skill Insights

Compare your current skills to what this opportunity needs—we'll show you what you already have and what could strengthen your application.

Job Description

Será el responsable de diseñar, crear y mantener soluciones de ingesta, transformación, catalogación, consolidación, perfilamiento, limpieza y almacenamiento de datos con base en mejores prácticas con el fin de permitir el análisis y la democratización de la información según las necesidades del grupo Keralty y sus empresas.

Formación complementaria
  • Ingeniero de Sistemas / Ciencias Computacionales /Ingenieria Electronica / Ingeniería
Industrial-Posgrado:
Ingenieria de Datos / Big Data / Business Intelligence / Inteligencia ArtificialMaestria deseableConocimientos Técnicos.

Conocimiento avanzado de ETL / ELTConocimiento avanzado en la construcción y / o extracción de datosConocimiento de bases de datos relacionales y no relacionaleshabilidades técnicas con data-pipelines y otras tecnologías de big data,Conocimientos en DiseñoModelamiento y arquitectura de datosConocimiento avanzado de alguno de los lenguajes Python, Java o C++Certification en Big data o en Procesamiento de datos con herramientas en nube (GCP, AWS, Azure) o AWS Solution Architect
  • Associate Conocimientos sólidos en Google Cloud Platform (GCP)Á
REA :
Data Warehouse•
HERRAMIENTA
BigQuery (SQL Avanzado + ML)Á
REA :
ETL/ELT•
HERRAMIENTA:
Dataflow, dbt (Data Build Tool) Á
REA :
Orquestación
  • HERRAMIENTA
    Cloud Composer
  • Cloud Data fusionÁ
REA :
Gobernanza•
HERRAMIENTA
Dataplex / Cloud IAM Á
REA :
Soft Skill
  • HERRAMIENTA
    Gobernanza y ética, visión de negocio y DataOps Experiencia Laboral Específica.
  • 5 Años
  • Experiencia en el diseño detallado y construcción de repositorios de datos empresariales (EDW, Data Lakes) con tecnologías en nube desde el inicio hasta el soporte de producción.
Experiencia en la creacion y operacion de data-pipelines estables y escalables que limpien, estructuren, integren y cataloguen conjuntos de datos grandes dispares en un formato legible y accesible por las aplicaciones analíticas y operativas que los requieranRoles y Responsabilidades del cargo (A).Liderar conversaciones técnicas con las gerencias corporativas para comprender los requisitos de información e implementar soluciones de datos empresariales, trabajando con los gerentes de productos, los equipos de dba y los equipos de ingeniería para crear flujos de orquestación, transformación e informes de datos escalables que puedan capturar y preparar una gran cantidad de transacciones para los informes de los clientes, desarrollar un marco de trabajo que garantice la entrega de datos de alta calidad a las partes interesadas (data analisis, reporting, bi).Crear y operar data-pipelines estables y escalables que limpien, estructuren e integren conjuntos de datos grandes dispares en un formato legible y accesible para informes de cara al usuario final y análisis ad-hoc, trabajando con el equipo de ciencia de datos y el arquitecto de bi para desarrollar la infraestructura etl/elt e implementar las mejores prácticas para mantener data-pipelines, crear servicios de entrega de datos que apoyen las aplicaciones operativas y analíticas críticas para nuestras operaciones, clientes y socios.

Liderar el diseño, modelamiento e implementación de repositorios de información para satisfacer las necesidades de datos e información de la compañía, desarrollando almacenes / repositorios de datos para satisfacer las solicitudes de datos ad-hoc de los clientes, así como preparar conjuntos de datos curados generales que pueden ser utilizados por múltiples departamentos para la integración de datos de autoservicio y casos de uso de bi / analítica, implementar plataformas de datos y soluciones de análisis empresarial para resolver las necesidades de análisis e informes basados ​​en datos a nivel corporativo.

Similar remote jobs

Similar jobs in Bogota, NJ

Similar jobs in New Jersey