En Datup, estamos revolucionando la forma en que las empresas gestionan sus cadenas de suministro a través de nuestra plataforma SaaS impulsada por inteligencia artificial.
Ayudamos a empresas de diversos sectores a predecir la demanda con mayor precisión, optimizar inventarios y tomar decisiones estratégicas que impactan directamente en su rentabilidad y eficiencia operativa.
✅ ¿Qué harás día a día?
- Implementar y mantener la infraestructura cloud de Datup sobre AWS en un entorno multi-cuenta.
- Crear módulos reutilizables de Terraform que permitan escalar nuestros microservicios de forma segura y eficiente.
- Diseñar y mantener pipelines de CI/CD híbridos usando GitHub Actions, GitLab CI y AWS CodePipeline.
- Construir y mejorar la observabilidad de la plataforma (CloudWatch, X-Ray, Logs estructurados).
- Habilitar la integración entre AWS y Google Cloud (BigQuery) para facilitar pipelines de datos seguros y eficientes.
- Brindar soporte y mentoría técnica a los equipos de desarrollo.Liderar la estandarización de la infraestructura como producto interno (plantillas, convenciones, mejores prácticas).
- Proponer soluciones de automatización para procesos manuales, con foco en reutilización y eficiencia.
🎯 ¿Lo qué buscamos en tí?
👉🏻 AWS Multi-Account & Networking
- Conocimiento avanzado de AWS Organizations, Control Tower o arquitecturas equivalentes.
- Experiencia en diseño de VPC, subredes, peering, NAT, Security Groups, NACLs en arquitecturas seguras y escalables.
- Experticia en IAM y políticas de mínimo privilegio, especialmente para escenarios cross-account y CI/CD.
👉🏻 Infraestructura como Código (IaC)
- Experiencia avanzada con Terraform (módulos reutilizables, workspaces, state remoto en S3/DynamoDB).
- Conocimiento de Terragrunt (deseable).
- Capacidad de diseño de infra como producto: permitir que otros equipos reutilicen tu trabajo fácilmente.
👉🏻 AWS Copilot + ECS/Fargate
- Experiencia con AWS Copilot, incluyendo configuración de manifest.yml y uso de add-ons.
- Profundo conocimiento de ECS/Fargate, desde configuración de tareas hasta auto-scaling y optimización de costos.
- Gestión del ciclo de vida de imágenes en ECR.
👉🏻 CI/CD Híbrido
- Dominio de GitHub Actions, GitLab CI y AWS CodePipeline.
- Capacidad para integrar pipelines (build/test en GitLab → deploy en CodePipeline, por ejemplo).
- Diseño de pipelines genéricos y parametrizables para que otros equipos los adopten fácilmente.
👉🏻 Observabilidad
- CloudWatch Logs y Metrics: estructuración, custom metrics, queries con Logs Insights.
- Alarmas efectivas con SNS, Slack, email.
- Conocimiento de AWS X-Ray para tracing distribuido.
- Familiaridad con OpenTelemetry (plus).
👉🏻 Integración AWS ↔ GCP
- Experiencia con pipelines de datos entre AWS y BigQuery (usualmente vía S3 → GCS → BQ).
- Conocimiento en federación de identidades entre nubes, autenticación segura y patrones de ingesta.
🧠 Soft Skills y Mindset
- Pensamiento como “Product Owner” de plataforma: ves la infraestructura como un producto para desarrolladores.
- Proactividad y sentido de ownership: no esperas a que te digan qué hacer, detectas problemas y propones soluciones.
- Capacidad de mentoría: disfrutas enseñar, hacer code reviews y mejorar a otros.
- Habilidad de comunicarte con claridad técnica y de negocio: traduces requerimientos técnicos en soluciones concretas.
🎁 Bonus: Conocimiento y Experiencia Deseable
- Experiencia con AWS Step Functions, Lambdas o EventBridge para automatización.
- Conocimiento en seguridad avanzada (CIS Benchmarks, IAM Access Analyzer).
- Familiaridad con herramientas como PostHog, Sentry o Prometheus para monitoreo adicional.
- Experiencia liderando migraciones fuera de proveedores externos.
Para aplicar al cargo debes enviar tu CV a rrhh@datup.ai en el asunto debe venir el cargo al que aplicas y tu nombre.
Súper importante, un párrafo donde describas por qué eres la persona ideal y si cumples con lo solicitado.