La tua missione: Costruire l'infrastruttura tecnica di prossima generazione che alimenta prodotti all'avanguardia nel campo dell'intelligenza artificiale, dell'elaborazione video e dei big data.
Stiamo cercando un ingegnere del software appassionato e talentuoso per unirsi al nostro team di Platform & Infrastructure. In questo ruolo, avrai un impatto diretto sulla creazione, l'ottimizzazione e la scalabilità dei sistemi core che gestiscono flussi di dati su larga scala, modelli di machine learning e pipeline video in tempo reale. Se sei motivato da problemi complessi di scalabilità, latenza e efficienza e vuoi vedere il tuo lavoro trasformarsi in prodotti visibili e ad alte prestazioni, questo è il posto per te.
Cosa farai:
· Progetta, sviluppa e mantieni servizi distribuiti e ad alta disponibilità per l'elaborazione, l'archiviazione e lo streaming di contenuti video.
· Costruisci e ottimizza pipeline di dati su larga scala (batch e real-time) per alimentare modelli di AI/ML e strumenti di analisi.
· Collabora con i team di Data Science e ML Engineering per mettere in produzione modelli di intelligenza artificiale, affrontando le sfide di scalabilità e prestazioni.
· Lavora sull'ottimizzazione dell'utilizzo delle risorse computazionali (CPU, GPU, memoria) per ridurre i costi e migliorare l'efficienza.
· Implementa best practices per il monitoring, logging, tracing e l'affidabilità dei servizi (SRE principles).
· Sviluppa strumenti e automazioni per migliorare il ciclo di vita dello sviluppo e del deployment (CI/CD).
· Rimani al passo con le tecnologie emergenti e valuta nuove soluzioni per migliorare continuamente il nostro stack tecnologico.
Cosa stiamo cercando:
· Solida esperienza nella progettazione e sviluppo di sistemi distribuiti e scalabili.
· Forte competenza in Python e/o Go (o linguaggi simili come Java, C++).
· Esperienza pratica con framework e tecnologie per il cloud ( AWS, GCP, o Azure ) e containerizzazione ( Docker, Kubernetes ).
· Familiarità con i concetti di elaborazione video (codec, formati, transcoding, streaming) e/o framework (FFmpeg, GStreamer).
· Esperienza con tecnologie per i Big Data come Apache Kafka, Spark, Flink, Airflow, o similari.
· Conoscenza dei principi di base del Machine Learning e dell'MLOps (l'esperienza diretta nella messa in produzione di modelli è un grande plus).
· Mentalità orientata alla risoluzione dei problemi, forte capacità di analisi e attenzione alle prestazioni.
· Ottime capacità di comunicazione e lavoro in team.
Considerato un grande plus:
· Esperienza con l'ottimizzazione di carichi di lavoro su GPU (CUDA, etc.).
· Conoscenza di database vettoriali e tecnologie per la gestione di embedding.
· Esperienza con infrastrutture come codice (IaC) usando Terraform o CloudFormation.
· Contributi a progetti open-source rilevanti.