- Azienda
- DIGIMAT SPA
- Posizione
- DEVOPS (AWS) rif TTX
- Data udate
- 05/12/2025
- Luogo lavoro
- Milano (Smart Working)
- Impegno
- Full-time
- Compenso lordo
- Da concordare
- Posti disponibili
- 1
- Contratto lavoro
- Da determinare
Descrizione offerta di lavoro
Siamo alla ricerca di 1 risorsa entro la fine dell’anno con inizio attività immediato per attività su cliente in ambito Fintech.
È previsto ingaggio iniziale di 12 mesi
seniority richiesta: 5/8 anni di esperienza nel ruolo
sede di lavoro: Milano
Modalità di lavoro: ibrido (2/3 gg a settimana)
Inizio ingaggio: ASAP
Profilo laureato STEM, con esperienza in ambito IT infrastrutture ed esperto in Cloud-native infrastructure
Competenze richieste
requisiti tecnici:
Infrastruttura Cloud & DevOps
- Progettazione e implementazione di infrastrutture scalabili tramite Infrastructure as Code (IaC) (ad esempio, AWS CloudFormation).
- Implementazione di pipeline CI/CD (GitLab CI/CD - Sceptre) per carichi di lavoro di dati e analisi.
- Automazione del provisioning dell'ambiente, del monitoraggio e della gestione degli alert.
- Integrazione con servizi nativi AWS per la sicurezza, il logging e l'ottimizzazione dei costi.
Streaming e Orchestrazione dei Dati
- Comprovata esperienza con:
- AWS Managed Apache Flink per l'elaborazione di stream in tempo reale.
- Confluence Kafka per la messaggistica distribuita (livello on-premise).
- AWS Managed Apache Airflow (MWAA) per l'orchestrazione DAG-based delle pipeline di dati.
- Progettazione di architetture di streaming resilienti e scalabili utilizzando servizi AWS come Flink, Glue e Lambda.
Data Mesh e Governance
- Familiarità con i principi del Data Mesh, inclusi la proprietà orientata al dominio, la governance federata e l'approccio al "dato come prodotto" (data product thinking).
- Utilizzo di strumenti come Witboost per supportare la gestione dei metadati, il ciclo di vita del data product e la governance decentralizzata.
- Implementazione di framework di governance tramite AWS Lake Formation, inclusi il controllo degli accessi granulare (fine-grained access control), la catalogazione dei dati e il tracciamento della data lineage.
Livello di Archiviazione e Analisi
- Esperienza con:
- Amazon Redshift Serverless per carichi di lavoro analitici (non per il livello computazionale).
- Data Lake basati su S3 utilizzando formati come Parquet e formati di tabella come Iceberg.
- Gestione delle tabelle S3, comprese le strategie di backup/restore e l'integrazione con motori di interrogazione (Athena).
Data Visualization e Business Intelligence
- Integrazione delle pipeline di dati con Power BI e Tableau per la reportistica aziendale e la creazione di dashboard.
- Supporto per la modellazione semantica, le strategie di aggiornamento dei dati (data refresh) e l'accesso sicuro a dataset governati.
Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.