- Azienda
- Dacomat srl
- Posizione
- Senior Data Engineer
- Data udate
- 16/03/2026
- Luogo lavoro
- Remote Working
- Impegno
- Full-time
- Compenso lordo
- Da concordare
- Posti disponibili
- 1
- Contratto lavoro
- Da determinare, Partita Iva, Indeterminato, Determinato
Descrizione offerta di lavoro
Panoramica:
Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali.
Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario.
Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services.
È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un'esperienza nell'elaborazione di dati geospaziali e nei database a grafo.
Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell'informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc.
Questo ruolo offre l'opportunità di contribuire all'evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Competenze richieste
Principali responsabilità:
- Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services.
- Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web.
- Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica.
- Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve).
- Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata.
- Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali.
- Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria.
- Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati.
- Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale.
Formazione: Laurea magistrale o dottorato di ricerca in:
- Informatica
- Ingegneria
- Statistica
- Fisica
- Matematica.
Competenze tecniche richieste:
- Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage
- Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix
- Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL
- Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial
- Database a grafo: Neo4j, Cosmos DB con Gremlin
- Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.)
Soft Skills e capacità di leadership:
- Forte pensiero analitico e capacità di problem solving.
- Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici.
- Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali.
- Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente.
- Capacità di adattamento ad ambienti dinamici e tecnologie emergenti.
- Leadership tecnica e capacità di mentoring.
- Visione strategica e approccio orientato al business per le soluzioni dati.
Qualifiche preferenziali:
- Certificazioni Azure, Databricks e Teradata.
- Esperienza con pipeline CI/CD, Git e pratiche DevOps.
- Familiarità con framework di governance dei dati e conformità al GDPR.
Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.