Informazioni generali
- Azienda
- PROXIMA GROUP
- Posizione
- Data & Cloud Engineer
- Data udate
- 17/11/2025
- Luogo lavoro
- Remote Working
- Impegno
- Full-time
- Compenso lordo
- Da concordare
- Posti disponibili
- 1
- Contratto lavoro
- Da determinare
Descrizione offerta di lavoro
Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance.
Chi cerchiamo?
Data & Cloud Engineer
Il/La professionista opererà in contesti consulenziali, contribuendo alla progettazione e allo sviluppo di soluzioni dati e cloud in scenari complessi. Si richiede un elevato livello di autonomia, flessibilità e attenzione ai dettagli.
Il ruolo prevede l'esecuzione di attività che spaziano dall’ingegneria del dato e sviluppo software, fino al supporto per la progettazione di infrastrutture cloud su Azure.
Dove e come?
Milano/Roma- Full Remote
Di cosa ti occuperai?
La risorsa si occuperà di:
- Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
- Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
- Sviluppare componenti software e servizi backend per applicazioni data-driven.
- Curare la qualità del codice, il versioning, il testing e l'automazione dei flussi.
- Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
- Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
- Supportare l'analisi, il troubleshooting e l'ottimizzazione delle performance dei sistemi.
Hai queste competenze?
- Ottima conoscenza di Python per sviluppo applicativo e data engineering.
- Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
- Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
- Familiarità con architetture dati cloud-native, pattern ETL/ELT e workflow orchestration.
- Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
- Competenze in progettazione e sviluppo API REST.
- Conoscenza di SQL e database relazionali.
Nice to have…
- Esperienza in Azure Databricks.
- Certificazioni Azure.
- Competenze in containerizzazione (Docker) e pipeline CI/CD (Azure DevOps, Github Actions).
Sei il candidato ideale se…
- dimostri Autonomia nella gestione e nell'esecuzione delle attività.
- possiedi Flessibilità e sei in grado di operare efficacemente in contesti eterogenei.
- lavori con Precisione, attenzione ai dettagli e hai un forte orientamento alla Qualità.
- hai un'Attitudine consulenziale, una Comunicazione chiara e ottime Capacità di relazione con il cliente.
- hai un Problem solving avanzato e una Visione end-to-end nell'approccio ai progetti.
Cosa offriamo?
R.A.L. commisurata alla seniority;
BUONI PASTO (anche in modalità full remote);
ASSICURAZIONE SANITARIA CON COPERTURA INTEGRATIVA.
I nostri benefit
PERCORSI DI CARRIERA
Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.
FORMAZIONE PROFESSIONALIZZANTE
Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT. Ogni famiglia tecnologica ha uno o più ICT trainer di riferimento, che, lavorando in piena sinergia con l’area HR, valuta e propone percorsi di formazione continua customizzati sulla crescita professionale di ogni dipendente.
SCONTI E PROMOZIONI RISERVATE
Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.
Competenze richieste
Hai queste competenze?
- Ottima conoscenza di Python per sviluppo applicativo e data engineering.
- Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
- Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
- Familiarità con architetture dati cloud-native, pattern ETL/ELT e workflow orchestration.
- Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
- Competenze in progettazione e sviluppo API REST.
- Conoscenza di SQL e database relazionali.
Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.