ENGINEERING

Data Engineer

Roma
Remote 100%
Full time
The Company
ENGINEERING
About this company
The job
Data Engineer
Remote 100% Unlock salary Roma Full time
Job description
Skills and experience
Core skills we consider:
Amazon-Web-Services Google-Cloud-Platform Hadoop Scala SQL Apache-Spark
Experience level:
4 years

Engineering è la Digital Transformation Company, leader in Italia e in continua espansione nel mondo, con circa 12.000 dipendenti e oltre 40 sedi.
Il Gruppo Engineering, formato da oltre 20 aziende in 12 Paesi, supporta da più di 40 anni le aziende e le organizzazioni nell’evolvere continuamente grazie a una profonda conoscenza dei processi aziendali in tutti i segmenti di mercato, e sfruttando le opportunità offerte da tecnologie digitali avanzate e soluzioni proprietarie.
Il Gruppo integra soluzioni di mercato best-of-breed e servizi gestiti, e continua a espandere la propria esperienza attraverso operazioni di M&A e partnership con i principali attori tecnologici. Engineering investe fortemente in innovazione, attraverso la propria divisione R&I, e nel capitale umano, attraverso la propria IT & Management Academy. Engineering si pone come attore chiave nella creazione di ecosistemi digitali per connettere mercati diversi, sviluppando soluzioni componibili per una continua trasformazione del business.

Nel suo piano di crescita, Engineering è alla ricerca di un Data Engineer.

Il candidato sarà inserito nel Centro di Competenza Big Data del CoE Data & Analytics di Engineering per guidare un team di Data Engineers e curare la progettazione, realizzazione e manutenzione di progetti big data. In particolare è richiesta:

  • Provata esperienza di almeno 4 anni nella progettazione di sistemi di data management distribuiti, soprattutto in ambito Hadoop (Cloudera titolo preferenziale)
  • Provata esperienza di team leadership di almeno 3 anni
  • 8+ anni di esperienza lavorativa in ambito ICT
  • inglese fluente
  • Provata esperienza su infrastruttura Cloud (GCP titolo preferenziale), AWS o MS Azure
  • Esperienza in ambito Big Data ed integrazione strumenti di Business Intelligence
  • Capacità di comunicazione e knowledge sharing
  • problem solving
  • Conoscenza di metodologie agili

Graditi

  • Capacità di disegno/progettazione di piattaforme Big Data si on prem che cloud
  • Gestione della relazione con il cliente interno (supporto e proposizione nella fase di accettazione e adozione di nuove funzionalità)
  • Capacità di governare tecniche analitiche, ETL, processi di ingestion e data modelling
  • Aggiornamento sullo stato dell’arte delle tecnologie big data open source e proprietarie, con particolare riguardo alle soluzioni Hadoop
  • Conoscenza Kubernetes
  • Certificazioni Cloudera e/o Databricks e/o AWS e/o GCP e/o Azure

Si richiedono

  • Laurea in discipline scientifiche
  • Conoscenza di linguaggi di sviluppo Scala o Python
  • Conoscenza di tecniche di gestione RDBMS e linguaggio SQL
  • Conoscenza ecosistema Hadoop
  • Conoscenza ecosistema Google Cloud Platform (GCP)
  • Conoscenza ecosistema Amazon Web Service (AWS)
  • Conoscenza di tecniche di elaborazione distribuita **Spark **
  • Conoscenza tool ETL (Talend titolo preferenziale)
  • Esperienza nell’uso di strumenti di project automation, continuous delivery, metodologie agili, DevOps
  • Completa il profilo una spiccata attitudine per il lavoro di gruppo, anche distribuito in diverse sedi, e una buona capacità relazionale