Per decenni, lo sviluppo del software ha seguito percorsi ben definiti e linguaggi rigidamente strutturati, richiedendo un livello di competenza tecnica altamente specifico per trasformare la complessa logica di business in linee di codice funzionante. Proprio come l’SQL è stato a lungo considerato il linguaggio universale e imprescindibile per interrogare i dati, i linguaggi di programmazione classici sono stati l’unico ponte possibile tra l’idea concettuale e la sua esecuzione pratica.
Oggi, tuttavia, l’intelligenza artificiale generativa promette di trasformare radicalmente e a ritmi inediti questo scenario.
Gli strumenti di AI dedicati allo sviluppo software stanno rendendo il “vibe coding”, che ormai potremmo quasi chiamare “agentic coding”, una modalità di programmazione fortemente assistita in cui lo sviluppatore guida l’AI non tramite una sintassi tecnica, ma attraverso intenti e linguaggio naturale — una pratica sempre più diffusa, pervasiva e adottata a livello globale, introducendo però il tema di come strutturarla in modo maturo e sostenibile nei contesti enterprise.
Da un lato, la promessa fondamentale di questi nuovi strumenti è incredibilmente allettante per qualsiasi dipartimento IT: delegare la stesura materiale, ripetitiva e “boilerplate” del codice ad agenti intelligenti, abbattendo le barriere tecniche storiche e accelerando drasticamente i tempi di rilascio del software.
D’altra parte l’entusiasmo iniziale per questa rivoluzione sta iniziando a scontrarsi duramente con le rigide, e spesso ineludibili, necessità delle infrastrutture aziendali più strutturate.
Il problema che nessuno aveva previsto
In teoria, affidarsi alle grandi piattaforme AI commerciali per generare codice può offrire un incremento immediato e tangibile della produttività.
In pratica, quando queste potenti tecnologie vengono calate in contesti “enterprise” reali, stratificati e complessi, emergono criticità inaspettate.
Il problema centrale non risiede tanto nella capacità dell’AI di scrivere codice sintatticamente corretto o di strutturare algoritmi complessi. Il nodo cruciale riguarda le pesanti implicazioni architetturali e strategiche che derivano dall’uso quotidiano di questi strumenti.
L’adozione massiva di assistenti di programmazione proprietari, basati interamente su servizi “cloud” gestiti da terze parti, avviene troppo spesso a costo una riduzione del controllo sui dati aziendali e sulle logiche applicative, oltre a dipendenze tecnologiche difficili da governare nel lungo periodo
Quando uno sviluppatore utilizza un modello chiuso (una vera e propria “black box”) per analizzare, correggere e generare codice aziendale, innumerevoli frammenti di logica proprietaria, dettagli sulle architetture interne e potenziali vulnerabilità del sistema vengono trasmessi a server esterni. Questo meccanismo solleva significative e inevitabili problematiche legate alla sicurezza informatica e alla “data retention”, che diventano ancora più rilevanti quando il software viene scritto per clienti con particolare attenzione a tematiche di privacy e security (come ad esempio il mondo della Difesa).
Inoltre, l’utilizzo continuo e intensivo di queste API esterne per il “vibe coding” comporta implicazioni dirette e significative sui costi operativi, che rischiano di diventare del tutto imprevedibili e difficili da scalare nel lungo periodo.
Il risultato finale? Le aziende rischiano di ritrovarsi intrappolate all’interno di ecosistemi chiusi, sviluppando forti dipendenze dalle roadmap di un singolo fornitore, e con l’insicurezza di esporre dati sensibili all’esterno.
La soluzione: modelli trasparenti e libertà di scelta
La diagnosi di questa situazione è chiara: non si può e non si deve rinunciare agli immensi vantaggi di produttività offerti dal supporto dell’AI, ma è al contempo strettamente necessario imporre un radicale cambio di paradigma infrastrutturale.
Esattamente come un agente AI interrogando un database necessita di un “semantic model” strutturato per comprenderne davvero il dominio e non commettere errori di interpretazione, un ambiente di sviluppo moderno necessita di confini architetturali chiari per garantire sicurezza e flessibilità.
La soluzione più efficace consiste nel progettare un ambiente di sviluppo AI che mantenga attivamente aperte molteplici opzioni tecnologiche.
Invece di dipendere in via esclusiva dai servizi forniti da vendor esterni, la strada maestra da percorrere è quella di costruire e orchestrare “workflow” di sviluppo basati su modelli “open weight” e su modelli altamente personalizzati.
L’utilizzo di questi modelli permette alle organizzazioni di riprendere il controllo totale e assoluto sui propri strumenti di lavoro.
La vera svolta strategica risiede nel fatto che questi modelli possono essere scaricati ed eseguiti anche in locale, o in ambienti cloud privati e completamente “offline”.
Questo approccio architetturale elimina alla radice il problema critico della “data retention”, mitiga i rischi di sicurezza e crea un ecosistema aperto in grado di recepire con facilità le evoluzioni costanti che riguardano i modelli. È la differenza sostanziale tra il consegnare i propri segreti industriali a un servizio opaco esterno e l’avere un esperto virtuale che lavora esclusivamente all’interno delle sicure mura della propria azienda.
Soluzioni “Enterprise” per un’adozione efficace dell’AI
In questo scenario di profonda e rapida transizione tecnologica, aziende leader nel settore IT e della trasformazione digitale, come Engineering Group, portano sul campo soluzioni concrete che uniscono l’innovazione dirompente dell’AI alla robustezza e all’affidabilità necessarie per i mercati industriali.
Affrontare queste problematiche non richiede solo la conoscenza del modello AI, ma una profonda competenza nella progettazione di architetture “enterprise” per progetti complessi, unita a una leadership consolidata nel “delivery” di progetti di Machine Learning e Generative AI.
Integrare l’intelligenza artificiale avanzata all’interno di piattaforme collaborative richiede che i modelli siano efficienti, trasparenti ed ottimizzati per le specifiche esigenze di business, senza mai compromettere la sicurezza.
Questo significa fornire alle organizzazioni gli strumenti adatti per orchestrare “workflow” in cui lo sviluppatore può sfruttare la potenza generativa sul proprio terminale, creando assistenti alla programmazione che conoscono perfettamente il dominio aziendale ma che operano in un ambiente protetto.
Gli esperti dietro questa visione
A guidare l’esplorazione di questi nuovi paradigmi e a delineare le strategie per un’adozione sicura dell’AI sono professionisti di spicco con una profonda conoscenza delle infrastrutture “enterprise” e dell’analisi avanzata dei dati.
Enzo D’Andrea è Senior Solution Architect presso Engineering Group.
Nel corso della sua carriera, ha maturato una vasta e trasversale esperienza nella progettazione di soluzioni software e complesse architetture “enterprise” destinate a progetti di trasformazione digitale. Il suo lavoro si concentra in particolare su ecosistemi “cloud” e piattaforme collaborative applicate a molteplici settori industriali.
La sua vocazione per la tecnologia ha radici molto profonde: è nata a soli dieci anni, quando ha mosso i primi passi seguendo un corso di programmazione su uno storico computer Olivetti M10.
Questa passione originaria si è trasformata in una carriera solida e continua ancora oggi ad alimentare la sua curiosità e la ricerca di nuovi stimoli innovativi.
Michele Gabusi ricopre invece il ruolo di Data Science Manager all’interno della divisione AI & Data di Engineering Group.
Partendo da retroterra accademico, culminato in un dottorato in Fisica delle Particelle, ha inizialmente lavorato come ricercatore in ambito “healthcare”, dove si è specializzato nell’analisi di “big data” con un focus particolare sulla radiomica .
Entrato a far parte di Engineering nel 2015, ha contribuito in modo determinante a numerosi progetti di AI e “Advanced Analytics” trasversali a tutti i mercati.
Attualmente guida il team di “delivery” AI, una divisione specificamente dedicata alle applicazioni di Machine Learning e Generative AI.
Ad arricchire il suo profilo, vi è anche l’attività accademica: è docente in svariati corsi di analisi dei dati e coautore di numerose pubblicazioni di rilievo su riviste scientifiche internazionali, esplorando le intersezioni tra intelligenza artificiale, fisica e tecnologie quantistiche.
L’obiettivo finale
L’obiettivo finale di questa complessa evoluzione architetturale è tanto semplice da dichiarare quanto ambizioso da realizzare: dimostrare concretamente come il “vibe coding” possa essere adottato in modo molto più strutturato e, soprattutto, consapevole attraverso competenze, architetture e modelli organizzativi adeguati.
Non si tratta più di dover scegliere forzatamente tra l’innovazione spinta e la sicurezza dei dati, ma di implementare un ecosistema di sviluppo maturo che garantisca entrambe. Passando con intelligenza da soluzioni puramente proprietarie esterne a modelli aperti, efficienti ed eseguibili in locale, le organizzazioni possono mantenere la piena proprietà e località del dato, abbattere i costi imprevisti e proteggere integralmente la propria inestimabile proprietà intellettuale.
Costruire un ambiente di sviluppo aperto e governabile è il primo, fondamentale passo per un futuro digitale veramente sostenibile e sicuro.



