Il nostro tour inizia qui, su di un marciapiede. Una sera qualsiasi.
Davanti, un grattacielo di vetro e acciaio si erge verso il cielo, riflettendo le luci della città come uno specchio deformante. La hall si apre come un vuoto verticale: cemento levigato, pareti di vetro che si perdono in alto. Una porta vetrata luccica, luminosa, invitante.
Vi entriamo, l’ascensore si chiude con un sibilo quasi impercettibile, e poi parte.
Sale, fluida e silenziosa. I piani si susseguono uno dopo l’altro, abbastanza lenti da riconoscere ciò che vedono, abbastanza veloci da dare l’idea di un’ascesa lunga. E su ogni piano, illuminata da dentro, c’è un’insegna.

Generative AI — Piano 4
Il logo pulse di blu, come un cervello elettronico che pensa.
LLM & Foundation Models — Piano 7
Lettere bianche su sfondo nero, minimalisti, come un comando da terminale.
Agentic AI — Piano 12
Un’icona stilizzata che sembra un robot che prende una decisione.
Quantum Computing — Piano 18
Un qubit stilizzato in sovrapposizione, due sfere che coesistono e non esistono.
Edge Computing — Piano 23
Una freccia che punta verso il basso, verso la periferia, verso dove succede davvero.
Sustainability — Piano 29
Una foglia verde che brilla nel buio del cablaggio.
Security — Piano 35
Uno scudo dorato, come se proteggere fosse un lusso, non un diritto.
Le insegne si susseguono, una dopo l’altra, tutte insieme, come un elenco infinito di tutto ciò che ha riempito conferenze, blog, podcast, thread su Twitter, conversazioni nei corridoi delle aziende, tavole rotonde, panel, keynote. Il mondo del tech che corre, che si affanna, che cerca di inventare il futuro a un ritmo che sembra accelerare ogni mese che passa.
L’ascensore rallenta, si apre. All’ultimo piano, un openspace minimalistico si estende: cemento a vista, legno, luci calde che si diffondono senza fare rumore. Al centro, una tavola ovale enorme affaccia su una parete vetrata che corre per tutta la larghezza della stanza. Fuori, la città: grattacieli che si accendono col tramonto, luci che si accendono una dopo l’altra come stelle artificiali, traffico che scorre lungo viali che sembrano arterie pulsanti. Siamo in una sala fuori dal tempo, dove si incontrano le forze che plasmano il tech.
Attorno a quel tavolo, seduti come ospiti di una cena che non finirà mai, ci sono loro. Non persone, ma idee. Concetti. Paradigmi. Il cloud che continua a espandersi, l’AI che promette di automatizzare tutto, l’edge che spinge il computing verso la periferia, la sostenibilità che diventa imperativo, la robotica che entra nelle fabbriche e nelle case, l’automotive che si elettrizza e si guida da sola. Temi potenti, visibili, dominanti. Quelli di cui tutti parlano, quelli che attraggono investimenti, attenzione, entusiasmo.
Ma guardali bene. Osservali da vicino.

C’è qualcosa che manca.
Non è una cosa visibile. Non è un logo, non è un brand, non è una tecnologia che fa notizia. È una figura professionale. Un insieme di competenze che, paradossalmente, più il tech avanza più diventa cruciale — eppure continua a mancare all’appello.
Mentre tutti parlano di AI generativa, di transformer, di agenti autonomi, c’è una domanda silenziosa ma disperata che attraversa l’industria: ma chi fa girare tutto questo sui dispositivi concreti? Chi prende quei modelli e li fa funzionare su un chip che costa 2 euro? Chi scrive il firmware che permette a un sensore di comunicare? Chi assicura che un drone non cada dal cielo perché il codice ha deciso di allocare memoria nel momento sbagliato?
La risposta è sconcertante: non ci sono abbastanza persone che sanno farlo.
E il 2026 sarà l’anno in cui questo diventa un problema enorme o un’opportunità ancora più grande?
Il paradosso della superficie vs. profondità
C’è una dinamica che sta trasformando il mercato del lavoro tech, e la maggior parte delle persone non se ne accorge nemmeno.
Mentre l’opinione pubblica — e buona parte dell’industria — è ossessionata da ciò che è nuovo, da ciò che brilla, da ciò che promette di rivoluzionare tutto domani mattina, c’è una realtà semplice che viene ignorata: più l’AI diventa pervasiva, più aumenta la richiesta di chi sa farla girare su hardware reale.
Prendi l’ecosistema AI odierno. Python è ovunque. PyTorch, TensorFlow, JAX — tutti bellissimi, tutti potenti, tutti astratti. Ti permettono di definire una rete neurale in poche righe di codice, di fare training su GPU nel cloud, di deployare modelli con una pip install. Perfetto.
Ma ecco il problema: quella stessa rete neurale, prima o poi, deve girare su un dispositivo vero. Non su un Jupyter notebook. Su una telecamera. Su un sensore. Su un drone. Su un’auto.
E lì, l’astrazione di Python non ti aiuta più.
Non perché Python sia sbagliato — è fantastico per quello che fa. Ma quando devi far girare un modello su un microcontrollore con 256KB di RAM, hai bisogno di qualcuno che sappia cosa significhi “256KB di RAM”. Qualcuno che sappia come allocare memoria. Qualcuno che capisca cosa succede quando il garbage collector non esiste.
Quel qualcuno è un embedded developer.
E nel 2026, gli embedded developer sono la figura professionale più ricercata — e più rara — del mercato tech.
Il gap che nessuno vede
Perché mancano gli embedded developer? La risposta è semplice: negli ultimi 15 anni, il mondo tech si è spostato verso l’alto. Verso il cloud. Verso le astrazioni. Verso linguaggi che ti nascondono l’hardware.
I corsi di informatica insegnano Python, JavaScript, Java. I bootcamp promettono di farti diventare “full-stack developer” in tre mesi. Le startup cercano “AI engineers” che sanno usare le librerie giuste.
Ma chi insegna come parlare con un microcontrollore? Chi spiega come funziona un bus di comunicazione? Chi mostra cosa significa ottimizzare codice per consumare microampere invece di milliwatt?
Quasi nessuno.
Il risultato è un mercato distorto:
- Da una parte, migliaia di sviluppatori che sanno usare framework AI, creare API, deployare su cloud
- Dall’altra, un numero ridottissimo di persone che sanno prendere tutto questo e farlo funzionare su un dispositivo vero
E il paradosso è che più il primo gruppo cresce, più il secondo diventa prezioso.
Perché ogni volta che un’azienda decide di “portare AI sull’edge”, si scopre che manca qualcuno che sappia farlo concretamente. E allora inizia la ricerca. E non trova. E le offerte di lavoro rimangono aperte per mesi. E gli stipendi salgono.
Edge AI: la scommessa che manca di executor
Fino a poco tempo fa, AI significava una cosa sola: cloud. Server farm enormi, migliaia di GPU che lavorano in parallelo, modelli da miliardi di parametri che vivono in data center che consumano quanto piccole città.
Nel 2026, questo paradigma sta cambiando radicalmente.
L’AI si sta muovendo verso l’edge — verso i dispositivi che sono fisicamente dove succede l’azione. Non è più un concetto accademico: è qualcosa che sta succedendo ora, in modo pervasivo.
Prendi una telecamera di sorveglianza moderna. Fino a qualche anno fa, il suo lavoro era catturare video e mandarlo a un server centrale. Oggi, quella stessa telecamera ha un piccolo chip AI integrato che esegue l’inferenza localmente. Nessun video viene inviato su internet. Niente latenza. Niente problemi di privacy.
O guarda un sensore industriale in una fabbrica. Un accelerometro montato su un motore elettrico che, ogni millisecondo, misura le vibrazioni e le analizza in tempo reale, capendo se il motore sta bene o se si sta avvicinano a un guasto.
Questi dispositivi esistono. Vengono prodotti. Vengono venduti.
Ma sai cosa non c’è quasi mai? Le persone che sanno svilupparli.
Il problema è che tinyML — l’arte di far girare reti neurali su microcontrollori — non è qualcosa che si impara nel weekend. Richiede competenze che stanno a metà strada tra l’AI e l’embedded:
- Capire come funziona una rete neurale (AI)
- Capire come ottimizzare un modello per ridurlo a poche centinaia di kilobyte (AI + optimization)
- Capire come farlo girare su un chip con risorse limitatissime (embedded)
- Capire come gestire la memoria, i cicli di clock, i consumi (embedded)
È un incrocio di competenze che pochissimi possiedono. E ogni azienda che vuole entrare nell’edge AI si scontra con la stessa realtà: non trova chi assumere.
Robotica e droni: quando l’astrazione uccide
C’è una differenza fondamentale tra il software che vive nello schermo e il software che vive nel mondo reale. Quando una app crasha, si riavvia. Quando un robot crasha, può fare danni.
La robotica nel 2026 sta esplodendo. Robot domestici che puliscono pavimenti, salgono scale, portano oggetti. Droni che consegnano pacchi, che ispezionano ponti, che sorvegliano campi agricoli. Cobot che lavorano fianco a fianco con esseri umani nelle fabbriche.
E tutta questa robotica ha una cosa in comune: deve essere affidabile. Deterministica.
Quando un drone sta per centrare un ostacolo a 80 km all’ora, non ha il tempo di passare attraverso un garbage collector che decide improvvisamente di pulire la memoria. Quando un robot industriale sta per saldare due componenti con precisione decimale, non può permettersi che un’astrazione di runtime aggiunga venti millisecondi di latenza imprevedibile.
Il problema è che la maggior parte degli sviluppatori moderni non ha mai visto un garbage collector in azione. Non sa cosa sia. Non sa nemmeno che esiste.
Perché i linguaggi che usano ogni giorno — Python, JavaScript, Go, Java — si occupano loro di tutto. Nascondono la memoria. Nascondono i thread. Nascondono l’hardware.
E questo è bellissimo quando sviluppi una web app. È disastroso quando sviluppi un robot.
Qui serve qualcuno che sappia cosa succede sotto il cofano. Qualcuno che capisca che quella latenza di 20 millisecondi non è un numero casuale — è il tempo che il tuo processore impiega per fare un certo numero di operazioni. Qualcuno che sappia ottimizzare quelle operazioni.
Gli sviluppatori embedded sono queste persone. E nel mercato della robotica del 2026, sono le figure più difficili da trovare.
Domotica e IoT: la complessità nascosta
La casa intelligente del 2026 non è più “accendi le luci con la voce”. È una casa che pensa. Che anticipa. Che impara.
Dietro a questa intelligenza diffusa, c’è un ecosistema di sensori, attuatori, microcontrollori che popolano ogni angolo della casa. E questi dispositivi devono parlarsi tra loro.
Standard come Matter, Thread, CHIP sono finalmente emersi per risolvere il problema dell’interoperabilità. Ma sai cosa serve per implementarli?
Non è JavaScript. Non è Python. È codice che gira su chip che costano pochi euro e consumano milliwatt. È codice che deve parlare protocolli di basso livello. È codice che deve gestire bit, byte, registri.
E ogni azienda che produce dispositivi smart ha lo stesso problema: non trova chi sviluppi questo codice.
Il risultato? I ritardi nei prodotti. I bug. I dispositivi che non funzionano bene insieme. Non perché la tecnologia non esista — ma perché mancano le persone che sanno usarla.
Automotive elettrico e autonomo: la crisi dei talenti
Un’auto moderna è decine di computer collegati tra loro. 50-100 centraline (ECU) sparse per il veicolo, ognuna che gestisce una parte critica: batteria, motore, freni, sterzo, airbag.
Nel 2026, le auto stanno diventando sempre più autonome. Lane keeping, adaptive cruise control, automatic emergency braking — tutto questo richiede sensori che leggono il mondo, algoritmi che decidono cosa fare, attuatori che eseguono le decisioni. Tutto in tempo reale.
Sai qual è il collo di bottiglia dell’automotive oggi? Non è la tecnologia. La tecnologia esiste.
Il collo di bottiglia sono le persone.
Le aziende automotive cercano disperatamente sviluppatori embedded che capiscano di:
- CAN-bus e protocolli di comunicazione veicolare
- Real-time operating systems
- Gestione di sensori (LiDAR, radar, telecamere)
- Ottimizzazione di codice per hardware specifico
- Safety-critical systems (ISO 26262)
E non le trovano. Oppure le trovano, ma a costi astronomici. Perché la domanda è enormemente superiore all’offerta.
Low-power computing: l’arte di fare molto con poco
C’è un numero che domina ogni decisione di progettazione: il watt.
Pensa a un sensore che deve monitorare la struttura di un ponte per dieci anni. Non può essere collegato alla rete elettrica. Deve funzionare a batteria. Ma che batteria dura dieci anni?
Solo un dispositivo che consuma microampere. Non milliwatt — microampere.
Oppure pensa a un dispositivo medico impiantabile. Un pacemaker, un sensore di glucosio. Qualcosa che sta dentro il corpo di una persona e deve funzionare per anni senza interventi.
L’efficienza non è una opzione: è una questione di salute.
E sai chi sa creare questi dispositivi? Sviluppatori embedded che capiscono:
- Come scrivere codice che consumi il minimo indispensabile
- Come sfruttare i low-power modes dei microcontrollori
- Come gestire il sleep/wake cycling
- Come ottimizzare ogni ciclo di clock
Non sono competenze che si imparano sviluppando web app. Non sono competenze che si imparano usando framework astratti.
Sono competenze specialistiche, rare, preziose.
E nel 2026, mentre il mondo tech finalmente si sveglia sulla realtà energetica del cloud — le data center consumano quanto paesi interi — c’è un ritorno di attenzione verso l’altro estremo dello spettro: i dispositivi che consumano quasi nulla.
Chi sa crearli? Quasi nessuno. E quindi chi lo sa, può letteralmente scegliere il proprio lavoro.
La metafora dell’iceberg

Per capire perché sta succedendo tutto questo, c’è una metafora che aiuta: l’iceberg.
La punta dell’iceberg è ciò che tutti vedono. Le librerie AI. I framework. I linguaggi astratti. I tool che permettono a chiunque di creare un modello con poche righe di codice. È bellissimo. È democratico. È visibile.
Sotto la superficie, c’è tutto il resto. Il firmware che fa funzionare il dispositivo. Il driver che parla con il sensore. Il protocollo di comunicazione che permette ai dispositivi di parlarsi. L’ottimizzazione che fa sì che il modello giri su un chip con 256KB di RAM.
Questa parte sommersa è enorme. Molto più grande della punta. E quasi nessuno la vede.
Finché non va sotto. Finché un’azienda non prova a creare un dispositivo edge e si scopre che non sa come fare. Finché una startup non prova a implementare Matter e si scontra con la complessità del low-level. Finché un’azienda automotive non prova a assumere sviluppatori embedded e scopre che il mercato è vuoto.
A quel punto, qualcuno guarda giù, sotto la superficie, e si accorge di qualcosa: manca una generazione intera di sviluppatori embedded.
E questo è il problema — e l’opportunità — del 2026.
Conclusioni e opportunità
Torniamo alla tavola ovale al piano sopraelevato. I temi del 2025 sono ancora lì — cloud, AI, edge, sostenibilità, robotica, automotive. Stanno discutendo, evolvendo, crescendo.
Ma c’è una sedia vuota. Una figura che manca all’appello.
Qualcuno che prenda tutta questa tecnologia meravigliosa e la faccia funzionare su dispositivi concreti. Qualcuno che capisca sia l’AI che l’embedded. Qualcuno che sappia navigare tra astrazione e realtà.
Il 2026 non sarà l’anno in cui l’embedded muore. Sarà l’anno in cui il mondo tech si accorge che ne ha più bisogno che mai.
Perché la verità è semplice: più l’AI avanza, più aumentano le opportunità per chi sa farla girare su hardware reale.
Non è una questione di nostalgia. Non è un passo indietro. È un’opportunità enorme per chi vuole costruire una carriera solida in un mercato che ha fame di competenze concrete.
Quindi la prossima volta che senti parlare di AI generativa, di transformer, di agenti autonomi, pensa anche a questo: dietro a tutto questo, c’è un mondo di dispositivi che devono essere programmati. E mancano le persone che sanno farlo.
Forse è il momento di guardare sotto la superficie. Forse è il momento di occupare quella sedia vuota.



