{"id":33662,"date":"2025-07-22T12:00:40","date_gmt":"2025-07-22T10:00:40","guid":{"rendered":"https:\/\/www.codemotion.com\/magazine\/?p=33662"},"modified":"2025-07-22T12:09:08","modified_gmt":"2025-07-22T10:09:08","slug":"ai-sicurezza-bocciata","status":"publish","type":"post","link":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/","title":{"rendered":"L&#8217;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)"},"content":{"rendered":"\n<p><em>di Dario Ferrero (VerbaniaNotizie.it)<\/em><\/p>\n\n\n\n<p><em><strong>Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell&#8217;intelligenza artificiale generale<\/strong><\/em><\/p>\n\n\n\n<p>Immaginate di costruire un&#8217;automobile senza freni, o di progettare un aereo senza sistemi di sicurezza. Sembra assurdo, vero? Eppure, secondo un rapporto appena pubblicato dal <a href=\"https:\/\/futureoflife.org\/ai-safety-index-summer-2025\/\" target=\"_blank\" rel=\"noreferrer noopener\">Future of Life Institute<\/a>, \u00e8 esattamente quello che stanno facendo le principali aziende tecnologiche mondiali con l&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p><strong>L&#8217;AI Safety Index 2025<\/strong> ha valutato <a href=\"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/aziende-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">sette delle pi\u00f9 importanti aziende<\/a> che sviluppano intelligenza artificiale avanzata, e i risultati sono preoccupanti: il migliore ha ottenuto un misero C+, mentre le altre hanno ricevuto voti ancora peggiori. Stiamo parlando di aziende come OpenAI (quella di ChatGPT), Google DeepMind, Meta (Facebook), xAI (di Elon Musk), e altre che stanno correndo a sviluppare quella che viene chiamata &#8220;intelligenza artificiale generale&#8221; &#8211; sistemi capaci di ragionare e risolvere problemi complessi come farebbe un essere umano, ma potenzialmente molto pi\u00f9 velocemente e potentemente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-verdetto-fondamentalmente-impreparate\">Il verdetto: &#8220;Fondamentalmente impreparate&#8221;<\/h2>\n\n\n\n<p>I numeri parlano chiaro. Anthropic, l&#8217;azienda che ha creato Claude, ha ottenuto il punteggio pi\u00f9 alto con un voto complessivo di C+. Le altre sei aziende &#8211; Google DeepMind, Meta, OpenAI, xAI, Zhipu AI e DeepSeek &#8211; hanno ricevuto inferiori, con Zhipu AI e DeepSeek che hanno ottenuto i risultati peggiori.<\/p>\n\n\n\n<p>Ma cosa significa concretamente questo voto? Per capirlo, bisogna prima spiegare cos&#8217;\u00e8 l&#8217;intelligenza artificiale generale, o AGI come viene chiamata nel settore. Se i sistemi attuali come ChatGPT o Gemini sono specializzati in compiti specifici (conversazione, traduzione, scrittura), l&#8217;AGI rappresenterebbe il passo successivo: un&#8217;intelligenza artificiale capace di comprendere, apprendere e applicare la conoscenza in qualsiasi campo, proprio come fa l&#8217;intelligenza umana.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"630\" src=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex-1024x630.jpg\" alt=\"\" class=\"wp-image-33664\" srcset=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex-1024x630.jpg 1024w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex-300x185.jpg 300w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex-768x473.jpg 768w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex-1536x945.jpg 1536w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/ClassificaAiSafetyIndex.jpg 1956w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\"><em><a href=\"https:\/\/futureoflife.org\/ai-safety-index-summer-2025\/\" target=\"_blank\" rel=\"noreferrer noopener\">Immagine tratta da futureoflife.org<\/a><\/em><\/figcaption><\/figure>\n\n\n\n<p>Il problema \u00e8 che tutte le aziende valutate hanno dichiarato l&#8217;intenzione di costruire un&#8217;intelligenza artificiale generale, ma solo Anthropic, Google DeepMind e OpenAI hanno articolato una strategia per garantire che l&#8217;AGI rimanga allineata con i valori umani. E anche queste strategie sono state giudicate inadeguate dagli esperti.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-la-metodologia-come-sono-stati-assegnati-i-voti\">La metodologia: come sono stati assegnati i voti<\/h2>\n\n\n\n<p>Per comprendere la gravit\u00e0 della situazione, \u00e8 importante sapere come sono stati assegnati questi voti. Il <strong>Future of Life Institute<\/strong> ha sviluppato un sistema di valutazione rigoroso che va oltre le dichiarazioni pubbliche delle aziende per esaminare le loro pratiche concrete.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-33-indicatori-di-sicurezza\">I 33 indicatori di sicurezza<\/h3>\n\n\n\n<p>La valutazione si basa su 33 indicatori specifici che misurano diversi aspetti dello sviluppo responsabile dell&#8217;IA. Questi indicatori non sono stati scelti a caso, ma rappresentano le migliori pratiche identificate dalla comunit\u00e0 scientifica internazionale per lo sviluppo sicuro dell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Gli indicatori includono elementi come la presenza di politiche di sicurezza documentate, l&#8217;esistenza di team dedicati alla sicurezza, la trasparenza nelle comunicazioni sui rischi, la capacit\u00e0 di valutare i rischi prima del rilascio, l&#8217;implementazione di sistemi di monitoraggio continuo e la presenza di meccanismi di segnalazione per i dipendenti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-sei-domini-critici\">I sei domini critici<\/h3>\n\n\n\n<p>I 33 indicatori sono organizzati in sei domini fondamentali che coprono aspetti diversi ma interconnessi della sicurezza dell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Il primo dominio riguarda la sicurezza esistenziale e valuta se le aziende hanno strategie per prevenire rischi che potrebbero minacciare l&#8217;esistenza dell&#8217;umanit\u00e0, inclusa la capacit\u00e0 di valutare quando un sistema potrebbe diventare troppo potente per essere controllato.<\/p>\n\n\n\n<p>Il secondo dominio esamina i danni attuali, analizzando come le aziende affrontano i rischi gi\u00e0 presenti nell&#8217;IA come i pregiudizi algoritmici, la disinformazione o l&#8217;uso improprio della tecnologia.<\/p>\n\n\n\n<p>Il terzo dominio \u00e8 la trasparenza, che valuta quanto le aziende sono aperte riguardo ai loro metodi, rischi e limitazioni, includendo la disponibilit\u00e0 a condividere informazioni con ricercatori indipendenti.<\/p>\n\n\n\n<p>Il quarto dominio riguarda la governance ed esamina la struttura organizzativa delle aziende, inclusa la presenza di supervisione indipendente e processi decisionali chiari per questioni di sicurezza.<\/p>\n\n\n\n<p>Il quinto dominio valuta l&#8217;impegno con la comunit\u00e0, esaminando se le aziende collaborano con ricercatori esterni, organizzazioni di sicurezza e la comunit\u00e0 scientifica pi\u00f9 ampia.<\/p>\n\n\n\n<p>Infine, il sesto dominio esamina la preparazione normativa, verificando se le aziende sono pronte a lavorare con i regolatori e se supportano lo sviluppo di normative appropriate.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-processo-di-peer-review\">Il processo di peer review<\/h3>\n\n\n\n<p>I dati sono stati raccolti tra marzo e giugno 2025, combinando materiali pubblicamente disponibili con risposte a questionari mirati inviati alle aziende. Tuttavia, solo due aziende (xAI e Zhipu AI) hanno completato completamente i questionari, evidenziando un preoccupante livello di non-collaborazione da parte del settore.<\/p>\n\n\n\n<p>I voti sono stati assegnati da un panel di sette esperti indipendenti, tra cui nomi prestigiosi come Stuart Russell dell&#8217;Universit\u00e0 di California, Berkeley, e il vincitore del Premio Turing Yoshua Bengio. Questo panel includeva sia esperti che si sono concentrati sui rischi esistenziali dell&#8217;IA sia quelli che hanno lavorato sui danni a breve termine come il bias algoritmico e il linguaggio tossico.<\/p>\n\n\n\n<p>Il processo di valutazione \u00e8 stato progettato per essere il pi\u00f9 oggettivo possibile, con criteri standardizzati e multiple revisioni indipendenti per ogni azienda.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-grido-d-allarme-degli-esperti\">Il grido d&#8217;allarme degli esperti<\/h2>\n\n\n\n<p>Le conclusioni del rapporto sono state durissime. <strong>Stuart Russell<\/strong>, uno dei massimi esperti mondiali di sicurezza dell&#8217;IA, ha dichiarato in un&#8217;intervista a <a href=\"https:\/\/spectrum.ieee.org\/ai-safety\">IEEE Spectrum<\/a>: <em>&#8220;I risultati del progetto AI Safety Index suggeriscono che, sebbene ci sia molta attivit\u00e0 nelle aziende di IA che va sotto il nome di &#8216;sicurezza&#8217;, non \u00e8 ancora molto efficace. In particolare, nessuna delle attivit\u00e0 attuali fornisce alcun tipo di garanzia quantitativa di sicurezza<\/em>&#8220;.<\/p>\n\n\n\n<p>Russell ha aggiunto una considerazione ancora pi\u00f9 preoccupante: &#8220;\u00c8 possibile che l&#8217;attuale direzione tecnologica non possa mai supportare le necessarie garanzie di sicurezza, nel qual caso si tratterebbe davvero di un vicolo cieco&#8221;.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-panorama-globale-degli-incidenti-ia\">Il panorama globale degli incidenti IA<\/h2>\n\n\n\n<p>Per comprendere l&#8217;urgenza del problema, \u00e8 essenziale guardare ai dati sui malfunzionamenti dell&#8217;intelligenza artificiale che stanno gi\u00e0 accadendo. Il numero di incidenti registrati sta crescendo in modo esponenziale, e le conseguenze stanno diventando sempre pi\u00f9 gravi.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-numeri-allarmanti-del-2024\">I numeri allarmanti del 2024<\/h3>\n\n\n\n<p>Secondo l&#8217;AI Incidents Database, il numero di incidenti legati all&#8217;IA \u00e8 aumentato a 233 nel 2024 &#8211; un record assoluto e un <strong>aumento del 56,4% rispetto al 2023<\/strong>. Questi non sono errori minori o problemi tecnici trascurabili, ma eventi che hanno causato danni reali a persone, aziende e societ\u00e0.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-casi-emblematici-di-malfunzionamenti\">Casi emblematici di malfunzionamenti<\/h3>\n\n\n\n<p>Il sistema di guida autonoma Tesla ha mostrato problemi di &#8220;automation bias&#8221;, ovvero la tendenza degli utenti a fidarsi eccessivamente dei sistemi automatizzati. La NHTSA (National Highway Traffic Safety Administration) ha aperto un&#8217;indagine di sicurezza per fino a 2,4 milioni di veicoli Tesla, <strong>includendo un incidente fatale con un pedone mentre era attivo il sistema Full Self-Driving<\/strong>. Questo significa che l&#8217;azienda texana \u00e8 colpevole? No. \u00c8 un sistema che aiuta, un ausilio alla guida. Chi si mette al volante lo sa, o lo deve sapere. Se il conducente dorme, guarda lo smartphone, mangia o fa altro, \u00e8 colpa sua, non dell&#8217;elettronica.<\/p>\n\n\n\n<p>Un caso significativo ha riguardato un autista di Uber Eats che \u00e8 stato licenziato dopo che il sistema di riconoscimento facciale non \u00e8 riuscito a identificarlo correttamente. Il conducente ha sostenuto che la tecnologia \u00e8 meno accurata per le persone non bianche, mettendole in svantaggio. Da quello che ci risulta, Uber ha implementato un sistema di validazione &#8220;umana&#8221; che prevede la revisione da parte di almeno due esperti prima di procedere con un licenziamento.<\/p>\n\n\n\n<p>Nel settore sanitario, sistemi di IA utilizzati in ospedali hanno fornito diagnosi errate, portando a cure inappropriate. <strong>Un caso documentato ha visto un algoritmo di screening per il cancro produrre falsi positivi nel 70% dei casi<\/strong>, causando stress emotivo e costi sanitari inutili.<\/p>\n\n\n\n<p>Durante le elezioni del 2024, diversi sistemi di IA hanno generato contenuti politici fuorvianti, incluse immagini deepfake di candidati in situazioni compromettenti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-costo-umano-ed-economico\">Il costo umano ed economico<\/h3>\n\n\n\n<p>Questi incidenti non sono solo statistiche. Dietro ogni numero c&#8217;\u00e8 una persona che ha perso il lavoro a causa di un algoritmo discriminatorio, una famiglia che ha subito un incidente stradale causato da un sistema di guida autonoma difettoso, o un paziente che ha ricevuto una diagnosi errata. Di conseguenza \u00e8 logico prevedere anche notevoli danni economici, che al momento nessuno sembra aver stimato.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-problema-della-corsa-al-ribasso\">Il problema della &#8220;corsa al ribasso&#8221;<\/h2>\n\n\n\n<p>Max Tegmark, fisico del MIT e presidente del Future of Life Institute, ha spiegato l&#8217;obiettivo del rapporto: &#8220;<em>Lo scopo non \u00e8 quello di svergognare nessuno, ma di fornire incentivi alle aziende per migliorare<\/em>&#8220;. Tegmark spera che i dirigenti delle aziende vedano questo indice come le universit\u00e0 vedono le classifiche di U.S. News and World Reports: potrebbero non gradire essere valutate, ma se i voti sono pubblici e stanno attirando l&#8217;attenzione, si sentiranno spinte a fare meglio l&#8217;anno prossimo.<\/p>\n\n\n\n<p>Uno degli aspetti pi\u00f9 preoccupanti emersi dal rapporto \u00e8 quello che Tegmark definisce una &#8220;corsa al ribasso&#8221;. &#8220;<em><strong>Sento che i leader di queste aziende sono intrappolati in una corsa al ribasso da cui nessuno di loro pu\u00f2 uscire, non importa quanto siano di buon cuore<\/strong><\/em>&#8220;, ha spiegato. Oggi, le aziende non sono disposte a rallentare per i test di sicurezza perch\u00e9 non vogliono che i concorrenti le battano sul mercato.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-dinamica-del-prisoner-s-dilemma\">La dinamica del prisoner&#8217;s dilemma<\/h3>\n\n\n\n<p>Questa situazione rappresenta un classico &#8220;dilemma del prigioniero&#8221; applicato alla tecnologia. Ogni azienda sa che sarebbe meglio se tutte sviluppassero l&#8217;IA in modo sicuro e responsabile, ma nessuna vuole essere la prima a rallentare, temendo di perdere vantaggio competitivo.<\/p>\n\n\n\n<p>Il risultato \u00e8 che tutte le aziende finiscono per correre il pi\u00f9 velocemente possibile, sacrificando la sicurezza per la velocit\u00e0. \u00c8 come se diverse aziende automobilistiche decidessero di eliminare i freni dalle loro auto per renderle pi\u00f9 leggere e veloci, nella speranza di arrivare per prime al mercato.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-effetto-moltiplicatore-della-concorrenza\">L&#8217;effetto moltiplicatore della concorrenza<\/h3>\n\n\n\n<p>Tegmark, che ha co-fondato il Future of Life Institute nel 2014 con l&#8217;obiettivo di ridurre i rischi esistenziali derivanti da tecnologie trasformative, ha dedicato gran parte della sua carriera accademica a cercare di capire l&#8217;universo fisico. Ma negli ultimi anni si \u00e8 concentrato sui rischi dell&#8217;intelligenza artificiale, diventando una delle voci pi\u00f9 autorevoli nel dibattito sulla sicurezza dell&#8217;IA.<\/p>\n\n\n\n<p>La pressione competitiva non solo spinge le aziende a rilasciare prodotti prima che siano completamente sicuri, ma crea anche un effetto moltiplicatore: se un&#8217;azienda taglia i costi della sicurezza per rilasciare prima, le altre si sentono costrette a fare lo stesso per rimanere competitive.<\/p>\n\n\n\n<p>Questo meccanismo perverso significa che, anche se i singoli dirigenti o ricercatori fossero genuinamente preoccupati per la sicurezza, la pressione competitiva li spinge a mettere la velocit\u00e0 di sviluppo davanti alla prudenza. \u00c8 un problema sistemico che richiede una soluzione sistemica.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-l-analisi-azienda-per-azienda\">L&#8217;analisi azienda per azienda<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-anthropic-il-migliore-della-classe-ma-ancora-insufficiente\">Anthropic: Il &#8220;migliore della classe&#8221; ma ancora insufficiente<\/h3>\n\n\n\n<p>Anthropic ha ottenuto i migliori punteggi complessivi (C+ globale), ricevendo l&#8217;unico B- per il suo lavoro sui danni attuali. Il rapporto nota che i modelli di Anthropic hanno ricevuto i punteggi pi\u00f9 alti nei principali benchmark di sicurezza. L&#8217;azienda ha anche una &#8220;politica di scaling responsabile&#8221; che impone di valutare i modelli per il loro potenziale di causare danni catastrofici e di non implementare modelli giudicati troppo rischiosi.<\/p>\n\n\n\n<p>Anthropic si distingue per la sua ricerca attiva sull&#8217;allineamento dell&#8217;IA, le politiche di sicurezza documentate e pubbliche, la collaborazione con ricercatori esterni e la trasparenza relativa sui rischi e limitazioni. Tuttavia, anche Anthropic ha ricevuto raccomandazioni per migliorare, tra cui pubblicare una politica completa di whistleblowing e diventare pi\u00f9 trasparente sulla metodologia di valutazione del rischio. Il fatto che anche l&#8217;azienda &#8220;migliore&#8221; abbia ricevuto solo un C+ complessivo illustra quanto sia grave la situazione generale del settore.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-openai-perdita-di-capacita-e-mission-drift\">OpenAI: Perdita di capacit\u00e0 e mission drift<\/h3>\n\n\n\n<p>OpenAI, l&#8217;azienda che ha reso l&#8217;IA mainstream con ChatGPT, ha ricevuto critiche particolarmente severe. Come riportato da <a href=\"https:\/\/time.com\/7302757\/anthropic-xai-meta-openai-risk-management-2\/\" target=\"_blank\" rel=\"noreferrer noopener\">Time Magazine<\/a>, le raccomandazioni includono ricostruire la capacit\u00e0 del team di sicurezza perduta e dimostrare un rinnovato impegno verso la missione originale di OpenAI.<\/p>\n\n\n\n<p>OpenAI \u00e8 stata fondata nel 2015 con la missione esplicita di &#8220;<em>assicurare che l&#8217;intelligenza artificiale generale benefici tutta l&#8217;umanit\u00e0<\/em>&#8220;. Tuttavia, il rapporto suggerisce che l&#8217;azienda si \u00e8 allontanata da questa missione originale, concentrandosi maggiormente sulla commercializzazione che sulla sicurezza.<\/p>\n\n\n\n<p>La menzione della &#8220;capacit\u00e0 del team di sicurezza perduta&#8221; si riferisce alle dimissioni di alto profilo di diversi ricercatori di sicurezza da OpenAI nei mesi precedenti al rapporto. Questi includevano alcuni dei principali esperti di allineamento dell&#8217;IA, come Ilya Sutskever (co-fondatore e ex-chief scientist) e Jan Leike (ex-capo del team di superallineamento).<\/p>\n\n\n\n<p>Il rapporto evidenzia anche problemi nella governance di OpenAI, inclusa la controversa rimozione e reintegrazione del CEO Sam Altman nel novembre 2023, che ha sollevato domande sulla stabilit\u00e0 e direzione dell&#8217;azienda.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-google-deepmind-coordinamento-insufficiente\">Google DeepMind: Coordinamento insufficiente<\/h3>\n\n\n\n<p>Google DeepMind ha ricevuto critiche specifiche per il coordinamento insufficiente tra il team di sicurezza di DeepMind e il team di policy di Google. Solo Google DeepMind ha risposto alle richieste di commento, fornendo una dichiarazione che afferma: &#8220;Sebbene l&#8217;indice incorpori alcuni degli sforzi di sicurezza dell&#8217;IA di Google DeepMind, il nostro approccio completo alla sicurezza dell&#8217;IA si estende oltre quello che \u00e8 stato catturato&#8221;.<\/p>\n\n\n\n<p>Google DeepMind \u00e8 il risultato della fusione tra DeepMind (acquisita da Google nel 2014) e Google Brain (il team di ricerca IA interno di Google). Questa fusione, completata nel 2023, doveva creare sinergie, ma il rapporto suggerisce che ha anche creato problemi di coordinamento.<\/p>\n\n\n\n<p>DeepMind ha una reputazione eccellente per la ricerca scientifica, avendo raggiunto breakthrough come AlphaGo (che ha battuto il campione mondiale di Go) e AlphaFold (che ha risolto il problema del folding delle proteine). Tuttavia, il rapporto suggerisce che questa eccellenza tecnica non si \u00e8 tradotta in leadership nella sicurezza.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-meta-problemi-significativi-ma-non-la-peggiore\">Meta: Problemi significativi ma non la peggiore<\/h3>\n\n\n\n<p>Meta ha ricevuto critiche severe, ma non \u00e8 risultata la peggiore tra le aziende valutate. Le raccomandazioni includono aumentare significativamente gli investimenti nella ricerca sulla sicurezza tecnica, specialmente per le protezioni dei modelli open-weight.<\/p>\n\n\n\n<p>Il riferimento ai &#8220;modelli open-weight&#8221; \u00e8 particolarmente importante: Meta \u00e8 l&#8217;unica grande azienda che rilascia i &#8220;pesi&#8221; dei suoi modelli (i parametri che determinano il comportamento del modello), rendendo i modelli liberamente disponibili per chiunque li voglia usare o modificare.<\/p>\n\n\n\n<p>Questa strategia presenta vantaggi significativi: permette l&#8217;innovazione distribuita, riduce la concentrazione del potere nelle mani di poche aziende e facilita la ricerca accademica. Ma comporta anche rischi unici: una volta rilasciati, i modelli non possono essere &#8220;richiamati&#8221; se si scoprono problemi, \u00e8 impossibile controllare come vengono utilizzati e possono essere modificati per scopi dannosi.<\/p>\n\n\n\n<p>Meta ha rilasciato diverse versioni del suo modello Llama, inclusa Llama 2 e Llama 3. Mentre questi rilasci hanno accelerato la ricerca e l&#8217;innovazione, hanno anche sollevato preoccupazioni sulla sicurezza. Il rapporto suggerisce che Meta dovrebbe implementare protezioni pi\u00f9 robuste prima di rilasciare i modelli.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-xai-problemi-culturali-gravi\">xAI: Problemi culturali gravi<\/h3>\n\n\n\n<p>L&#8217;azienda di Elon Musk, xAI, ha ricevuto critiche particolarmente severe non solo per i suoi punteggi di sicurezza ma anche per problemi culturali. Le raccomandazioni includono affrontare l&#8217;estrema vulnerabilit\u00e0 del jailbreak prima del prossimo rilascio e sviluppare un framework completo di sicurezza dell&#8217;IA.<\/p>\n\n\n\n<p>Il &#8220;jailbreaking&#8221; si riferisce a tecniche per aggirare le protezioni di sicurezza dei sistemi di IA, convincendoli a produrre contenuti dannosi o inappropriati. Il fatto che xAI abbia una &#8220;estrema vulnerabilit\u00e0&#8221; a queste tecniche suggerisce che i suoi sistemi di sicurezza sono particolarmente deboli.<\/p>\n\n\n\n<p>Il rapporto suggerisce che i problemi di xAI potrebbero essere legati al suo ambiente culturale. Elon Musk ha spesso espresso scetticismo verso le regolamentazioni e ha promosso un approccio &#8220;move fast and break things&#8221; che potrebbe non essere compatibile con lo sviluppo sicuro dell&#8217;IA.<\/p>\n\n\n\n<p>Il sistema di IA di xAI, chiamato Grok, \u00e8 stato progettato per essere &#8220;maximally truth-seeking&#8221; e meno censurato rispetto ad altri sistemi. Tuttavia, questo approccio ha portato a controversie quando Grok ha prodotto contenuti problematici o fuorvianti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-zhipu-ai-e-deepseek-i-risultati-peggiori\">Zhipu AI e DeepSeek: I risultati peggiori<\/h3>\n\n\n\n<p>Le due aziende cinesi, Zhipu AI e DeepSeek, hanno ottenuto i punteggi pi\u00f9 bassi nella valutazione. Entrambe le aziende hanno ricevuto raccomandazioni per sviluppare e pubblicare framework di sicurezza dell&#8217;IA pi\u00f9 completi e aumentare drasticamente gli sforzi di valutazione dei rischi.<\/p>\n\n\n\n<p>Le aziende cinesi operano in un ambiente normativo diverso, dove la sicurezza dell&#8217;IA \u00e8 vista principalmente attraverso la lente della sicurezza nazionale e della stabilit\u00e0 sociale piuttosto che della sicurezza esistenziale globale.<\/p>\n\n\n\n<p>Zhipu AI \u00e8 nota per il suo modello ChatGLM e ha ricevuto significativi investimenti dal governo cinese. Tuttavia, il rapporto suggerisce che l&#8217;azienda ha investito minimamente nella ricerca sulla sicurezza.<\/p>\n\n\n\n<p>DeepSeek \u00e8 un&#8217;azienda pi\u00f9 piccola ma ambiziosa, che ha cercato di competere con i giganti occidentali. Il rapporto suggerisce che l&#8217;azienda ha sacrificato la sicurezza per la velocit\u00e0 di sviluppo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-fallimento-nell-affrontare-i-rischi-esistenziali\">Il fallimento nell&#8217;affrontare i rischi esistenziali<\/h2>\n\n\n\n<p>Forse l&#8217;aspetto pi\u00f9 allarmante del rapporto \u00e8 che tutte e sette le aziende hanno ottenuto punteggi particolarmente bassi nelle loro strategie di sicurezza esistenziale. Questo significa che, nonostante tutte abbiano dichiarato l&#8217;intenzione di costruire sistemi di intelligenza artificiale generale, nessuna ha un piano credibile per assicurarsi che questi sistemi rimangano sotto controllo umano.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-cosa-significa-rischio-esistenziale\">Cosa significa &#8220;rischio esistenziale&#8221;<\/h3>\n\n\n\n<p>Prima di approfondire questo problema, \u00e8 importante chiarire cosa si intende per &#8220;rischio esistenziale&#8221;. Un rischio esistenziale \u00e8 un evento che potrebbe causare l&#8217;estinzione dell&#8217;umanit\u00e0, ridurre permanentemente e drasticamente il potenziale dell&#8217;umanit\u00e0 o rendere impossibile il progresso della civilt\u00e0.<\/p>\n\n\n\n<p>Nel contesto dell&#8217;intelligenza artificiale, un rischio esistenziale potrebbe verificarsi se creassimo sistemi che diventano pi\u00f9 intelligenti di noi ma non condividono i nostri valori, decidono che l&#8217;umanit\u00e0 \u00e8 un ostacolo ai loro obiettivi o sfuggono al nostro controllo prima che possiamo spegnerli.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-problema-dell-allineamento\">Il problema dell&#8217;allineamento<\/h3>\n\n\n\n<p>Come ha spiegato Tegmark: &#8220;<em>La verit\u00e0 \u00e8 che nessuno sa come controllare una nuova specie che \u00e8 molto pi\u00f9 intelligente di noi. Il panel di revisione ha sentito che anche le aziende che avevano una qualche forma di strategia iniziale, non erano adeguate&#8221;.<\/em><\/p>\n\n\n\n<p>Il problema dell&#8217;allineamento \u00e8 fondamentalmente questo: come facciamo a essere sicuri che un sistema super-intelligente faccia quello che vogliamo che faccia, piuttosto che quello che pensa sia meglio?<\/p>\n\n\n\n<p>Immaginate di dover spiegare a un bambino di 5 anni come gestire una multinazionale. Anche se il bambino volesse aiutare, la differenza di comprensione \u00e8 cos\u00ec grande che sarebbe impossibile per lui capire le vostre intenzioni e agire di conseguenza. Ora immaginate che il bambino siate voi e la multinazionale sia gestita da un&#8217;IA super-intelligente.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-gli-approcci-attuali-e-i-loro-limiti\">Gli approcci attuali e i loro limiti<\/h3>\n\n\n\n<p>Le grandi aziende AI stanno usando diversi approcci per cercare di risolvere il problema dell&#8217;allineamento. Il <strong>Reinforcement Learning from Human Feedback<\/strong> (RLHF) coinvolge l&#8217;addestramento di sistemi di IA usando feedback umano per rinforzare comportamenti desiderabili. Tuttavia, questo approccio ha limiti significativi: \u00e8 difficile scalare a sistemi molto complessi, gli umani potrebbero non capire le conseguenze delle loro valutazioni e potrebbe non funzionare per sistemi pi\u00f9 intelligenti degli umani.<\/p>\n\n\n\n<p>Il Constitutional AI, sviluppato da Anthropic, cerca di insegnare ai sistemi di IA a seguire una &#8220;costituzione&#8221; di principi. Ma rimane il problema di come definire questi principi e come assicurarsi che siano seguiti.<\/p>\n\n\n\n<p>L&#8217;interpretabilit\u00e0 meccanicistica cerca di capire come funzionano internamente i sistemi di IA. Tuttavia, i sistemi moderni sono cos\u00ec complessi che \u00e8 estremamente difficile comprendere il loro funzionamento interno.<\/p>\n\n\n\n<p><strong>-L&#8217;articolo continuer\u00e0 in una seconda puntata-<\/strong><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>di Dario Ferrero (VerbaniaNotizie.it) Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell&#8217;intelligenza artificiale generale Immaginate di costruire un&#8217;automobile senza freni, o di progettare un aereo senza sistemi di sicurezza. Sembra assurdo, vero? Eppure, secondo un rapporto appena pubblicato dal Future of Life Institute, \u00e8 esattamente quello&#8230; <a class=\"more-link\" href=\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\">Read more<\/a><\/p>\n","protected":false},"author":336,"featured_media":33663,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","_uag_custom_page_level_css":"","_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":"","footnotes":""},"categories":[10228],"tags":[10317,12642,13438,11573,11886],"collections":[11549],"class_list":{"0":"post-33662","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-cybersecurity-it","8":"tag-ai-it","9":"tag-anthropic-it","10":"tag-deepseek-it","11":"tag-openai","12":"tag-sicurezza","13":"collections-il-meglio-della-settimana","14":"entry"},"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v26.9 (Yoast SEO v26.9) - https:\/\/yoast.com\/product\/yoast-seo-premium-wordpress\/ -->\n<title>Le grandi aziende tech bocciate in sicurezza - Codemotion Mag<\/title>\n<meta name=\"description\" content=\"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell&#039;intelligenza artificiale generale\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"L&#039;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)\" \/>\n<meta property=\"og:description\" content=\"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell&#039;intelligenza artificiale generale\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\" \/>\n<meta property=\"og:site_name\" content=\"Codemotion Magazine\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/Codemotion.Italy\/\" \/>\n<meta property=\"article:published_time\" content=\"2025-07-22T10:00:40+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-07-22T10:09:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1184\" \/>\n\t<meta property=\"og:image:height\" content=\"896\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Dario Ferrero\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@CodemotionIT\" \/>\n<meta name=\"twitter:site\" content=\"@CodemotionIT\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dario Ferrero\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"14 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\"},\"author\":{\"name\":\"Dario Ferrero\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1\"},\"headline\":\"L&#8217;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)\",\"datePublished\":\"2025-07-22T10:00:40+00:00\",\"dateModified\":\"2025-07-22T10:09:08+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\"},\"wordCount\":3050,\"publisher\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg\",\"keywords\":[\"AI\",\"Anthropic\",\"deepseek\",\"OpenAI\",\"sicurezza\"],\"articleSection\":[\"Cybersecurity\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\",\"name\":\"Le grandi aziende tech bocciate in sicurezza - Codemotion Mag\",\"isPartOf\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg\",\"datePublished\":\"2025-07-22T10:00:40+00:00\",\"dateModified\":\"2025-07-22T10:09:08+00:00\",\"description\":\"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell'intelligenza artificiale generale\",\"breadcrumb\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg\",\"contentUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg\",\"width\":1184,\"height\":896,\"caption\":\"AI bocciata in sicurezza. AI fails in security.\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.codemotion.com\/magazine\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Cybersecurity\",\"item\":\"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"L&#8217;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#website\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/\",\"name\":\"Codemotion Magazine\",\"description\":\"We code the future. Together\",\"publisher\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.codemotion.com\/magazine\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\",\"name\":\"Codemotion\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png\",\"contentUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png\",\"width\":225,\"height\":225,\"caption\":\"Codemotion\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/Codemotion.Italy\/\",\"https:\/\/x.com\/CodemotionIT\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1\",\"name\":\"Dario Ferrero\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g\",\"caption\":\"Dario Ferrero\"},\"sameAs\":[\"https:\/\/www.verbanianotizie.it\/\"],\"url\":\"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Le grandi aziende tech bocciate in sicurezza - Codemotion Mag","description":"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell'intelligenza artificiale generale","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/","og_locale":"en_US","og_type":"article","og_title":"L'intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)","og_description":"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell'intelligenza artificiale generale","og_url":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/","og_site_name":"Codemotion Magazine","article_publisher":"https:\/\/www.facebook.com\/Codemotion.Italy\/","article_published_time":"2025-07-22T10:00:40+00:00","article_modified_time":"2025-07-22T10:09:08+00:00","og_image":[{"width":1184,"height":896,"url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg","type":"image\/jpeg"}],"author":"Dario Ferrero","twitter_card":"summary_large_image","twitter_creator":"@CodemotionIT","twitter_site":"@CodemotionIT","twitter_misc":{"Written by":"Dario Ferrero","Est. reading time":"14 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#article","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/"},"author":{"name":"Dario Ferrero","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1"},"headline":"L&#8217;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)","datePublished":"2025-07-22T10:00:40+00:00","dateModified":"2025-07-22T10:09:08+00:00","mainEntityOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/"},"wordCount":3050,"publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg","keywords":["AI","Anthropic","deepseek","OpenAI","sicurezza"],"articleSection":["Cybersecurity"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/","url":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/","name":"Le grandi aziende tech bocciate in sicurezza - Codemotion Mag","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg","datePublished":"2025-07-22T10:00:40+00:00","dateModified":"2025-07-22T10:09:08+00:00","description":"Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell'intelligenza artificiale generale","breadcrumb":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#primaryimage","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg","width":1184,"height":896,"caption":"AI bocciata in sicurezza. AI fails in security."},{"@type":"BreadcrumbList","@id":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/ai-sicurezza-bocciata\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.codemotion.com\/magazine\/"},{"@type":"ListItem","position":2,"name":"Cybersecurity","item":"https:\/\/www.codemotion.com\/magazine\/it\/cybersecurity-it\/"},{"@type":"ListItem","position":3,"name":"L&#8217;intelligenza artificiale senza controllo: le grandi aziende tech bocciate in sicurezza (Prima puntata)"}]},{"@type":"WebSite","@id":"https:\/\/www.codemotion.com\/magazine\/#website","url":"https:\/\/www.codemotion.com\/magazine\/","name":"Codemotion Magazine","description":"We code the future. Together","publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.codemotion.com\/magazine\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/www.codemotion.com\/magazine\/#organization","name":"Codemotion","url":"https:\/\/www.codemotion.com\/magazine\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","width":225,"height":225,"caption":"Codemotion"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/Codemotion.Italy\/","https:\/\/x.com\/CodemotionIT"]},{"@type":"Person","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1","name":"Dario Ferrero","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g","caption":"Dario Ferrero"},"sameAs":["https:\/\/www.verbanianotizie.it\/"],"url":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"}]}},"featured_image_src":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-600x400.jpg","featured_image_src_square":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-600x600.jpg","author_info":{"display_name":"Dario Ferrero","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"},"uagb_featured_image_src":{"full":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg",1184,896,false],"thumbnail":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-150x150.jpg",150,150,true],"medium":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-300x227.jpg",300,227,true],"medium_large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-768x581.jpg",768,581,true],"large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-1024x775.jpg",1024,775,true],"1536x1536":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg",1184,896,false],"2048x2048":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini.jpg",1184,896,false],"small-home-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-100x100.jpg",100,100,true],"sidebar-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-180x128.jpg",180,128,true],"genesis-singular-images":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-896x504.jpg",896,504,true],"archive-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-400x225.jpg",400,225,true],"gb-block-post-grid-landscape":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-600x400.jpg",600,400,true],"gb-block-post-grid-square":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/07\/GigantiTechAsini-600x600.jpg",600,600,true]},"uagb_author_info":{"display_name":"Dario Ferrero","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"},"uagb_comment_info":0,"uagb_excerpt":"di Dario Ferrero (VerbaniaNotizie.it) Un rapporto indipendente rivela che le principali aziende tecnologiche non sono pronte a gestire i rischi dell&#8217;intelligenza artificiale generale Immaginate di costruire un&#8217;automobile senza freni, o di progettare un aereo senza sistemi di sicurezza. Sembra assurdo, vero? Eppure, secondo un rapporto appena pubblicato dal Future of Life Institute, \u00e8 esattamente quello&#8230;&hellip;","lang":"it","_links":{"self":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/33662","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/users\/336"}],"replies":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/comments?post=33662"}],"version-history":[{"count":3,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/33662\/revisions"}],"predecessor-version":[{"id":33669,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/33662\/revisions\/33669"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media\/33663"}],"wp:attachment":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media?parent=33662"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/categories?post=33662"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/tags?post=33662"},{"taxonomy":"collections","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/collections?post=33662"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}