{"id":34442,"date":"2025-11-11T11:40:41","date_gmt":"2025-11-11T10:40:41","guid":{"rendered":"https:\/\/www.codemotion.com\/magazine\/?p=34442"},"modified":"2025-11-11T11:42:43","modified_gmt":"2025-11-11T10:42:43","slug":"kimi-k2-thinking-la-cina-mette-la-freccia","status":"publish","type":"post","link":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/","title":{"rendered":"Kimi K2 Thinking: La Cina mette la freccia"},"content":{"rendered":"\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><em>Moonshot AI riscrive le regole dell&#8217;intelligenza artificiale con Kimi K2 Thinking: un modello open source da un trilione di parametri che sfida GPT-5 e Claude, costato meno di 5 milioni di dollari. Il 6 novembre 2025, mentre la community degli sviluppatori AI scorreva distrattamente le notifiche su Hugging Face, \u00e8 apparso un rilascio che avrebbe potuto sembrare l&#8217;ennesimo modello linguistico cinese. Kimi K2 Thinking, creato dalla startup Moonshot AI supportata da Alibaba, prometteva le solite meraviglie: capacit\u00e0 agentiche avanzate, architettura Mixture-of-Experts, un trilione di parametri totali.<\/em><\/p>\n\n\n\n<p>Ma quando i primi benchmark hanno iniziato a circolare, qualcosa di inaspettato \u00e8 emerso dai numeri: 44,9% su <a href=\"https:\/\/agi.safe.ai\/\">Humanity&#8217;s Last Exam<\/a>, battendo sia GPT-5 che Claude Sonnet 4.5. Non di poco, non per errore statistico, ma con margini che hanno costretto anche i pi\u00f9 scettici a ricalcolare.<\/p>\n\n\n\n<p>Per chi non mastica quotidianamente l&#8217;alfabeto degli acronimi AI, Humanity&#8217;s Last Exam \u00e8 quello che accade quando gli esperti decidono di fermare la marcia trionfale dei modelli linguistici: <a href=\"https:\/\/scale.com\/leaderboard\/humanitys_last_exam\">tremila domande crowdsourced da oltre mille specialisti<\/a>, progettate per essere troppo difficili anche per i sistemi pi\u00f9 avanzati. Matematica avanzata, biologia molecolare, filosofia analitica, fisica quantistica. Il tipo di esame dove GPT-4o balbetta al 9% e anche i pi\u00f9 recenti reasoning models faticano a superare il 30%. Kimi K2 Thinking ha superato quella soglia con una naturalezza che ricorda i film heist quando il colpo impossibile diventa routine: nessuno spettacolo, solo precisione metodica.<\/p>\n\n\n\n<p>Ma questa non \u00e8 una storia di un singolo modello eccezionale. \u00c8 la cronaca di un momento in cui l&#8217;impossibile diventa la nuova normalit\u00e0, e le regole economiche e geopolitiche dell&#8217;AI vengono riscritte da chi, teoricamente, doveva restare indietro.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-dentro-la-macchina\">Dentro la Macchina<\/h2>\n\n\n\n<p>Per capire cosa rende K2 Thinking diverso occorre scendere nell&#8217;architettura, dove le scelte ingegneristiche diventano dichiarazioni di intenti. Il modello \u00e8 costruito su un&#8217;architettura <a href=\"https:\/\/arxiv.org\/abs\/2507.20534\">Mixture-of-Experts con un trilione di parametri totali<\/a>, ma ne attiva solo 32 miliardi per ogni token processato. \u00c8 una strategia che ricorda le centrali elettriche modulari: tutta quella potenza esiste, ma viene chiamata in causa solo quando necessaria, riducendo drasticamente i costi operativi senza sacrificare le capacit\u00e0.<\/p>\n\n\n\n<p>La vera innovazione, per\u00f2, \u00e8 nella quantizzazione INT4 nativa. Mentre la maggior parte dei modelli viene addestrata in precisione pi\u00f9 alta e poi compressa, K2 Thinking \u00e8 stato progettato fin dall&#8217;inizio per operare in INT4, dimezzando i requisiti di memoria e raddoppiando la velocit\u00e0 di inferenza senza le tipiche perdite di accuratezza che affliggono la compressione post-hoc. \u00c8 il tipo di scelta che privilegia l&#8217;efficienza operativa alla vanity metric dei parametri totali, una filosofia che diventer\u00e0 centrale quando parliamo di costi.<\/p>\n\n\n\n<p>L&#8217;architettura MoE di K2 distribuisce il carico su 384 esperti specializzati, contro i 256 di DeepSeek V3, permettendo una granularit\u00e0 maggiore nella selezione delle competenze. Ogni richiesta attiva un sottoinsieme dinamico di questi esperti, e il sistema sceglie autonomamente quali neuroni chiamare in causa in base al tipo di problema. In pratica, quando K2 deve scrivere codice Python attiva un set di esperti diverso rispetto a quando deve risolvere equazioni differenziali o tradurre sanscrito.<\/p>\n\n\n\n<p>Ma l&#8217;elemento che distingue K2 Thinking dai suoi predecessori \u00e8 il test-time scaling, una tecnica che permette al modello di &#8220;pensare pi\u00f9 a lungo&#8221; su problemi complessi. Non \u00e8 semplice trial-and-error: il sistema pu\u00f2 allocare pi\u00f9 cicli computazionali alle domande difficili, esplorando catene di ragionamento alternative prima di convergere su una risposta. \u00c8 quello che i ricercatori chiamano &#8220;thinking mode&#8221;, ed \u00e8 la ragione per cui K2 pu\u00f2 affrontare problemi multi-step che richiederebbero normalmente supervisione umana.<\/p>\n\n\n\n<p>Sul fronte dell&#8217;agenticit\u00e0, K2 dimostra capacit\u00e0 che fino a qualche mese fa erano prerogativa di sistemi chiusi e costosi: pu\u00f2 eseguire <a href=\"https:\/\/platform.moonshot.ai\/docs\/guide\/use-kimi-k2-thinking-model\">200-300 chiamate sequenziali di tool<\/a> senza intervento umano, navigando API esterne, processando dati strutturati e orchestrando workflow complessi. La finestra di contesto da 256k token permette di mantenere coerenza su conversazioni estese o documenti tecnici corposi, mentre il sistema di memoria cache riduce la latenza nelle interazioni ripetute.<br><br><a href=\"https:\/\/arxiv.org\/pdf\/2507.20534\">Immagine tratta dal paper ufficiale su arxiv.org<\/a><\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"598\" src=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1-1024x598.jpg\" alt=\"\" class=\"wp-image-34445\" srcset=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1-1024x598.jpg 1024w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1-300x175.jpg 300w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1-768x448.jpg 768w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1-1536x897.jpg 1536w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico1.jpg 1632w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><a href=\"https:\/\/arxiv.org\/pdf\/2507.20534\">Immagine tratta dal paper ufficiale su arxiv.org<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-i-numeri-parlano\">I Numeri Parlano<\/h2>\n\n\n\n<p>I benchmark sono il campo di battaglia dove le promesse vengono misurate contro la realt\u00e0. Su <a href=\"https:\/\/scale.com\/leaderboard\/humanitys_last_exam\">Humanity&#8217;s Last Exam<\/a>, K2 Thinking raggiunge 44,9%, superando GPT-5 (42,1%) e Claude Sonnet 4.5 (41,7%). Ma il vero discrimine emerge quando si guarda ai task agentici: su <a href=\"https:\/\/arxiv.org\/abs\/2507.20534\">BrowseComp<\/a>, che misura la capacit\u00e0 di navigare web e API autonomamente, K2 ottiene 34,2% contro il 28,5% di GPT-5. Su SWE-Bench Verified, il benchmark per software engineering che richiede di risolvere bug reali in codebase open source, K2 raggiunge 65,8%, superando praticamente ogni modello non-thinking disponibile.<\/p>\n\n\n\n<p>Non tutto brilla allo stesso modo. Su GPQA Diamond, il dataset di domande scientifiche graduate-level, K2 si ferma a 75,1%, un risultato eccellente ma non record-breaking. E quando GPT-5 viene eseguito in &#8220;heavy mode&#8221; con reasoning esteso, riesce ancora a superare K2 su alcuni task specifici di matematica pura. Ma quello che conta, nella narrativa pi\u00f9 ampia, \u00e8 che queste differenze sono marginali, e scompaiono completamente quando si considera il rapporto costo-prestazioni.<\/p>\n\n\n\n<p>Perch\u00e9 qui emerge il dato che ha fatto tremare Silicon Valley: K2 Thinking costa $0,33 per milione di token in input e $1,33 in output. GPT-5 standard si attesta a $1,25\/$10, mentre GPT-5 in modalit\u00e0 reasoning pu\u00f2 arrivare a $50 per milione di token output. Non stiamo parlando di differenze del 20-30%, ma di un ordine di grandezza. Per un&#8217;azienda che processa decine di milioni di token al giorno, la matematica diventa brutalmente semplice.<\/p>\n\n\n\n<p>E c&#8217;\u00e8 un dettaglio tecnico che vale la pena sottolineare: tutti questi benchmark di K2 sono stati eseguiti in INT4, senza trucchi di precisione gonfiata per guadagnare punti percentuali. Alcuni laboratori rilasciano numeri impressionanti in FP16 e poi, quando il modello viene effettivamente deployato in produzione quantizzato, le prestazioni crollano. K2 \u00e8 stato testato nelle stesse condizioni in cui verrebbe usato in produzione, una trasparenza che dovrebbe essere standard ma che raramente lo \u00e8.<\/p>\n\n\n\n<p>Su <a href=\"https:\/\/arxiv.org\/abs\/2507.20534\">LiveCodeBench v6<\/a>, che testa la capacit\u00e0 di scrivere codice per problemi nuovi mai visti durante il training, K2 raggiunge 53,7%. Su AIME 2025, l&#8217;esame di matematica avanzata per studenti americani, ottiene 49,5%. Su OJBench, un benchmark cinese per competitive programming, arriva a 27,1%. Numeri che individualmente potrebbero sembrare tecnicismi, ma che aggregati disegnano il profilo di un sistema che ha superato la soglia della utilit\u00e0 pratica su una gamma molto ampia di applicazioni reali.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"776\" src=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2-1024x776.jpg\" alt=\"\" class=\"wp-image-34446\" srcset=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2-1024x776.jpg 1024w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2-300x227.jpg 300w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2-768x582.jpg 768w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2-1536x1163.jpg 1536w, https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/grafico2.jpg 1942w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><br><a href=\"https:\/\/arxiv.org\/pdf\/2507.20534\">Immagine tratta dal paper ufficiale su arxiv.org<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-la-voce-critica\">La Voce Critica<\/h2>\n\n\n\n<p>Nathan Lambert non \u00e8 il tipo che si lascia impressionare facilmente. Ricercatore AI all&#8217;Allen Institute for AI e autore della <a href=\"https:\/\/www.interconnects.ai\/p\/kimi-k2-thinking-what-it-means\">newsletter Interconnects<\/a>, Lambert ha dedicato anni ad analizzare il gap tra hype e realt\u00e0 nel settore. Quando ha scritto della sua analisi su K2 Thinking, ha posto una domanda che taglia come un bisturi: &#8220;What does it mean when a DeepSeek moment becomes routine?&#8221;<\/p>\n\n\n\n<p>Quando DeepSeek V3 \u00e8 stato rilasciato a fine 2024 con un costo di training di 5,6 milioni di dollari, l&#8217;industria ha avuto un sussulto collettivo. Era l&#8217;anomalia che confermava la regola: s\u00ec, \u00e8 possibile costruire modelli competitivi con budget ridicoli, ma resta un&#8217;eccezione. Ora, dieci mesi dopo, abbiamo Moonshot con K2, Qwen che macina rilasci, e una dozzina di altri laboratori cinesi che pubblicano modelli open source ogni due settimane. I server di Kimi sono gi\u00e0 saturi, segno che non stiamo parlando di tech demo ma di sistemi che gli sviluppatori deployano effettivamente in produzione.<\/p>\n\n\n\n<p>Lambert individua cinque dinamiche critiche, e la prima \u00e8 la pi\u00f9 semplice ma devastante: i laboratori cinesi rilasciano pi\u00f9 velocemente. Molto pi\u00f9 velocemente. Mentre Anthropic pu\u00f2 impiegare mesi per portare un modello dal lab alla produzione, e OpenAI si posiziona da qualche parte nel mezzo, i laboratori cinesi spremono quel ciclo in settimane. Quando il ritmo del progresso \u00e8 alto, essere pi\u00f9 rapidi ti fa sembrare migliore. Lambert stima il gap di performance grezza tra closed e open a circa quattro-sei mesi, ma poi pone la domanda retorica: se questi modelli closed non sono pubblicamente disponibili, contano davvero?<\/p>\n\n\n\n<p>Il secondo punto tocca qualcosa di pi\u00f9 sfumato: i laboratori cinesi stanno dominando sui benchmark chiave, ma esistono &#8220;long-tail behaviors&#8221; per cui non hanno feedback loops. Lambert nota che Qwen, nell&#8217;ultimo anno, \u00e8 passato da essere conosciuto per &#8220;benchmaxing&#8221; (ottimizzare ossessivamente i benchmark) a produrre modelli genuinamente fantastici che, casualmente, hanno anche punteggi insani. DeepSeek e Kimi hanno quello che Lambert chiama &#8220;good taste&#8221;, una qualit\u00e0 difficile da quantificare ma immediata da percepire quando usi i modelli. Ma rimangono comportamenti utente comuni, specialmente quelli occidentali, su cui le aziende americane hanno anni di dati interni e i laboratori cinesi no. Questi intangibili contano per la retention degli utenti, anche se non appaiono su Humanity&#8217;s Last Exam.<\/p>\n\n\n\n<p>\u00c8 qui che Lambert riconosce un dettaglio tecnico spesso trascurato: K2 Thinking \u00e8 stato addestrato nativamente in INT4 durante il post-training, probabilmente per rendere lo scaling del reinforcement learning pi\u00f9 efficiente su sequenze lunghe. E tutti i benchmark riportati sono in INT4, non in precisione gonfiata. \u00c8 il modo onesto di fare confronti, nota Lambert, perch\u00e9 \u00e8 cos\u00ec che il modello verr\u00e0 effettivamente servito.<\/p>\n\n\n\n<p>Il terzo punto \u00e8 geopolitico e inesorabile: all&#8217;inizio del 2025, la maggior parte delle persone che seguivano l&#8217;AI conosceva zero laboratori cinesi. Ora, verso la fine dell&#8217;anno, DeepSeek, Qwen e Kimi stanno diventando nomi comuni. Hanno tutti stagioni di rilasci migliori e punti di forza diversi. E la lista continuer\u00e0 a crescere: Lambert cita Z.ai, Meituan, Ant Ling come possibili aggiunte per il 2026. Alcuni di questi laboratori hanno iniziato i loro sforzi sui foundation models dopo DeepSeek, e in sei mesi hanno raggiunto il ballpark della frontier open. La domanda ora \u00e8 se possano offrire qualcosa in una nicchia della frontier che abbia domanda reale da parte degli utenti.<\/p>\n\n\n\n<p>Il quarto aspetto riguarda le capacit\u00e0 agentiche interleaved: K2 Thinking pu\u00f2 eseguire centinaia di chiamate sequential di tool, una caratteristica che \u00e8 diventata standard nei modelli closed come o3 e Grok 4. Tecnicamente non \u00e8 rivoluzionario, emerge naturalmente durante il training RL specialmente quando il modello deve cercare informazioni per rispondere correttamente. Ma \u00e8 la prima volta che questa capacit\u00e0 appare in un modello open con questa robustezza, e i provider che hostano open weights dovranno lavorare duramente per supportarla precisamente. Lambert spera che esista domanda utente sufficiente per far maturare l&#8217;industria nel serving di tool-use models open.<\/p>\n\n\n\n<p>Il quinto punto \u00e8 il pi\u00f9 preoccupante per i laboratori americani: la pressione \u00e8 reale. C&#8217;\u00e8 pressione sui prezzi e aspettative che devono gestire. La differenziazione e la narrazione su perch\u00e9 i loro servizi closed siano migliori deve evolversi rapidamente, allontanandosi dai benchmark che ora anche l&#8217;open source domina. Lambert aveva anticipato questo nel suo post estivo &#8220;Some Thoughts on What Comes Next&#8221;, suggerendo che i rilasci futuri assomiglieranno sempre pi\u00f9 a quello di Claude 4, dove i guadagni sui benchmark sono marginali ma quelli nel mondo reale sono sostanziali. Questa transizione richieder\u00e0 molta pi\u00f9 nuance per capire se il ritmo del progresso stia continuando, specialmente quando i critici dell&#8217;AI sfrutteranno il plateau delle evaluations per sostenere che l&#8217;AI non funziona pi\u00f9.<\/p>\n\n\n\n<p>La domanda finale di Lambert \u00e8 ingannevolmente semplice: i canali di distribuzione esistenti, i prodotti e la capacit\u00e0 di serving sono sufficienti per mantenere stabile il valore di tutte le principali compagnie AI statunitensi? Lambert pensa che siano al sicuro, ma i modelli e le compagnie cinesi stanno prendendo fette pi\u00f9 grandi della torta AI in crescita. Non sar\u00e0 una maggioranza in termini di revenue, ma pu\u00f2 essere una maggioranza in mindshare, specialmente nei mercati internazionali.<\/p>\n\n\n\n<p>Quello che Lambert non dice esplicitamente, ma che emerge tra le righe, \u00e8 che stiamo assistendo non a una competizione ma a una biforcazione. Due ecosistemi paralleli che si rafforzano reciprocamente all&#8217;interno, ma che comunicano sempre meno tra loro. E quando la domanda passa da &#8220;chi \u00e8 pi\u00f9 avanti&#8221; a &#8220;chi conta per quale mercato&#8221;, le risposte diventano inquietantemente geopolitiche.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-geopolitica-degli-algoritmi\">Geopolitica degli Algoritmi<\/h2>\n\n\n\n<p>Per capire il contesto pi\u00f9 ampio di K2 Thinking occorre guardare oltre Moonshot. La Cina ha sei grandi laboratori AI che i media specializzati hanno iniziato a chiamare informalmente &#8220;AI Tigers&#8221;: DeepSeek, Moonshot, Alibaba (con Qwen), Baidu (con Ernie), ByteDance (con VolcEngine), e Tencent (con Hunyuan). Ognuno rilascia modelli maggiori ogni due-tre mesi, creando una cadenza che tiene l&#8217;industria globale in costante tensione.<\/p>\n\n\n\n<p>I controlli sulle esportazioni americane di chip avanzati, pensati per rallentare lo sviluppo AI cinese, hanno avuto un effetto paradossale. DeepSeek V3 \u00e8 stato addestrato su <a href=\"https:\/\/www.axios.com\/2025\/01\/17\/deepseek-china-ai-model\">Nvidia H800<\/a>, una versione depotenziata dell&#8217;H100 che gli USA hanno bannato per la Cina nel 2022. Il ban successivo ha colpito anche gli H800 nel 2023, ma ormai la strada era tracciata: i laboratori cinesi hanno imparato a estrarre prestazioni frontier da hardware subottimale attraverso ottimizzazioni software aggressive.<\/p>\n\n\n\n<p>Il costo di training \u00e8 il dato che continua a dominare la narrativa. K2 Thinking ha richiesto <a href=\"https:\/\/www.cnbc.com\/2025\/11\/06\/alibaba-backed-moonshot-releases-new-ai-model-kimi-k2-thinking.html\">meno di 5 milioni di dollari<\/a>, secondo le stime ufficiali. DeepSeek V3 era costato 5,6 milioni. Per confronto, GPT-4 aveva richiesto oltre 100 milioni di dollari nel 2023, e i rumor su GPT-5 parlano di budget nell&#8217;ordine dei miliardi. Emad Mostaque, ex CEO di Stability AI, ha twittato che con i chip Nvidia Blackwell di nuova generazione basterebbero 3 milioni di dollari per addestrare un modello competitivo con i frontier models attuali.<\/p>\n\n\n\n<p>Questi numeri hanno implicazioni dirette sul mercato. Aziende come Airbnb hanno gi\u00e0 pubblicamente dichiarato di usare Qwen per alcune applicazioni interne, privilegiando il rapporto costo-prestazioni rispetto al brand recognition. E mentre OpenAI e Anthropic difendono i loro pricing sostenendo che i costi operativi rimangono alti, la realt\u00e0 \u00e8 che il mercato sta scoprendo che &#8220;abbastanza buono e dieci volte pi\u00f9 economico&#8221; batte &#8220;perfetto ma proibitivo&#8221; nella maggior parte dei casi d&#8217;uso reali.<\/p>\n\n\n\n<p>La licenza Modified MIT sotto cui K2 Thinking viene rilasciato merita una nota. \u00c8 tecnicamente open source, permette uso commerciale e modifiche, ma include clausole che limitano l&#8217;uso del nome &#8220;Moonshot&#8221; e &#8220;Kimi&#8221; in prodotti derivati. \u00c8 un compromesso tra apertura genuina e protezione del brand, una strategia che i laboratori cinesi stanno perfezionando per massimizzare l&#8217;adozione senza rinunciare al controllo narrativo.<\/p>\n\n\n\n<p>Chi vince e chi perde in questo scenario? Gli sviluppatori vincono, acquisendo accesso a tecnologie che fino a ieri costavano decine di migliaia di dollari al mese in API calls. Le startup vincono, potendo competere con incumbents che basavano il loro moat sull&#8217;accesso privilegiato a modelli proprietari. I laboratori open source occidentali perdono rilevanza, schiacciati tra la velocit\u00e0 cinese e la qualit\u00e0 (presunta) dei closed models americani. E gli stessi colossi americani si trovano in una posizione delicata: continuare con la strategia closed rischia di renderli irrilevanti nel lungo termine, ma aprire completamente significherebbe cannibalizzare i flussi di revenue che finanziano la R&amp;D.<\/p>\n\n\n\n<p>Il vero perdente, forse, \u00e8 l&#8217;idea stessa di un ecosistema AI globale unificato. Stiamo assistendo alla cristallizzazione di sfere di influenza tecnologica parallele, ognuna con i propri standard, dataset, bias e valori. E quando Lambert chiede se questo sia democratizzazione o frammentazione, la risposta onesta \u00e8: probabilmente entrambe, simultaneamente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-futuro-prossimo\">Futuro Prossimo<\/h2>\n\n\n\n<p>K2 Thinking non \u00e8 un tech demo rilasciato per fare rumore e poi dimenticato. I server di Moonshot sono attualmente saturi, con tempi di attesa che nei picchi superano i dieci minuti per ottenere una risposta. \u00c8 il tipo di problema che le startup sognano di avere: troppa domanda, non abbastanza capacit\u00e0. Ma segnala qualcosa di pi\u00f9 profondo: gli sviluppatori stanno effettivamente deployando questi modelli in produzione, non solo testandoli per curiosit\u00e0.<\/p>\n\n\n\n<p>L&#8217;impatto pi\u00f9 immediato \u00e8 sulla dinamica cliente-fornitore nell&#8217;AI. Per anni, il rapporto di potere era sbilanciato: se volevi capacit\u00e0 frontier, dovevi accettare i termini di OpenAI o Anthropic, inclusi pricing, rate limits, policy sui dati. Con K2 e i suoi simili, il calcolo cambia. Un&#8217;azienda pu\u00f2 scaricare i pesi, deployare on-premise o su cloud di propria scelta, e avere controllo completo su latenza, privacy e costi operativi. Non \u00e8 perfetto per tutti i casi d&#8217;uso, ma per una fetta significativa del mercato \u00e8 pi\u00f9 che sufficiente.<\/p>\n\n\n\n<p>Le domande aperte rimangono numerose. La multimodalit\u00e0 nativa, ad esempio: K2 Thinking \u00e8 ancora primariamente text-based, mentre GPT-4 e Claude possono processare immagini, audio, video in modo integrato. I reasoning traces, quelle catene di pensiero esplicite che modelli come o1 e R1 mostrano, in K2 sono meno trasparenti, rendendo pi\u00f9 difficile il debugging quando il modello sbaglia. E la questione della sostenibilit\u00e0 long-term: pu\u00f2 Moonshot, con una frazione delle risorse di OpenAI, mantenere questo ritmo di innovazione?<\/p>\n\n\n\n<p>Ma forse la domanda pi\u00f9 interessante \u00e8 quella che Lambert lascia implicitamente aperta: cosa succede quando l&#8217;impossibile diventa routine? Quando K2 Thinking \u00e8 stato rilasciato, molti hanno reagito con entusiasmo. Il prossimo modello cinese che batter\u00e0 i benchmark avr\u00e0 meno copertura mediatica. Il successivo ancora meno. Non perch\u00e9 siano meno impressionanti tecnicamente, ma perch\u00e9 la curva dell&#8217;aspettativa si sar\u00e0 spostata.<\/p>\n\n\n\n<p>Siamo a quel punto del film heist dove i protagonisti hanno perfezionato il colpo al punto che sembra quasi noioso. Entrare nel caveau, bypassare i sistemi, uscire puliti. Nessun dramma, solo esecuzione. \u00c8 il momento pi\u00f9 pericoloso, quello dove l&#8217;overconfidence porta agli errori. E nel contesto dell&#8217;AI, gli errori non significano fallire un benchmark, ma distribuire sistemi che prenderanno decisioni critiche senza che abbiamo completamente compreso come o perch\u00e9.<\/p>\n\n\n\n<p>K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline. E quando l&#8217;eccezionale diventa ordinario, \u00e8 l\u00ec che iniziano i veri problemi interessanti.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Moonshot AI riscrive le regole dell&#8217;intelligenza artificiale con Kimi K2 Thinking: un modello open source da un trilione di parametri che sfida GPT-5 e Claude, costato meno di 5 milioni di dollari. Il 6 novembre 2025, mentre la community degli sviluppatori AI scorreva distrattamente le notifiche su Hugging Face, \u00e8 apparso un rilascio che avrebbe&#8230; <a class=\"more-link\" href=\"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/\">Read more<\/a><\/p>\n","protected":false},"author":336,"featured_media":34444,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","_uag_custom_page_level_css":"","_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":"","footnotes":""},"categories":[10261],"tags":[13710,13712,13714],"collections":[],"class_list":{"0":"post-34442","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-intelligenza-artificiale","8":"tag-k2","9":"tag-kimi","10":"tag-moonshot","11":"entry"},"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v26.9 (Yoast SEO v27.5) - https:\/\/yoast.com\/product\/yoast-seo-premium-wordpress\/ -->\n<title>Kimi K2 Thinking: La Cina mette la freccia - Codemotion Magazine<\/title>\n<meta name=\"description\" content=\"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Kimi K2 Thinking: La Cina mette la freccia\" \/>\n<meta property=\"og:description\" content=\"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/\" \/>\n<meta property=\"og:site_name\" content=\"Codemotion Magazine\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/Codemotion.Italy\/\" \/>\n<meta property=\"article:published_time\" content=\"2025-11-11T10:40:41+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-11-11T10:42:43+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1184\" \/>\n\t<meta property=\"og:image:height\" content=\"896\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Dario Ferrero\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@CodemotionIT\" \/>\n<meta name=\"twitter:site\" content=\"@CodemotionIT\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Dario Ferrero\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"14 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/\"},\"author\":{\"name\":\"Dario Ferrero\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#\\\/schema\\\/person\\\/d3aecf71fcce8c6de1ae67518f3f1de1\"},\"headline\":\"Kimi K2 Thinking: La Cina mette la freccia\",\"datePublished\":\"2025-11-11T10:40:41+00:00\",\"dateModified\":\"2025-11-11T10:42:43+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/\"},\"wordCount\":2816,\"publisher\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2025\\\/11\\\/kimi-k2-thinking.jpg\",\"keywords\":[\"k2\",\"kimi\",\"moonshot\"],\"articleSection\":[\"Intelligenza artificiale\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/\",\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/\",\"name\":\"Kimi K2 Thinking: La Cina mette la freccia - Codemotion Magazine\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2025\\\/11\\\/kimi-k2-thinking.jpg\",\"datePublished\":\"2025-11-11T10:40:41+00:00\",\"dateModified\":\"2025-11-11T10:42:43+00:00\",\"description\":\"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#primaryimage\",\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2025\\\/11\\\/kimi-k2-thinking.jpg\",\"contentUrl\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2025\\\/11\\\/kimi-k2-thinking.jpg\",\"width\":1184,\"height\":896},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/kimi-k2-thinking-la-cina-mette-la-freccia\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Intelligenza artificiale\",\"item\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/it\\\/intelligenza-artificiale\\\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Kimi K2 Thinking: La Cina mette la freccia\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#website\",\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/\",\"name\":\"Codemotion Magazine\",\"description\":\"We code the future. Together\",\"publisher\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#organization\",\"name\":\"Codemotion\",\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2019\\\/11\\\/codemotionlogo.png\",\"contentUrl\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/wp-content\\\/uploads\\\/2019\\\/11\\\/codemotionlogo.png\",\"width\":225,\"height\":225,\"caption\":\"Codemotion\"},\"image\":{\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/Codemotion.Italy\\\/\",\"https:\\\/\\\/x.com\\\/CodemotionIT\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/#\\\/schema\\\/person\\\/d3aecf71fcce8c6de1ae67518f3f1de1\",\"name\":\"Dario Ferrero\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g\",\"caption\":\"Dario Ferrero\"},\"sameAs\":[\"https:\\\/\\\/www.verbanianotizie.it\\\/\"],\"url\":\"https:\\\/\\\/www.codemotion.com\\\/magazine\\\/author\\\/dario-ferrero\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Kimi K2 Thinking: La Cina mette la freccia - Codemotion Magazine","description":"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/","og_locale":"en_US","og_type":"article","og_title":"Kimi K2 Thinking: La Cina mette la freccia","og_description":"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline","og_url":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/","og_site_name":"Codemotion Magazine","article_publisher":"https:\/\/www.facebook.com\/Codemotion.Italy\/","article_published_time":"2025-11-11T10:40:41+00:00","article_modified_time":"2025-11-11T10:42:43+00:00","og_image":[{"width":1184,"height":896,"url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg","type":"image\/jpeg"}],"author":"Dario Ferrero","twitter_card":"summary_large_image","twitter_creator":"@CodemotionIT","twitter_site":"@CodemotionIT","twitter_misc":{"Written by":"Dario Ferrero","Est. reading time":"14 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#article","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/"},"author":{"name":"Dario Ferrero","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1"},"headline":"Kimi K2 Thinking: La Cina mette la freccia","datePublished":"2025-11-11T10:40:41+00:00","dateModified":"2025-11-11T10:42:43+00:00","mainEntityOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/"},"wordCount":2816,"publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg","keywords":["k2","kimi","moonshot"],"articleSection":["Intelligenza artificiale"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/","url":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/","name":"Kimi K2 Thinking: La Cina mette la freccia - Codemotion Magazine","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#primaryimage"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg","datePublished":"2025-11-11T10:40:41+00:00","dateModified":"2025-11-11T10:42:43+00:00","description":"K2 Thinking \u00e8 un risultato tecnico notevole. Ma la sua vera importanza potrebbe essere quella di marcare il momento in cui abbiamo smesso di essere stupiti, e abbiamo iniziato ad assumere che questo livello di capacit\u00e0 sia il nuovo baseline","breadcrumb":{"@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#primaryimage","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg","width":1184,"height":896},{"@type":"BreadcrumbList","@id":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/kimi-k2-thinking-la-cina-mette-la-freccia\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.codemotion.com\/magazine\/"},{"@type":"ListItem","position":2,"name":"Intelligenza artificiale","item":"https:\/\/www.codemotion.com\/magazine\/it\/intelligenza-artificiale\/"},{"@type":"ListItem","position":3,"name":"Kimi K2 Thinking: La Cina mette la freccia"}]},{"@type":"WebSite","@id":"https:\/\/www.codemotion.com\/magazine\/#website","url":"https:\/\/www.codemotion.com\/magazine\/","name":"Codemotion Magazine","description":"We code the future. Together","publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.codemotion.com\/magazine\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/www.codemotion.com\/magazine\/#organization","name":"Codemotion","url":"https:\/\/www.codemotion.com\/magazine\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","width":225,"height":225,"caption":"Codemotion"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/Codemotion.Italy\/","https:\/\/x.com\/CodemotionIT"]},{"@type":"Person","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/d3aecf71fcce8c6de1ae67518f3f1de1","name":"Dario Ferrero","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/860e20df873940f3a6bb7f64e995c70b9fd9d18f64e3233dd779168cc6a75dca?s=96&d=mm&r=g","caption":"Dario Ferrero"},"sameAs":["https:\/\/www.verbanianotizie.it\/"],"url":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"}]}},"featured_image_src":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-600x400.jpg","featured_image_src_square":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-600x600.jpg","author_info":{"display_name":"Dario Ferrero","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"},"uagb_featured_image_src":{"full":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg",1184,896,false],"thumbnail":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-150x150.jpg",150,150,true],"medium":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-300x227.jpg",300,227,true],"medium_large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-768x581.jpg",768,581,true],"large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-1024x775.jpg",1024,775,true],"1536x1536":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg",1184,896,false],"2048x2048":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking.jpg",1184,896,false],"small-home-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-100x100.jpg",100,100,true],"sidebar-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-180x128.jpg",180,128,true],"genesis-singular-images":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-896x504.jpg",896,504,true],"archive-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-400x225.jpg",400,225,true],"gb-block-post-grid-landscape":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-600x400.jpg",600,400,true],"gb-block-post-grid-square":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2025\/11\/kimi-k2-thinking-600x600.jpg",600,600,true]},"uagb_author_info":{"display_name":"Dario Ferrero","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/dario-ferrero\/"},"uagb_comment_info":0,"uagb_excerpt":"Moonshot AI riscrive le regole dell&#8217;intelligenza artificiale con Kimi K2 Thinking: un modello open source da un trilione di parametri che sfida GPT-5 e Claude, costato meno di 5 milioni di dollari. Il 6 novembre 2025, mentre la community degli sviluppatori AI scorreva distrattamente le notifiche su Hugging Face, \u00e8 apparso un rilascio che avrebbe&#8230;&hellip;","lang":"it","_links":{"self":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/34442","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/users\/336"}],"replies":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/comments?post=34442"}],"version-history":[{"count":3,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/34442\/revisions"}],"predecessor-version":[{"id":34457,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/34442\/revisions\/34457"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media\/34444"}],"wp:attachment":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media?parent=34442"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/categories?post=34442"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/tags?post=34442"},{"taxonomy":"collections","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/collections?post=34442"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}