Alibaba Cloud ha rilasciato la serie Qwen 3.5 in tre fasi tra febbraio e marzo 2026, come riportato da VentureBeat. La serie Small, pubblicata il 2 marzo, comprende modelli da 0.8, 2, 4 e 9 miliardi di parametri progettati specificamente per applicazioni di inferenza locale e su dispositivo. Questi modelli, nonostante le dimensioni ridotte, superano sistemi molto più grandi su benchmark specifici. I requisiti hardware per l’uso consumer sono definiti: i modelli da 0.8B a 4B girano su 2-6 GB di RAM su qualsiasi laptop moderno; il modello da 9B richiede 8 GB di RAM, con 16 GB consigliati, adatto a un laptop gaming standard. La serie Medium, rilasciata il 24 febbraio, aggiunge i modelli Qwen3.5-27B (denso), 35B-A3B e 122B-A10B. Il modello di punta, Qwen3.5-397B-A17B, un modello Mixture of Experts con 17 miliardi di parametri attivi, richiede sistemi con oltre 214 GB di RAM. Sui benchmark chiave, Qwen3.5 ottiene 76.5 su IFBench per l’instruction following, superando GPT-5.2 (75.4) e Claude (58.0). Su MMMU per la visione raggiunge 85.0, risultando l’opzione open-weight più forte disponibile. Su MathVision per la matematica visiva segna 88.6 contro l’83.0 di GPT-5.2. Per l’uso di tool, Qwen3.5-122B ottiene 72.2 contro il 55.5 di GPT-5 mini. Sul benchmark di coding SWE-bench raggiunge 76.4, leggermente sotto l’80.9 di Claude Opus 4.6. Tutti i modelli sono rilasciati sotto licenza Apache 2.0, completamente open-weight e utilizzabili commercialmente. L’hosting autonomo risulta circa 13 volte più economico dell’utilizzo dell’API di Claude Opus 4.6. I modelli supportano 201 lingue, incluso l’italiano, e modalità sia di “ragionamento” (chain-of-thought) che “non-thinking” per risposte veloci.
L’impatto pratico di questa release è significativo per sviluppatori, aziende e ricercatori che necessitano di modelli di linguaggio eseguibili localmente senza dipendere da API cloud. La serie Small, in particolare, democratizza l’accesso a modelli performanti su hardware consumer comune. Uno sviluppatore può integrare un modello da 2B in un’applicazione desktop senza requisiti di connettività, riducendo costi operativi e latenza. Un’azienda può implementare un assistente interno su una workstation standard, mantenendo il controllo completo sui dati. Il confronto dei costi è diretto: l’hosting autonomo di Qwen3.5 risulta sostanzialmente più economico rispetto all’utilizzo di API proprietarie per volumi elevati. La compatibilità con strumenti popolari come Ollama e llama.cpp semplifica l’adozione. La performance su benchmark di instruction following e matematica visiva suggerisce un’adeguatezza per task di ragionamento e analisi documentale in ambienti locali. La supporto per 201 lingue amplia il potenziale per applicazioni multilingue.
La fonte originale non menziona esplicitamente limiti o rischi, ma alcuni aspetti sono ragionevolmente inferibili. Le dimensioni ridotte dei modelli Small comportano inevitabilmente limitazioni nella capacità di conoscenza e nel ragionamento complesso rispetto a modelli con centinaia di miliardi di parametri. La performance su SWE-bench, sebbene buona, è inferiore a quella di Claude Opus 4.6, indicando che per task di coding estremamente complessi potrebbero esserci alternative migliori. L’esecuzione locale richiede competenze tecniche per la configurazione, l’ottimizzazione e il mantenimento dell’infrastruttura, un onere che le API cloud gestiscono in modo trasparente. La quantizzazione, necessaria per far girare modelli più grandi su hardware limitato, può introdurre degradazione della qualità delle risposte. La sicurezza e l’allineamento di modelli open-weight sono responsabilità dell’utente finale, che deve implementare eventuali sistemi di moderazione o filtraggio. La dipendenza da hardware specifico, come una GPU da 24 GB per le performance massime del modello flagship, rappresenta una barriera di costo iniziale.
Questa release si inserisce nel trend consolidato di spostamento dell’intelligenza artificiale verso il edge computing e l’inferenza locale. Alibaba segue la scia di aziende come Meta e Mistral AI nel rilasciare modelli open-weight competitivi, accelerando la decentralizzazione dell’ecosistema AI. La specializzazione in modelli di dimensioni ottimizzate per hardware specifico rappresenta un’evoluzione rispetto alla corsa ai parametri più elevati. Lo sviluppo futuro plausibile include un’ulteriore ottimizzazione per hardware mobile e IoT, e una maggiore integrazione di modalità multimodali efficienti. Resta aperta la questione del bilanciamento tra efficienza e capacità emergenti, e di come la comunità open-source integrerà questi modelli in pipeline applicative più ampie. Per un product manager o un CTO, la domanda rilevante è se i vantaggi in termini di controllo dei dati, riduzione dei costi a lungo termine e latenza giustifichino l’investimento in competenze e infrastruttura per l’hosting locale, rispetto alla semplicità delle API cloud.
Alessio Baronti
Consulente Strategico AI & Sviluppatore Web