Topic Hub · 12 articoli

AI Locale & Open Source

L'AI locale permette di eseguire modelli direttamente su hardware proprio (laptop, server aziendale, edge device) senza dipendere da API cloud. Vantaggi: privacy totale, costi prevedibili, latenza minima, controllo completo. Strumenti come Ollama, llama.cpp e MLX hanno reso l'inferenza locale accessibile anche su Mac e PC consumer.

Tutti gli articoli su AI Locale & Open Source

Domande frequenti su AI Locale & Open Source

Come si esegue un modello AI in locale?

Il modo più semplice è installare Ollama (`ollama run qwen3.5:9b`) o LM Studio. Per maggior controllo, llama.cpp permette di eseguire modelli quantizzati in formato GGUF. Su Mac con Apple Silicon, MLX di Apple offre performance superiori. Hugging Face Transformers è la libreria di riferimento per ricerca e prototipazione.

Che hardware serve per far girare un LLM in locale?

Un modello da 7-9B parametri quantizzato gira con 8-16 GB di RAM su CPU moderna o GPU integrata. Modelli da 27-35B richiedono 24+ GB di VRAM o RAM unificata (es. Mac M3 Max). Modelli da 70B+ necessitano di una GPU dedicata da 48+ GB o setup multi-GPU. La quantizzazione 4-bit riduce significativamente i requisiti.

Quali sono i migliori modelli open source nel 2026?

Qwen 3.5 (Alibaba) domina nel rapporto qualità/dimensioni. Llama 4 (Meta) resta lo standard per fine-tuning. DeepSeek per il reasoning matematico. Mistral per task in lingue europee. Per coding, Qwen Coder e DeepSeek Coder. Tutti con licenze permissive (Apache 2.0 o simili).