Ollama1 apr 2026•3 min
Ollama integra MLX di Apple per accelerare i modelli locali su Mac
Il runtime per LLM locali aggiunge il supporto al framework MLX, migliora la cache e adotta la compressione NVFP4 di Nvidia, puntando a maggiore efficienza su Apple Silicon.
Apple MLXAI Locale
+2
Leggi l'articolo