M4 con 24GB: ejecuta Qwen 3.5-9B a 60 t/s y ahorra $500/mes
¿Por qué ejecutar IA local en tu M4 cambia las reglas?Qwen 3.5-9B alcanza 81.2% en el benchmark multilingual MMMLU, superando a Llama 3.1-8B (78.2%) y compitiendo directamente con GPT-4o-mini en tareas de código. Esto no es teoría: en un MacBook M4 con 24GB de memoria, este modelo genera 45-60 tokens por segundo usando MLX, el …









