加载中...
试了在我的 M3 Max 里用 Ollama 0.19.0 跑 MLX 的 qwen3.5:35b-a3b-coding-nvfp4 模型,差不多需要 30GB 内存。
这个速度,适合没网的时候应急