MLX微调好的模型 加入到ollama运行

git clone https://github.com/ggerganov/llama.cpp

git clone https://bgithub.xyz/ggerganov/llama.cpp

cd llama.cpp
make -j  # 这里使用多线程编译,具体线程数根据你的CPU核心数来定

pip install -r requirements.txt -i 
https://mirrors.aliyun.com/pypi/simple/

发表回复