git clone https://github.com/ggerganov/llama.cpp
git clone https://bgithub.xyz/ggerganov/llama.cpp
cd llama.cpp
make -j # 这里使用多线程编译,具体线程数根据你的CPU核心数来定
pip install -r requirements.txt -i
https://mirrors.aliyun.com/pypi/simple/
MLX微调好的模型 加入到ollama运行
发表评论