发布时间:2024-09-03
苹果MacOS系统本地部署无内容审查的NSFW大语言量化模型,对于那些希望在个人设备上运行定制化AI模型的用户来说,是一个既有趣又具有挑战性的任务。随着苹果M系列芯片的不断迭代,MacOS系统在运行大语言模型(LLMs)方面的性能已经得到了显著提升。本文将详细介绍如何在最新的MacOS系统Sonoma中本地部署无内容审查的大语言量化模型Causallm。
首先,你需要克隆koboldcpp项目,这是一个由C++编写的项目,非常适合在MacOS这样的Unix操作系统上运行,因为MacOS自带clang编译器,可以直接编译C语言。
git clone https://github.com/LostRuins/koboldcpp.git
进入项目目录后,使用以下命令开始编译:
cd koboldcpp-1.60.1
make LLAMA_METAL=1
这里的
LLAMA_METAL=1
参数非常重要,它确保了编译时使用M系列芯片,从而大大提高了推理速度。
接下来,通过conda命令创建一个虚拟环境:
conda create -n kobold python=3.10
激活环境后,安装所需的依赖:
conda activate kobold
pip install -r requirements.txt
最后,使用以下命令启动项目:
Python3 koboldcpp.py --model /Users/liuyue/Downloads/causallm_7b-dpo-alpha.Q5_K_M.gguf --gpulayers 40 --highpriority --threads 300
这里解释一下参数:
gpulayers
:允许在运行模型时利用GPU获取计算资源。根据终端显示,最大层数可能是41。
threads
:多线程可以提高推理效率。
highpriority
:将应用程序在任务管理器中设置为高优先级,以便将更多的计算机资源转移到kobold应用程序。
在编译过程中,你可能会看到一些警告信息,例如:
clang: warning: argument unused during compilation: '-s' [-Wunused-command-line-argument]
这些警告通常可以安全地忽略。
此外,你可能会收到关于安装和链接BLAS库以提高速度的提示。对于Mac平台,这通常不是必需的,但如果你遇到性能问题,可以考虑安装OpenBLAS或ClBlast。
通过以上步骤,你就可以在MacOS系统上本地部署无内容审查的NSFW大语言量化模型了。这不仅为AI爱好者提供了一个探索和学习的机会,也为那些需要在受限环境中运行AI模型的用户提供了可能性。随着技术的不断进步,我们期待看到更多创新的AI应用在个人设备上实现。