LLM 的微调与强化学习。 使用更少的 70% VRAM,将 OpenAI gpt-oss、DeepSeek-R1、Qwen3、Gemma 3、TTS 的训练速度提高 2 倍。
介绍
- 主要功能
- 支持全面微调(full-finetuning)、预训练(pretraining)、4b-bit、16b-bit 和 8b-bit 训练
- 支持 all transformer-style models,包括 TTS、STT、多模态、扩散、BERT 等
- 所有内核均使用 OpenAI 的 Triton 语言编写,Manual backprop engine
- 0% 的精度损失(无近似方法)全部精确
- 不改变硬件,自 2018 年起支持英伟达 GPU
- 最低 CUDA 能力 7.0(V100、T4、Titan V、RTX 20、30、40x、A100、H100、L40 等)
- GTX 1070、1080 可以运行,但速度较慢
- 可在 Linux 和 Windows 上运行
安装
pip install unsloth
量化的模型