From afe08a19ccadc8b238c218b245bb4c1c62598588 Mon Sep 17 00:00:00 2001 From: hoshi-hiyouga Date: Thu, 20 Apr 2023 19:11:34 +0800 Subject: [PATCH] =?UTF-8?q?=E6=B7=BB=E5=8A=A0=E8=BE=83=E6=88=90=E7=86=9F?= =?UTF-8?q?=E7=9A=84=E5=BC=80=E6=BA=90=E5=BE=AE=E8=B0=83=E9=A1=B9=E7=9B=AE?= =?UTF-8?q?ChatGLM-Efficient-Tuning?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- PROJECT.md | 2 ++ 1 file changed, 2 insertions(+) diff --git a/PROJECT.md b/PROJECT.md index c69bcbb..e23df21 100644 --- a/PROJECT.md +++ b/PROJECT.md @@ -18,9 +18,11 @@ 对 ChatGLM-6B 进行微调的开源项目: * [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM):基于ChatGLM-6B进行指令学习,汇总开源中英文指令数据,基于Lora进行指令数据微调,开放了Alpaca、Belle微调后的Lora权重,修复web_demo重复问题 +* [ChatGLM-Efficient-Tuning](https://github.com/hiyouga/ChatGLM-Efficient-Tuning):基于ChatGLM-6B模型进行定制化微调,汇总10余种指令数据集和3种微调方案,实现了4/8比特量化和模型权重融合,提供微调模型快速部署方法。 * [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning):基于ChatGLM-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning等,并进行实验效果对比。 * [ChatGLM-Tuning](https://github.com/mymusise/ChatGLM-Tuning): 基于 LoRA 对 ChatGLM-6B 进行微调。类似的项目还包括 [Humanable ChatGLM/GPT Fine-tuning | ChatGLM 微调](https://github.com/hscspring/hcgf) + 针对 ChatGLM-6B 的教程/文档: * [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md) * [ChatGLM-6B 的部署与微调教程 @ModelWhale平台](https://www.heywhale.com/mw/project/6436d82948f7da1fee2be59e)