From 274f3edf9ac43bdf029c4310af14d50affc2e0ca Mon Sep 17 00:00:00 2001 From: StarRing <130212237+StarRing2022@users.noreply.github.com> Date: Wed, 12 Apr 2023 22:44:55 +0800 Subject: [PATCH] Update PROJECT.md --- PROJECT.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/PROJECT.md b/PROJECT.md index c529b1e..231a26d 100644 --- a/PROJECT.md +++ b/PROJECT.md @@ -10,6 +10,6 @@ * [JittorLLMs](https://github.com/Jittor/JittorLLMs):最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16, 支持Linux、windows、Mac部署 * [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning):基于ChatGLM-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning等,并进行实验效果对比。 * [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM):基于ChatGLM-6B进行指令学习,汇总开源中英文指令数据,基于Lora进行指令数据微调,开放了Alpaca、Belle微调后的Lora权重,修复web_demo重复问题 - +* [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种Lora-Fusion交叉融合+Zero-Finetune零微调样本增强的方法,即使用如LLAMA-7B Alpaca微调的lora权值,镶嵌进ChatGLM-6B,以此提升模型的能力,可配合Zero-Finetune自增强生成数据集,该工程为大模型权值增强小模型效果提供了可能参考。 以下是部分针对本项目的教程/文档: -* [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md) \ No newline at end of file +* [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md)