diff --git a/README.md b/README.md index 3efd913..62d26df 100644 --- a/README.md +++ b/README.md @@ -37,7 +37,7 @@ ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进 * [JittorLLMs](https://github.com/Jittor/JittorLLMs):最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16, 支持Linux、windows、Mac部署 * [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning):基于ChatGLM-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning等,并进行实验效果对比。 * [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM):基于ChatGLM-6B进行指令学习,汇总开源中英文指令数据,基于Lora进行指令数据微调,开放了Alpaca、Belle微调后的Lora权重,修复web_demo重复问题 -* [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种lora交换融合的方法,即使用如LLAMA7B Alpaca微调的lora权值,镶嵌进ChatGLM-6B,以此提升模型的能力,并为大模型权值增强小模型效果提供了可能参考。 +* [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种lora交换融合的方法,即使用如LLAMA-7B Alpaca微调的lora权值,镶嵌进ChatGLM-6B,以此提升模型的能力,并为大模型权值增强小模型效果提供了可能参考。 以下是部分针对本项目的教程/文档: * [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md)