mirror of https://github.com/THUDM/ChatGLM-6B
Merge e8784a0a2d
into da626f8b23
commit
819b12982b
|
@ -10,6 +10,6 @@
|
|||
* [JittorLLMs](https://github.com/Jittor/JittorLLMs):最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16, 支持Linux、windows、Mac部署
|
||||
* [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning):基于ChatGLM-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning等,并进行实验效果对比。
|
||||
* [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM):基于ChatGLM-6B进行指令学习,汇总开源中英文指令数据,基于Lora进行指令数据微调,开放了Alpaca、Belle微调后的Lora权重,修复web_demo重复问题
|
||||
|
||||
* [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种Lora-Fusion交叉融合+Zero-Finetune零微调样本增强的方法,即使用如LLAMA-7B Alpaca微调的lora权值,镶嵌进ChatGLM-6B,以此提升模型的能力,可配合Zero-Finetune自增强生成数据集,该工程为大模型权值增强小模型效果提供了可能参考。
|
||||
以下是部分针对本项目的教程/文档:
|
||||
* [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md)
|
||||
* [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md)
|
||||
|
|
Loading…
Reference in New Issue