Update README.md

pull/479/head
StarRing 2023-04-09 20:48:49 +08:00 committed by GitHub
parent ef0d86ed18
commit fcd59a1b6c
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 1 additions and 1 deletions

View File

@ -37,7 +37,7 @@ ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进
* [JittorLLMs](https://github.com/Jittor/JittorLLMs)最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16 支持Linux、windows、Mac部署 * [JittorLLMs](https://github.com/Jittor/JittorLLMs)最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16 支持Linux、windows、Mac部署
* [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning)基于ChatGLM-6B模型进行下游具体任务微调涉及Freeze、Lora、P-tuning等并进行实验效果对比。 * [ChatGLM-Finetuning](https://github.com/liucongg/ChatGLM-Finetuning)基于ChatGLM-6B模型进行下游具体任务微调涉及Freeze、Lora、P-tuning等并进行实验效果对比。
* [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM)基于ChatGLM-6B进行指令学习汇总开源中英文指令数据基于Lora进行指令数据微调开放了Alpaca、Belle微调后的Lora权重修复web_demo重复问题 * [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM)基于ChatGLM-6B进行指令学习汇总开源中英文指令数据基于Lora进行指令数据微调开放了Alpaca、Belle微调后的Lora权重修复web_demo重复问题
* [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种lora交换融合的方法即使用如LLAMA7B Alpaca微调的lora权值镶嵌进ChatGLM-6B以此提升模型的能力并为大模型权值增强小模型效果提供了可能参考。 * [ChatGLM-Uni](https://github.com/StarRing2022/ChatGlm-Uni):基于一种lora交换融合的方法即使用如LLAMA-7B Alpaca微调的lora权值镶嵌进ChatGLM-6B以此提升模型的能力并为大模型权值增强小模型效果提供了可能参考。
以下是部分针对本项目的教程/文档: 以下是部分针对本项目的教程/文档:
* [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md) * [Windows部署文档](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md)