You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.
# 友情链接
以下是部分基于本仓库开发的开源项目:
* [SwissArmyTransformer ](https://github.com/THUDM/SwissArmyTransformer ): 一个Transformer统一编程框架, ChatGLM-6B已经在SAT中进行实现并可以进行P-tuning微调。
* [ChatGLM-MNN ](https://github.com/wangzhaode/ChatGLM-MNN ): 一个基于 MNN 的 ChatGLM-6B C++ 推理实现,支持根据显存大小自动分配计算任务给 GPU 和 CPU
* [ChatGLM-Tuning ](https://github.com/mymusise/ChatGLM-Tuning ): 基于 LoRA 对 ChatGLM-6B 进行微调。类似的项目还包括 [Humanable ChatGLM/GPT Fine-tuning | ChatGLM 微调 ](https://github.com/hscspring/hcgf )
* [langchain-ChatGLM ](https://github.com/imClumsyPanda/langchain-ChatGLM ):基于本地知识的 ChatGLM 应用, 基于LangChain
* [bibliothecarius ](https://github.com/coderabbit214/bibliothecarius ): 快速构建服务以集成您的本地数据和AI模型, 支持ChatGLM等本地化模型接入。
* [闻达 ](https://github.com/l15y/wenda ):大型语言模型调用平台,基于 ChatGLM-6B 实现了类 ChatPDF 功能
* [JittorLLMs ](https://github.com/Jittor/JittorLLMs ): 最低3G显存或者没有显卡都可运行 ChatGLM-6B FP16, 支持Linux、windows、Mac部署
* [ChatGLM-Finetuning ](https://github.com/liucongg/ChatGLM-Finetuning ): 基于ChatGLM-6B模型, 进行下游具体任务微调, 涉及Freeze、Lora、P-tuning等, 并进行实验效果对比。
* [InstructGLM ](https://github.com/yanqiangmiffy/InstructGLM ): 基于ChatGLM-6B进行指令学习, 汇总开源中英文指令数据, 基于Lora进行指令数据微调, 开放了Alpaca、Belle微调后的Lora权重, 修复web_demo重复问题
* [ChatGLM-web ](https://github.com/NCZkevin/chatglm-web ): 基于FastAPI和Vue3搭建的ChatGLM演示网站(支持chatglm流式输出、前端调整模型参数、上下文选择、保存图片、知识库问答等功能)
* [glm-bot ](https://github.com/initialencounter/glm-bot ): 将ChatGLM接入Koishi可在各大聊天平台上调用ChatGLM
以下是部分针对本项目的教程/文档:
* [Windows部署文档 ](https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md )
* [ChatGLM-6B 的部署与微调教程 @ModelWhale平台 ](https://www.heywhale.com/mw/project/6436d82948f7da1fee2be59e )