|
|
@ -29,6 +29,7 @@ ChatGLM2-6B 开源模型旨在与开源社区一起推动大模型技术发展
|
|
|
|
|
|
|
|
|
|
|
|
## 友情链接
|
|
|
|
## 友情链接
|
|
|
|
对 ChatGLM2 进行加速的开源项目:
|
|
|
|
对 ChatGLM2 进行加速的开源项目:
|
|
|
|
|
|
|
|
* [fastllm](https://github.com/ztxz16/fastllm/): 全平台加速推理方案,单GPU批量推理每秒可达10000+token,手机端最低3G内存实时运行(骁龙865上约4~5 token/s)
|
|
|
|
* [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的 CPU 量化加速推理方案,实现 Mac 笔记本上实时对话
|
|
|
|
* [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的 CPU 量化加速推理方案,实现 Mac 笔记本上实时对话
|
|
|
|
|
|
|
|
|
|
|
|
## 评测结果
|
|
|
|
## 评测结果
|
|
|
|