Merge branch 'main' into main

pull/934/head
此方一泉 2 years ago committed by GitHub
commit 8d516a486b
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

@ -17,6 +17,7 @@
* [ChatGLM-web](https://github.com/NCZkevin/chatglm-web)基于FastAPI和Vue3搭建的ChatGLM演示网站(支持chatglm流式输出、前端调整模型参数、上下文选择、保存图片、知识库问答等功能) * [ChatGLM-web](https://github.com/NCZkevin/chatglm-web)基于FastAPI和Vue3搭建的ChatGLM演示网站(支持chatglm流式输出、前端调整模型参数、上下文选择、保存图片、知识库问答等功能)
* [ChatGLM-6B-Engineering](https://github.com/LemonQu-GIT/ChatGLM-6B-Engineering):基于 ChatGLM-6B 后期调教,网络爬虫及 [Stable Diffusion](https://github.com/AUTOMATIC1111/stable-diffusion-webui) 实现的网络搜索及图片生成 * [ChatGLM-6B-Engineering](https://github.com/LemonQu-GIT/ChatGLM-6B-Engineering):基于 ChatGLM-6B 后期调教,网络爬虫及 [Stable Diffusion](https://github.com/AUTOMATIC1111/stable-diffusion-webui) 实现的网络搜索及图片生成
* [ChatGLM-OpenAI-API](https://github.com/ninehills/chatglm-openai-api): 将 ChatGLM-6B 封装为 OpenAI API 风格,并通过 ngrok/cloudflare 对外提供服务,从而将 ChatGLM 快速集成到 OpenAI 的各种生态中。 * [ChatGLM-OpenAI-API](https://github.com/ninehills/chatglm-openai-api): 将 ChatGLM-6B 封装为 OpenAI API 风格,并通过 ngrok/cloudflare 对外提供服务,从而将 ChatGLM 快速集成到 OpenAI 的各种生态中。
* [ChatSQL](https://github.com/yysirs/ChatSQL): 基于ChatGLM+SBERT实现NL2SQL本地化并直接连接数据库查询数据返回结果使得生成的SQL语句更具有实用性。
对 ChatGLM-6B 进行微调的开源项目: 对 ChatGLM-6B 进行微调的开源项目:
* [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM)基于ChatGLM-6B进行指令学习汇总开源中英文指令数据基于Lora进行指令数据微调开放了Alpaca、Belle微调后的Lora权重修复web_demo重复问题 * [InstructGLM](https://github.com/yanqiangmiffy/InstructGLM)基于ChatGLM-6B进行指令学习汇总开源中英文指令数据基于Lora进行指令数据微调开放了Alpaca、Belle微调后的Lora权重修复web_demo重复问题

@ -28,6 +28,8 @@ def predict(input, max_length, top_p, temperature, history=None):
with container: with container:
if len(history) > 0: if len(history) > 0:
if len(history)>MAX_BOXES:
history = history[-MAX_TURNS:]
for i, (query, response) in enumerate(history): for i, (query, response) in enumerate(history):
message(query, avatar_style="big-smile", key=str(i) + "_user") message(query, avatar_style="big-smile", key=str(i) + "_user")
message(response, avatar_style="bottts", key=str(i)) message(response, avatar_style="bottts", key=str(i))
@ -66,4 +68,4 @@ if 'state' not in st.session_state:
if st.button("发送", key="predict"): if st.button("发送", key="predict"):
with st.spinner("AI正在思考请稍等........"): with st.spinner("AI正在思考请稍等........"):
# text generation # text generation
st.session_state["state"] = predict(prompt_text, max_length, top_p, temperature, st.session_state["state"]) st.session_state["state"] = predict(prompt_text, max_length, top_p, temperature, st.session_state["state"])

Loading…
Cancel
Save