From 85a8961ae7c5d9511ed5eee3ee3bda4f53aac758 Mon Sep 17 00:00:00 2001 From: wangzhihong Date: Thu, 4 Jul 2024 19:54:44 +0800 Subject: [PATCH] Update README_zh-CN.md --- ecosystem/README_zh-CN.md | 25 +++++++++++++++++++++++++ 1 file changed, 25 insertions(+) diff --git a/ecosystem/README_zh-CN.md b/ecosystem/README_zh-CN.md index 99dfea4..8ba4b7a 100644 --- a/ecosystem/README_zh-CN.md +++ b/ecosystem/README_zh-CN.md @@ -244,3 +244,28 @@ LlamaIndex 是一个用于构建上下文增强型 LLM 应用程序的框架。 它选择 ollama 作为 LLM 推理引擎。你可以在[入门教程(本地模型)](<(https://docs.llamaindex.ai/en/stable/getting_started/starter_example_local/)>)中找到示例。 因此,如果能够按照 [ollama 章节](#ollama)使用 ollama 部署浦语模型,你就可以顺利地将浦语模型集成到 LlamaIndex 中。 + +### [LazyLLM](https://github.com/LazyAGI/LazyLLM) + +LazyLLM是一个的低代码构建多Agent大模型应用的开发工具,相比于LangChain和LLamaIndex,其具有极高的灵活性和易用性。 + +当你安装了`lazyllm`之后, 你可以使用如下代码以极低的成本,基于internLM搭建chatbots,无论推理还是微调,您都无需考虑对话模型的特殊token(如`<|im_start|>system`和`<|im_end|>`等 )。不用担心没有权重文件,只要您能联网,下面的代码将会自动帮您下载权重文件并部署服务,您只需尽情享受LazyLLM给您带来的便利。 + +```python +from lazyllm import TrainableModule, WebModule +m = TrainableModule('internlm2-chat-7b') +# will launch a chatbot server +WebModule(m).start().wait() +``` + +如果你需要进一步微调模型,可以参考如下代码。当TrainableModule的trainset被设置之后,在调研WebModule的update函数时,会自动微调TrainableModule,然后对TrainableModule和WebModule分别进行部署。 + +```python +from lazyllm import TrainableModule, WebModule +m = TrainableModule('internlm2-chat-7b').trainset('/patt/to/your_data.json') +WebModule(m).update().wait() +``` + +如果您按照[LazyLLM搭建RAG应用](https://github.com/LazyAGI/LazyLLM/blob/main/README.CN.md)提供的教程操作,就可以借助LazyLLM,使用internLM系列的模型,十行代码搭建高度定制的RAG应用,且附带文档管理服务。 + +LazyLLM官方文档: https://lazyllm.readthedocs.io/