|
@@ -18,6 +18,53 @@
|
|
|
|
|
|

|
|
|
|
|
|
+项目目录结构
|
|
|
+```aidl
|
|
|
+.
|
|
|
+├── agent
|
|
|
+│ └── agent实现
|
|
|
+├── chains
|
|
|
+│ ├── modules
|
|
|
+│ └── chains实现
|
|
|
+├── configs
|
|
|
+│ └── 系统初始化配置
|
|
|
+├── content
|
|
|
+│ └── 临时附件上传位置
|
|
|
+├── docs
|
|
|
+│ └── 项目文档
|
|
|
+├── fastchat
|
|
|
+│ ├── api
|
|
|
+│ └── 一个fastchat langchain的LLM远程调用拓展
|
|
|
+├── img
|
|
|
+│ └── 项目资源目录
|
|
|
+├── loras
|
|
|
+│ └── 默认的本地lora文件存放路径
|
|
|
+├── model
|
|
|
+│ └── 默认的本地checkpoint存放路径
|
|
|
+├── models
|
|
|
+│ ├── extensions
|
|
|
+│ │ └── LLM内部拓展包
|
|
|
+│ ├── loader
|
|
|
+│ │ └── 项目checkpoint加载器,支持chatglm(AutoModel)、量化模型(llama.cpp)、其它模型(AutoModelForCausalLM),兼容lora、ptuning_v2微调文件加载
|
|
|
+│ └── 实现chatglm、LLama等一些模型的langchain LLM wrapper integrations
|
|
|
+├── nltk_data
|
|
|
+│ ├── corpora
|
|
|
+│ │ └── cmudict
|
|
|
+│ ├── taggers
|
|
|
+│ │ └── averaged_perceptron_tagger
|
|
|
+│ └── tokenizers
|
|
|
+│ └── punkt
|
|
|
+├── ptuning-v2
|
|
|
+├── textsplitter
|
|
|
+│ └── 中文语义分割
|
|
|
+├── utils
|
|
|
+│ └── 系统工具
|
|
|
+└── vector_store
|
|
|
+ └── faiss本地矢量库索引文件
|
|
|
+
|
|
|
+
|
|
|
+```
|
|
|
+
|
|
|
🚩 本项目未涉及微调、训练过程,但可利用微调或训练对本项目效果进行优化。
|
|
|
|
|
|
🌐 [AutoDL 镜像](https://www.codewithgpu.com/i/imClumsyPanda/langchain-ChatGLM/langchain-ChatGLM)
|