LaWGPT 是一系列基于中文法律知识的开源大语言模型。
该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。
详细内容请参考技术报告。
本项目持续开展,法律领域专有数据集及系列模型后续相继开源,敬请关注。
- 🔥🔥🔥 2023/05/13:公开发布 legal-base-7b,lawgpt-7b-beta1.0
- legal-base-7b:基座 Chinese-LLaMA-7B ,基于 50w 中文裁判文书数据二次预训练
- lawgpt-7b-beta1.0:基于 legal-base-7b,构造 30w 高质量法律问答数据集指令精调
- 🔥🔥🔥 2023/04/12:内部测试 lawgpt-7b-alpha
- lawgpt-7b-alpha:基座 Chinese-LLaMA-7B ,构造 30w 法律问答数据集指令精调
1. 准备代码,创建环境
git clone [email protected]:pengxiao-song/LaWGPT.git
cd LaWGPT
conda env create -f environment.yml
conda activate lawgpt
2. 下载模型权重
3. 启动示例
本项目汇总了互联网上的中文法律数据源
根据 Stanford_alpaca 和 self-instruct 方式数据生成
中文法律基座模型 LawGPT 的训练过程分为三个阶段:
- 第一阶段:扩充法律领域词表,在大规模法律文书及法典数据上预训练 Chinese-LLaMA
- 第二阶段:构造法律领域对话问答数据集,在预训练模型基础上指令精调
8 张 Tesla V100-SXM2-32GB
评估工作正有序开展,敬请期待。
由于计算资源、数据规模等因素限制,当前阶段 LawGPT 存在诸多局限性:
- 数据资源有限、模型容量较小,导致其相对较弱的模型记忆和语言能力。因此,在面对事实性知识任务时,可能会生成不正确的结果。
- 该系列模型只进行了初步的人类意图对齐。因此,可能产生不可预测的有害内容以及不符合人类偏好和价值观的内容。
- 自我认知能力存在问题,中文理解能力有待增强。
请诸君在使用前了解上述问题,以免造成误解和不必要的麻烦。
本项目由南京大学机器学习与数据挖掘研究所(LAMDA)支持。
如下各位合作开展(按字母序排列):金苡萱、宋鹏霄、杨骁文,由郭兰哲老师、李宇峰老师指导。
请各位严格遵守如下约定:
- 本项目任何资源仅供学术研究使用,严禁任何商业用途。
- 模型输出受多种不确定性因素影响,本项目当前无法保证其准确性,严禁用于真实法律场景。
- 本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。
如有问题,请于 GitHub Issue 中提交。请礼貌讨论,构建和谐交流环境。
协作者科研之余全力推进项目进展,由于人力有限难以实时反馈,给诸君带来不便,敬请谅解!
本项目基于如下开源项目展开,在此对相关项目和研究开发人员表示诚挚的感谢:
- Chinese-LLaMA-Alpaca: https://github.com/ymcui/Chinese-LLaMA-Alpaca
- LLaMA: https://github.com/facebookresearch/llama
- Alpaca: https://github.com/tatsu-lab/stanford_alpaca
- alpaca-lora: https://github.com/tloen/alpaca-lora
- ChatGLM-6B: https://github.com/THUDM/ChatGLM-6B
如果您觉得我们的工作对您有所帮助,请考虑引用如下内容