Skip to content

Xfjie314/NLP

 
 

Repository files navigation

环境配置:

pip install transformers==4.38.1

pip install peft

pip install datasets

pip install accelerate

pip install deepspeed

pip install bitsandbytes

pip install jsonlines

pip install sentence_transformers

pip install dashscope

如果transformers和peft出现兼容性问题,就:pip install -U "transformers>=4.40.0" "peft>=0.10.0" "bitsandbytes>=0.43.0" accelerate

每部分功能

生成数据:

self_instruct_generator.py:迭代生成数据,会将生成的数据存储到\dataset\raw_generator.jsonl,迭代参数可调

self_instruct_fliter.py:将raw_generator.jsonl的数据去重后存储到\dataset\final_dataset.jsonl

\dataset\filtered_seeds.jsonl: 存储用于迭代的初始种子数据。

\dataset\final_dataset.jsonl: 最终用于训练的指令数据

text2vec-large-chinese: 用于语义去重的模型,请从huggingface上拉下来 : https://huggingface.co/GanymedeNil/text2vec-large-chinese

训练:

Qwen1.5-1.8B:用于训练的小模型,请从huggingface上拉下来 https://huggingface.co/Qwen/Qwen1.5-1.8B

train_lora_sft.py:用于进行QLora指令微调的训练代码,训练参数可调(目前只设置了很小的训练量)

待做工作:

  1. 对self_instruct_generator.py中的提示词prompt进行合适的调整,使得生成更高质量的指令数据

  2. 生成足够量的指令数据,并对指令数据的质量进行分析

  3. 调整参数,使用train_lora_sft.py在消费级GPU上进行模型训练,

  4. 评估模型质量

About

pretrain a lawGPT

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Python 100.0%