[Question]: 进行chatglm2 lora微调时,设置pipeline parallel:4,报错 module 'paddlenlp.transformers.chatglm_v2.modeling' has no attribute 'ChatGLMv2ForCausalLMPipe' #8593
Labels
question
Further information is requested
请提出你的问题
前提条件:单机单卡已经跑通chatglm2的lora微调训练代码;llama的多卡pp并行训练已跑通。
问题场景:想进一步尝试单机多卡,设置/chatglm2/lora_argument.json配置文件中的 "pipeline_parallel_degree": 4,然后参照官网样例,启动命令行:
srun --gres=gpu:4 python3 -u -m paddle.distributed.launch --gpus "0,1,2,3" finetune_generation.py ./chatglm2/lora_argument.json
所遇问题:跑chatglm2的多卡pp并行时会报错找不到ChatGLMv2ForCausalLMPipe类,错误代码行显示在:
Q:请问paddlenlp支持chatglm2的pp并行/tp并行策略吗?以及如何解决该问题?(错误截图如下)谢谢!
The text was updated successfully, but these errors were encountered: