Reminder
System Info
llamafactory version: 0.9.1.dev0
- Platform: Linux-6.5.0-27-generic-x86_64-with-glibc2.35
- Python version: 3.10.12
- PyTorch version: 2.4.1+cu124 (GPU)
- Transformers version: 4.45.0.dev0
- Datasets version: 2.21.0
- Accelerate version: 0.34.2
- PEFT version: 0.12.0
- TRL version: 0.9.6
- GPU type: Tesla V100-PCIE-32GB
- DeepSpeed version: 0.15.1
- Bitsandbytes version: 0.43.3
Reproduction
在 qwen2_vl.yaml中,我写了:
do_sample: false
max_new_tokens: 512
实际使用py-spy查看传入的参数的时候,显示do_sample=true, 没有max_new_tokens,而max_len是我的cut off len.实际上我是想限制生成长度。

根据transformers源代码
https://github.com/huggingface/transformers/blob/8bd2b1e8c23234cd607ca8d63f53c1edfea27462/src/transformers/generation/utils.py#L2967
_sample此时应该已经是false了
经过多次试验,这个参数只有在训练完成后的最后一次eval才会正确传递,训练中途的所有eval都不会
Expected behavior
正确传入model.generate参数
Others
No response
Reminder
System Info
llamafactoryversion: 0.9.1.dev0Reproduction
在 qwen2_vl.yaml中,我写了:
实际使用py-spy查看传入的参数的时候,显示do_sample=true, 没有max_new_tokens,而max_len是我的cut off len.实际上我是想限制生成长度。

根据transformers源代码
https://github.com/huggingface/transformers/blob/8bd2b1e8c23234cd607ca8d63f53c1edfea27462/src/transformers/generation/utils.py#L2967
_sample此时应该已经是false了经过多次试验,这个参数只有在训练完成后的最后一次eval才会正确传递,训练中途的所有eval都不会
Expected behavior
正确传入model.generate参数
Others
No response