We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。 第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。 LLaMA-Factory上有标注支持glm4微调。如果不支持,还请给点相关信息。
No response
我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。 第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。 LLaMA-Factory上有标注支持glm4微调。
期待回复,万分感谢。
The text was updated successfully, but these errors were encountered:
LongWriter的上下文长度为32k(输入长度+输出长度),但是我们在训练数据中并没有加入长输入的数据,模型可能在长输入场景下表现不理想。我们推荐在glm4-9b模型上做微调训练,你只需要下载LongWriter-6k数据即可,直接用LLaMA-Factory的代码就可以训练。
Sorry, something went wrong.
感谢。
明白了。
No branches or pull requests
System Info / 系統信息
我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。
第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。
LLaMA-Factory上有标注支持glm4微调。如果不支持,还请给点相关信息。
Who can help? / 谁可以帮助到您?
No response
Information / 问题信息
Reproduction / 复现过程
我想知道long writer 的输入上下文长度,在整篇文章中,只写了输出的长度。麻烦作者告知,万分感谢。
第二个问题:微调训练,是否可以在windows 上使用LLaMA-Factory。
LLaMA-Factory上有标注支持glm4微调。
Expected behavior / 期待表现
期待回复,万分感谢。
The text was updated successfully, but these errors were encountered: