课题是AI写作,目前是局域网linux服务器部署了ollama,跑deepseek r1 32b无审查版,自己电脑是anythingllm。现在发现写作能力真的不是一般差,想要手动训练,要怎么做?训练数据哪里找更好一些?
seesee2seesee 2025-03-05 在 下午3:12 用LoRA,数据的话看你写作风格,学术写作就arXiv,文学就Gutenberg,通用就WikiText,不过担心你即使是lora也训不动,32B不小了。 回复
无审查版本胡言乱语 我用的70b也不怎么样 还是用原版吧
qwen和llama
训练所需的硬件配置和推理差很多吧
https://x.com/foxshuo/status/1897102740809306146
弊端还是挺多,需要结合输出,自己思考
最常见的是修改出来的文章片段适合做第一段
形容修饰很做作
观点不衔接
蹲一个方案
llama或qwen试试
用LoRA,数据的话看你写作风格,学术写作就arXiv,文学就Gutenberg,通用就WikiText,不过担心你即使是lora也训不动,32B不小了。