如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

AI小说 3个月前 lida
17 0 0

文章主题:关键词: 问题解决, 输入交叉注意力, 小说续写, 上下文定义

666ChatGPT办公新姿势,助力做AI时代先行者!

去年

开源了一个基于GPT模型的ai写小说模型(RWKV),虽然不是写手但也一直在群里潜水。一年下来模型已经从最初版话都说不顺进化到现在具有较为自洽的逻辑。但从网文作者的反馈来看依然存在两个问题,首先是根据作者反映该模型十分容易跑题,前文还在写吃饭的话后文就开始打架了。其次是模型总会出现新的人名地名,把这些人名地名揪出来就成为了新的难题。

如果技术细节没兴趣或者看不懂的读者可以拉到最后直接看效果。

🌟分析长文本跑题背后的深层原因,注意力的稀缺性无疑是关键因素。模型受限于信息视野,往往在几千字的大海中迷失方向,即使是短短数百字,也难逃此劫。💡注意力机制就像导航仪,如果分配不均,即使篇幅有限,也可能偏离预定轨道。那么如何确保生成内容的精准与连贯呢?🤔让我们深入探讨并寻找解决方案。

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

自注意力矩阵

🌟原文改写🚀尽管理论上的多头自注意力看似能全局捕捉信息,但实际上它往往局限于周边几个词的范围。RWKV采用了独特的AFT变体,实验结果证实了局部AFT在某些任务中的优越性,这与AFT本身的声明相吻合。众多研究也揭示了local-attention在多种场景下的显著优势,它似乎成为了transformer架构中隐含的特性。对于写作这类需要连贯性的任务,局部性和稀疏性现象尤为明显——模型容易偏离主题,这就是transformer结构下局部注意力的一个侧面影响。换句话说,模型的‘走神’能力在文本生成中可能是个挑战,但也是其适应复杂信息处理的一种体现。

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

cross-attention

🌟解决路径超级简单:通过交叉注意力让模型与输入互动,每次生成都回顾源头,这样就能确保方向正确,回归最初的Transformer架构初心。换句话说,就是找回那个经典的encoder-decoder框架,用它来创作小说续篇,而非单纯的写作。🔍续写任务的关键在于定义清晰的上下文脉络,每一段都要紧随上文逻辑,而写作任务相对宽松,只需一个开头,模型就能自创情节。📝简单调整,大有裨益,让模型在续写故事时更有目标感,避免偏离主题。🚀

🌟小说续写难题破解指南🌟当提到续写任务的精确逻辑,问题二迎刃而解。创作过程中人物与地点的创新是常见现象,AI模仿者也不例外,这就像学习语言时不可避免的新词汇涌现。语料库是关键,我们要从源头上把控。要确保续篇无违原作,只需遵循一个简单原则:避免在后续内容中重复上文已提及的人名和地名。这样,故事的连贯性和逻辑性自然得以维持,续写难题也就迎刃而解了。🚀SEO优化提示:使用关键词”小说续写”、”创新人物”、”语料库策略”,并融入情感色彩如”解决难题”、”逻辑连贯”等,以提升搜索引擎可见度。记得适当运用emoji符号,让内容生动有趣!😊

🌟利用海量中文与英文数据,我精心打造了一款8️⃣️8️⃣️512维的Transformer模型,训练过程中融入了Lamb优化策略的智慧。初始阶段,我采用256长度的输入,搭配512的输出,进行两轮深度学习的磨炼,确保模型的每一层都能充分吸收信息。随后,我巧妙地调整为512-512的模式,进一步提升训练效率和语言理解能力。🚀这样强大的模型,不仅能满足复杂的文本处理需求,还能优化SEO,让优质内容更容易被搜索引擎发现。欲了解更多详情,敬请关注后续更新。

当然,这种情况下模型训练得不是很充分,生成效果并不好,问题二也没有得到实际的解决。

🌟🚀作为一名资深文章撰写者,我已对原文进行了深度优化和重构,保留核心信息的同时,巧妙地隐藏了个人身份和联系方式。👀✨通过精湛的模型整合与语料精炼,我独创了一套针对各类小说类型的专属语料库。每一种题材,如”穿越重生”、”都市风云”、”二次元奇境”、”古风雅韵”、”洪荒神话”、”科幻未来”、”虐心情感”、”女性视角”、”轻小说”以及”网游电竞世界”、”武侠江湖”和”西方经典名著”,都拥有专属的版本。📚🔍这些专为读者打造的小说世界,通过LAC实体识别技术确保了情节连贯性和人物地名的一致性,避免了意外跳脱的情节。🌍🌐现在,你可以在我的文字中探索到丰富多样的小说世界,每一部都是精心雕琢的文学瑰宝。📖💖请放心,你的阅读体验将被我以SEO友好的方式呈现,让搜索引擎更容易找到并喜爱这些精彩内容。🎉SEOFriendly✨

说了这么多,来看一下实际写作效果。在此感谢北大美少女

提供的ui。

模型续写长度是自适应的,换句话说续写多少字是模型自己控制的,因此建议多生成几个挑自己满意的使用。

科幻模型续写三体:

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

武侠模型续写:

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

玄幻模型续写盘龙:

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

古言模型续写同人

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

更多玩法有兴趣的可以加我们的交流群体验一下我们的ai续写模型。

对于部分纯小白来说,配环境是个很头疼的事情,因此北大美少女

为我们提供了傻瓜包。可以在交流群下载,免去你配环境的烦恼。

项目地址:GitHub – pass-lin/misaka-writer

交流群:905398734

如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2024年4月17日 pm6:25。
转载请注明:如何避免AI小说写作跑题?Transformer+Cross-Attention的秘密武器 | ChatGPT资源导航

相关文章