如果要将小说或者其他什么文本内容直接翻译成分镜,推荐您可以通过以下方法进行完成:
1.打开一个文本类AI,建议使用通义千问
2.将以下tag输入进文本类AI的输入框内:“____这里输入小说或其他什么文本的内容___将以上内容写成AI绘画的tag,参考:#出现的角色two central figures, one heroic knight in medieval armor with intricate engravings, another mysterious cloaked figure with glowing eyes, intense eye contact between them #表演故事的场景ancient stone ruins scattered around, a large circular stone platform in the center, wind-blown leaves swirling in the air, faint magical symbols glowing on the ground #情绪与蒙太奇tense standoff, anticipation of conflict, sense of mystery and danger, deep emotional connection #配色括弧这里是冷色调也可以选阿宝色调之类的rich color palette, dominant hues of golds, blues, and dark greens, vibrant yet moody colors”
3.使用模型进行tag的替换,tag模板已经放在推荐设置了
V1和V2的使用须知如下:
(注意SD1.5搬家SD3.5的模型与这个系列lora不适配,用小工具“露卡的SD1.5大模型搬家SD3.5lora魔法V2.0”训练SD3.5的模型的小朋友有难了)
0.V1和V2都在fp8模型表现极差,毕竟fp8的精度太感人了,推荐用large的turbo
1.二者理论上都能在只使用一个lora的前提下作为只能改变部分画风的普通lora使用,但是强度不要太高
2.对真实风格及其他非动漫风格的改变效果差,V2在很多场合比V1表现更差
3.单独使用极难创建分镜,在两个及以上的漫画模型组合在一起时才能创建分镜,V1能适配图像尺寸生成nxn张,V2则固定是8张,以方便脚本对生成出来的漫画进行工业切割
4.V2模型不再携带原动画的空镜/大远景/特写/以及其他诸如过场黑幕过场字幕转场等信息/此类信息通过一些算法进行识别剥离,减少了黑镜头的生成概率,目前仅保留中景和近景,但该算法目前仍处于早期开发阶段,并不能肯定全部都剥离了,也不能保证剥离的真的是这些,算法笨笨,望见谅
5.V2模型层数比V1多了一些,但我不能确定二者一起使用会发生什么,因为多出来的几个层目前不能肯定到底是什么信息,一起使用肯定会造成权重失衡,望周知
6.V2和V1模型都不应该选择画风差别过大的模型进行组合,以免发生结构性崩溃
7.由于训练资源的庞大,V2和V1在没有特别声明时只训练了大约2小时的动漫内容
8.从底层逻辑而言V2是允许商用的/但发生版权归属问题切莫来找我awa