Tensor.Art
在线生图

优可youkengi_anime_SDXL_base

CHECKPOINT
原创

30K

优可youkengi_anime_SDXL_base是优可系列的第一个SDXL大模型,延续了优可模型一贯的高品质(发布时的T1水平)。

其核心能力在于:

1.能够以非常稳定且精美的二次元风格出图:基本画风为线条干净的二次元风格,细节适中。虽然realistic,3Drendering等tag依然有效,但低权重下仍然会带有强烈的二次元风格;

2.天然好手和较好的肢体:尤其是对高难度手势的支持,不易崩;就算手崩了,但基本的型都还在;

3.极强的文本理解力:可以理解SD1.5无法理解的高难度tag,且基本能根据prompt的描述相符来画图;

4.极高作图正确率:画图不容易出错,整体细节出错率大幅降低,比如例图基本都可以一遍画对;

5.可以画男人:这条不用解释得太多,不过因为图集美少女比较多,画男人的时候最好用malefocus;

6.非常容易上手:采用了混合打标的模式,就像SD1.5那样写tag也没问题,对长句短语都能很好的支持;

7.不锁脸和极强的lora结合能力:基本是我二代模型都有的特点,主要是因为炼制的时候注意控制了污染。

没有加强的特征:因为我本人比较不喜欢模型的画风会反复横跳而显得不可控,同时也是偷懒,所以没有特别内置二次元角色和画师的画风(如果有些角色或者画师tag能对本模型基本画风产生影响,多半是SDXL开源时本来就自带的);没指定人可能也会跑出人(这个模型主要就是用来的画人,万物皆可娘:p);这个是base版本,细节没有特化加强(目前仅保持的适中的细节,后续版本更新时可能会加强)

因为这是我第一个SDXL模型,所以还没有评分的参考系,就不打分了。整体上构图强于优可sweet;高难度的手指表现远强于优可sweet(比如hearthands等),普通随意画图的手指表现略低于优可sweet;文本理解力上比优可sweet强了两个档次;画风上是很直观能感受到不如优可sweet细腻的;其他方面的表现和优可sweet基本接近。

关于用法:

1.已经合并了vae:目前的vae比SDXL默认vae有略高的饱和度和对比度,自己再选vae也可以覆盖掉模型自带vae效果;

2.采样方法不怎么挑,用常用那几个都没啥问题,测试是在DPM++2MSDEKarras环境下进行的,这个采样器效果最好。

3.建议采用高分辨率修复(hires.fix)放大,重绘幅度0.4左右,唯一不太建议的放大算法是latent,会使画面变糊。

4.推荐的基础步数为25~50步,高分修复放大步数10~20步;

5.推荐分辨率:832*1152*2,1152*832*2,1024*1024*2,1152*1152*2,稍微改变一下问题是不大的,但不能用SD1.5的分辨率来画,训练时用的全是4K图,基础分辨率太小会导致各种奇怪的肢体错误。

5.通用负面:worstquality,lowquality

如果大家觉得满意,请多多给我返图哈~

另外关注和收藏可以收到后续版本更新和新模型的消息~

最近一直有人问我怎么做模型,我分享一下我的做法:(模型的做法有很多,只讲我的,这里不讲专业太多术语免得有人来挑刺,对普通人也比较易懂)

1.挑选底膜,选一个你目标期望比较接近的底模,避免后面需要大幅的调整。

2.选数据集,根据你想要的效果挑选数据集(可能是你喜欢的画风,或修正某个的bug,比如头发打结,动作过拟,糊脸,某些词不起作用等),选择污染比较低数据集(尽量不要出现你不想学进去的东西),对数据集进行精准打标(没有打标的东西会被学进整个模型,举例来说就算是白背景不打标学完也会让模型的背景减少细节)

3.训练没有具体的万能参数,看你想学进去多少东西,学的内容越多,需要越大的dim、学习率,或者训练步数,比如建筑的细节,而简笔画则是相反。建议采用控制变量法或二分法来测试效果,和自己上次炼丹的结果作比较。改动那些参数会有更好的结果,时间长了自然也会掌握一些通用规律,但也不是万用规律。我自己是这么摸索过来的。

4.把练好的丹进行分层重制(主要目的是保留你训练集里想学进去的那部分内容,我把这个叫做“正向堆叠”,比如刚刚说的修复头发打结问题;去掉不想学进去的内容,我把这个叫做“污染”,比如刚刚说的使背景简化的负面效果),如果“正向堆叠”和“污染”在同一个分层就会比较头疼。虽然这是挺大概率事件,这时候就要调参重练,或者换图集。如何做到增加“正向堆叠”且减少“污染”需要大量的测试。我个人炼丹时间和测试时间大约是1:20的样子。“正向堆叠”存在“上限”,有些模型参数是互相矛盾的,有点类似经济不可能三角,这时候需要寻求一个综合性能上的平衡。

5.经过数轮的“正向堆叠”以后(我的模型大约是10~20轮左右),模型基本就会出现你想要的满意效果。

补充说明:目前事前控制“污染”比较好的方法是仔细挑选数据集以及精准打标,以及差异炼丹;事后控制污染的方法是模型分层。

另外,有些人不懂我的模型参数评级是怎么来的,其实就是以我自己的模型系列为参照系做的一个参照评分表。只对我自己的模型进行相对评分,用习惯我的模型的人大概也能知道个大概。

版本详情

SDXL 1.0

项目权限

    使用权限

  • 使用时无需注明出处

  • 用于模型融合

  • 分享融合模型时使用不同的许可

    商用许可

  • 生成的图片用于商业用途

  • 作为图片生成服务来商用

  • 转售模型或出售融合模型

评论

相关帖子

描述想生成的画面,回车发送