tusiai

tusiai

吐司 TusiArt官方账号,今天你吃吐司了吗?
185
粉丝
0
关注
1.4M
运行
12.1K
下载人数
107
获赞
3.1K
星标
最新发布
点赞最多
点击TA 2024回忆报告,查看你深度参与的“环节”

点击TA 2024回忆报告,查看你深度参与的“环节”

点击TA 2024回忆报告,查看你深度参与的“环节”请注意!前方正在向你走来的是,2024 TA年度报告。出乎整个运营团队预料的是,今年站内的年度prompt词是「hair」。这意味着, hair被大量的写入提示词中,且是站内使用频率最高的提示词。hair的使用次数高达惊人的 2亿+ !但仔细想来,如果想对某个人物图像、角色图像做到更精确的控制,头发是必不可少的一环,而头发往往又代表角色的鲜明特征。回顾站内的提示词构成,诸如「long hair」「short hair」「red hair」等简单对头发的描述占大量比重。今年下半年开始,中文提示词的占比也逐渐上升。是的没错,我们很高兴看到中文模型生态在吐司不断孕育发展壮大。从此,生图不用再受英文提示词束缚,有了全新中文语言的可能,可以一起用中文描绘独属于国人的究极浪漫。提示词从“头”开始,和我们从新起航,在即将到来的新的一年里TA也要和大家继续相伴,今天你生图用「hair」了吗~截止目前,我们在全球托管40w+ AI模型,其中热度top5的模型是日均生成量30w+,每天有超过2w+ 个帖子发布在平台上,月均浏览2,700w+,分享内容350w+ ,这是今年热度Top5的帖子在今年,我们拥有过万的工作流和AI小工具,使用场景也更加多样,能够解决更多实际应用场景上的问题很高兴在今年网站用户突破320 w!有超过千位在吐司诞生月份就加入的老朋友依旧保持活跃!翻看站内的作品和社群,我们看到很多在网站建立之初加入,并一直陪伴着我们的用户,小李、今宵、hans、浅笑、千秋九月等等等等,感谢你们在网站还相对简陋不成熟的时候选择我们并一直活跃在吐司这个大家庭里。是因为你们的信任和陪伴,才不断推动着我们,激励着我们越来越好。在城市分布方面,广州、上海等一线城市占比最大,相比较去年东莞、佛山、福州等二三线城市的使用人数也有大量涨幅。用户的年龄结构方面,26岁-35岁占比高达38%,年轻用户对新鲜事物充满好奇,具有较强的创新意识和表达欲望,是推动AI 生图多样化创作风格的主力军。但50+岁的用户也不遑多让,占比也是创意生图的中坚力量,他们可能在职场的间隙,抽空呼吸放松,用AI描绘出心中的诗与远方。对比去年,18-25岁用户占比也有显著提升!从今年的数据上来看,女性用户的数量同比增长5%,占比也来到了20%不论是城市、年龄还是性别,我们团队对比过往数据,能够得到一个令人惊喜的结论:AI技术正在向全民化发展。人们使用AI的壁垒在不断减少,获得AI相关信息更加便捷全面,而这也是我们希望看到的。今年,我们完成了几十次的功能更新和数百次的bug修复,我们始终把用户体验放在第一位,而产品功能更是我们的立身之本。比如,我们创造性的推出AI小工具,可以理解为一个mini版的app!对创作者而言可以把复杂的工作流包装得到更多的传播和使用;对于使用者而言不需要了解背后的复杂逻辑,一键使用。我们目前已经可以做到覆盖设计、视觉、游戏、建筑、艺术等多行业的实际应用场景解决方案。在不久的将来,更将推出全新设计师友好的灵感发散工具今年,吐司一共上线20余场站内活动,30余场站外(社群社媒)活动,更有多场直播、免费b站课程等。我们非常高兴看到越来越多的用户参与到我们的活动中来,更令我们感动的是,许多用户会认真支持每一场活动,醉梦星河、叽里呱啦、天海、剑舞清风、RelianceXL、焦糖拿铁多加奶、青旭、蔚蓝blue,还有更多更多的用户!这些昵称,我们运营团队都妥帖的记在心里。与此同时,今年我们在外部合作上有了更多拓展。在此就不一一穷举,新的一年跟我们一起探索更多可能。今年各类新基座模型百花齐放,我们一直鼎力支持并承载每一新技术的发展!毫不夸张的说,大部分基座模型我们可以做到T+0支持在线生图,T+1支持多种网络模块的在线训练。(产研:在做了!在做了!)在AI快速发展的浪潮下,我们从未放缓过技术创新的脚步。在AI井喷式发展的这两年里,放眼全球,我们的算力价格都是极低的。在用户增长和新技术成本增大的情况下,我们依旧保持原有优势,保障算力充足,并让用户能够用更低的成本体验AI。除了追逐新技术以外,还做了全面的工作流AI小工具的功能,探索各类应用场景。从产品雏形诞生那一日起,我们的初心就从未改变:让每个人都能体验到AI创作的乐趣。而“Trained Once, Thrive everywhere.”这一理念也绝不是说说而已。这句话的意思是,一旦你在我们的平台上训练了一个模型,后续的活动(如发布、运行模型、被他人纳入工作流程或AI小工具)都将持续为你产生收益。当然,我们不仅只有追新,只有探索,我们也有对陪伴我们的创作者有更多的回馈。我们期望平台创作者能够通过创作获得收益反哺。因此,我们设立了创作者中心,以帮助创作者监控他们上传作品的收益,创作者激励相比较去年涨幅523%。显卡基金、充能、订阅,我们给创作者提供了更多的收益方式,创作者人均收入增长8.15倍。我们一直将扶持国内AIGC生态为己任,除了上线功能全面的在线训练,降低训练门槛以外,也一直在探索更多有可能的收益方式使创作者得到应有的物质回报。我们希望创作者在为热爱发电的同时,能感到有更足的底气。即将上线会员模型,这么多收益方式,总有一款适合你!从2022 年底ChatGPT 引发生成式人工智能的热潮,到2024 年初Sora 模型以文生视频技术令世界瞩目,AI 技术在软件代码、文本、语音、高保真图像和交互式视频的创作上取得了显著突破,不断推动着多领域的革新。AI行业的发展绝不仅仅是靠某一公司的成功而前进,我们也在这些优秀的同行身上获得启发,并为之努力奋斗。AI是一片热忱的土地,长满关于科技与梦想的各具特色又生机勃勃的植物,我们在上面种下一颗名为吐司的种子,期待它的不断生长。年度榜单TA有自己的年度榜单,快来看看你上榜了没榜单直通车在此,死手,快点啊!👉年度榜单👈
27
AI硬核圆桌会直播回顾

AI硬核圆桌会直播回顾

完整版视频回顾已经发布在b站,可以点击链接跳转查看直播回放哦【吐司×索泰×英伟达】0122AI硬核圆桌会直播回放_哔哩哔哩_bilibili1月22日,吐司酱进行了创始以来第一次直播非常荣幸能邀请到各位圈内大佬再次感谢各位的参与和支持【沈振宇】Tusiart/Tensorart创始人【陆烨】NVIDIA英伟达资深产品经理/广州美术学院特聘教师【伍晨阳】索泰AI推广官【秋葉aaaki】绘世启动器秋葉包作者【青龙圣者】stable diffusion官方合作模型训练师,controlnet贡献者,github 模型脚本训练师【继续革命】Animatediff作者【骆】 LCM作者【琥珀青叶】LyCORIS作者【辣椒酱】知名Blender UP主,AIGODLIKE社区站长近期AIGC涌现很多新技术,中国原创开发者在其中起到重要作用。中国的开源力量也占据了整个AIGC的半壁江山,比如LCM、Animatediff、ControlNet、绘世启动器等。吐司也邀请这些技术大神来到直播间,与我们一起讨论最新最热最前沿的AIGC技术和动向。(再说一次!)完整版视频回顾已经发布在b站,可以点击链接跳转查看直播回放哦【吐司×索泰×英伟达】0122AI硬核圆桌会直播回放_哔哩哔哩_bilibili直播间的欢乐时光,一起看看吧!吐司酱也是和大家一样第一次看boss直播,替boss谢谢在直播间夸他帅的家人们~刚开始boss也是被我们紧张的情绪感染了,到后面状态就轻松起来啦,给boss点赞,望常驻吐司直播间👍我们索泰的小伙伴伍晨阳,可爱的蛋壳同学,带来了索泰的礼物以及4070S欧泊白和4070TiS月白显卡,让直播室的氛围更加融洽~到底是何方神圣,身后的一整面墙都是显卡!英伟达的陆烨老师在被显卡围绕的环境下,给我们带来了专业的分享。对此吐司酱只想表示:放我进去,给我用啊(发出尖锐爆鸣.jpg)!我是大学生,送我!“喂,哈喽哈喽能听到吗”,直播间传出秋葉用了变声器后的萌妹声。在直播开始,作为绘世启动器秋葉包的作者,大大分享了一些他的开发思路,表达对于让更多人降低AIGC 的门槛,能够参与到AIGC 的过程当中来的看法。什么?听说青龙在直播的时候吃面?当嘉宾们在热烈讨论时,皮套下的他究竟在玩手机还是剪指甲?青龙美甲.jpg(bushi)青龙美发.jpg(bushi)青龙也是吐司酱的老朋友啦,在直播中,不仅参与了技术相关的讨论,也分享了对于模型社区的理解和看法。LCM 和Animatediff 都是目前AIGC前沿的技术,在国内外引发了高度讨论。在本次直播间,LCM的作者骆老师,不仅回答了LCM在使用上的细节提问,也小小的透露了LCM未来的发展方向。继续革命老师是Animatediff 的作者,表达了对开源的文生视频技术的看法,以及对未来技术的一些展望和想象。各位炼丹师应该都对LyCORIS 不陌生。LyCORIS 的作者琥珀青叶老师,对于Finetune模型的二次调优训练技术,未来的发展方向表达了自己的看法。B站的各位都有刷到过辣椒酱老师的视频吧~作为知名Blender UP主,AIGODLIKE社区站长,辣椒酱老师谈了目前3D技术应该如何与AIGC结合,以及未来发展的可能性。大大们还在直播中分享了推荐的显卡哦~直播一定少不了抽奖环节啦!我们一起恭喜这六位天选之子!准备的礼物已经寄出,快递小哥快马加鞭向你们赶去~吐司酱也整理了下直播讨论的问题,供大家参考,具体讨论可以,去b站看直播回放哦~讨论问题AI软件方向·如何让更多的人能够越过门槛,参与到AIGC的过程中来· 绘世未来有什么开发方向实时生图方向· 生成模型的技术路径和未来发展· 怎么评价SDXL Turbo?· lcm:如何解决反向提示词缺失的问题· lcm:如何用更低的step,让出图效果更高文生视频的方向(围绕AnimateDiff)· AnimateDiff:生成长镜头在现有技术框架下的瓶颈是什么,有什么解决思路· 开源的文生视频技术的看法,对未来技术的一些展望和想象· 模型Finetune训练的方式展望·过去Stable Diffusion生态出现了HyperNetwork、TI、DreamBooth、LoRA、LyCoris等等Finetune模型的方法,未来会有什么发展趋势?Blender方向· 3D 和AIGC 这件事情该如何去结合,未来的发展方向和可能性基座模型· 对SDXL现阶段的效果有什么评价?· sdxl大幅提升模型规模能否继续带来质变显卡方向· 大佬推荐什么AI绘图显卡?怎么评价这次新推出的Super系列显卡和4090D· 几位大佬有没有为了Ada架构和安培架构显卡做什么样的推理优化?对模型社区的看法和建议· AI落地场景AI的具体的商业化落地场景展望· 新的一年可能会在什么方向上出现新的技术突破· AI的发展可能存在的瓶颈感谢各位家人们来看这次的本次直播!这是吐司酱第一次直播,有很多不足的地方,还请大家多多包涵~大家的支持就是我们的动力,我们会继续努力,做得更好!同时,也非常感谢大家在直播中积极地跟我们互动、留言,你们的回应和反馈对我们来说超级重要!以后还会给大家带来更多更精彩的内容哦!再次感谢大家的观看和支持,期待下期直播!
3
个人用户玩转Stable Diffusion的GPU配置推荐

个人用户玩转Stable Diffusion的GPU配置推荐

随着人工智能(Artificial Intelligence) 的快速发展和在各个领域的深度使用,给全世界带来了新的发展机遇,对于企业和个人用户,快速的掌握应用AI技术能极大的促进企业生产效率和满足当下市场的人才技术需求,但是由于AI应用的必要硬件门槛GPU显卡对于大部分用户来说接触认知较少,同时市场对于显卡的使用需求越来越强,因此帮助个人用户了解自身需求和选择需要的设备是推出本篇显卡和AIPC配置推荐的首要任务。生成式AI 模型和技术介绍生成式模型是一类机器学习模型,其目标是能够让AI模型在一些简单的提示下,生产出高质量的内容。比如去年开始大火的ChatGPT,以及今天主要介绍的Stable Diffusion,都属于生成式AI模型。生成式模型在许多任务和领域中具有广泛的应用。例如,在自然语言处理领域,生成式模型可以用于文本生成、机器翻译和对话系统等任务。在计算机视觉领域,生成式模型可以用于图像生成、图像修复和图像超分辨率等任务。此外,生成式模型还可以应用于音频合成、视频生成和艺术创作等领域。训练一个可靠的生成式模型通常需要上亿的参数与海量的训练数据。随着互联网的发展和技术的进步,我们可以获得大规模的数据集,这为训练更复杂、更准确的模型提供了基础。同时,高性能的计算设备如图形处理器(GPU)和领域专用芯片(如TPU)的发展,使得训练和推理大规模的生成式模型变得可能。图像生成式模型图像生成式模型能够在无提示,或者简单提示的情况下,生成高质量、以假乱真的图片。图像生成技术发展了很多年,有生成式对抗网络(GAN)、变分编码器(VAE)等多个类别,而在去年潜在扩散模型(Latent Diffusion Model)由于其划时代的生图质量,正式让图像生成式模型走进了大众的视野。Stable Diffusion Model是Stability AI和Laion等公司共同研发的一个基于LDM的AI生图模型,因为稳定的出图效果和出图质量,以及公开的源码,和可微调的优势在开源后短时间内引起了世界范围内的AI生图热潮。Stable Diffusion v1.5Stable Diffusion v1.5(下面简称SD 1.5)是Stability AI公司2022年推出的图像生成式模型,也是第一代引发广泛关注的SD模型。用户可以通过输入文本提示词,生产一张符合文本描述的图片。比如输入提示词:“aurora”就能生成一张极光的图。Stable Diffusion XLStable Diffusion XL v1.0(下面简称SDXL)是Stability AI公司在2023年推出的图像生成式模型。在SD 1.5的基础上,SDXL大幅增加了网络参数量(U-Net部分由8亿增加到25亿),新增了更强大的文本编码器,而带来的结果则是,SDXL全方位的能力得到了质的提升。不同于SD 1.5最高只能胜任768*768图像的生成,SDXL可以轻松生成1024*1024规格的图片。而U-Net、文本编码器的提升使得SDXL模型在文本控制力、生图质量上都有显著的提升。而除开SD 1.5和SDXL最起初的文生图的能力,它们的可扩展性才是它得以被广泛传播,最终形成一个庞大的AI社区的原因。Stable Diffusion 3Stabel Diffusion 3是Stability AI公司在研的最新文生图大模型,采用了和OpenAI视频大模型Sora类似的Diffusion-Transformer架构,质量水平对标OpenAI的DALLE·3和Midjourney V6,画面质量水平和文本一致性方面比较之前的模型均有着巨大的进步,有多个数据大小的版本选择。图像生成技术介绍LoRALoRA全称低秩适应性网络(Low-Rank Adaptation),是诞生于大语言模型的技术。而在Stable Diffusion社区,LoRA焕发了新的生命力。LoRA可以理解为SD模型的插件,以极小的模型参数量和少量的训练样本,就能微调出特定的任务/画风,实现定制化需求。下图展示了吐司平台上的创作者训练的三个LoRA,用户可以根据不同的生图需求,在社区海量的内容中找到合适的LoRA,甚至可以训练出自己的专属LoRA。ControlNetControlNet也是SD模型的外置网络,可以通过线稿、深度图、骨架姿态等方法,实现对生图的精确控制。TensorRTNVIDIA TensorRT 是一款用于高性能深度学习推理的SDK,包含深度学习推理优化器和运行时,可为推理应用程序提供低延迟和高吞吐量。相比学术界常用的PyTorch、TensorFlow 框架,TensorRT 可以让NVIDIA 显卡在AI 模型推理时获得显著的速度提升而不损失结果质量。图像生成任务的硬件性能测试吐司作为世界领先的模型平台和社区,此次与英伟达合作,测试了Stable Diffusion模型在英伟达RTX 40 系显卡上的表现。测试覆盖了RTX 40 系的全部桌面级显卡。NVIDIA RTX 桌面级显卡在Stable Diffusion 图像生成任务上的表现测试环境:CPU: 英特尔Core i5-13600KF内存: 芝奇DDR5 6400MHz 16GB x 2主板: 技嘉Z790M AORUS ELITE AX硬盘: 三星PM9A1 2TB M.2电源: 振华G850操作系统: Windows 11 23H2SD 1.5 推理性能UL Procyon BenchmarkSD1.5是当前最流行的SD基座版本,也是现在模型社区的主要微调训练版本,可在最低6GB 显存上进行推理运行。测试参数:采样器:DDIMScheduler生图分辨率:512*512生图步数:100生图数量:16batch_size:4SD 1.5 推理性能吐司测试(TensorRT启用前后对比)采样器:DPM++ 2M生图分辨率:512*512生图步数:50生图数量:20batch_size:1根据吐司平台的测试结果,在NVIDIA TensorRT的加持下,英伟达RTX40系显卡可以实现最高翻倍的生图性能提升。SDXL 推理性能UL Procyon Benchmark采样器:DDIMScheduler生图分辨率:1024*1024生图步数:100生图数量:16batch_size:1SDXL模型推理需要至少10GB显存,故RTX 4060 8GB 因显存不足无法完成测试。SDXL 推理性能吐司测试(TensorRT启用前后对比)采样器:DPM++ 2M生图分辨率:1024*1024生图步数:50生图数量:20batch_size:1在SDXL生图任务上,也几乎都能达到50%以上的性能提升NVIDIA RTX AIPC 在Stable Diffusion 图像生成任务上的表现AIPC的SD图像生成能力测试中,我们测试了搭载GeForce RTX 4050 - RTX 4090 笔记本电脑GPU 的ASUS华硕/ ROG 的RTX AIPC。SD 1.5 推理性能UL Procyon BenchmarkSD1.5 推理性能吐司测试(TensorRT启用前后对比)SDXL 推理性能UL Procyon BenchmarkSDXL模型推理需要至少10GB显存,故RTX 4050 Laptop, RTX 4060 Laptop, RTX 4070 Laptop 因显存不足无法完成测试。SDXL 推理性能吐司测试(TensorRT启用前后对比)NVIDIA RTX 40 系列Laptop GPU在笔记本上依旧有亮眼的表现,且兼具便携、低功耗等特点,更适合有通勤需求的用户NVIDIA RTX AIPC 对比Intel Arc Graphics测试工具:UL Procyon Benchmark采样器:DDIMScheduler生图分辨率:512*512生图步数:100生图数量:16batch_size:4对比硬件型号:RTX 4090 Laptop GPUIntel Core Ultra 9 185H图像生成任务所需的硬件配置总结模型微调训练任务的硬件性能测试NVIDIA RTX 显卡在SD 1.5 LoRA训练任务的测试底模:Anything V5LoRA rank: 32分辨率:512*512样本量:1000Batch size: 4NVIDIA RTX 显卡在SDXL LoRA训练任务的测试在模型微调任务中,CPU性能、显存和算力都有可能成为瓶颈。由于SDXL LoRA训练需要至少10GB的显存,RTX 4060 8GB 因显存不足而无法进行SDXL LoRA训练,12GB显存及以下的显卡无法完成batch_size=4的测试,16GB显存及以下的显卡无法完成batch_size=8的测试。RTX 4090 D拥有高达24GB的显存和14592个CUDA核心,在计算密集型任务上有额外优势,所以本次吐司在SDXL微调任务上将batch size提升到了8,将RTX 4090 D的性能发挥到极致,训练效率也相比batch size=1时提升了将近100%底模:Anything XLLoRA rank: 32分辨率:1024*1024样本量: 1000NVIDIA RTX AIPC 在SD 1.5 LoRA 训练任务的测试由于SD1.5 LoRA训练需要至少8GB的显存,RTX 4050 Laptop 因显存不足而无法进行SD1.5 LoRA训练。NVIDIA RTX AIPC 在SDXL LoRA训练任务的测试由于SDXL LoRA训练需要至少10GB的显存,RTX 4050 Laptop, RTX 4060 Laptop, RTX 4070 Laptop 因显存不足而无法进行SDXL LoRA训练。模型微调训练所需的硬件配置总结结语人工智能技术曾经一度是大中型企业的私有工具,有着极高的学习与应用门槛。但在过去的一年中,随着StableDiffusion等生成式AI应用的火爆,我们欣喜地发现,我们已经能在每一台个人电脑上部署生成式AI模型,每一个用户都能够根据自己的喜好,微调出属于自己的大模型。我们衷心地期待,随着大模型技术和硬件加速器的蓬勃发展,AI大模型可以成为每个人的生产力工具,能够为每个人的工作和娱乐定义新的范式。附录测试显卡型号一览感谢英伟达、影驰、七彩虹公司为我们提供测试显卡:七彩虹iGame GeForce RTX 4090 D Advanced 24GBGeForce RTX 4080 SUPER 16GB Founders EditionGeForce RTX 4080 16GB Founders Edition影驰GeForce RTX 4070Ti SUPER 大将OC 16GBGeForce RTX 4070Ti 12GB Founders EditionGeForce RTX 4070 SUPER 12GB Founders EditionGeForce RTX 4070 12GB Founders Edition七彩虹iGame GeForce RTX 4060Ti 16GBGeForce RTX 4060 8GB Founders Edition测试AIPC型号一览感谢华硕公司为我们提供测试AIPC:RTX 4090 Laptop 16GB ROG 枪神8 Plus 超竞版RTX 4080 Laptop 12GB ROG 魔霸7 Plus超能版RTX 4070 Laptop 8GB ROG 枪神8RTX 4060 Laptop 8GB ROG 魔霸新锐2024RTX 4050 Laptop 6GB 华硕天选4锐龙版
2
在线训练指南

在线训练指南

1.视频讲解具体视频跳转至b站查看https://www.bilibili.com/video/BV1gt4y1d7e4/?spm_id_from=333.1350.jump_edge2.训练入口在吐司主页点击“在线训练”即可进入3.添加与处理数据集3.1添加数据集数据集目前支持的格式有png/jpg/jpeg,最多可添加1000张图片进行训练已上传的图片可以点击右上角进行删除这里建议大家尽量上传更高清的图片以得到更好的训练结果可以使用增强后的数据集,例如:裁剪分割、图像镜像/翻转正则化数据集正则化技术广泛应用在机器学习和深度学习算法中,其本质作用是正则化起到降低训练素材某个权重的作用,防止过拟合、提高模型泛化能力。我们可以通过这里来上传正则化数据集,正则化数据集可以使用用于训练的底模生成。对于完全不熟悉训练流程的纯小白来说,不使用正则数据集可能会得到更好的效果。请勿上传血腥/暴力/黄色/涉政等任何违规图片,多次上传违规图片可能会封禁账号3.2批量裁剪裁剪方式:聚焦裁剪:根据画面的主体内容进行裁剪中央裁剪:裁剪画面的中央部分根据训练底膜选择裁剪尺寸 SD1.5可选尺寸:512x468512x512768x512SDXL可选尺寸:768x10241024x10241024x7683.3自动打标每个上传的图片都会被自动打上标签,标签内容点击图片即可查看。除此之外还可对图片标签进行添加与删除。如果训练角色想要固定某些特征,那么可以删除该特征的提示词任何AI自动打标都不可能100%准确,有条件尽可能人工筛查一遍,剔除错误标注,从而提升模型的质量3.4批量加标签目前支持对图片进行批量添加标签,可以自行选择添加到行首或者行尾,一般来说是添加到首行作为触发词使用。4.训练参数设置4.1设置重复次数图片训练的重复次数,即repeat参数。一般而言在本地训练时需要单独到训练集的文件夹内调整该项参数而在吐司的在线训练工作台里,我们可以从这个地方更改单独图片的重复次数,如果在上面上传了增强的数据集,那么就可以在这里单独设置不同的重复次数4.2基础模式模型主题&底模选择:模型根据不同的主题预设了不同的训练参数,选择合适的底模会让你的模型训练事半功倍哦!需要注意:不同的XL模型之间的LoRA大概率不能通用,请谨慎选择底模二次元人物:可选底模AnythingV5/Animagine XL/Kohaku-XL Delta,训练SD1.5的二次元人物LoRA需要使用AnythingV5,训练SDXL的LoRA需要使用Animagine XL/Kohaku-XL真实人物:可选底模EpiCRealism (SD 1.5)/Juggernaut XL(SDXL)。已经预设好训练的部分参数,根据自己需要选择底模调整相关参数即可2.5D:可选底模DreamShaper/国风3 GuoFeng3/DreamShaper XL1.0/国风4 GuoFeng4 XL,训练SD1.5的LoRA需要使用DreamShaper/国风3 GuoFeng3,训练SDXL的LoRA需要使用DreamShaper XL1.0/国风4 GuoFeng4 XL标准:预设使用SDXL1.0/SD1.5 base作为训练底模,如非特殊需要,不建议使用单张重复次数(Repeat):Repeat指的是AI对每一张图片学习的次数,这里的Repeat仅对没有单独设置Repeat的图片生效训练轮数(Epoch):Epoch指的是AI对你的图片学习的一个循环。所有的图片都完成了Repeat后,这样就是一个Epoch。总步数(Steps):详见表格下方的补充模型效果预览提示词:这里的提示词是用于每个Epoch保存的版本的预设出图,用于预览模型的训练效果此参数不影响训练的效果和模型的质量,仅作为实时预览图参数总步数的计算公式是:(训练集里面的图片数*Repeat*Epoch)总步数直接影响模型训练的算力消耗,步数越多算力消耗越大4.3专业模式新手不建议使用专业模式单张重复次数(Repeat):Repeat指的是AI对每一张图片学习的次数训练轮数(Epoch):Epoch指的是AI对你的图片学习的一个循环。所有的图片都完成了Repeat后,这样就是一个Epoch。总步数的计算公式是: (训练集里面的图片数量*Repeat*Epoch)总步数将直接影响模型训练的算力消耗,步数越多,算力消耗越大种子(seed):(玄学,随机即可)文本编码器学习率:调整整个模型对于tag的敏感度如果你在生成图片过程中发现了多余的物品,那么就需要降低TE学习率;如果您很难在不对提示进行大量权重的情况下使内容出现,那么你就需要提高TE学习率。Unet学习率:模型的学习速度和程度高的学习率可以使AI学习的更快,但是可能导致过拟合。如果模型不能复刻细节,生成图一点都不像,那么就是学习率太低了,尝试增加学习率学习率调度器:调度器指的是"如何设置学习率的变化方式"优化器:优化器设置用于在训练过程中更新神经网络权重的方式。为了智能地进行训练,提出了各种不同的方法。训练网格大小Dim:DIM表示神经网络的维度,维度越大,模型的表达能力就越强,模型最终的体积也会越大。DIM不是越大越好,对于单一角色LoRA而已,DIM完全没有必要开128训练网络Alpha值:在实际(保存的)的lora权重值保持较大的同时,在训练时始终以一定比例削弱权重,以使权重值看起来较小。这个“削弱比例”就是Network Alpha。Network Alpha值越小,保存的LoRA神经网络的权重值越大。打乱标签:通常情况下,标题中的单词越靠前,其重要性越高。因此,如果单词的顺序固定,后面的单词可能无法得到很好的学习,或者前面的单词可能与图像生成产生意外的关联。通过每次加载图像时随机调换单词的顺序,可以修正这种偏见。保持第N个token:指定的前n个单词将始终保持在标题的最前面,可以通过这个去设置触发词。在这里,“单词”指的是以逗号分隔的文本。无论分隔的文本包含多少个单词,它都被视为“1个单词”。例如,对于“black cat, eating, sitting”,“black cat”被视为1个单词。噪声偏移:在训练中添加噪声偏移来改良生成非常暗或者非常亮的图像,不宜开太大,尽量在0.2以下多分辨率噪声衰减率:多分辨率噪声迭代次数:卷积层维度:卷积层Alpha值:提示词,采样算法:这里的提示词与采样算法是用于每个Epoch保存的版本的预设出图,用于预览模型的训练效果5.训练过程因为一台机器只能同时运行一个模型训练任务,所以面对可能出现的排队情况还请各位烘焙师们耐心等待,我们将会尽快为您准备好训练机器。也可以在夜间进行错峰训练哦6.模型测试目前可以找到例图合适的模型发布后,不上传展示图片(没有用于展示的图片,不会分发到首页),等待部署完成后即可在工作台测试自己的模型。7.模型发布/下载/重新训练在训练完成后您将看到每个Epoch的四张预览图,您可以从中挑选满意的作品发布在吐司或保存在本地。如对本次训练不满意可在右上角查看训练参数、重新训练,具体的调整参数的方法可以查看上面的说明。
1
如何 DIY 模板小工具

如何 DIY 模板小工具

增加选择项,做更简单易懂又好玩的模板小工具教程看这里👀首先创作一个工作流(workflow),文生图、图生图都可以,请尽情使用comfyUI发挥创意💡完成workflow之后,点击「发布AI小工具」发布完AI小工具后,就可以到达编辑界面啦🎉选择自定义参数(如Seed/CFG/Steps/Checkpoint/LoRA等)如果想要再编辑,就点这里的三个点👇最后设置好,前端看到的页面就是这样的啦🥳小贴士🪧小工具的封面是吸引使用的亮点,请设置一个美观清晰的封面文生图建议加上标题图生图建议使用before➡️ after确保开放的参数足够简单易懂,小白也能理解点击帮你制作在线AI小工具即可生成专属链接,请多多分享💕
2
吐司食用指南🍞——基本功能介绍篇·一键做同款

吐司食用指南🍞——基本功能介绍篇·一键做同款

一键做同款在帖子社区中点击你喜欢的帖子,再点击做同款,即可跳转到工作台并沿用该图片的所有参数(随机种子需要自行决定是否沿用)可以使用原本的参数体会抽卡的快乐,或者在原有的参数上进行二次创作,生成更令自己满意的作品哦~
2
吐司食用指南🍞——基本功能介绍篇·文生图与图生图

吐司食用指南🍞——基本功能介绍篇·文生图与图生图

文生图与图生图文生图是指在Stable Diffusion根据提示词内容生成图片,图生图则是依据提供的图片与提示词内容共同生成图片,是AI绘画的基本创作方式。进入吐司的工作台就是文生图与图生图的操作界面了。文生图首先挑选一个自己喜欢的基础模型并添加任意风格的LoRA,再选择合适的vae(这里推荐小白使用vae-ft-mse-840000-ema-pruned.ckpt)在提示词中输入自己想要在画面内容(可以通过输入best quality,masterpiece,8k等通用的画面提示词来改善生图的质量),在反向提示词中输入不想在画面中出现的内容(推荐小白使用负面词嵌入)选择合适的分辨率,可以使用预设选项或者是点击custom自定义关于采样算法(Sampler)与采样次数的选择,不同的采样算法最好搭配相适应的采样次数才能有更好的效果。以下是一些具体建议(仅供参考):出图速度快又有不错的质量推荐使用:DPM++ 2M(搭配20左右的采样步数);出图速度一般但是质量更好推荐:DPM++2S a,DPM ++ SED Karras(搭配20到40的采样步数);需要更高采样步数:Euler a (搭配40到60的采样步数);不推荐的采样方法:DPM 2a,Heun,LMS,LMS Karr,DPM 2,DPM adaptive提示词相关性(CFG Scale):在sd1.5中生成图像的颜色饱和度与对比度会随着CFG值的增加而增加,一般来说更高的CFG值需要更高的采样步数来保证画面质量,而这通常导致更高的生成时间。所以我们通常建议CFG值设置为7,最好不要超过10。图生图图生图与文生图的区别在于你不仅可以通过提示词向AI表达你的想法,你在图生图中提供的图片也会成为AI生成图片的重要参考。就相当于AI对你上传的图片进行“二次创作”。因此我们可以通过图生图实现“真人转二次元”等玩法。其中重绘幅度可以理解为AI对这个图片重新绘制的强度大小或者对画面更改的百分比,幅度越大生成出来的图像就和原来的差异越大,0就是不会进行重绘。
2
吐司食用指南🍞——进阶玩法篇·幻术图

吐司食用指南🍞——进阶玩法篇·幻术图

幻术图1.白底黑字图的准备,白底黑字图要根据自己所构想的画面进行文字字体选择以及排版2.提示词(英文词可吐司生成同款)提示词公式:主体描述+环境描述+通用画质打开吐司在线生图,选择基础模型,Lora可以不用选(Lora一般做纹理补充作用,比如敦煌、国风、剪纸等等可以添加,根据作品来)添加ControlNet ,选择边缘检测canny,上传黑白底图,其他默认设置生成参数,就可以愉快的开始抽卡了!例图生成参数:(ControlNet中选择canny 0.9权重):(Great Wall), Cloudy Mountains, (Movie like Lights), Ancient Architecture, Magnificent Landscape, (Historical Relics), (Masterpiece), (Best Picture Quality), 8k, High Detail, Ultra DetailNegative prompt: face,gril,human,Painting,drawing,(worst quality, Low quality, Normal Quality :2),Low resolution,((monochrome, grayscale)),pixelation,signature,watermark,username,blur,digital,Steps: 30, Sampler: DPM++ 2M Karras, CFG scale: 7.0, Seed: 3003354566, Size: 512x640, Model: revAnimated_v122, Denoising strength: 0.2, Clip skip: 2, ControlNet 0: "preprocessor: canny, model: control_v11p_sd15_canny, weight: 1, starting/ending: (0.0, 1), resize mode: ResizeMode.INNER_FIT, pixel perfect: False, control mode: ControlMode.BALANCED, preprocessor params: (512, 100, 200)", Hires resize: 1024x1280, Hires steps: 16, Hires upscaler: 4x-UltraSharp, Version: v1.5.1.17-2-gaded411, TaskID: 629254653514645043
4
吐司食用指南🍞——进阶玩法篇·艺术二维码

吐司食用指南🍞——进阶玩法篇·艺术二维码

艺术二维码ControlNet中选择qrcode模型,权重越高越容易扫出来,但是二维码特征越明显。推荐从1.1开始往上尝试,二维码的原始链接越简短,能够被扫出来的成功率越高。(二维码图片选用的是qrcode的第一个参考图)生成信息:Masterpiece, cool futuristic feel, random light and shadow, random universe background, glowing stars, dazzling star lines, scattered water droplets, giant planets as background, perfect, ultimate, highlights, bright and colorful tones, 3D, ink background, high-resolution,High quality, stunning work, master like work,, real reflection, real light, background with the moon,Colorful portraits,EpicSky,science fiction,cloud, <lora:Colorful portraits_20230715165729-000018:0.5>, <lora:EpicSky-000006:0.3>, <lora:scienceFiction_v1:0.4>Negative prompt: NSFW, nude, ****, picture frame, cropped, out of frame, lowres, worst quality, low quality, watermark, username, text, Signature, poorly drawn, bad anatomy, wrong anatomy, malformation, ugly, disgusting, jpeg artifacts, blurrySteps: 30, Sampler: DPM++ 2M Karras, CFG scale: 7.0, Seed: 941800275, Size: 640x640, Model: darksun_v40, Denoising strength: 0.5, Clip skip: 2, ControlNet 0: "preprocessor: none, model: control_v1p_sd15_qrcode_monster, weight: 1.5, starting/ending: (0.0, 1), resize mode: ResizeMode.INNER_FIT, pixel perfect: False, control mode: ControlMode.BALANCED, preprocessor params: (512, -1, -1)", Hires resize: 1280x1280, Hires steps: 10, Hires upscaler: 4x-UltraSharp, Version: v1.5.1.17-2-gaded411, TaskID: 629247081487371749
1
吐司食用指南🍞——进阶玩法篇·艺术字

吐司食用指南🍞——进阶玩法篇·艺术字

艺术字流程与光影字类似,区别是上传的图片为白底黑字,ControlNet模型为depth,也可以使用canny(需要注意的是图像分辨率要与你上传的图片相当或者为倍数)推荐权重:depth0.8 canny 0.7例图生成参数:提示词:masterpiece, best quality, 8k,Soft toast,Delicious Bread,Extreme details采样算法:DPM++ 2MKarrassteps:30cfg:8
4
吐司食用指南🍞——进阶玩法篇·光影字

吐司食用指南🍞——进阶玩法篇·光影字

光影字首先确定自己想要的图片风格如奇幻或者真实,然后选择相对应风格的大模型。接着在ControlNet中选择qr code模型,上传你制作好的黑底白字的图片(上传的图片不推荐png格式)。设置生成参数(需要注意的是图像分辨率要与你上传的图片相当或者为倍数)就可以开始抽卡了。以下是例图生成参数大模型:奇幻世界cn:(qr code)权重1.2采样算法:DPM++ SDE Karras steps:40 cfg:7提示词:best,8K,Best quality,night,a bustling city,(vehicle passage:1.2),neon light,(lots of traffic:1.1)wide angle view,aerial view
5
吐司食用指南🍞——进阶玩法篇·真人转二次元

吐司食用指南🍞——进阶玩法篇·真人转二次元

真人转二次元在图生图中,上传一张真人照片,然后选择自己喜欢的动漫模型,在提示词中尽可能详细的描述图片画面,还可以添加你想要的原图没有的细节。重绘幅度可以适当调低(可以从0.5开始尝试),设置好参数就可以开始抽卡了。例图参数设置:大模型:Dark Sushi Mix采样算法:DPM++ SDE Karras采样次数:20 Cfg:8提示词:1girl, solo,masterpiece, best quality, 8k原图转动漫效果
2
吐司食用指南🍞——基本功能介绍篇·上传模型

吐司食用指南🍞——基本功能介绍篇·上传模型

上传模型我们不仅可以直接创建一个新的项目,还可以一键同步你在civitai上传的所有模型文件类型分为Pickled Tensor和Safe Tensor,模型文件后缀名为safetensors即是Safe Tensor。尺寸是指你上传的模型是完整版或修剪版,Full即是完整版。精度一般为16。一般选择是Safe Tensor,full,16
1
吐司食用指南🍞——基本功能介绍篇·高级控制(ControlNet)

吐司食用指南🍞——基本功能介绍篇·高级控制(ControlNet)

高级控制(ControlNet)ControlNet(下面简称cn)是真正将AI绘画变得“真正”可控的第一步,让StableDiffusion有了成为生产力工具的资格。ControlNet作为对大模型进行微调的神经网络,它的作用原理是根据一些额外的信息(通常来自于你上传的图片)来对StableDiffusion的创作过程进行引导,从而实现对生成图片的精准控制。ControlNet能够实现精准控制的用法,你可以根据你的需求选择适合的ControlNet模型与预处理器来从你上传的图片中提取相应的条件信息。例如openpose就是只会提取你上传的图片中人物的姿势,脸部和手部特征点,过滤掉其他的信息而且你还可以同时使用多个ControlNet实现更进阶的操作,例如可以将inpaint模型,canny模型,openpose模型三个模型混合使用,再加上具体的蒙版,可以实现模特换衣,换头等操作。还有互相加成的效果,例如openpose加上较低权重的tile模型可以更好的控制人物结构。详解:Openpose 姿势控制:从真人图片中提取人物姿势,脸部和手部特征点,应用到生成的图片中。QR code 二维码:用于制作ai二维码,也可以用于“幻术图”等的制作Brightness 光影控制:通过识别图像中的明暗关系,可用于生成光影字与人物光影图Canny 边缘检测:检测图像中的边缘细节,达到还原图像中的细节的目的,还可以控制绘制区域。Depth 深度图生成:检测物品的景深效果,包括前后位置,物体大小,光影等。能较好的还原远近与前后关系Lineart Anime 动漫线稿上色:提取图像的线稿特征,并在出图中加入动漫风格Linart 线稿上色:提取图像的线稿特征,还原图像细节(相比于canny自由度更高)mlsd 线段识别:识别图像中的直线(通常用于建筑与物体图)normalbae模型识别:用于生成法线图Scribble涂鸦上色:对上传的图片进行涂鸦上色,补充细节Softedge:识别图像中的轮廓seg语义分割:从像素的角度分割出图片中的不同对象Shuffle内容重组:内容重组,风格转移ip2p:可以理解为自然语言ps,例如你上传的图像中有一只猫,你可以通过提示词使用自然语言把猫变狗Color色彩格子:提取原始图片带有空间结构的的颜色特征,那个地方那个颜色Tile超清重绘:通过超分辨率,可以使图像增加大量的细节
2
吐司食用指南🍞——基本功能介绍篇·一键生成动图(Text2Animate)

吐司食用指南🍞——基本功能介绍篇·一键生成动图(Text2Animate)

一键生成动图(Text2Animate)这是一个可以让你一键让你的图片动起来的功能!可以通过简单的输入正向与反向提示词,就能得到一张精美的动图。仅仅需要注意的是其中的帧数与帧率,帧数代表着的是在这一张动图中一共会用到多少张吐司生成的图片,这里推荐16效果会更好。帧率代表的是一秒钟播放多少张图片,以右侧中的参数为例子16帧是一共16张图片,4的帧率即每秒播放4张,因此这样生成出来的动图会播放16÷4=4秒。这里更推荐使用二次元而非真人系列模型制作动图,在相同的设置下,二次元系列的模型制作出来的动图变化更大更丝滑,表现力更好。添加lora也可能会导致画面崩坏。模型:majicMIX realistic麦橘写实- v2威力加强典藏版提示词:upper body,dress conservatively,masterpiece, 1 girl, Stand, female, {white hair}, jewelry, Circle, {medium breasts}, {JK}, indoor, huge filesize, extremely detailed, 8k wallpaper, highly detailed, best quality反向提示词:(nsfw:2),Naked chest,(worst quality:2), (low quality:2), (normal quality:2), lowres, watermark, An imperfect hand, badhandv4, ng_deepneive_v1_75t, lowers, Bad ers, bad hands, missing ers, extra digit, bad hands, missing ers, fused ers,模型:majicMIX realistic麦橘写实- v2威力加强典藏版提示词:upper body,dress conservatively,masterpiece, 1 girl, Stand, female, {white hair}, jewelry, Circle, {medium breasts}, {JK}, indoor, huge filesize, extremely detailed, 8k wallpaper, highly detailed, best quality反向提示词:(nsfw:2),Naked chest,(worst quality:2), (low quality:2), (normal quality:2), lowres, watermark, An imperfect hand, badhandv4, ng_deepneive_v1_75t, lowers, Bad ers, bad hands, missing ers, extra digit, bad hands, missing ers, fused ers,模型:超强控图|优可youkengi delicate anime提示词:best quality, masterpiece, illustration, ultra-detailed, beautiful detailed eyes, (1girl:1.3),magician, enchanting spell, high-angle view, magical forest, otherworldly beauty, casting pose, magical staff, invocation effects, soft and ethereal light, fantastical atmosphere, mystical creatures, empowering allies, enhancing abilities, elemental magic, swirling energy, pulsating aura, determination, support, vibrant colors, glowing runes, levitating, swirling leaves, teamwork, magical bonds, protective shield, guiding light, shimmering particles, enchanted surroundings, harmony with nature, hope, wisdom, ancient secrets, celestial beings, arcane knowledge, mystic symbols, spellcasting, elemental forces,反向提示词: (worst quality, low quality:1.4), negative_hand Negative Embedding,verybadimagenegative_v1.3, 2girls, nsfw:1.4,bad anatomy, bad hands, cropped, missing fingers,too many fingers, missing arms, long neck, Humpbacked, deformed, disfigured, poorly drawn face, distorted face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, floating limbs, disconnected limbs, malformed hands, out of focus, long body, missing toes, too many toes,monochrome, symbol, text, logo, door frame, window frame, mirror frameText2Animate相较于普通的文生图,写提示词的技巧也略有不同,但是抽卡的变化性也更大了。这是一个很有生成乐趣的玩法,期待大家的积极尝试,记得发帖哦!
1
吐司食用指南🍞——基本功能介绍篇·高清修复(Hires-Fix)

吐司食用指南🍞——基本功能介绍篇·高清修复(Hires-Fix)

高清修复(Hires-Fix)高清修复是一个非常好用的功能。当你在使用AI绘画时,模型的默认分辨率不能满足高清出图的需求。如果你想直接通过扩大分辨率来解决这一问题,那么过大的分辨率会让AI觉得这是多张图片拼接而成,因此会生成多头多人的图片。所以,想要通过AI直接生成高分辨率的图像,高清修复是你最好的选择。它的工作原理是先让AI生成预设分辨率的图像,然后再根据这一图像重绘高分辨率版本。其本质可以理解为是对原图像进行放大分辨率的“图生图”。进行高清修复需要设置的参数主要有四个:放大算法,采样次数,重绘幅度和放大倍率。高清修复的放大算法直接影响放大后的效果,例如Anime-4x就会让图像的线条更加圆润,构图更加简洁,而lantent的一系列修复方式会加多图像细节,使图像画面更加丰富,但是也会增加不和谐的元素,更加“AI”。二次元推荐:R-ESRGAN 4x+ Anime6B;4x-UltraSharp;4x-AnimeSharp三次元推荐:4x-UltraSharp;R-ESRGAN 4x+通用推荐:4x_NMKD-Superscale-SP_178000_G降噪强度(重绘幅度):和图生图中的概念是一样的。在0.1到0.5这个范围,高清修复对画面的改变幅度并不大且大部分集中在面部。大于0.5的降噪强度对于画面的影响是比较大的,0.8以上就基本是大范围重绘了。采样步数,推荐30以内的步数,其实越往上差别不算很大常用的放大画面分辨率是1.5k
1
吐司食用指南🍞——基本功能介绍篇·ADetailer

吐司食用指南🍞——基本功能介绍篇·ADetailer

ADetailer这是目前面对AI绘画中脸部崩坏的最优解,对手部畸形也有一定的改善。ADetailer 修脸器还可以添加人脸lora与提示词,可以更加精确的让AI生成想要的面部。参数介绍:模型:不同的模型对于着不同的修复对象,带face的就是修脸,hand是改善手部,person重画人,mediapipe代表的是识别算法置信度,识别面部的强度,越高就更容易的起效。识别严格程度。重绘蒙版模糊,边缘羽化强度,越小越明显锐利重绘噪声强度,和之前的概念一样,有lora建议开高一点
2
吐司食用指南🍞——基本功能介绍篇·工作台

吐司食用指南🍞——基本功能介绍篇·工作台

工作台工作台是吐司在线创作的地方,进入网站https://tusi.cn后点击在线生图即可进入工作台。你可以在工作台中使用文生图,图生图这两个AI绘画的基本创作方式,还可以对选定的图片进行高清修复(分辨率放大)和ADetailer 修脸器(增加面部细节,解决面部崩坏)以及局部重绘。
2
吐司食用指南🍞——名词解释篇·关于设置

吐司食用指南🍞——名词解释篇·关于设置

关于设置图片分辨率设置:可以选择预设好的三种分辨率,也可以点开最右侧的「custom」进行自定义。(自定义参数最好是64的倍数)采样算法(Sampler):可以简单理解为AI绘画的画笔,不同的采样算法所对应的出图速度与画面质量都是不同的。在文生图中,将会有详细的推荐与介绍。(采样器主要负责去噪的过程。在图像生成前,模型会首先在Latent Space中生成一个完全随机的噪声图像,然后噪声预测器会开始工作,从图像中减去预测的噪声。 随着这个步骤的不断重复,最终我们得到了一个清晰的图像。 Stable Diffusion在每个步骤中都会生成一张新的采样后的图像,整个去噪的过程,即为采样, 使用的采样手段,即为「采样器」或称为「 采样方法」。)目前在网络上使用最广泛的几种采样方式分别是:Euler a、DPM++ 2M Karras、DPM++ SDE Karras、DDIM:采样次数:是StableDiffusion根据文本提示从随机噪点到结果收敛所运行的迭代次数。一般来说,越高的采样次数对应着更长的生成时间与更高的准确性。但是采样步数也不是越高越好,过高的采样步数甚至会降低画面的细节。在文生图中,同样也会有详细的推荐与介绍。提示词相关性(CFG Scale):CFG是控制生成的画面与提示词接近程度的设置。通俗的讲,越低的CFG值AI就更加的“天马行空”,越高的CFG值AI则更倾向于“按部就班”。在文生图中,将会有更详细的推荐与介绍。随机种子(Seed):在webui里面给到的注释是“一个固定随机数生成器输出的值,以相同参数和随机种子生成的图像会得到相同的结果”,代表的是潜在扩散模型潜在空间里生成的起始随机噪声图。
3
吐司食用指南🍞——名词解释篇·提示词与反向提示词

吐司食用指南🍞——名词解释篇·提示词与反向提示词

提示词与反向提示词提示词(prompts)又称咒语,是AI绘画中重要的一环,它直接影响生成图片的质量与内容。我们通过提示词向AI表达“我们想要什么”。因此你的提示词描述的越具体,AI生成出来的画面就越贴切你的想象。一段好的提示词应该包括对四个要素的描述:图片品质,图片结构,图片内容,图片风格。提示词有特殊的语法规则:首先它必须要用英文进行输入(吐司tusi已实现输入中文转英文功能)。每一个词组之间都需要用到英文中的“逗号”(,)来分隔。我们还可以通过赋予提示词权重,常用方法是(提示词:1.x),以此来达到精确控制画面内容的效果。Tips:分享两个加强提示词准确性的小技巧👇提示词越接近75个或者75的整数倍数,提示词准确性越高。在提示词中加入“BREAK”能提升提示词的准确性,注意BREAK之后要加提示词。还可以用它来分隔两段提示词。反向提示词就是向AI表达你不想在画面中看到的,而反向提示词大多是通用的。又因为其内容过多,所以一般可以使用NegativeEmbeddings(负面词嵌入)来避免输入大量的反向提示词。
4
吐司食用指南🍞——名词解释篇·关于模型

吐司食用指南🍞——名词解释篇·关于模型

关于模型📌大多模型介绍中都会有作者推荐的参数设置,生图时搭配使用效果更佳哦!基础模型又称为底膜或大模型,它能决定你出图的主要风格(真人、二次元等)与画面质量。LoRA模型可以简单理解为是在大模型上的一个补丁,能给予一些额外的效果。是基于大模型的微调来实现脸部结构的替换,艺术画风的表达,或者将服饰、姿势等元素添加到你的画面中。你还可以通过调整LoRA的权重来控制这个LoRA对于你画面的影响强度。如果LoRA有触发词的话,在提示词中加入触发词也是增大LoRA权重的一种方法。vae模型是大模型的编码器,可以简单理解为是大模型的一个滤镜,对画面影响小。每个大模型都有内置的vae,但是有的大模型内置vae可能损坏,这会导致“画面失去色彩”呈现灰色,因此需要选择外置的vae模型,这里一般推荐使用vae-ft-mse-840000-ema-pruned.ckpt
3