在当今这个科技飞速发展的时代,AI绘画已经不再是遥不可及的技术。Stable Diffusion,作为一种基于潜在扩散模型的图像生成技术,正在以其独特的魅力吸引着越来越多的爱好者。今天,我们就来一起探索Stable Diffusion的文生图基础教程,保证连奶奶都能学会!
一、模型选择
首先,你需要清楚自己的创作需求,即希望生成的图片是什么风格、什么场景、什么人物等。根据需求,Stable Diffusion的模型可以分为以下几种类型:
- 官方模型:由Stable Diffusion团队官方推出的大模型,也称为底模。
- 二次元模型:针对二次元场景和人物优化的模型,出图效果好。
- 真实系模型:以实际照片素材为主训练的模型,还原真实感和人物细节。
- 2.5D模型:混合模型,效果图在二次元基础上带有真实效果,类似3D建模。
- 其他模型:如平面设计、魔幻场景、建筑风格等领域的垂直模型。
选择适合的模型是生成满意图片的第一步,主要影响画面风格。
二、关键词设置
在Stable Diffusion中,关键词(或称为提示词)分为正向(Prompt)和反向(Negative Prompt)两种,分别用于指导和限制模型生成图像的方向。
- 基本规则:关键词之间用英文逗号分割,越靠前的关键词权重越高,但数量并非越多越好,一般系统默认为最多75个单词。
- 权重调整:使用()、[]、<>来调整关键词权重。例如,(blue eyes:1.4)表示提升“blue eyes”的权重。
- 生效时间:通过[ ]加生效时间段比例来控制关键词在整体图片中的比例或权重。
三、参数调整
- Sampler(采样器):选择使用哪种采样器,如Euler a、DDIM、LMS、PLMS、DPM2、UniPC等。不同的采样器会影响生成图片的多样性和耗时。
- Sampling Steps(迭代步数):从随机高斯噪声起步,向符合提示的图像一步步降噪接近。增加步数可以得到更精确的图片,但也会增加生成时间。
- CFG Scale(提示词相关性):图像与提示的匹配程度。增加此值会使图像更接近提示,但可能降低图像质量。一般设置在7~11之间。
- 尺寸:指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。推荐使用小尺寸分辨率+高清修复(Hires fix)。
- 种子:决定模型生成图片时涉及的所有随机性。在完全相同参数下,生成的图片应完全相同。
四、高清修复与面部修复
- 高清修复:勾选“Hires fix”启用。默认情况下,高分辨率下的文生图会生成混沌图像。使用高清修复可以生成高清大图效果。
- 面部修复:修复画面中人物的面部,但非写实风格的人物开启面部修复可能导致面部崩坏。
五、示例展示
假设我们想生成一张“一个古老的城堡,在夜晚的月光下显得格外神秘”的图片。
- 输入文本描述:在Stable Diffusion中输入上述描述。
- 选择模型与权重:选择一个适合的模型路径和权重文件。
- 设置参数:生成图像分辨率为1024x1024像素,其他参数使用默认值或根据需要进行调整。
- 生成图像:启动Stable Diffusion并等待生成过程完成。
- 优化效果:如果生成的图像不够清晰或细节不够丰富,可以尝试增加迭代次数、调整学习率等参数,或使用不同的模型或预训练权重。
六、产品关联
对于想要进一步提升Stable Diffusion使用体验的用户,可以考虑使用千帆大模型开发与服务平台。该平台提供了丰富的模型资源和强大的计算能力,可以帮助用户更高效地训练和优化自己的Stable Diffusion模型,从而生成更加精美和个性化的图片。
通过本教程的学习,相信你已经掌握了Stable Diffusion文生图的基础技巧。不妨现在就动手试试,用AI绘画创造属于你的独特作品吧!