本次测试一共收到三张显卡,分别是NVIDIA RTX™ A4000、NVIDIA RTX™ A4500、NVIDIA RTX™ A5000显卡,显存大小分别是16GB、20GB、24GB,搭配测试的塔式工作站主机是全新戴尔Precision 3660塔式工作站,搭载第十三代英特尔®酷睿™ i7-13700处理器,内存为32GB,硬盘为2T+256G SSD。
模型训练的基本要求
Lora与Dreambooth
提到训练模型,我想简单地介绍一下关于Stable Diffusion模型训练的基本概念与模型训练对配置的更低需求(注:这里所指的需求是我结合官网推荐以及本次测试结果综合考量后得到的)!
提到模型的训练,就不得不说一下关于大模型的基础模型和微调模型的概念:
基础模型
大模型的基础模型在SD中指的是Stable diffusion:V1.4/V1.5/V2.0等,这些都是大模型,它们泛化性、通用性很好,是官方利用大量的数据训练而来。对于大模型的基础模型训练我们个人用户或者微小企业而言成本太高了,所以大模型的基础模型训练不在本次的测试范围之内。
微调模型
本次测试的主要内容是训练微调模型,而微调模型的种类很多,其中分为在大模型的基础模型的基础上结合自己的自有数据进行二次训练,从而得到新的微调大模型(Dreambooth),以及在大模型基础模型的基础上,训练Lora、Embedding、Hypernetwork等微调模型。
鉴于Embedding、Hypernetwork这两种微调模型实用性目前来看不是很高,所以此次测试主要以训练Lora模型为主。其中新生成的微调大模型(Dreambooth)就是我们在SD界面中上方所切换的模型。
而微调模型Lora模型,是我们在大模型生成的基础上对画面的风格进行微调时所调用的模型。
对于训练来说,微调大模型(Dreambooth)和微调模型(Lora)又分不同的版本,比如SD1.5版本的Dreambooth模型与Lora模型以及SDXL的Dreambooth模型与Lora模型,两大版本不同的模型在训练过程中对配置的要求是不一样的。
如果想要训练SD1.5的微调模型(Lora),要求我们的硬件显存必须要6G以上,这是更低要求,而我推荐想要进行微调模型的训练,显存更好超过8GB。
如果想要训练SD1.5的大模型(Dreambooth),需要我们的硬件显存必须要12GB以上,这里也是更低要求,我推荐的显存也是12GB。