新“魔法”一出,瞬间吸引全场目光:

原本是一张四个闺蜜在沙滩边上的普通合影照:

在新魔法的加持下,“啪的一下”画风两*反转,瞬间进入唯美动漫风:

还有效果截然不同的,例如酱紫:

不仅是动漫画风效果上的**,就连人物的pose也是保持得“原汁原味”,美女们这下子算是分分钟实现了动漫自由。

如此效果一出,也是引来了不少网友们的围观,直呼“**求教程”:

也有不少人呼吁可以将这套玩法商业化了:

两大AI高手联动

使出这套AI组合拳的,是一位叫“viggo”的华人小哥*主。

他所持的两**宝分别是:左手StableDiffusion,右手ControlNet。

StableDiffusion,相信很多友友们都已经很*悉了,就可以快速出图的AI作画**。

ControlNet,则是新晋当红AI插件(GitHub上线2天狂揽4.6K星),相当于给AI作画这事加了buff,可以精准控制手部细节和整体结构等。

小哥的做法说起也是比较简单,就是先将原图导入进去,用StableDiffusion图片转文字。

再用Text2Prompt插件拓展找到对应的关键词;最后用ControlNet插件绑定骨骼开始换关键词试效果。

上面这张中的人物更分散了一些,也站到了一排;以及上半身手臂的姿势也发生了变化。

效果之**,已经有网友按耐不住,照着小哥的说法“复现”了一遍,并表示:

**次接触,很好玩,尝试复现下,感觉良好。

不过有一说一,这位新晋AI作画顶流插件ControlNet的“神通”可不仅于此。

简单几笔也可画出**效果

他先是绘制了一张线稿:

然后是开启了ControlNet的scribble模细化效果,便得到了这样的结果:

效果之逼真,也是令人叹服了。

“海辛Hyacinth”还测试了在同一seed下不同参数的效果:

有小伙伴就要问了,那如果关闭了ControlNet,效果会如何?别急,*主也做了测试,效果是这样的:

当然,ControlNet还可以实现其它诸多的功能,例如在装修设计上,可以输入一张拍好的卧室图,分分钟输出草图和换了风格的效果图:

以及在ControlNet的**网站中,也提供了许多不同功能玩法体验,感兴趣的小伙伴可以去尝试哦:

ControlNet的原理,本质上是给预训练扩散模型增加一个额外的输入,控制它生成的细节。

这里可以是各种类型的输入,包括草图、边缘图像、语义分割图像、人体关键点特征、霍夫变换检测直线、深度图、人体骨骼等。

那么,让大模型学会“按输入条件生成图片”的原理是什么呢?

ControlNet整体思路和架构分工如下:

具体来说,得到一个“可训练副本”(trainable copy)。

相比之下,原扩散模型经过几十亿张图片的预训练,因此参数是被“锁定”的。就能学会条件控制。

模型经过训练后条件控制生成的效果也很好。

“锁定模型”和“可训练副本”通过一个1×1的卷积层连接,名叫“0卷积层”。

0卷积层的权重和偏置初始化为0,这样在训练时速度会非常快,接近微调扩散模型的速度,甚至在个人设备上训练也可以。

例如一块英伟达RTX 3090TI,

针对不同的输入,生成效果也都不错。

具体效果,就如我们刚才所展示的那样了。

接下来还可能有白**人节(5月17日)、黑**人节(2月16日)、玫瑰情人节(5月7日)、亲亲情人节(5月21日)……

赶紧把这套“AI组合拳”学起来,送自己的**/女朋友一张唯美的礼物吧!

本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。