本帖最后由 头条推荐 于 2023-2-27 16:11 编辑
转自:网罗灯下黑 前两周 AI 领域的当红辣子鸡,毫无疑问是 ChatGPT,但在 ChatGPT 一波又一波刷屏的背后,你可能错过了一场今年典中典的 AI 诈骗案。 是的,AI 还没来得及改变普通人的生活,却已经改变了割韭菜的生财姿势。。。 这事相当具有戏剧性,起初,网上流传了一场 Party 的宣传海报,四个大字,「女仆之夜」。 这种活动本来没啥惊奇的,哪怕 3000 元/位的入场费,也不能让活动本身更出彩,除非,它不正经。 没错,女仆之夜的活动,哪能没有女仆呢,这个 Part 最大的亮点,在于为每一位参与者,都配备有随身陪玩女仆一名。 更附带了 43 张女仆小姐姐的「照片」: 大家不用猜了游艇女仆趴的大结局了,因为活动本身就是一场闹剧,这 43 张照片全部都是 AI 绘画赋能的产物。 好家伙,过去诈骗是 P 图变脸,现在诈骗直接无中生有,比九转大肠绕绕还多,但我对 AI 绘画的印象还停留在去年的二次元涩涩上,现在怎么都进军真人了? 本着认真负责的态度,我决定一探现在 AI 绘图的究竟,这两天在我看了大量 AI 涩绘图的基础上,终于顺藤摸瓜理清了这次 AI 绘图大变样的节点。 虽然还没跑起来,但我想着独乐乐不如众乐乐,先给大家复盘一下 AI 绘画是怎么开始画照片的。 PS:多图预警,请在 WIFI 下观看。 Chilloutmix 今年二月初,各大网络社区,包括不限于微博、贴吧、NGA、小红书、推特、油管,都开始出现真人风格,质量极高的 AI 绘制的作品。 其中最出圈的,大概是微博上 @勘云工造 大佬制作的赛博 Coser 系列,放几张这两天网上疯传,很多人估计都眼熟了的作品: 这个身材傲人,装扮精致的小姐姐图片,无论光影,还是面部细节,亦或衣服褶皱,都算得上真实,妥妥的美女 Coser。 但你品一品这作图风格,是不是和前面那个游艇女仆趴有点像?嘿,因为这些图啊,都是基于一个模型实现的,也就是 ChilloutMix。 至于为啥 AI 画照片都扎堆出现在了 2 月?无他,ChilloutMix 这个模型是 2 月初登录在了 AI 绘画模型分享社区 C 站(CivitAI)。 不到 1 个月的时间,这个模型就已经拥有了 11 万的下载量。 在 C 站里,有各种基于这个模型跑出来的「照片」。 偷偷说一句,如果你在 C 站搜这个模型,需要在设置里开启 adult 模式(成人模式),因为 Chilloutmix 除了正经出图,还能直接产出 NSFW 内容。 不过有一说一啊,Chilloutmix 模型并不是 AI 绘图从 0 到 1 的突破,而是基于多个开源的 Stable Diffusion 衍生模型实现的。 展开讲就全是模型介绍了,小白也能看懂的说法是,Chilloutmix 是一个集大成的写实风模型,用不同指令调用不同模型的专精方向,就能生成这么一张以假乱真的图片了。 等等,AI 绘图应该是风格相近,样子各异才对,Chilloutmix 当然也不例外,网上的大佬们是怎么让 AI 连续生成同一副面孔的套图呢? 一句话,微软的功劳。 LoRa 就像前面说的那样,AIGC 的背后是一个又一个被提前训练好的模型,这些模型决定了生成内容的整体走向。 但是,模型是成果也是桎梏,就像焊好的手机没办法单独只换个芯片,想让模型跑出不一样的风格,只有重新训练。 早在 2021 年的时候,微软搞大语言模型时就发现了这一点,并提了个微调的解决方案:LoRa。 具体什么意思呢?不用再去重新训练大模型了,直接打补丁,把单独训练好的模块拿来覆盖原先的模型参数,达到稳定产出的效果。 而 LoRa 这项技术于去年底,被应用到了 AI 绘图上,也就是说只要搭配微调好的 LoRa 模型,就可以轻松固定 AI 绘图时的人物形象。 这么搞,AI 绘图的自由度一下子就丰富起来了,举几个例子,以光头强图集训练好的 LoRa 模型: 就可以跑出光头强的效果,当然了,具体内容还要看你的描述语。 那用深田咏美老师的 LoRa 模型呢? 跑出的,自然也是深田老师的样子。 说真的,这样的模型有太多太多了,并不局限于写实的真人,如果你最近刷到了神似谁谁谁的 AI 二创,要么是自己训练跑出来的模型,要么是从 C 站上下载的 LoRa 模型。 而 ChilloutMix+LoRa 组合拳的结果,其实上一节你就已经看到了,有个韩风的 LoRa 模型,是最近出圈的主流。 该怎么描述呢?嗯,大家还是直接看图吧。 怪不得 AI 绘画能被用于诈骗,这看了谁不迷糊啊。。。 不过我盲猜,这个时候肯定会有小伙伴说,AI 绘画看手啊,这是 AI 的盲区。 确实,现阶段手对于 AI 来说仿佛是 bug 一般的存在,但未来,真不好说。 最近 AI 绘图圈又有了船新突破:ControlNet 模型。 ControlNet 同样是微调,但它能让 AI 输出更加精细,举个火爆推特的例子,这是一张普普通通的合照。 但在 ControlNet 的加持下,可以生成这样的效果: 发现亮点没有,人物的姿势并没有发生什么变化,这就很牛。 以往的 AI 模型,你想让它生成不同的姿势,必须要有具体的提示词,比如歪头、跑步等等。 但很多时候,AI 不一定能正确理解,因为模型本身是有惯性的,会更偏向于拿来训练的图集。 ControlNet 牛在什么地方,它能更精准的控制人物的整体结构和构图细节,其中就包括了手部姿势。 不要小看了这个插件,虽然它是引导,但其扩展性可能超乎我们的想象,最直观的是人物可以更好的呈现姿态: 更进一步,已经有基于这类引导,从 AI 绘制静态图,升级为 AI 绘制动画了,这是最原始的姿势: 这是生成后的结果: 诚然,现在看 AI 制片,还有各种问题,比如背景不一致,跳帧顿挫等等,但毫无疑问,比过去 AI 绘图的效果要好上太多太多。 结语 其实这一篇写下来,让我震惊的不是现在 AI 绘图的效果有多牛,而是升级的太快了。 今天这三节的内容,其实都是基于 Stable diffusion 出现的,那 SD 是什么时候发布的呢?嗯,去年 8 月。 难免感慨,在短短半年的时间里,AI 绘图的发展实在是太快了,快到感觉和我以前把玩过的 AI 绘图不是一个东西。 总说 AI 会取代取代谁,但当你了解的越多,你会觉得一开始可能它降低了门槛,但从某个时候起,它又增加了门槛。 这篇纯粹是个吃瓜,不过等我整理好了资料,再来和大家分享玩法,等不及的小伙伴可以多去 B 站搜搜教程。 推荐一位 B 站的秋叶大佬,@秋叶aaaki。 地址:https://space.bilibili.com/12566101 除此之外,多去 C 站上逛逛,哪怕不学技术,咱去看看图也行。 地址:https://civitai.com 别的就不多说了,连割韭菜的都学新技术了,咱可别掉队了。
|