时代焦点网 - 专业财经新闻门户
当前位置: 时代焦点网 -> 热点

效果爆炸的开源漫画变身AI,火到服务器几度挤爆

发布时间:2021-11-30 01:05   来源:IT之家   阅读量:9648   

排队 1241 人,等待 2600 秒。

效果爆炸的开源漫画变身AI,火到服务器几度挤爆

—— 这届网友为了看一眼自己在动漫里的样子,可真是拼了。

始作俑者是一款可以把人像变动漫的生成器。

什么国民老婆王冰冰:

什么国民妹妹IU:

什么科技圈大佬,EDG 成员,金发美女,容嬷嬷。上周,雷锋网深度探访了华为云贵安数据中心(一期)。

发丝,眉宇,甚至眼神里流露出来的情绪,都给你描绘得淋漓尽致。

视频效果

这也难怪网友把服务器都给挤爆了。

随便翻翻大家的作品,简直是深不见底。

再看看 GitHub 上的相关项目,果然也冲上了趋势榜第一名。

这个 AnimeGAN,真是厉害了!

如何给自己捏一个动漫脸。

看完展示的效果,你是不是也想打造一个自己专属的漫画脸了呢。

这个可以有,现在就手把手教你。

第一种方法就 very very 简单了,只需要上传一张照片就可以。预计贵安数据中心将成为华为全球最大的云数据中心,整体项目完成后,将容纳100万台服务器。

提供在线玩法的网站,就是那个著名的抱抱脸。

BUT!!!

也正如刚才提到的,现在这个 AI 着实有点太火了,简单的在线方法,就等同于排大队。

这不,等了 5259 秒之后,前面还有 15 人。

如果不想排队怎么办。

接下来,就是第二种方法了 —— 上代码!

热心网友在苦等了 3 小时之后,终于还是忍不住了,强烈安利 Colab 版本:

先运行一下文档里的前两段代码,然后只需要简单修改照片路径即可。

当然,如果想加大难度挑战一下,AnimeGANv2 的 GitHub 项目也是有的哈:

风格迁移 + GAN

那么,如此效果的背后,到底是用了什么原理呢。

AnimeGAN 是来自武汉大学和湖北工业大学的一项研究,采用的是神经风格迁移 + 生成对抗网络的组合。

它其实是基于 CartoonGAN 的改进,并提出了一个更加轻量级的生成器架构。

AnimeGAN 的生成器可以视作一个对称的编码器—解码器网络,由标准卷积,深度可分离卷积,反向残差块,上采样和下采样模块组成。

为了有效减少生成器的参数数量,AnimeGAN 的网络中使用了 8 个连续且相同的 IRB。

在生成器中,具有 1×1 卷积核的最后一个卷积层不使用归一化层,跟随其后的是 tanh 非线性激活函数。。

上图中,K 为内核大小,C 为特征图数量,S 为每个卷积层的跨度,H 是特征图的高度,W 是特征图的宽度,Resize 值用于设置特征图大小的插值方法,⊕表示逐元素加法。

而此次的 V2 版本,是基于第一代 AnimeGAN 的升级,主要解决了模型生成的图像中存在高频伪影的问题。

具体而言,所采取的措施是使用特征的层归一化,来防止网络在生成的图像中产生高频伪影。

AnimeGANv2 的生成器参数大小为 8.6MB,而 AnimeGAN 的生成器参数大小为 15.8MB。

它俩使用的鉴别器大致相同,区别在于 AnimeGANv2 使用的是层归一化,而不是实例归一化。

网友:我变漂亮了

这个 AI 可算是圈了一众粉丝。

有些网友冲进二次元之后,发现了自己惊人的美貌:

它把我变漂亮了!

而且非常骄傲的晒出了自己的漫画脸。

还有网友看完比尔盖茨的效果之后,直呼:

天!盖茨看起来聪明又性感。

就连新海诚导演都曾转发过 AnimeGAN 的作品呢。

One More Thing

最后,大家上手之前一定要注意,虽然 AnimeGAN 展示的效果都是比较好的,但这有一个大前提:

照片一定要高清,五官尽量要清晰!

不然画风可能就会变得诡异。

那么,你在漫画里是什么样子。

快去试试吧~

在线 Demo:

Colab 版本:

GitHub 地址:

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。