ITPub博客

首页 > 人工智能 > 人工智能 > 一键“脱”衣应用DeepNude迅速下线,来看看它涉及的图像修复技术

一键“脱”衣应用DeepNude迅速下线,来看看它涉及的图像修复技术

原创 人工智能 作者:大数据文摘 时间: 0 删除 编辑

大数据文摘出品

来源:Github

发布者:yuanxiaosc

上周,又一AI偏门应用DeepNude爆出,一键直接“脱掉”女性的衣服,火爆全球。

应用也很容易上手,只需要给它一张照片,即可借助神经网络技术,自动“脱掉”衣服。原理虽然理解门槛高,但是应用起来却毫不费力,因为对于使用者来说,无需任何技术知识,一键即可获取。

据发布者表示,研发团队是个很小的团队,相关技术显然也还很不成熟,多数照片(尤其是低分辨率照片)经过DeepNude处理后,得出的图像会有人工痕迹;而输入卡通人物照片,得出的图像是完全扭曲的,大多数图像和低分辨率图像会产生一些视觉伪像。

当然,目标“图片”还是各种女性,较早曝光这一应用的科技媒体Motherboard表示,他们通过几十张的照片测试,发现如果输入《体育画报泳装特辑》(Sports Illustrated Swimsuit)的照片,得到的裸体照片最为逼真。

海外媒体Motherboard测试图片

这一应用瞬间引发了社区的各类声讨,表示是对AI利用的反例。

连吴恩达也出面发声,声讨这一项目。

该应用在一片讨伐声中很快下线,但是,余震犹存。

尤其是对这一应用背后技术的探讨还一直在持续。

本周,一个名为“研究DeepNude使用的图像生成和图像修复相关的技术和论文“的GitHub升至一周热榜,获得了不少星标。

项目创始人显然对于这一项目背后的技术很有研究,提出了其生成需要的一系列技术框架,以及哪些技术可能有更好的实现效果。文摘菌在此进行转载,希望各位极客在满足技术好奇心的同时,也可以正确使用自己手中的技术力量。

以下为原文内容和来源链接:

https://github.com/yuanxiaosc/DeepNude-an-Image-to-Image-technology

接下来我会开源一些image/text/random-to-image的神经网络模型,仅供学习交流之用,也欢迎分享你的技术解决方案。

Image-to-Image Demo图像到图像demo

DeepNude软件主要使用Image Inpainting for Irregular Holes Using Partial Convolutions 中提出的Image-to-Image技术,该技术有很多其它的应用,比如把黑白的简笔画转换成色彩丰富的彩图,你可以点击下方的链接在浏览器中尝试Image-to-Image技术。

https://affinelayer.com/pixsrv/

在左侧框中按照自己想象画一个简笔画的猫,再点击pix2pix按钮,就能输出一个模型生成的猫。

Deep Computer Vision in DeepNude

Image Inpainting图像修复

  • 论文NVIDIA 2018 paper Image Inpainting for Irregular Holes Using Partial Convolutions and Partial Convolution based Padding.

  • 代码 Paper code partialconv。


效果

在Image_Inpainting(NVIDIA_2018).mp4视频中左侧的操作界面,只需用工具将图像中不需要的内容简单涂抹掉,哪怕形状很不规则,NVIDIA的模型能够将图像“复原”,用非常逼真的画面填补被涂抹的空白。可谓是一键P图,而且“毫无ps痕迹”。该研究来自Nvidia的Guilin Liu等人的团队,他们发布了一种可以编辑图像或重建已损坏图像的深度学习方法,即使图像穿了个洞或丢失了像素。这是目前2018 state-of-the-art的方法。

Pix2Pix(need for paired train data)

DeepNude mainly uses this Pix2Pix technology.

  • 论文 Berkeley 2017 paper Image-to-Image Translation with Conditional Adversarial Networks.

  • 主页 homepage Image-to-Image Translation with Conditional Adversarial Nets

  • 代码code pix2pix

  • Run in Google Colab pix2pix.ipynb

Image-to-Image Translation with Conditional Adversarial Networks是伯克利大学研究提出的使用条件对抗网络作为图像到图像转换问题的通用解决方案。

CycleGAN(without the need for paired train data)

  • 论文:Berkeley 2017 paper Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

  • 代码:code CycleGAN

  • Run in Google Colab cyclegan.ipynb

效果

CycleGAN使用循环一致性损失函数来实现训练,而无需配对数据。换句话说,它可以从一个域转换到另一个域,而无需在源域和目标域之间进行一对一映射。这开启了执行许多有趣任务的可能性,例如照片增强,图像着色,样式传输等。您只需要源和目标数据集。

未来

可能不需要Image-to-Image。我们可以使用GAN直接从随机值生成图像或从文本生成图像。

Obj-GAN

微软人工智能研究院(Microsoft Research AI)开发的新AI技术Obj-GAN可以理解自然语言描述、绘制草图、合成图像,然后根据草图框架和文字提供的个别单词细化细节。换句话说,这个网络可以根据描述日常场景的文字描述生成同样场景的图像。

效果


模型

StoryGAN

进阶版神笔:只需一句话、一个故事,即可生成画面

微软新研究提出新型GAN——ObjGAN,可根据文字描述生成复杂场景。他们还提出另一个可以画故事的GAN——StoryGAN,输入一个故事的文本,即可输出「连环画」。

当前最优的文本到图像生成模型可以基于单句描述生成逼真的鸟类图像。然而,文本到图像生成器远远不止仅对一个句子生成单个图像。给定一个多句段落,生成一系列图像,每个图像对应一个句子,完整地可视化整个故事。

效果

现在用得最多的Image-to-Image技术应该就是美颜APP了,所以我们为什么不开发一个更加智能的美颜相机呢

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31562039/viewspace-2649330/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2018-11-13

  • 博文量
    253
  • 访问量
    184437