杨净发自凹非寺
现在人人可试可玩的图像分割来了。
在线 API,只需输入图片网址,即可自动删除目标背景。
就拿今天凌晨刚夺得欧冠冠军的拜仁来试试手~
然后就变成了这样。
不过,也有翻车的时候,就像这头大象。
分割之后…诶,它的另一只牙去哪了?
以及,在同时有手和猫的时候。
它呈现的结果就……有点怪异。
这项新应用名叫 ObjectCut,在 Reddit 上一经发布,12 小时就获得700+的热度。
不少网友表示:It’s amazing!
简单三步,人人可试可玩
就以上面那头大象为例,使用步骤非常简单。
首先,任意选择一张图片,复制图片地址。
第二步,网站上将地址粘贴到指定位置,然后点击 Test Endpoint。
等待几秒之后,点击旁边生成的网址,就大功告成啦!
然后就变成了这样一头少了一颗牙的大象。
还是那个北大校友的研究
是不是觉得这项技术很熟悉,简单几步就可以去移除图片背景?
跟之前的 AR 应用 AR Cut & Paste——有异曲同工之妙。
这两项应用背后的主要技术,都是一个叫做 BASNet 的显著目标检测方法。
这篇研究入围了 CVPR 2019,其论文一作是位华人小哥哥——秦雪彬,已经于今年 2 月在在加拿大阿尔伯塔大学拿到了博士学位,硕士就读于北京大学。
BASNet 的核心框架如下图所示,主要由 2 个模块组成:
第一个模块是预测模块,这是一个类似于U-Net 的密集监督的 Encoder-Decoder 网络,主要功能是从输入图像中学习预测 saliency map。
第二个模块是多尺度残差细化模块RRM),主要功能是通过学习残差来细化预测模块得到的 Saliency map,与 groun-truth 之间的残差,从而细化出预测模块的 Saliency map。
而除了BASNet,还有网友推荐了U2-Net,依然来自同一个作者,其效果更好。
其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》
实验结果像这样:
同一项技术,不一样的玩法,你觉得这个方法还可以做什么有趣的应用?
另外,想要去试试这个在线图像分割应用,可戳下方链接哦~
网址:
- https://rapidapi.com/objectcut.api/api/background-removal
参考链接:
- https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/