人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度
楊凈發自凹非寺
現在人人可試可玩的圖像分割來了。
在線 API,只需輸入圖片網址,即可自動刪除目標背景。
就拿今天凌晨剛奪得歐冠冠軍的拜仁來試試手~
然后就變成了這樣。
不過,也有翻車的時候,就像這頭大象。
分割之后…誒,它的另一只牙去哪了?
以及,在同時有手和貓的時候。
它呈現的結果就……有點怪異。
這項新應用名叫 ObjectCut,在 Reddit 上一經發布,12 小時就獲得700+的熱度。
不少網友表示:It’s amazing!
簡單三步,人人可試可玩
就以上面那頭大象為例,使用步驟非常簡單。
首先,任意選擇一張圖片,復制圖片地址。
第二步,網站上將地址粘貼到指定位置,然后點擊 Test Endpoint。
等待幾秒之后,點擊旁邊生成的網址,就大功告成啦!
然后就變成了這樣一頭少了一顆牙的大象。
還是那個北大校友的研究
是不是覺得這項技術很熟悉,簡單幾步就可以去移除圖片背景?
跟之前的 AR 應用 AR Cut & Paste——有異曲同工之妙。
這兩項應用背后的主要技術,都是一個叫做 BASNet 的顯著目標檢測方法。
這篇研究入圍了 CVPR 2019,其論文一作是位華人小哥哥——秦雪彬,已經于今年 2 月在在加拿大阿爾伯塔大學拿到了博士學位,碩士就讀于北京大學。
BASNet 的核心框架如下圖所示,主要由 2 個模塊組成:
第一個模塊是預測模塊,這是一個類似于U-Net 的密集監督的 Encoder-Decoder 網絡,主要功能是從輸入圖像中學習預測 saliency map。
第二個模塊是多尺度殘差細化模塊(RRM),主要功能是通過學習殘差來細化預測模塊得到的 Saliency map,與 groun-truth 之間的殘差,從而細化出預測模塊的 Saliency map。
而除了BASNet,還有網友推薦了U2-Net,依然來自同一個作者,其效果更好。
其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》
實驗結果像這樣:
同一項技術,不一樣的玩法,你覺得這個方法還可以做什么有趣的應用?
另外,想要去試試這個在線圖像分割應用,可戳下方鏈接哦~
網址:
- https://rapidapi.com/objectcut.api/api/background-removal
參考鏈接:
- https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/
總結
以上是生活随笔為你收集整理的人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 汪涵的《天天向上》被湖南卫视踢出周五晚间
- 下一篇: 受污染的布料属于什么垃圾啊?