“ 大家注意:因為微信最近又改了推送機制,經常有小伙伴說錯過了之前被刪的文章,比如前陣子冒著風險寫的全指南,再比如一些限時福利,錯過了就是錯過了。 所以建議大家加個星標,就能第一時間收到推送。?? 摳圖工具大家不陌生吧,我們前后做過兩期的摳圖工具評測—— 省流答案是,第一次勝出來的王者是國外的 remove.bg(無法下載高清原圖),第二次勝出來的王者是國內的佐糖(需要登錄),我日常用的也是這倆。
但你發現沒有,無論是 remove.bg 也好,佐糖也罷,都在官網里提到了 AI 的名字,AI 在哪?在于識別分割。 所謂的摳圖,是計算機視覺領域下圖像分割的落地應用之一,如果要說原理,過去實現摳圖大體上有兩種姿勢—— 1、經過大量訓練,分割出特定對象,比如摳人的模型,摳衣服的模型,摳動物的模型等等。 2、分割時盡可能的通用,分割后再進行微調。 當然,在實際應用中,這兩種方案都是混合出現的,進而實現自動摳圖的效果,但是,就在這個月的第一周,暫時擱淺元宇宙,扭頭全面擁抱 AIGC 的 Meta(Facebook),發布了一個圖像分割基礎模型:SAM。 毫不夸張的說,這是史上首個圖像分割基礎模型,支持以文本、畫點、滑框的方式去分割圖片里的內容。 要說有什么牛??的地方?和 ChatGPT 一樣,兩個字:通用。是的,不需要額外訓練,這個 SAM 模型就可以開箱即用到新的圖像領域。 到底如何呢?我試了試。 官網 隨著 SAM 模型的發布,Meta 在其官網,開放了一個演示用的 Demo,除了文本功能暫未開放外,你可以從這個 Demo 中體驗 SAM 模型的效果,而且免翻。 官方 Demo:https:///demo 雖然使用這個 Demo 無需登錄,但需要勾選這個「用前須知」。 網站本身只有英文,建議搭配瀏覽器機翻食用,選一張例圖,或者上傳自己的圖片,鼠標懸停變藍之處,就是 SAM 模型自動識別出來的內容。 在「點擊」模式下,鼠標左鍵一點就能分割出你需要的內容。 細心的小伙伴應該發現了,在鞋這里,并沒有分割完整,怎么辦? 很簡單,未識別的地方再給它點一下,分割的內容會自動往外擴。 點了兩下鼠標,這個分割就算完成了。 在「Box」模式下,我們也可以通過滑框再點擊的方式,搭配起來完成快速分割。 當然,如果 SAM 識別的多了,我們可以通過鼠標右鍵快速排除當前不要的內容。 官方還提供了一個「Everything」的模式,可以一鍵自動識別圖片中所有的內容。 上面就是 Meta 官方 Demo 的全部內容了,人物也好,汽車也罷,三次元也好,二次元也罷,SAM 是真的很通用。 但每次使用這個 Demo,還需要上傳才行,有沒有更簡潔的使用方法呢?有的,在 Meta 發布 SAM 模型后,有人把它做成了擴展。 Magic Copy Magic Copy 是一款基于 SAM 模型實現的摳圖工具,對于網頁中看到的任何圖片,都可以通過這個瀏覽器擴展完成快速識別和摳圖。 雖然作者說支持 Chrome 和 Firefox,不過都還在審核中,但我們可以從 GitHub 上直接下載使用。 地址:https://github.com/kevmo314/magic-copy/releases 在上面發布頁下載 zip 壓縮包,解壓后,去瀏覽器擴展管理頁,開啟「開發者模式」后,通過「加載已解壓的擴展程序」完成加載。 使用起來就簡單了,對于圖片右鍵選擇擴展,然后通過鼠標點擊快速分割圖像,再次點擊右上角的「Download」即可下載摳出來的圖片。 正兒八經的說啊,這個擴展的功能是 OK 的,左上角可以查看摳圖預覽。 右上角可以撤回上一步操作(Undo),可以直接把摳圖內容復制到剪切板(Copy),也可以直接下載(Download)。 但缺點是沒辦法像官網那樣鼠標右鍵快速排除當前不要的內容,以及在分割過程中右上角的功能按鍵會變白. 所以實際使用過程中,需要我們多點幾下鼠標,再去預覽里瞅瞅看。 如果多點了,就只能憑感覺去右上角找 Undo 按鈕撤回了。 除此之外都挺好的,但我發現對于本地圖片,Magic Copy 這個瀏覽器擴展沒辦法使用,又不能每張圖都上傳圖床或者上傳網盤,想直接訪問怎么辦? 其實給本地文件安排上瀏覽器擴展,這招以前就和大家分享過,即我們可以利用第三方工具把本地主機變成服務器。 裝機必備的 Everything 有吧,在「工具-選項」里找到 HTTP 服務器,勾選啟用后,把「綁定接口」改為 127.0.0.1,「端口」用默認的 80 就行,最后記得把「服務器頁面位置」改為你存放本地圖片的目錄,搞定。 然后在瀏覽器上以「127.0.0.1/文件名」打開圖片,就可以讓 Magic Copy 成功應用到本地圖片了。 其他擴展、油猴腳本之類的,也都可以通過這種姿勢訪問本地文件。 用 Meta 搞出來的這個 SAM 模型摳圖,優點勝在通用,缺點輸在不像其他工具做了那么多的優化,所以在極為細節,比如人物毛發之類的地方,效果中規中矩。 但哪怕這樣,也碾壓很多免費的摳圖工具了。 結語 短期內,Meta 搞出來的這個 SAM 基礎模型可能不會帶來更直接的影響。 但就像 Meta 發布時畫的餅,這種通用模型再稍微進進步,但凡和圖像識別、分割有需要的場景里,它都能派上用場。 那,SAM 模型,能不能應用到 AI 繪畫中呢?答案是能的,利用 SAM 模型分割的能力,可以快速改變圖片里的某一部分,比如給小姐姐穿個黑絲。 你看,除了腿,左右兩張圖沒有一點變化,過去要很花時間,或者借助 PS 來完成局部重繪,而有了 SAM 模型,方便得多,你看這下連換裝模特都省了,讓穿啥就穿啥,聽話得很。 關于 AI 繪畫,具體的教程咱們下篇再說,至于現在,對于復雜場景下的簡單摳圖,相信今天的內容能帶來不少的便利,感興趣的小伙伴快去試試看吧。 這個擴展同樣也是在上周的星球上分享過,類似這種東西星球上每天都發不少,都快用不過來了 |
|