🎉 親愛的廣場小夥伴們,福利不停,精彩不斷!目前廣場上這些熱門發帖贏獎活動火熱進行中,發帖越多,獎勵越多,快來 GET 你的專屬好禮吧!🚀
🆘 #Gate 2025年中社区盛典# |廣場十強內容達人評選
決戰時刻到!距離【2025年中社區盛典】廣場達人評選只剩 1 天,你喜愛的達人,就差你這一票衝進 C 位!在廣場發帖、點讚、評論就能攢助力值,幫 Ta 上榜的同時,你自己還能抽大獎!iPhone 16 Pro Max、金牛雕塑、潮流套裝、合約體驗券 等你抱走!
詳情 👉 https://www.gate.com/activities/community-vote
1️⃣ #晒出我的Alpha积分# |曬出 Alpha 積分&收益
Alpha 積分黨集合!帶話題曬出你的 Alpha 積分圖、空投中獎圖,即可瓜分 $200 Alpha 代幣盲盒,積分最高直接抱走 $100!分享攢分祕籍 / 兌換經驗,中獎率直線上升!
詳情 👉 https://www.gate.com/post/status/12763074
2️⃣ #ETH百万矿王争霸赛# |ETH 鏈上挖礦曬收益
礦工集結!帶話題曬出你的 Gate ETH 鏈上挖礦收益圖,瓜分 $400 曬圖獎池,收益榜第一獨享 $200!誰才是真 ETH 礦王?開曬見分曉!
詳情 👉 https://www.gate.com/pos
港大阿里「視覺AI任意門」,一鍵向場景中無縫傳送物體
來源:量子位
點兩下鼠標,就能把物體無縫「傳送」到照片場景中,光線角度和透視也能自動適應。
阿里和港大的這個AI版「任意門」,實現了零樣本的圖像嵌入。
有了它,網購衣服也可以直接看上身效果了。
AnyDoor一次能夠傳送多個物體。
零樣本生成逼真效果
相對於已有的類似模型,AnyDoor具有零樣本操作能力,無需針對具體物品調整模型。
實際上,其他的Reference類模型只能做到保持語義一致性。
通俗地說,如果要傳送的物體是一隻貓,其他模型只能保證結果中也有一隻貓,但相似度無法保證。
而對於已有圖像中物體的移動、換位,甚至改變姿態,AnyDoor也能出色完成。
工作原理
不過在將包含目標物體的圖像送入提取器之前,AnyDoor首先會對其進行背景消除。
然後,AnyDoor會進行自監督式的物體提取並轉換成token。
這一步使用的編碼器是以目前最好的自監督模型DINO-V2為基礎設計的。
為了適應角度和光線的變化,除了提取物品的整體特徵,還需要額外提取細節信息。
這一步中,為了避免過度約束,團隊設計了一種用高頻圖表示特徵信息的方式。
同時,AnyDoor利用Hadamard對圖像中的RGB色彩信息進行提取。
結合這些信息和過濾邊緣信息的遮罩,得到了只含高頻細節的HF-Map。
利用獲取到的token,AnyDoor通過文生圖模型對圖像進行合成。
具體來說,AnyDoor使用的是帶有ControlNet的Stable Diffusion。
AnyDoor的工作流程大致就是這樣。而在訓練方面,也有一些特殊的策略。
儘管AnyDoor針對的是靜態圖像,但有一部分用於訓練的數據是從視頻當中提取出來的。
將物體與背景分離後標註配對,就形成了AnyDoor的訓練數據。
不過雖然視頻數據有利於學習,但還存在質量問題需要解決。
於是團隊設計了自適應時間步採樣策略,在不同時刻分別採集變化和細節信息。
通過消融實驗結果可以看出,隨著這些策略的加入,CLIP和DINO評分均逐漸升高。
團隊簡介
論文的第一作者是香港大學博士生陳汐(Xi Chen),他曾經是阿里巴巴集團算法工程師。
陳汐的導師Hengshuang Zhao是本文的通訊作者,研究領域包括機器視覺、機器學習等。
此外,阿里方面還有來自達摩院、菜鳥集團的研究人員也參與了這一項目。
論文地址: