阿里AI技術專攻服裝局部抄襲現(xiàn)象
【YKK拉鏈行業(yè)新聞】
面前的思路是基于服裝區(qū)域性表達的檢索模型,對圖像中的服裝進行區(qū)域化的相似性學習和度量。該研究效果已被CVPR2020收錄,并被選為Oral論文。
阿里平安圖靈實驗室表示,該工作將用到阿里原創(chuàng)保護平臺,淘寶、天貓等阿里系電商平臺上線,提供侵權檢測能力。
精細化剽竊魔高一尺,打假道怎么高一丈?
就服裝領域而言,雖然打假一直不時,但盜版剽竊問題依舊普遍存在而且從線上到線下,剽竊手段越來越刁鉆,打假難度逐年提高。目前來看,服裝領域的剽竊只有有三類。
第一類集中在圖片盜用上。盜版者通常未經授權,拿正版品牌的商品圖使用或修改使用,無錫ykk拉鏈比方在圖上添加自己店鋪的水印,或進行一些圖像處理(反轉、縮放、拼接等)
這一類侵權剽竊利息很低,但很容易被平臺的圖片檢索系統(tǒng)鎖定,然后快速“治理”
第二類是創(chuàng)意盜用,不良商家直接剽竊原創(chuàng)商家的整體商品設計和創(chuàng)意,制作同款或者仿款。
這類侵權的利息稍高一些,但基于商品整體相似度度量的同款檢索算法,可以對它進行召回和治理。
第三類是盜用是對服裝的某些局部區(qū)域進行修改,像是洗稿,比如改變領口的設計款式、或者胸前印花的布局,甚至改變服裝的款型等。
但如下圖所示,仍然是剽竊正版品牌服裝的風格和設計元素(左側為正版,右側為盜版)甚至還當做“明星同款”來賣。
這類盜版的利息最高,并不易被傳統(tǒng)的基于商品同款檢索的算法鎖定。通常情況下,電商平臺只能通過人工審核來發(fā)現(xiàn),打假利息很高。
那有沒有一種方法,能夠讓系統(tǒng)自動鎖定此類剽竊現(xiàn)象?這就是阿里平安圖靈實驗室最新研究的方向。
此前,基于屬性感知細粒度相似度學習方法,提出服飾版權算法來鎖定局部剽竊,被AA A I2020收錄。
現(xiàn)在又提出了一個新思路,基于服裝區(qū)域性表達的檢索模型,對圖像中的服裝進行區(qū)域化的相似性學習和度量,從而實現(xiàn)更有效打假。
精確到袖子、領子的盜版服裝圖像”檢索算法
盜版服裝”定義,整體上剽竊原版服裝設計和風格,并在一兩個區(qū)域進行修改,以逃避現(xiàn)有同款服裝檢索模型篩查的服裝樣本。
算法設計上,提出了一種服裝關鍵點引導的區(qū)域注意力機制。
首先利用服裝關鍵點估計分支來預測服裝的關鍵點,即分布在服裝圖像各個關鍵位置的點位,如領口、袖口、肩部、腋下等。
每類服裝的關鍵點數(shù)量和分布有一定差異,點數(shù)在每件25-40個左右。根據(jù)這些關鍵點,算法可對服裝圖片進行多個區(qū)域的劃分,如領子、袖子、胸部、腰部區(qū)域等。
區(qū)域劃分信息通過基于ROIPool思想的方式引入,一體化的服裝圖像特征被解耦為多個區(qū)域化的特征表達,以獨立地進行特征相似度的學習和度量。
同時,服裝關鍵點結合區(qū)域化的表達可作為一種注意力機制,引入到圖像檢索網(wǎng)絡上,關鍵部位的特征權重被提升,非關鍵部位的權重被削減,以提升模型對關鍵部位的判別力。
服裝關鍵點估計分支和圖像檢索分支使用相同的HR-Net主干網(wǎng)絡,其多級并聯(lián)結構在獲取多尺度特征的同時堅持了高分辨率。
損失函數(shù)的選擇上,關鍵點估計分支采用了均方差損失函數(shù),
檢索分支采用了區(qū)域化設計的Triplet損失函數(shù)。而損失函數(shù)的數(shù)值不再是整個圖片范圍的特征triplet差值,而是各個區(qū)域特征差值的累加結果。
文中方法的框架如下圖所示,網(wǎng)絡可分為服裝關鍵點估計分支和服裝檢索分支,其中檢索網(wǎng)絡包括同款服裝檢索和盜版服裝檢索兩種輸出形式:
通過對平臺侵權服裝樣本的分析,阿里研究人員發(fā)現(xiàn),不同類別服裝易被盜版的區(qū)域是不一樣的因此只將服裝圖像特征的相似度度量過程解耦是不夠的還需要為每類服裝的多個區(qū)域設定差異化的權值,進行加權的區(qū)域相似性計算,以召回更多的盜版服裝樣本。
為此,基于平臺盜版服裝數(shù)據(jù),建立了一個名為“FashionPlagiarDataset數(shù)據(jù)集,該數(shù)據(jù)集中,每組“原版服裝”queri圖像對應galleri中多個“盜版服裝”圖像,數(shù)據(jù)覆蓋短袖T恤、長袖上衣、外套、連衣裙四類樣本。
該數(shù)據(jù)集上,對在Deepfashion2數(shù)據(jù)集上預訓練過的檢索網(wǎng)絡進行FineTune訓練,用CoordinAscent算法對不同服裝類別的各區(qū)域權值進行迭代優(yōu)化,以降低損失函數(shù)數(shù)值。
盜版服裝”檢索訓練過程的損失函數(shù),同樣基于Triplet損失函數(shù)設計。最終,訓練后的盜版檢索網(wǎng)絡可以基于上圖中的Input服裝圖像召回Output中綠框內的盜版服裝樣本。
打假效果怎么樣?不輸、甚至逾越此前SOTA
論文的實驗局部,阿里研究人員首先在FashionPlagiarDataset上對算法的盜版服裝圖像”檢索能力進行了評估。
除了論文所提出的方法外,還設定了兩種方法進行對比:一種是激進檢索方法,使用相同的backbon網(wǎng)絡和Triplet損失函數(shù),但是不包括區(qū)域化特征學習和表達機制;另一種是包括區(qū)域化特征表達機制,但是使用非FineTune訓練得到區(qū)域權重,評價指標為mA P
從表中結果可以看出,論文所用方法在各個服裝類別都取得了最佳效果。
除上述“盜版服裝檢索”評價實驗外,還在Deepfashion系列數(shù)據(jù)集上進行了服裝關鍵點估計,和同款服裝圖像檢索任務的實驗。
服裝關鍵點估計局部,阿里研究人員在目前復雜度最高的Deepfashion2數(shù)據(jù)集上進行了評測,與現(xiàn)有Match-RCNN,CPN,Simple-Baselin等方法相比,服裝關鍵點估計模型在各個子集上都取得了最高的mA P結果:
同款服裝檢索實驗中,選用了FashionNet,Match-RCNN,PCB等方法作為對比,Deepfashion和Deepfashion2上分別進行了實驗。
其中,Deepfashion主要針對In-shop檢索場景,Deepfashion2則針對于Consumer-to-shop場景。評價指標分別為Top-Nrecal和Top-Naccuraci
結果如下圖所示,阿里的方法在Deepfashion數(shù)據(jù)集上取得了與SOTA 方法相近的效果,Deepfashion2數(shù)據(jù)集上的結果要明顯優(yōu)于現(xiàn)有baselin方法。
一共有5名研究人員參與了這項研究,分別來自阿里巴巴、浙江工商大學和 阿里巴巴-浙江大學前沿技術聯(lián)合研究中心。
文章第一作者YineLang第二作者YuanHe第三作者FanYang來自阿里平安圖靈實驗室。阿里平安圖靈實驗室負責人薛暉,文章的通訊作者。浙江工商大學JianfengDong也是論文作者之一。
阿里平安圖靈實驗室正式成立于2016年,前身是阿里平安基礎算法團隊,主要從事平安與風險方面的AI系統(tǒng)研發(fā),核心技術包括計算機視覺、自然語言處置、生物特征識別、圖計算以及異常檢測和分析等,截止到2018年,已申請50多項專利。
- 上一篇:格力擬投10億進軍醫(yī)療產業(yè) 2020/3/17
- 下一篇:時尚行業(yè)受疫情影響最大,整個行業(yè)在思考如何破局 2020/3/16