《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于SAM和pix2pix的商品數(shù)據集生成網絡
基于SAM和pix2pix的商品數(shù)據集生成網絡
電子技術應用
于惠鈞1,2,鄒志豪1,康帥1
1.湖南工業(yè)大學 軌道交通學院; 2.湖南工業(yè)大學 電氣與信息工程學院
摘要: 針對商品包裝快速變換帶來的商品數(shù)據集采集和標注過程繁瑣的問題,設計了一種基于SAM和pix2pix的商品數(shù)據集生成網絡。該網絡以單個商品多角度圖像作為輸入,生成與實際結算場景相近似的數(shù)據集。在RPC大型商品數(shù)據集上進行數(shù)據集生成,在YOLOv7、Fast R-CNN、AlexNet三種目標檢測網絡上驗證生成數(shù)據集對目標檢測效果的提升。實驗結果表明,生成數(shù)據集融合到原數(shù)據集后用于訓練模型能夠有效提升商品識別準確率,并且與真實數(shù)據集相比具有較好的替代性。相較于原數(shù)據集,融合生成數(shù)據集三個網絡上識別精度分別提升7.3%、4.9%、7.8%。通過該方法,顯著提高了模型訓練的效率與實用性,減輕傳統(tǒng)商品數(shù)據集采集與標注所需的人力物力投入。
中圖分類號:TP181;TP391.4 文獻標志碼:A DOI: 10.16157/j.issn.0258-7998.245759
中文引用格式: 于惠鈞,鄒志豪,康帥. 基于SAM和pix2pix的商品數(shù)據集生成網絡[J]. 電子技術應用,2025,51(4):23-28.
英文引用格式: Yu Huijun,Zou Zhihao,Kang Shuai. Product data set generation network based on SAM and pix2pix[J]. Application of Electronic Technique,2025,51(4):23-28.
Product data set generation network based on SAM and pix2pix
Yu Huijun1,2,Zou Zhihao1,Kang Shuai1
1.College of Railway Transportation, Hunan University of Technology; 2.College of Electrical and Information Engineering
Abstract: Aiming at the cumbersome process of collection and labeling of commodity data set caused by rapid change of commodity packaging, this paper designs a commodity data set generation network based on Segment Anything Model (SAM) and Pixel to Pixel (pix2pix). The network uses multi-angle images of a single commodity as input to generate a data set similar to the actual settlement scene. The data set generation test was carried out on Retail Product Checkout Dataset(RPC) set, and the improvement of the generated data set on target detection effect was further verified on YOLOv7, Fast R-CNN and AlexNet target detection networks. The experimental results show that the generated data set can effectively improve the accuracy of commodity recognition, and has better substitution compared with the actual data set. Compared with the original data set, the recognition accuracy of the three networks generated by fusion data set is improved by 7.3%, 4.9% and 7.8%, respectively. Through this method, the efficiency and practicability of model training are significantly improved, and the manpower and material input required for traditional commodity data collection and labeling is reduced.
Key words : commodity identification;SAM;pix2pix;data set generation

引言

在現(xiàn)代零售和無人結算系統(tǒng)中[1],商品識別技術[2]的準確性和效率對于提升用戶體驗和優(yōu)化商業(yè)運營至關重要。然而,隨著商品包裝的快速變化,數(shù)據集的采集和標注工作變得愈發(fā)復雜和耗時,數(shù)據集的缺少[3]成為制約商品識別模型性能和應用的主要瓶頸。傳統(tǒng)的數(shù)據集生成方法依賴大量人工標注,不僅耗費大量人力和時間,而且數(shù)據集更新不及時,無法適應市場中商品包裝的頻繁變化,導致模型的泛化能力不足,識別精度下降。

目前,盡管一些數(shù)據集增強方法已經在圖像識別領域取得了進展,但它們在應對商品包裝快速變化方面仍然面臨諸多挑戰(zhàn)。首先,現(xiàn)有的商品識別模型大多依賴于靜態(tài)數(shù)據集,這些數(shù)據集無法涵蓋所有可能的商品包裝變化。其次,數(shù)據集的多樣性和豐富性對模型的訓練效果至關重要,但現(xiàn)有方法在生成具有高度真實感的多樣化數(shù)據集時表現(xiàn)有限。此外,隨著商品種類的增加和市場變化的加速,傳統(tǒng)數(shù)據集生成方式顯得尤為笨重,難以滿足實際應用的需求。因此,如何有效生成與實際結算場景相似的數(shù)據集,以提高商品識別模型的魯棒性和識別精度,成為當前亟需解決的問題。

為了解決商品數(shù)據集采集和標注工作的繁瑣問題,本文提出了一種基于分割一切模型(Segment Anything Model,SAM)[4]和圖像到圖像轉換網絡(Pixel to Pixel,pix2pix)[5]的商品數(shù)據集生成網絡,旨在突破傳統(tǒng)數(shù)據集生成中的瓶頸。該網絡以單個商品的多角度圖像作為輸入,首先利用基于SAM改進的圖像分割網絡,從單個商品多角度圖像中精準提取出包含目標商品的部分。提取后的商品目標圖像經過姿態(tài)擬合后,隨機擺列組合形成商品拼接圖像。最后,這些拼接圖像通過基于pix2pix的圖像生成網絡轉換為接近實際結算場景的商品結算圖像。

由于單個商品的多角度圖像易于獲得,并且同一角度的商品只需標注一次,這種方法能夠生成多種拼接圖像,擴展商品擺放的多樣性,以應對實際結算中不同商品擺放的情況。此外,基于pix2pix的圖像生成網絡可以針對各種實際結算場景進行訓練,從而有效降低環(huán)境因素對商品識別準確率的影響。這一系列優(yōu)化措施使得商品識別系統(tǒng)在快速變化的商業(yè)環(huán)境中更加靈活和準確


本文詳細內容請下載:

http://m.theprogrammingfactory.com/resource/share/2000006389


作者信息:

于惠鈞1,2,鄒志豪1,康帥1

(1.湖南工業(yè)大學 軌道交通學院,湖南 株洲 412007;

2.湖南工業(yè)大學 電氣與信息工程學院,湖南 株洲 412007)


Magazine.Subscription.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。