BETVLCTOR伟德中文网站程科教授團隊在模式識别與人工智能領域國際頂級期刊《Pattern Recognition》發表論文

作者: 部門審稿人: 攝影: 視頻: 單位:BETVLCTOR伟德中文网站 發布時間:2024-10-31 投稿時間: 點擊量:10

近日,BETVLCTOR伟德中文网站程科教授團隊在行人重識别(ReID)研究方向取得新進展,團隊研究成果“MSCMNet: Multi-scale Semantic Correlation Mining for Visible-Infrared Person Re-Identification”被模式識别與人工智能領域國際頂級期刊《Pattern Recognition》接受,并在線發表。論文第一作者為2022級碩士研究生華雪成同學,BETVLCTOR伟德中文网站程科教授為通訊作者,BETVLCTOR伟德中文网站為第一完成單位,BETVLCTOR伟德中文网站塗娟娟副教授,江蘇大學陸虎副教授、河北工業大學王元全教授和江南大學王士同教授為論文共同作者。

https://doi.org/10.1016/j.patcog.2024.111090

行人重新識别(ReID) 是一種檢索攝像機拍攝的行人圖像中的人物的技術。随着公共安全的日益重視,全天候監控和檢索系統在計算機視覺領域引起了極大關注。現有的 ReID 方法主要用于檢索 RGB-RGB 圖像之間的行人信息。但是現實環境是複雜多變的,除了白天外,大多數在線監控場合都在夜間和低光照條件下。為了解決這個問題,許多全天候監控系統都采用了紅外 (IR) 攝像機來捕捉弱光環境下的場景。然而,紅外光的較長波長和散射增加會導緻可見圖像中通常存在的顔色、紋理和細節信息的丢失。因此,由于跨模态差異很大,需要針對RGBIR圖像的不同特性設計一種用于可見光-紅外行人檢測的模型。

為了充分挖掘RGB-IR的模态信息,研究提出了基于深度學習的多尺度語義關聯挖掘網絡MSCMNet。通過設計多尺度信息關聯挖掘塊 (MIMB) 探索融合特征的隐含語義關聯,并設計四流特征提取器 (QFE) 盡可能保留原始數據的不同的語義信息。最後提出了一種新穎的四中心三元組損失 (QCT) 來處理跨模态特征中的語義信息差異。大量SYSU-MM01RegDB LLCM 數據集上的實驗表明我們提出的 MSCMNet VI-RelD 任務中的表現優于目前其他最先進的方法。

Pattern Recognition》被認為是模式識别與人工智能領域的頂級國際期刊之一,創刊于1968年。2023年該期刊的影響因子為8.0,屬于中科院計算機科學SCI一區TOP期刊。中國自動化學會(CAA)則将其列為A類推薦期刊,中國計算機學會(CCF)評價該期刊為“國際重要期刊,具有重要的國際學術影響力”。


Baidu
sogou