本發(fā)明涉及計(jì)算機(jī)視覺(jué),特別涉及一種用于視覺(jué)目標(biāo)跟蹤的時(shí)空一致性數(shù)據(jù)生成方法。、現(xiàn)有的視覺(jué)目標(biāo)跟蹤算法,特別是基于深度學(xué)習(xí)的孿生網(wǎng)絡(luò)、transformer跟蹤網(wǎng)絡(luò)等,依賴(lài)大規(guī)模帶標(biāo)注的視頻樣本進(jìn)行訓(xùn)練。然而,真實(shí)標(biāo)注數(shù)據(jù)獲取成本高,且數(shù)據(jù)分布往往難以覆蓋復(fù)雜場(chǎng)景,如快速運(yùn)動(dòng)、長(zhǎng)時(shí)遮擋、視角...