Xem mẫu

  1. Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020) Tái nh™n d§ng nhân v™t s˚ dˆng ph˜Ïng pháp hÂc sâu Nguyπn Hoàng TrÂng Nghæa⇤ , Nguyπn Công Minh⇤ , Võ Duy Nguyên⇤ , Tr¶n Minh Tùng† Nguyπn Tßn Tr¶n Minh Khang⇤ ⇤ Tr˜Ìng §i hÂc Công nghª Thông tin, HQG-HCM † Tr˜Ìng §i hÂc Tài chính - Marketing {16520808, 16520740}@gm.uit.edu.vn, {nguyenvd, khangnttm}@uit.edu.vn, tungufm@ufm.edu.vn Tóm t≠t—Tái nh™n d§ng nhân v™t (Person ReIdentifica- th˘ hai, hª thËng s≥ cho ra mÎt danh sách nh˙ng nhân tion) có nhi∑u ˘ng dˆng th¸c tiπn vào các hª thËng an ninh, v™t ã xußt hiªn  camera th˘ nhßt ˜Òc x∏p h§ng theo camera giám sát. Bài toán tÁn t§i nhi∑u thách th˘c do s¸ m˘c Î t˜Ïng t¸ so vÓi ng˜Ìi ang xét. Và trong mÎt a d§ng góc nhìn, t˜ th∏, trang phˆc và khung n∑n khi Ëi th™p kø qua, bài toán này nh™n ˜Òc s¸ quan tâm cıa t˜Òng di chuy∫n qua nhi∑u camera. Trong nghiên c˘u này, chúng tôi dùng ∞c tr˜ng hÂc sâu t¯ m§ng DenseNet và cÎng Áng nghiên c˘u th‡ giác [1][2][3][4][5] s˚ dˆng thêm thông tin không gian – thÌi gian ∫ giúp c£i II. CÁC NGHIÊN CŸU LIÊN QUAN thiªn k∏t qu£. Th˚ nghiªm trên hai bÎ d˙ liªu Market-1501 và DukeMTMC-reID cho thßy hiªu qu£ c£i thiªn Rank-1 A. Ph˜Ïng pháp hÂc sâu d¸a trên CNN l¶n l˜Òt t´ng 15% và 18.1%. S¸ thành công cıa các ph˜Ïng pháp hÂc sâu (Deep T¯ khóa—Tái nh™n d§ng nhân v™t, ∞c tr˜ng hÂc sâu, ∞c tr˜ng không gian – thÌi gian. learning) trong image classification lan t‰a ∏n person reidentification vào n´m 2014. Hiªn t§i có rßt nhi∑u ph˜Ïng pháp s˚ dˆng deep learning cho person ReID I. GIŒI THIõU ˜Òc xußt b£n t§i các hÎi ngh‡ lÓn nh˜ ICCV, CVPR, Trong thÌi §i công nghª phát tri∫n ngày nay, hª thËng ... D¸a trên các model, các ph˜Ïng pháp này ˜Òc chia các camera giám sát an ninh ngày càng phÍ bi∏n trong thành ba nhánh chính và sau ây là mÎt trong ba nhánh: các môi tr˜Ìng c¶n £m b£o an ninh nh˜ siêu th‡, tr˜Ìng d¸a trên CNN. hÂc, ngân hàng, bãi gi˙ xe,... Viªc v™n hành, s˚ dˆng CNN nguyên thıy d¸a trên multi-layer perceptron hai hª thËng camera quan sát này hiªn v®n còn ˜Òc th¸c chi∑u. H˜Óng ti∏p c™n này th˜Ìng b‡ tác Îng bi nhi∑u hiªn thı công chı y∏u bi các chuyên viên v™n hành. y∏u tË nh˜ hình dáng, góc Î, chi∏u sáng. Vì các m§ng Tuy nhiên, t§i nh˙ng ‡a i∫m k∫ trên, sË l˜Òng ng˜Ìi CNN ban ¶u không ˜Òc phát tri∫n cho bài toán phát xußt hiªn là rßt lÓn, gây ra rßt nhi∑u khó kh´n trong viªc hiªn Ëi t˜Òng nên khi chúng ta áp dˆng chúng vào bài giám sát con ng˜Ìi. toán tái nh™n d§ng nhân v™t s≥ không §t ˜Òc k∏t qu£ VÓi mÎt hª thËng camera giám sát vÓi góc nhìn không cao. Các ph˜Ïng pháp tái nh™n d§ng nhân v™t d¸a trên chÁng lßp, mÎt trong nh˙ng vßn ∑ nÍi b™t cıa hª thËng CNN ∫ rút trích ∞c tr˜ng có mÎt framework chung giám sát này là viªc theo v∏t mÎt Ëi t˜Òng khi Ëi ˜Òc mô t£ trong hình 1. t˜Òng này di chuy∫n t¯ vùng giám sát cıa camera này sang vùng giám sát cıa camera khác, hay còn ˜Òc gÂi là bài toán tái nh™n d§ng Ëi t˜Òng. Bài toán này trên th¸c t∏ g∞p rßt nhi∑u khó kh´n do s¸ a d§ng v∑ ngo§i hình và trang phˆc cıa Ëi t˜Òng, Î nhiπu cıa vùng Hình 1. Framework chung cho các ph˜Ïng pháp tái nh™n d§ng nhân n∑n, s¸ thay Íi v∑ Î chi∏u sáng, góc nhìn cÙng nh˜ v™t s˚ dˆng m§ng CNN ∫ rút trích ∞c tr˜ng. mÎt vài y∏u tË khác. Bài toán tái nh™n d§ng nhân v™t b¨ng hª thËng máy tính ˜Òc ˜a ra ∫ gi£i quy∏t vßn ∑ trên. Tái nh™n d§ng B. Bi∏n không gian – thÌi gian nhân v™t là bài toán so khÓp hình £nh các nhân v™t ˜Òc Thay vì dùng thông tin ∞c tr˜ng th‡ giác nhân v™t quay t¯ hai camera khác nhau có vùng quan sát không cho bài toán P-ReID, mÎt lo§t các ph˜Ïng pháp ti∏p chÁng lßp. Cˆ th∫, vÓi mÈi ng˜Ìi xußt hiªn  camera c™n cÙng cË g≠ng ∫ khai thác thông tin không gian – ISBN: 978-604-80-5076-4 273
  2. Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020) thÌi gian. Cách Ïn gi£n nhßt là lßy thông tin không [6], chúng tôi s˚ dˆng framework này và áp dˆng cho gian – thÌi gian t¯ chính các video. Các ph˜Ïng pháp các model trích xußt ∞c tr˜ng th‡ giác nh˜ DenseNet tái nh™n d§ng nhân v™t trên image-to-video và video- và OSNet. based [2][3] nh≠m ∏n viªc hÂc giá tr‡ không gian và thÌi gian. Tuy nhiên nh˙ng ph˜Ïng pháp ti∏p c™n này A. LuÁng trích xußt ∞c tr˜ng th‡ giác còn t™p trung chı y∏u vào viªc trích xußt ∞c tr˜ng hình ây là luÁng bi∫u diπn ´c tr˜ng hình £nh. LuÁng £nh ch˘ không ph£i thông tin không gian, thÌi gian. Ví này có th∫ s˚ dˆng a d§ng các lo§i model ˜Òc thi∏t dˆ mÎt ng˜Ìi  camera 1 t§i thÌi gian t1 không nên k∏ cho viªc trích xußt ∞c tr˜ng hình £nh nh˜ DenseNet, ˜Òc nh™n d§ng  camera 2 t§i thÌi gian t2 cách ó mÎt ResNet ( ˜Òc thi∏t k∏ cho bài toán phát hiªn Ëi t˜Òng) thÌi i∫m ng≠n. MÎt bi∏n không thÌi gian nh˜ v™y s≥ hay PCB ( ˜Òc thi∏t k∏ cho bài toán tái nh™n d§ng nhân gi£m bÓt rßt nhi∑u các Ëi t˜Òng không liên quan trong v™t). t™p gallery. Áp dˆng s¸ hÈ trÒ ≠c l¸c này, Guangcong Wang [6] ∑ xußt mÎt framework hai luÁng ∞c tr˜ng B. LuÁng Không gian – ThÌi gian th‡ giác và xác sußt không gian - thÌi gian mÓi l§ và §t ˜Òc state-of-the-art trong bài toán này. MÎt h¨ng sË không gian – thÌi gian s≥ lo§i b‰ rßt Guangcong Wang cùng nhóm tác gi£ ã ∑ xußt mÎt nhi∑u Ëi t˜Òng không liên quan trong t™p £nh gallery framework mÓi ∫ tái nh™n d§ng nhân v™t vÓi thông tin và i∑u này làm gi£m bÓt vßn ∑ v∑ s¸ m™p mÌ trong không gian – thÌi gian. Framework có hai luÁng chính ngo§i hình. Ví dˆ, mÎt nhân v™t xußt hiªn  camera A mà nh™n vào c£ hai thông tin ∞c tr˜ng th‡ giác và không t§i thÌi i∫m t1 chø nên ˜Òc tìm ki∏m t§i camera B gian – thÌi gian ∫ tính toán. VÓi s¸ giúp s˘c cıa các t§i thÌi i∫m t2 . fi t˜ng này ã ˜Òc giÓi thiªu bi thông tin không gian – thÌi gian Ïn gi£n có th∫ dπ Guangcong Wang [6]. dàng thu th™p, st-ReID lo§i b‰ rßt nhi∑u các c∞p £nh Thay vì dùng thông tin cßu trúc nhân v™t, mÎt lo§t các không liên quan và do v™y gi£m bÓt khó kh´n trong vßn ph˜Ïng pháp ti∏p c™n cÙng cË g≠ng ∫ khai thác thông ∑ m™p mÌ v∑ ngo§i hình trong bài toán tái nh™n d§ng tin không gian – thÌi gian. Cách Ïn gi£n nhßt là lßy nhân v™t. Ngoài ra, ∫ k∏t hÒp thông tin t¯ hai luÁng thông tin không gian – thÌi gian t¯ chính các video. Các khác nhau, bài báo ã ∑ xußt mÎt joint similarity metric ph˜Ïng pháp tái nh™n diªn ng˜Ìi trên Image-to-video và vÓi Logistic Smoothing (LS) ∫ tích hÒp hai lo§i thông video-based [8] [2] nh≠m tÓi viªc hÂc không gian và thÌi tin không Áng nhßt vào chung mÎt framework thËng gian cË ‡nh ∞c i∫m th‡ giác. Tuy nhiên, các h˜Óng nhßt. ti∏p c™n này chø t™p trung viªc bi∫u diπn ∞c tr˜ng ch˘ không ph£i thông tin không gian – thÌi gian xuyên suËt C. Ph˜Ïng pháp re-ranking các camera. LÒi ích chính cıa ph˜Ïng pháp re-ranking là có th∫ V∑ hình th˘c, luÁng không gian – thÌi gian này hÂc th¸c thi mà không yêu c¶u các m®u hußn luyªn bÍ sung, mÎt ánh x§ f = X ! Y t¯ mÎt t™p hußn luyªn và nó có th∫ cung cßp bßt k˝ k∏t qu£ ranking ban ¶u (Xiv , xsi , xti , yi ), trong ó (Xiv , xsi , xti , yi ) §i diªn cho nào. Hiªu qu£ cıa re-ranking phˆ thuÎc nhi∑u vào chßt visual feature vector, camera ID (thông tin không gian), l˜Òng cıa danh sách x∏p h§ng ban ¶u. Do ó, s˚ dˆng nhãn thÌi gian (thông tin thÌi gian) và ID nhân v™t. St- tr¸c ti∏p top-k £nh ˜Òc x∏p h§ng có th∫ gây nhiπu trong ReID có 3 tính chßt: hª thËng re-ranking và £nh h˜ng tÓi k∏t qu£ n∏u top-k - Thông tin bÍ sung (xsi , xti ). Xußt hiªn rÎng rãi trong £nh ˜Òc x∏p h§ng tÁn t§i £nh không úng. K-reciprocal các camera giám sát và có th∫ dπ dàng thu th™p mà nearest neighbor [7] là gi£i pháp hiªu qu£ cho vßn ∑ không c¶n annotation thı công. trên. Hai £nh ˜Òc gÂi là k-reciprocal nearest neighbors - VÓi thông tin không gian – thÌi gian Ïn gi£n, chúng khi chúng cùng ˜Òc x∏p h§ng top-k khi £nh còn l§i ta có th∫ c£i thiªn áng k∫ hiªu n´ng cho bài toán ˜Òc dùng làm £nh ¶u vào. Do ó, k-reciprocal nearest MÎt luÁng không gian – thÌi gian có mˆc ích lßy ˜Òc neighbor óng vai trò là mÎt quy t≠c ch∞t ch≥ hÏn cho thông tin không gian – thÌi gian bÍ sung ∫ trÒ giúp dù hai hình £nh có úng là t˜Ïng Áng hay không. luÁng ∞c tr˜ng th‡ giác. Thay vì dùng mÎt hàm phân phËi xác sußt óng [9] tuân theo chı y∏u là gi£ thuy∏t, III. PH◊ÃNG PHÁP TH‹C NGHIõM chúng tôi ˜Óc l˜Òng phân phËi không gian – thÌi gian Trong nghiên c˘u này, chúng tôi h˜Óng ∏n viªc c£i b¨ng cách s˚ dˆng h˜Óng ti∏p c™n ˜Óc l˜Òng không tham thiªn k∏t qu£ cıa các ph˜Ïng pháp rút trích ∞c tr˜ng sË, Parzen Window. Tuy nhiên, s≥ tËn thÌi gian ∫ tr¸c hÂc sâu b¨ng cách thêm vào các thông tin Không gian ti∏p ˜Óc l˜Òng mÎt hàm m™t Î xác sußt vì có quá nhi∑u – thÌi gian ˜Òc lßy t¯ t™p hußn luyªn. D¸a vào st-ReID i∫m d˙ liªu không gian – thÌi gian. ISBN: 978-604-80-5076-4 274
  3. Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020) C. Hàm Joint 17,661 £nh gallery (702 Ëi t˜Òng và 408 Ëi t˜Òng ∫ k∏t hÒp thông tin t¯ hai luÁng trên, mÎt hàm Joint nhiπu). vÓi ph˜Ïng pháp làm m˜Òt logistic mà có th∫ i∑u chønh xác sußt cıa các s¸ kiªn hi∏m g∞p và tính toán xác sußt C. K∏t Qu£ Th¸c Nghiªm cıa hai c∞p £nh có cùng ID vÓi nh˙ng thông tin nhßt Chúng tôi s˚ dˆng model DenseNet ∫ rút trích ∞c ‡nh. tr˜ng vÓi Î o kho£ng cách cosine. ∫ ánh giá k∏t qu£ Chúng tôi s˚ dˆng hai h˜Óng ti∏p c™n: bài toán, chúng tôi s˚ dˆng hai Î o phÍ bi∏n là Rank-I - Làm m˜Òt Laplace. Là mÎt kˇ thu™t ˜Òc s˚ dˆng rÎng và mAP. Rank i là tø lª th˘ h§ng úng (true rank) n¨m rãi trong ˜Óc l˜Òng xác sußt tr˜Óc trong Naive Bayes. trong i v‡ trí ¶u tiên trong danh sách x∏p h§ng (ranked Kˇ thu™t này ˜Òc s˚ dˆng ∫ i∑u chønh xác sußt cıa list) trên tÍng sË £nh probe c¶n tái nh™n d§ng. mAP thì các tr˜Ìng hÒp hi∏m g∞p nên nh˙ng tr˜Ìng hÒp mà xác lßy giá tr‡ trung bình cıa i∫m sË average precision cıa sußt g¶n b¨ng 0 ˜Òc tránh. tßt c£ các câu truy vßn. - Hàm logistic. MÎt mô hình logistic ˜Òc áp dˆng rÎng T¯ các k∏t qu£ trong b£ng I, chúng ta có th∫ thßy ˜Òc rãi trong bài toán phân lÓp nh‡ phân. nhÌ vào thông tin bÍ sung t¯ luÁng không gian – thÌi IV. TH‹C NGHIõM VÀ ÁNH GIÁ gian, chúng ta ã c£i thiªn hiªn n´ng áng k∫ cho model DenseNet (Rank-1 §t 97.5% so vÓi 80.9%, t´ng hÏn A. LuÁng trích xußt ∞c tr˜ng th‡ giác 15%), cÙng nh˜ OSNet (Rank-1 §t 98.2% so vÓi 94.8%, Chúng tôi th¸c nghiªm trên model trích xußt ∞c tr˜ng t´ng 4.6%). i∑u này cho ta thßy, vÓi mÎt lo§i thông tin cho luÁng này là: DenseNet. Ïn gi£n có th∫ thu th™p dπ dàng nh˜ thông tin không, DenseNet [10] ban ¶u ˜Òc thi∏t k∏ cho bài toán phát thÌi gian ã giúp cho chúng ta c£i thiªn áng k∫ k∏t qu£ hiªn Ëi t˜Òng. Trong bài báo này chúng tôi s≥ dùng cıa DenseNet (mÎt m§ng không ˜Òc thi∏t k∏ chuyên DenseNet nh˜ là mÎt backbone cho viªc trích xußt ∞c biªt cho bài toán tái nh™n d§ng nhân v™t) t˜Ïng ˜Ïng tr˜ng th‡ giác. Bi vì DenseNet không ˜Òc thi∏t k∏ cho các k∏t qu£ cıa các ph˜Ïng pháp hÂc sâu, các m§ng bài toán tái nh™n d§ng nhân v™t nên viªc áp dˆng vào ˜Òc thi∏t k∏ chuyên biªt cho bài toán này. bài toán s≥ g∞p nhi∑u khó kh´n. V. KòT LUäN VÀ H◊ŒNG PHÁT TRIöN B. BÎ D˙ Liªu Market-1501 [11] có tÍng cÎng 32668 £nh ˜Òc chú Trong bài báo này, chúng tôi ã tìm hi∫u bài toán tái thích cıa 1501 Ëi t˜Òng, vÓi 12936 £nh cıa 751 Ëi nh™n d§ng nhân v™t và các thách th˘c cıa nó. T¯ ó t˜Òng dùng cho giai o§n hußn luyªn (training) và 19732 chúng tôi th˚ nghiªm bi∏n không gian - thÌi gian nh¨m £nh cıa 750 Ëi t˜Òng dùng cho giai o§n ki∫m th˚ gi£m sË l˜Òng £nh c¶n so khÓp, t¯ ó t´ng c˜Ìng kh£ (testing) cùng 3368 £nh dùng ∫ truy vßn (query). MÈi n´ng cıa các ph˜Ïng pháp rút trích ∞c tr˜ng không Ëi t˜Òng xußt hiªn trong t™p d˙ liªu tÁn t§i ít nhßt trong ˜Òc phát tri∫n riêng cho rút trích ∞c trung cıa bài hai máy quay. toán tái nh™n d§ng nhân v™t, trong nghiên c˘u này là DukeMTMC-reID [12] là mÎt ph¶n cıa bÎ d˙ liªu DenseNet. K∏t qu£ th¸c nghiªm ã chø ra (theo b£ng DukeMTMC (bÎ d˙ liªu cıa máy quay giám sát t¯ I), ph˜Ïng pháp này c£i thiªn áng k∫ hiªu n´ng cıa §i hÂc DUKE 2014, phˆc vˆ cho nghiên c˘u tái nh™n ph˜Ïng pháp DenseNet g¶n b¨ng các ph˜Ïng pháp ∞c d§ng nhân v™t trên £nh), theo ‡nh d§ng cıa bÎ d˙ liªu trung chuyên dùng cho bài toán tái nh™n d§ng nhân v™t Market-1501. BÎ d˙ liªu gÁm 85 phút video có Î phân nh˜ PCB, OSNet và cao hÏn áng k∫ khi không có thông gi£i cao (1080p) t¯ 8 camera khác nhau. tin không gian - thÌi gian (trên hai bÎ d˙ liªu Market- Các tác gi£ ã c≠t £nh ng˜Ìi i bÎ sau mÈi 120 frame. 1501 và DukeMTMC-reID cho thßy hiªu qu£ c£i thiªn T§o ra tÍng hÒp 36,411 bounding box ˜Òc g≠n nhãn. Rank-1 l¶n l˜Òt t´ng 15% và 18.1%). Tuy nhiên, s¸ c£i Có 1404 Ëi t˜Òng xußt hiªn  nhi∑u hÏn 2 máy quay và thiªn này v®n không cao hÏn k∏t qu£ ˜Òc công bË cıa 408 Ëi t˜Òng nhiπu, chø xußt hiªn  1 máy quay. ChÂn St-reid do DenseNet không ˜Òc thi∏t k∏ chuyên biªt ng®u nhiên 702 Ëi t˜Òng ∫ hußn luyªn (training) và cho bài toán tái nh™n d§ng nhân v™t nh˜ là PCB. 702 Ëi t˜Òng còn l§i ∫ ki∫m th˚ (testing). Trong bÎ Tuy các k∏t qu£ ∞t ˜Òc là khá kh£ quan nh˜ng v®n ki∫m th˚, chÂn mÎt £nh cıa mÈi Ëi t˜Òng trong mÈi còn nhi∑u h§n ch∏. Vì v™y, trong nghiên c˘u t˜Ïng lai, camera và ∞t các £nh còn l§i vào gallery. tác gıa s≥ th˚ nghiªm cÙng nh˜ so sánh k∏t qu£ th¸c K∏t qu£ là có ˜Òc 16,552 £nh hußn luyªn cıa 702 Ëi nghiªm vÓi nhi∑u ph˜Ïng pháp State-of-the-art khác t˜Òng, 2,228 £nh query cıa 702 Ëi t˜Òng còn l§i và nhau. ISBN: 978-604-80-5076-4 275
  4. Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020) B£ng I KòT QUÉ TH‹C NGHIõM Market1501 DukeMTMC-reID Ph˜Ïng pháp R-1 R-5 R-10 mAP R-1 R-5 R-5 mAP Rút trích ∞c tr˜ng (DenseNet-121) 80.9 91.4 94.3 61.4 73.1 - - 55.1 Rút trích ∞c tr˜ng + thông tin không gian - thÌi gian 97.5 99.2 99.4 88.6 92.9 96.7 97.4 80.8 (DenseNet121 Rút trích ∞c tr˜ng + thông tin không gian - thÌi gian + 97.1 98.8 99.0 94.6 91.2 95.9 96.5 90.5 reranking (DenseNet121) St-reid [6] 98.0 98.9 99.1 95.5 94.5 96.8 97.1 92.7 LÕI CÉM ÃN [6] G. Wang, J. Lai, P. Huang, and X. Xie, “Spatial-temporal person re-identification,” in Proceedings of the AAAI Conference on Nghiên c˘u ˜Òc tài trÒ bi Tr˜Ìng §i hÂc Tài chính Artificial Intelligence, vol. 33, 2019, pp. 8933–8940. - Marketing trong khuôn khÍ ∑ tài mã sË CS-10-20. [7] Z. Zhong, L. Zheng, D. Cao, and S. Li, “Re-ranking person re- Chúng tôi xin chân thành cám Ïn Phòng thí nghiªm identification with k-reciprocal encoding,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Truy∑n thông a ph˜Ïng tiªn, Tr˜Ìng §i hÂc Công 2017, pp. 1318–1327. nghª Thông tin, HQG-HCM ã hÈ trÒ chúng tôi trong [8] G. Wang, J. Lai, and X. Xie, “P2snet: Can an image match a nghiên c˘u này. video for person re-identification in an end-to-end way?” IEEE Transactions on Circuits and Systems for Video Technology, TÀI LIõU THAM KHÉO vol. 28, no. 10, pp. 2777–2787, 2017. [9] W. Huang, R. Hu, C. Liang, Y. Yu, Z. Wang, X. Zhong, [1] D. Li, X. Chen, Z. Zhang, and K. Huang, “Learning deep and C. Zhang, “Camera network based person re-identification context-aware features over body and latent parts for person by leveraging spatial-temporal constraint and multiple cameras re-identification,” in Proceedings of the IEEE conference on relations,” in International Conference on Multimedia Modeling. computer vision and pattern recognition, 2017, pp. 384–393. Springer, 2016, pp. 174–186. [2] S. Li, S. Bak, P. Carr, and X. Wang, “Diversity regularized spa- [10] G. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger, tiotemporal attention for video-based person re-identification,” “Densely connected convolutional networks,” in Proceedings of in Proceedings of the IEEE Conference on Computer Vision and the IEEE conference on computer vision and pattern recognition, Pattern Recognition, 2018, pp. 369–378. 2017, pp. 4700–4708. [3] J. Lv, W. Chen, Q. Li, and C. Yang, “Unsupervised cross-dataset [11] Y. Lin, L. Zheng, Z. Zheng, Y. Wu, Z. Hu, C. Yan, and Y. Yang, person re-identification by transfer learning of spatial-temporal “Improving person re-identification by attribute and identity patterns,” in Proceedings of the IEEE Conference on Computer learning,” Pattern Recognition, vol. 95, pp. 151–161, 2019. Vision and Pattern Recognition, 2018, pp. 7948–7956. [12] Z. Zheng, L. Zheng, and Y. Yang, “Unlabeled samples generated [4] V. D. Nguyên and N. T. B. NgÂc, “ ánh giá mÎt sË ph˜Ïng by gan improve the person re-identification baseline in vitro,” in pháp bi∫u diπn ∞c tr˜ng cho bài toán tái nh™n d§ng nhân v™t,” Proceedings of the IEEE International Conference on Computer T§p chí Khoa hÂc, vol. 15, no. 6, p. 97, 2018. Vision, 2017, pp. 3754–3762. [5] N. T. S. N. T. T. M. K. Nguyπn Thành Hiªp, Võ Duy Nguyên, “Tái nh™n d§ng nhân v™t  cßp Î i∫m £nh,” Conference on information technology and its applications (CITA), 2019. ISBN: 978-604-80-5076-4 276
nguon tai.lieu . vn