欧美国产伦久久久久久久

<acronym id="cqmsy"></acronym>
<acronym id="cqmsy"><center id="cqmsy"></center></acronym>

24小時論文定制熱線

咨詢電話

熱門畢設:土木工程工程造價橋梁工程計算機javaasp機械機械手夾具單片機工廠供電采礦工程
您當前的位置:論文定制 > 畢業設計論文 >
快速導航
畢業論文定制
關于我們
我們是一家專業提供高質量代做畢業設計的網站。2002年成立至今為眾多客戶提供大量畢業設計、論文定制等服務,贏得眾多客戶好評,因為專注,所以專業。寫作老師大部分由全國211/958等高校的博士及碩士生設計,執筆,目前已為5000余位客戶解決了論文寫作的難題。 秉承以用戶為中心,為用戶創造價值的理念,我站擁有無縫對接的售后服務體系,代做畢業設計完成后有專業的老師進行一對一修改與完善,對有答辯需求的同學進行一對一的輔導,為你順利畢業保駕護航
代做畢業設計
常見問題

基于計算機視覺的實時多類別車輛檢測技術研究

添加時間:2021/07/13 來源:未知 作者:樂楓
傳統的車輛檢測算法在解決高精度和實時性等方面遇到了困難,而近年來誕生的基于深度學習的檢測算法則存在些許尺度敏感性問題,尤其是針對小物體檢測效果欠佳。
以下為本篇論文正文:

  摘要

  近年來,伴隨著城市交通的迅速發展,智能交通系統也得到了前所未有的關注。其中完成車輛的實時檢測和類別識別在智能交通系統中顯得尤為重要,也是當前智能交通領域的關鍵問題之一。與此同時,車輛檢測技術的研究也對于提高交通管制和緩解交通壓力有著重要的意義,而此類問題往往隱含著高魯棒性、高尺度不敏感性、實時性和高精度等需求。傳統的車輛檢測算法在解決高精度和實時性等方面遇到了困難,而近年來誕生的基于深度學習的檢測算法則存在些許尺度敏感性問題,尤其是針對小物體檢測效果欠佳。本文針對以上問題進行研究分析,并提出了兩種新的車輛檢測方案。
 。1)設計了一種基于 MOG2 與 H-SqueezeNet 的車輛檢測方案,首先采用傳統的背景建模法 MOG2 完成區域提議任務,找到待檢測車輛的位置,隨后本文在深度學習網絡模型 SqueezeNet 的基礎上設計了一種輕量級網絡 H-SqueezeNet來識別待檢測區域的車輛類別。在完成車輛檢測任務的同時,速度高達 39.1FPS,滿足了實時性需求。為了驗證所搭建方案的有效性,本文將該方案在 CDnet2014等數據集上進行了測試,并將其在所收集的蘇州虎丘交通路口數據上進行了實際應用驗證。本方案針對深度學習算法中存在的尺度敏感性問題,將 MOG2 算法引進到區域提議領域,利用其產生魯棒的尺度不敏感性的區域提議,同時該方案在后端采用 H-SqueezeNet 快速識別車輛類別,以獲得高精度和高性能,此方案在保留二者優勢的同時,盡可能巧妙地避免了彼此的缺點。

 。2)設計了一種基于SqueezeNet的YoLoV3檢測方案YoLoV3_SqueezeNet.本方案以基于深度學習的單階段檢測算法 YoLoV3 為框架,對其特征提取網絡進行了改進,移除了其底層的 DarkNet53 網絡模型,嘗試以輕量級網絡 SqueezeNet作為其基準網絡模型。在遷移過程中,由于 SqueezeNet 難以抽取合適的特征圖供 YoLoV3 進行訓練及使用,本文引入了深度可分離卷積等模塊對提取的特征圖進行改進,將 SqueezeNet 成功遷移到 YoLoV3 當中。此時引入輕量級網絡會以少量精度為代價,但是極大程度上降低了模型參數量和權重模型大小,遷移后的權重模型大小僅為原模型的 36.01%,且可加速 25.01%的模型推理時間和 15.3%的 訓 練 時 間 . 與 此 同 時 , 本 文 還 引 入 了 UA-DETRAC 交 通 數 據 集 對YoLoV3_SqueezeNet 進行測試,測試結果顯示該方案在不同天氣和道路情況下均能取得較好的車輛檢測效果。

  總體來說,本文以道路交通視頻作為研究基礎,以車輛檢測為研究目標,以實時性和高性能為研究目的。通過搭建實時的多類別車輛檢測方案,并且在交通數據集上進行訓練與測試,實現了實時多類別車輛檢測任務。

  關鍵詞:智能交通系統;車輛檢測;輕量級網絡;MOG2;H-SqueezeNet;YoLoV3_SqueezeNet

實時多類別車輛檢測技術

  Abstract

  In recent years, with the rapid development of urban transportation, intelligenttransportation systems have also received more and more attention, and the completionof real-time vehicle detection and category recognition is the most importanttechnology in intelligent transportation systems, and it is also one of the key issues inthe current intelligent transportation field. At the same time, the research of vehicledetection is also of great significance for improving traffic control and alleviating trafficpressure. The methods in this field require high robustness, high-scale insensitivity,real-time and high precision. Traditional vehicle detection algorithms have encountereddifficulties in solving high-precision and real-time performance. Meanwhile, thedetection algorithms based on deep learning that were born in recent years have somescale-sensitivity problems, especially for small object detection. This article researchesand analyzes the above problems and proposes two novel vehicle detection schemes.

 。1) A novel multi-category vehicle detection algorithm based on MOG2 and HSqueezeNet is designed. First, the traditional background modeling method MOG2 isused to complete the regional proposal task and find the location of the vehicle. Then,the paper designs a model named H-SqueezeNet to identify the vehicle category, basedon the deep learning network model SqueezeNet. While completing the vehicledetection task, the speed is achieved 39.1FPS, which meets the real-time requirements.

  In order to verify the effectiveness of the proposed algorithm, this paper evaluated thealgorithm on the CDnet2014 dataset and verified its practical application on thecollected data of Suzhou Huqiu traffic intersections. Aiming at the scale sensitivityproblem in deep learning algorithms, this algorithm introduces the MOG2 algorithm tothe regional proposal field, and uses it to generate robust scale-insensitivity regionalproposals. At the same time, in order to obtain high precision and high performance,the algorithm uses H-SqueezeNet to quickly identify vehicle category in the backend.

  The proposed algorithm can avoid each other's shortcomings as cleverly as possible while retaining the advantages of both.

 。2) We propose a novel YoLoV3 detection scheme YoLoV3_SqueezeNet based onSqueezeNet. This scheme uses the single-stage detection algorithm YoLoV3 based ondeep learning as the framework, improves its feature extraction model, removes itsDarkNet53 model, and tries to utilize the lightweight network SqueezeNet as its featureextraction model. During the experiment process, it is difficult for SqueezeNet toextract suitable feature maps for YoLoV3 to train and utilize. This paper introducesdeep separable convolution to transform the extracted feature maps, and successfullymigrates SqueezeNet to YoLoV3. Meanwhile, the application of the lightweightnetwork will greatly reduce the amount of model parameters and the size of the weightmodel at small cost of accuracy. The weight model size after migration is only 36.01%of the original model, and it can speed up 25.01% of model inference time and 15.3%of training time. Moreover, the paper also introduces the UA-DETRAC traffic datasetto evaluate YoLoV3_SqueezeNet. The performance shows that the algorithm canachieve better vehicle detection results in different weather and road conditions.

  In summary, the paper utilizes road traffic dataset as the research foundation,vehicle detection as the research goal, real-time performance and high performance asthe research goal. By building a real-time multi-category vehicle detection scheme, andtraining and testing on the traffic dataset, the vehicle detection task is finally realized.

  Key Words: Intelligent Traffic System; Vehicle Detection; Lightweight Network;MOG2; H-SqueezeNet; YoLoV3_SqueezeNet

目錄

  第 1 章 引言

  1.1 車輛檢測研究背景及意義

  近年來伴隨著汽車產業的迅猛發展,城市機動車的數量也在迅猛發展,截止到 2020 年底,本國機動車數量已經達到 3 億輛以上,隨之而來的是巨大的交通壓力和諸多交通管制問題。當交通壓力和交通管制問題愈發嚴重之際,將會給城鎮居民的生產生活帶來諸多不便,也會限制城鎮的快速發展。與此同時,伴隨著本國信息化時代的到來,當前大多數交通路口數據得以完整保存和利用。但是如果僅僅是完成道路車流量統計和違章車輛檢測已經無法滿足當前現代交通的諸 多需求,急需對交通數據進行進一步發掘和利用。另一方面,伴隨著人工智能領 域的快速發展,人工智能在車輛檢測當中的應用也獲得了迅速發展。那么如何利用近年來誕生的先進技術來解決當代交通所面臨的諸多問題,則促使了智能交通系統(Intelligent Traffic System, ITS)的應運而生,該領域也成為智能交通領域與計算機交叉領域的研究熱點之一。

  近年來伴隨著全球智能化浪潮的到來,城市管理者們對智能交通系統的應用前景也表現出越來越多的興趣,此系統應該是高效、全面、實時的綜合管理系統,可以幫助管理者們自動完成車流量統計,道路擁塞管制和道路異常監管等任務[1][2][3][4][5].與此同時,該系統需要能夠對各大交通樞紐的交通視頻完成智能分析,方便城市管理者進行智能管理[6][7][8].一個優秀的智能交通系統能夠對當前的道路交通進行準確無誤的分析,對可能出現的交通問題及時做出預警和捕獲,提高交通部門的工作效率。

  值得注意的是,為了完善智能交通系統,首要工作是需要完成道路交通車輛的自動化分析與檢測,比如完成車輛計數 [9][10][11],車輛識別 [12][13][14]等任務,才能進行進一步的統籌和優化。其中最為重要的一個環節即完成車輛檢測任務[7][15][16][17],該環節作為智能交通系統中的重要組成部分,構成了系統的基礎功能和關鍵技術,這也是本文所研究的重點內容,致力于實時多類別車輛檢測技術的研究。

  車輛檢測的主要目的可以分為兩個,其一是確定待檢測視頻或圖像中是否存在待檢測車輛(比如公交車,卡車,小轎車等),如果存在待檢測車輛則需要確定其位置并且標注其檢測框;其二是需要確定其具體類別,通過分析框內待檢測車輛的語義信息來判別該車輛的具體類別,完成車輛檢測任務。通過針對道路交通數據進行車輛檢測,能夠促使智能交通系統及時了解當前道路交通狀況。另外通過針對車載監控設備收集到的數據進行分析利用[18],可以有效幫助駕駛人員快 速對周邊車輛進行全面了解,幫助車輛駕駛人員及時規避可能出現的風險。因此,快速及時地準確完成道路車輛目標檢測具有極大的現實意義與應用場景。

  到目前為止,研究者們已經在車輛檢測領域做了大量且長期的研究工作,當前研究方向主要分為兩大方向,其一是利用傳統的圖像處理技術完成檢測任務的傳統車輛檢測領域,其二是利用近年來火熱的深度學習技術完成檢測任務的基于深度學習的車輛檢測領域。

  在過去的傳統車輛檢測領域中,研究者們主要集中在背景建模,光流法等方法進行檢測或追蹤運動物體,或者通過組合人工特征(hand-craft feature)和分類器的方式來完成車輛識別,但是大多數研究并沒有做到多類別檢測或實時檢測,這就意味著這些方案還不能很好地投入到智能交通領域。

  伴隨著近年來深度學習檢測算法的突發猛進,越來越多基于卷積神經網絡(Convolutional Neural Networks, CNN)的優秀檢測框架得以涌現,尤其是大規模數據集的出現和 GPU(Graphics Processing Unit)技術的更新換代,進一步促進了深度學習的發展。鑒于深度學習在目標檢測領域具有巨大的研究潛力和研究價值,一些研究者開始嘗試將深度學習引入到車輛檢測領域,并取得了不錯的表現,相對于傳統機器學習算法表現出極強的競爭力,為車輛檢測領域注入了新的動力。

  綜上所述,本文將對當前車輛檢測領域進行詳盡的研究分析,同時完成實時多類別車輛檢測方案的推陳出新。本課題來源于上海市地方院校能力建設項目(19070502900):基于大數據的多源多維監控視頻深度學習及應用。

  1.2 車輛檢測國內外方案發展歷程及現狀

  車輛檢測作為智能交通領域的一項重要任務,在交通壓力日益增長的當代顯得尤為重要。早在二十世紀末,研究者們已經開始嘗試將車輛檢測系統應用到城市管理之中,通過利用先進的道路交通技術,構建智能交通系統并應用于城市交通管理。近年來伴隨著深度學習如火如荼地發展,深度學習也在車輛檢測領域大放光彩,為車輛檢測領域注入新的活力,同時也為我國在智能交通領域的發展提供了新的機遇與時機。

  在智能交通領域,道路監控系統的首選與主體往往是道路視頻監控系統。相較基于其它傳感器的監控系統,視頻系統更為實用且造價更為合理,而且視頻系統的記錄也更加穩定直觀,而且符合人類的視覺使用習慣,方便人類使用。以上諸多優勢與便利則使得基于計算機視覺的車輛檢測研究逐漸成為當前智能交通領域的研究熱門之一。與此同時,伴隨著 GPU 等計算硬件的更新換代,推動了機器學習和深度學習的快速發展,進一步推動了該領域的突飛猛進,也使得車輛檢測成為各大企業和研究機構的研究重點之一。

  根據車輛檢測算法的發展方向和應用原理,當前車輛檢測算法領域可以大體分為兩方面:基于傳統機器學習算法的檢測方案和基于深度學習的檢測方案。同時傳統檢測方法又可以細分為基于幀間差分的車輛目標檢測,基于背景建模的車 輛目標檢測,基于光流法的車輛目標追蹤,以及基于特征分類器的車輛檢測方案。

  與此同時,基于深度學習的車輛檢測方案又可以細分為兩類,一方面為單階段(one-stage)車輛目標檢測方法,另一方面為雙階段(two-stage)車輛目標檢測方法。

  接下來將逐一介紹以上車輛檢測方案的具體案例與方法,并對近年來的相關工作進行介紹。

 。1)基于幀間差分的車輛檢測方案幀間差分的思路在于選取道路監控視頻連續相鄰圖像對其進行差分處理,獲取相鄰圖像之間的差異,進而得到前景運動目標圖像。但是研究者們在研究過程中發現,幀間差分法作為早期的車輛檢測方案,單獨利用其進行車輛目標檢測往 往很難獲得效果較佳的前景目標,通常需要伴隨著諸多輔助工作或對算法本身進 行適當改進。于是在近期的研究當中,研究者們嘗試將其改進為三幀差分法,或者將原始的幀間差分法與背景建模法進行結合使用,或者將三幀差分法與背景建模法相結合來進一步改善目標前景提取效果,這些都表明了該算法不能很好地直接應用于智能交通領域。

  在近期的研究當中,為了改善幀間差分法的檢測效果,Xu [19]等人提出一種改進的三幀差分法,并且將其與背景建模法相結合用來改善檢測效果。He [20]等 人則直接將幀間差分法與背景建模法結合來提高檢測效果,沒有進行進一步的改進。Ji [21]等人則進一步提出了幀間差分法的改進方案,利用相隔四幀的視頻圖像進行差分,能夠較大程度上緩解運動目標速度過慢時導致的空洞現象。以上的改進方法雖然能夠較為明顯改善幀間差分法的表現效果,但是相對于其它算法仍然沒有太大優勢。

 。2)基于背景建模的車輛檢測方案背景建模的思路在于對一段時間內的道路交通視頻進行統計建模,然后更新其背景,通?梢圆捎闷骄、平均差分和標準差等方式完成背景建模,當前較 為成熟的方案是通過混合高斯模型來完成背景建模,以獲得更為魯棒的視頻背景。

  其次再利用當前幀圖像與背景進行差分來獲取車輛前景目標,達到運動車輛檢測的效果。當前成熟的背景建模方法主要包括 GMG [22],LSBP [23],MOG [24],MOG2[69][70]和 GSOC 等。

  在近期的車輛檢測研究當中,Wei [25]等人將傳統算法背景建模法與深度學習檢測算法 Faster R-CNN 相結合,用于檢測道路交通視頻中的異常車輛和非法停車,嘗試將背景建模進一步引入到非監督學習領域當中。他們首先通過背景建模算法將運動車輛目標做剔除處理,隨后再利用 Faster R-CNN 對剩余車輛進行檢測,以此完成異常車輛和非法停車的檢測。Benraya [26] 等人則將近年來主流的背景建模算法進行了綜合性能的實驗和對比,為該領域的研究者們提供了較為直觀的性能參考與借鑒。Wahyono [27]等人則試圖完成道路違規車輛檢測,這是智能交通系統領域中的另一個重要組成部分,他們在工作中利用了累積的雙重前景差異和時間事件分析,成功完成了大多數違規車輛的檢測。他們算法的主要思想就在于通過控制背景建模學習率產生兩個不同的背景模型,再通過比較兩個背景模型之間的差異從而獲取道路違規車輛。Vargas [28]等人則提出了一個基于 sigma-delta濾波器的背景建模法,并擬將其應用到智慧城市交通領域。Kul [29]等人設計了一種交通管制系統,首先利用背景差分法提取車輛前景,然后提取了基于幾何的特征并利用 PCA 算法進行特征降維,最后為三種不同的車輛類別選擇了三個不同的分類器進行類別識別。 (3)基于光流法的車輛檢測方案光流法 [30][31][32]基本思想是利用道路交通視頻中像素在時間域上的變化,通過光流來檢測和追蹤運動車輛,但是此方法極易受到光照變化的影響,因此近年來在車輛檢測領域的關注熱度有所下降。

  由于光流法對于光照噪聲過于敏感,然而車輛檢測領域往往有著復雜的光照條件,因此針對光流法在車輛檢測中的應用研究已日趨減少。在近年來的研究當中,Ke [33]等人則另辟蹊徑,嘗試利用光流法進行運動車輛前景提取,再將后端引入神經網絡模型去進行車輛類別分類,最終完成車輛檢測任務。以上工作雖然將光流法引入到更進一步的應用研究領域,但是卻并沒有改進其對光照的抗性,在實際應用中依舊存在一定缺陷。

 。4)基于特征分類器的車輛檢測方案基于特征分類器的車輛檢測方法通常需要選取合適的人工特征描述子(handcraft feature)和分類器(classifier),特征通常選取 Harr [34][35]特征,HOG [36]特征,SIFT 特征 [37],SURF 特征或 LBP [38][39]

  特征等,分類器則包括 Adaboost,SVM等 分 類 器 . 當 前 車 輛 檢 測 領 域 當 中 較 為 成 熟 的 方 案 為 HOG+SVM 或Harr+Adaboost. 在近年來的研究當中,研究者們除了直接利用上述技術成熟的特征進行語義信息提取之外,還針對 HOG、LBP 和 Harr 等特征進行了進一步改進,使其能夠更好地應用到車輛檢測領域。Yan [40]等人利用雙 HOG 特征算子用來產生更低維度的車輛特征,相較于原 HOG 特征可以擁有更多水平特征梯度信息與垂直特征梯度信息,隨后再利用 Adaboost 分類器對車輛進行分類,從而完成車輛檢測任務。Wen [41]等人則利用 Harr-like 特征并且通過對所提取的特征進行優化,減少了同類別樣本之間的差異,再聯合使用 RBF-SVM 分類器去識別車輛類別,完成車輛檢測。Zhou [42]等人則提出了一種基于自適應背景估計的背景建模新方案,他們首先將輸入圖像分成互不重疊的小塊,如果背景和輸入圖像之間的灰度級別發生了變化,則可以從小塊中提取到車輛的區域提議,接下來他們利用梯度直方圖對車輛進行特征提取,并使用 PCA 算法對特征進行降維處理,進一步獲得更 低維度的特征,再利用提取的特征對 SVM 分類器進行分類訓練,以完成車輛檢測任務。Wang [43]等人則引入了改進的時空樣本共識(ISTSC)的概念,首先通過時空樣本共識算法檢測到正在行駛的車輛,然后利用特征融合方法來識別其具體類別。

 。5)基于深度學習的車輛檢測方案近年來伴隨著深度學習的快速發展,基于深度學習的目標檢測方法亦取得巨大突破,尤其是近年來提出的 Faster R-CNN [63], YoLoV3 [60]等優秀檢測框架,將目標檢測推上了一個新的研究高度。近年來一些車輛檢測領域的研究者們已經嘗試將上述優秀框架應用到車輛檢測領域,并在此基礎上進一步改進上述算法,以獲得更好的檢測效果,使之更好地應用到智能交通領域,并且再次引發了車輛檢測領域的研究熱潮。

  在近年來的研究當中,Zhang [42]等人嘗試改進了 YoLoV3 檢測算法,并在YoLoV3 架構基礎上提出了 CMNET 檢測框架進行快速車輛檢測,CMNET 在實際應用中可以適應多種情況復雜的道路交通狀況,并緩解了深度學習帶來的尺度敏感性問題。Geng [45]等人則意識到多尺度檢測研究在車輛檢測中的重要性,在 R-CNN 檢測算法的基礎上提出了 MV-RCNN 算法進行多尺度車輛檢測,能夠有效地檢測到視頻中不同尺度的車輛,緩解了尺度敏感性問題。KIM [46]等人則嘗試將特征金字塔模型(SPP)引入到 YoLoV3 之中,使其能夠更好地檢測不同尺寸的車輛,為了進一步解決深度學習伴隨的尺度敏感性問題,KIM 等人還將YoLoV3 的預測通道提升到五個通道,從而更好地完成不同尺寸大小的車輛檢測。

  Hu [47]等人亦發現深度學習網絡存在的尺度敏感性問題,于是他們提出了 SINet(尺度不敏感性網絡)來完成車輛檢測任務,并引入 context-aware RoI pooling 來保持小尺度車輛目標的語義信息,同時設計了一個多檢測通道網絡來完成檢測任務。Zhou [48]等人則提出了一種用于城市道路交通監控的快速車輛檢測方案DAVE,DAVE 方案包含一個快速車輛提議網絡(FVPN)和一個屬性學習網絡(ALN)。其中 FVPN 網絡負責在車輛檢測過程中查找待檢測車輛的位置,然后使用 ALN 網絡來驗證車輛類別和其它信息,從而達到車輛檢測的目的。與此同時,Hong [49]等人則在 YoLoV3 框架的基礎上引進了基于解碼器的新金字塔結構,進一步提升了 YoLoV3 在實際車輛檢測中的表現性能。Sentas [50]等人則試圖將Tiny-YoLo 算法引入實時車輛檢測領域,并構建了用于測試的 TPSdataset 數據集供研究者們使用。以上諸多研究方案雖然通過不同方式來緩解了尺度敏感性問題(多尺度問題),但是深度學習模型卻變得愈發復雜,而且并沒有從根本上解決尺度敏感性問題。

  1.3 主要研究內容

  為了更好地滿足智能交通系統發展的需求,本文選取了實時多類別車輛檢測技術作為研究對象。研究中所需要解決的問題是分析研究不同車輛檢測方案的原理與優缺點,設計并搭建高性能的車輛檢測方案,并且收集交通數據集對其進行驗證。本文在數據集方面,本團隊收集了蘇州市虎丘地區的多個交通路口的監控數據,并且引入了 CDnet2014 與 UA-DETRAC 等交通數據集對方案進行進一步測試。與此同時,本文針對車輛檢測領域,總共提出了兩種新的檢測方案,一方面本文將傳統算法與深度學習算法進行了聯合使用,獲得了一種魯棒性較強且檢 測性能優越的車輛檢測方案;另一方面本文則針對 YoLoV3 檢測方案進行了改進,利用輕量級網絡對其權重模型進行了精簡替換。本文研究的創新點與詳細內容如下:

 。1)建立了一個基于背景差分法 MOG2 與輕量級神經網絡 H-SqueezeNet 的車輛檢測方案。此方案的目標是實現實時的魯棒的多類別車輛檢測,針對道路交通數據集完成車輛檢測任務。首先,本文將 MOG2 算法從前景檢測領域引入到區域提議領域,利用其產生魯棒的車輛待檢測區域,解決了單純基于深度學習的檢測方案出現的尺度敏感性問題。其次,本文在深度學習網絡 SqueezeNet 的基礎上進行了適當改進,提出了輕量級網絡H-SqueezeNet用于快速識別車輛類別,以保證整體車輛檢測方案的高精度和高時效性。最終,本方案在充分利用 MOG2算法與 H-SqueezeNet 網絡二者優勢的同時,還盡可能避免了以上算法伴隨的缺點。

 。2)在上文引出輕量級網絡概念的基礎上,本文進一步建立了一個基于輕量級網絡 SqueezeNet 的 YoLoV3 檢測方案 YoLoV3_SqueezeNet.此方案的目的是完成一個輕量化的 YoLoV3 車輛檢測框架,在降低 YoLoV3 模型權重的基礎上,進一步加快 YoLoV3 的檢測速度,從而更快更好地完成車輛檢測任務。本文經過針對 YoLoV3 的研究分析,發現原 YoLoV3 檢測框架存在權重模型較大,訓練時間過長和推理時間較長等問題。于是我們的目標是在保證 YoLoV3 檢測性能的基礎上,針對 YoLoV3 的權重模型進行精簡化處理。首先,本文針對其權重模型進行研究分析,認為 YoLoV3 當中使用的 DarkNet53 基準網絡參數量過多,從而導 致其權重模型過大,因此本文決定引入輕量級網絡 SqueezeNet 對其進行替換改進。隨后,本文針對 SqueezeNet 網絡進行了結構分析,在模型輸入為(416,416)的基礎上,很難從中提取合適的特征圖供 YoLoV3 架構訓練及使用,因此本文設計了多種方案改進提取的候選特征圖,經過實驗最終選定了深度可分離卷積來完成此任務,在盡可能控制參數量增加的基礎上,成功完成了 SqueezeNet 的遷移工作。

  1.4 論文結構安排

  本文的重點是圍繞實時多類別車輛檢測技術研究進行展開的,重點研究在智能交通領域下,增強車輛檢測的準確性和高效性,同時保證車輛檢測方案的實時性和魯棒性。論文一共分為五個章節,每章的主要內容組織如下:

  第一章,本章作為全文的引言部分,主要介紹了本文的研究意義和研究背景,隨后介紹了車輛檢測領域國內外當前的研究現狀及進展、論文創新點、研究內容以及論文結構排版。

  第二章,基于計算機視覺的實時車輛檢測基本原理概述。本章首先介紹了計算機視覺領域當中常用的圖像處理技術,隨后介紹了車輛檢測領域當中常用的目標檢測算法,包括傳統的幀間差分法,背景差分法,光流法以及基于特征提取的檢測方法的原理和流程。隨后介紹了近年來火熱的基于深度學習的檢測方案,先介紹了基于深度學習的單階段(one-stage)檢測算法,包括 SSD,YoloV1,YoLoV2,YoLoV3,YoLoV4 以及 RetinaNet 等,最后介紹了基于深度學習的雙階段(twostage)檢測方案,包括 R-CNN,Fast R-CNN,Faster R-CNN 以及 R-FCN 等算法原理及檢測流程。

  第三章,介紹本文提出的一個基于 MOG2 與 H-SqueezeNet 的車輛檢測方案。

  本章首先介紹了當前車輛檢測領域存在的問題,隨后提出了一個魯棒的實時多類別車輛檢測方案。首先本章將 MOG2 算法引入到區域提議領域,用于產生魯棒的尺度不敏感的區域提議,隨后本章在 SqueezeNet 的基礎上提出了基于深度學習的輕量級網絡 H-SqueezeNet 來進行快速類別識別。最后本章利用收集到的蘇州地區交通數據,CDnet2014 等數據集對其進行了性能測試,并且與當前先進的檢測方案進行了性能對比。

  第四章,介紹本文提出的 YoLoV3_SqueezeNet 車輛檢測方案。本章首先介紹了當前 YoLoV3 檢測方案存在的些許問題,以及 SqueezeNet 遷移到 YoLoV3 當中存在的困難和遷移帶來的優越性。接下來介紹了 YoLoV3_SqueezeNet 的架構部署和改造方案。最后本章從權重模型大小,訓練速度壓縮等方面評價了改進效果,與此同時,利用 UA-DETRAC 交通數據集對 YoLoV3_SqueezeNet 的實際檢測效果進行了測試。

  第五章,總結與展望。本章對本文研究內容進行了總結,并且針對本文不足之處與考慮欠缺的地方進行了展望。

  第 2 章 基于計算機視覺的實時車輛檢測基本原理概述

  2.1 視頻圖像處理相關知識

  2.1.1 圖像灰度化

  2.1.2 圖像二值化

  2.1.3 濾波操作

  2.1.4 形態學操作

  2.2 傳統車輛檢測算法框架

  2.2.1 幀間差分法

  2.2.2 背景差分法

  2.2.3 光流法

  2.2.4 基于特征提取的檢測算法

  2.3 基于深度學習的車輛檢測算法

  2.3.1 One-Stage 算法

  2.3.2 Two-Stage 算法

  2.4 本章小結

  第 3 章 基于 MOG2 與 H-SqueezeNet 的多類別車輛檢測方案

  3.1 實時多類別車輛檢測方案整體架構

  3.2 基于 MOG2 的區域提議設計

  3.3 基于深度學習的輕量級網絡架構設計

  3.4 實驗測試與結果分析

  3.4.1 環境配置

  3.4.2 實驗數據集

  3.4.3 實驗參數設定

  3.4.4 MOG2 實驗結果與分析

  3.4.5 H-SQUEEZENET 實驗結果與分析

  3.4.6 綜合實驗結果與分析

  3.5 本章小結

  第 4 章 基于 SqueezeNet 的 YoLoV3 車輛檢測方案

  4.1 總體框架

  4.2 基準遷移

  4.3 實驗測試與結果分析

  4.3.1 實驗參數設置

  4.3.2 實驗數據集介紹

  4.3.3 實驗結果

  4.4 本章小結

  第 5 章 總結與展望

  5.1 工作總結

  車輛檢測是智能交通系統當中的一個至關重要的難題,能夠幫助城市管理人員更加方便地完成交通管制,因此多類別車輛檢測也成為當前學術界的研究熱點之一。然而在面對當今車輛檢測研究之時,傳統的車輛檢測方案往往難以滿足高精度,多類別檢測的需求,并且存在計算開銷大的問題。近年來基于深度學習的車輛檢測算法可以滿足高精度,多類別檢測的需求,但是使用深度學習網絡完成區域提議任務,往往會伴隨著尺度敏感性問題。本文需要解決的問題是如何設計完成高魯棒性、高精度的實時多類別車輛檢測算法,從而解決目前車輛檢測領域當中遇到的種種難題。

  本文首先介紹了當前城市交通面臨的種種難題,以及智能交通系統的重要性和車輛檢測在智能交通當中的關鍵性,然后介紹了當前車輛檢測領域的主流方法與研究現狀,以及計算機視覺領域常用的一些圖像處理方法和常用的目標檢測算法原理。本文在總結現有研究工作的基礎上,給當前車輛檢測領域遇到的困難和問題提出了新的解決方案,同時針對車輛檢測領域提出了兩種新的車輛檢測方案。

  在方案一當中本文針對深度學習中存在的尺度敏感性問題,將 MOG2 算法引入到區域提議領域,來產生尺度不敏感性的區域提議,隨后針對高精度、多類別檢測和實時性等要求,在后端提出了輕量級網絡 H-SqueezeNet 來快速完成車輛類別識別。在方案二當中本文針對 YoLoV3 模型權重較大,訓練時間和推理時間較長的問題,利用輕量級網絡 SqueezeNet 替換 YoLoV3 的基準網絡 DarkNet53,改進后的 YoLoV3_SqueezeNet 模型權重僅有原大小的 36.01%,推理速度和訓練時間分別壓縮了 23.1%和 15.3%左右。具體來說,本文的研究可以主要分為以下幾個部分:

 。1)首先介紹了車輛檢測相關研究的現狀,并且針對當前現有檢測方案的優缺點進行了總結,同時介紹了車輛檢測領域內常用的圖像處理技術和相關理論知識。

 。2)提出了基于 MOG2 + H-SqueezeNet 的多類別車輛檢測方案。首先將Suzuki [71]等人的理論與 MOG2 算法相結合,將其引入到區域提議領域,用來產生魯棒的尺度不敏感的車輛待檢測區域。隨后在輕量級網絡 SqueezeNet 的基礎上提出了 H-SqueezeNet 網絡,進一步精簡了模型,并且可以快速完成車輛識別任務。與此同時本文還針對所使用的交叉熵損失函數進行了改進,引入了損失因子的概念,使其可以將注意力集中在訓練樣本較少的類別上。隨后本文針對所提方案進行了驗證工作,在蘇州虎丘地區,CDnet2014[77]數據集以及 Sanin [78]等人所收集的數據上進行了測試,并且和現有的檢測方案進行了性能比較,分析驗證了本文所提方案的性能和價值。

 。3)提出了基于 SqueezeNet 的 YoLoV3 檢測方案 YoLoV3_SqueezeNet.本方法基于 YoLoV3 檢測框架,使用輕量級網絡 SqueezeNet 替換了其底層DarkNet53 網絡模型,即以 SqueezeNet 作為 YoLoV3 的特征提取網絡。與此同時,本文采用深度可分離卷積等模塊解決了 SqueezeNet 特征圖與 YoLoV3 不適配的問題,在控制參數量的基礎下,成功將輕量級網絡SqueezeNet遷移到YoLoV3架構當中。最終,本文針對 YoLoV3_SqueezeNet 進行了驗證工作,在 UA-DETRAC數據集上進行了訓練與測試工作,結果表明,YoLoV3_SqueezeNet 在保證檢測效果的基礎上,極大程度上降低了權重模型大小,以及加速了模型訓練與模型推理時間,進一步有助于 YoLoV3 的實際項目部署。

  5.2 工作展望

  本文針對當前車輛檢測領域遇到的問題進行了研究分析,同時提出了新的車輛檢測方案,避免了區域提議尺度敏感性問題的同時,還獲得了高精度和高性能,但是還有一些不足,需要在后續的研究當中進行進一步改進:

 。1)本文進行的多類別車輛檢測,只包含了公交車(Bus),小汽車(Car),卡車(Truck)三種類別的車輛,伴隨著當代車型變種的增加。在未來的研究當中,本團隊將會引入更多的車輛類別進行訓練和檢測。

 。2)當前只將輕量級網絡 SqueezeNet 引入到 YoLoV3 架構當中。在接下來的工作當中,將會進一步將 H-SqueezeNet 網絡引入到 YoLoV3 架構當中。 (3)在接下來的研究工作中,本團隊將針對 YoLo 系列最新檢測器 YoLoV4進行研究分析,并且致力于將其與輕量級網絡相結合。

  參考文獻

  [1] N. Buch, S. A. Velastin and J. Orwell, "A Review of Computer Vision Techniques for theAnalysis of Urban Traffic," IEEE Transactions on Intelligent Transportation Systems[J], vol.12, pp. 920-939, 2011.

  [2] S. R. E. Datondji, Y. Dupuis, P. Subirats, and P. Vasseur, "A Survey of Vision-Based TrafficMonitoring of Road Intersections," IEEE Transactions on Intelligent Transportation Systems[J],vol. 17, pp. 2681-2698, 2016.

  [3] Z. Fang, F. Fei, Y. Fang, C. Lee, N. Xiong, L. Shu, and S. Chen, "Abnormal event detection incrowded scenes based on deep learning," Multimedia Tools and Applications[J], vol. 75, pp.14617-14639, 2016.

  [4] Wahyono and K. Jo, "Cumulative Dual Foreground Differences for Illegally Parked VehiclesDetection," IEEE Transactions on Industrial Informatics[J], vol. 13, pp. 2464-2473, 2017.

  [5] W. Huang, G. Song, H. Hong, and K. Xie, "Deep Architecture for Traffic Flow Prediction:Deep Belief Networks With Multitask Learning," IEEE Transactions on IntelligentTransportation Systems[J], vol. 15, pp. 2191-2201, 2014.

  [6] A. Mhalla, T. Chateau, S. Gazzah, and N. E. B. Amara, "An Embedded Computer-VisionSystem for Multi-Object Detection in Traffic Surveillance," IEEE Transactions on IntelligentTransportation Systems[J], vol. 20, pp. 4006-4018, 2019.

  [7] L. Hu and Q. Ni, "IoT-Driven Automated Object Detection Algorithm for Urban SurveillanceSystems in Smart Cities," IEEE Internet of Things Journal[J], vol. 5, pp. 747-754, 2018.

  [8] Chourabi H, Nam T, Walker S , et al. Understanding Smart Cities: An Integrative Framework.IEEE Computer Society, 2012.

  [9] S. Li, F. Chang and C. Liu, "Bi-Directional Dense Traffic Counting Based on Spatio-TemporalCounting Feature and Counting-LSTM Network," IEEE Transactions on IntelligentTransportation Systems[J], pp. 1-13.

  [10]Z. Dai, H. Song, X. Wang, Y. Fang, X. Yun, Z. Zhang, and H. Li, "Video-Based VehicleCounting Framework," IEEE Access[J], vol. 7, pp. 64460-64470, 2019.

  [11]Z. Wang, X. Liu, J. Feng, J. Yang, and H. Xi, "Compressed-Domain Highway Vehicle Countingby Spatial and Temporal Regression," IEEE Transactions on Circuits and Systems for VideoTechnology[J], vol. 29, pp. 263-274, 2019.

  [12]H. Wang, J. Hou and N. Chen, "A Survey of Vehicle Re-Identification Based on DeepLearning," IEEE Access[J], vol. 7, pp. 172443-172469, 2019.

  [13]N. C. Mithun, N. U. Rashid and S. M. M. Rahman, "Detection and Classification of VehiclesFrom Video Using Multiple Time-Spatial Images," IEEE Transactions on IntelligentTransportation Systems[J], vol. 13, pp. 1215-1225, 2012.

  [14]Z. Dong, Y. Wu, M. Pei, and Y. Jia, "Vehicle Type Classification Using a SemisupervisedConvolutional Neural Network," IEEE Transactions on Intelligent Transportation Systems[J],vol. 16, pp. 2247-2256, 2015.

  [15]Y. Tang, C. Zhang, R. Gu, P. Li, and B. Yang, "Vehicle detection and recognition for intelligenttraffic surveillance system," Multimedia Tools and Applications[J], vol. 76, pp. 5817-5832,2017.

  [16]Y. Li, B. Li, B. Tian, and Q. Yao, "Vehicle Detection Based on the and- or Graph for CongestedTraffic Conditions," IEEE Transactions on Intelligent Transportation Systems[J], vol. 14, pp.984-993, 2013.

  [17]Gupte S, Masoud O, Martin R , et al. Detection and classification of vehicles[J]. IEEETransactions on Intelligent Transportation Systems, 2002, pp.37-47.

  [18]K. Bengler, K. Dietmayer, B. Farber, M. Maurer, C. Stiller, and H. Winner, "Three Decades ofDriver Assistance Systems: Review and Future Perspectives," IEEE Intelligent TransportationSystems Magazine[J], vol. 6, pp. 6-22, 2014.

  [19]Z. Xu, D. Zhang and L. Du, "Moving Object Detection Based on Improved Three FrameDifference and Background Subtraction,", in International Conference on IndustrialInformatics[C], 2017, pp. 79-82.

  [20]L. He and L. Ge, "CamShift Target Tracking Based on the Combination of Inter-frameDifference and Background Difference,", in Proceedings of the 37th Chinese ControlConference[C], 2018, pp. 9461-9465.

  [21]W Ji, L Tang, D Li, et al. Video-based construction vehicles detection and its application inintelligent monitoring system[J]. CAAI Transactions on Intelligence Technology, 2016, pp.162-172.

  [22]Godbehere, Andrew B., A. Matsukawa, and K. Goldberg. "Visual tracking of human visitorsunder variable-lighting conditions for a responsive audio art installation," in IEEE AmericanControl Conference[J], 2012.

  [23]Lili Guo, Dan Xu and Zhenping Qiang. "Background Subtraction using Local SVD BinaryPattern." in IEEE Conference on Computer Vision and Pattern Recognition (CVPR)[C], pp. 86-94, 2016.

  [24]Pakorn KaewTraKulPong and Richard Bowden. An improved adaptive background mixturemodel for real-time tracking with shadow detection. In Video-Based Surveillance Systems[J],Springer, pp. 135-144, 2002.

  [25]JiaYi Wei, JianFei Zhao, YanYun Zhao and ZhiCheng Zhao, "Unsupervised AnomalyDetection for Traffic Surveillance Based on Background Modeling", in CVPRW[C], pp. 129-136, 2018.

  [26]Imane Benraya and Nadjia Benblidia, "Comparison of Background Subtraction methods," inInternational Conference on Applied Smart Systems[C], 2018.

  [27] Wahyono, A. Filonenko and K. Jo, "Unattended Object Identification for IntelligentSurveillance Systems Using Sequence of Dual Background Difference," IEEE Transactions onIndustrial Informatics[J], vol. 12, pp. 2247-2255, 2016.

  [28]M. Vargas, J. M. Milla, S. L. Toral, and F. Barrero, "An Enhanced Background EstimationAlgorithm for Vehicle Detection in Urban Traffic Scenes," IEEE Transactions on VehicularTechnology[J], vol. 59, pp. 3694-3709, 2010.

  [29]S. Kul, S. Eken and A. Sayar, "Distributed and collaborative real-time vehicle detection andclassification over the video streams," International Journal of Advanced Robotic Systems[J],vol. 14, 2017.

  [30]J. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt, "Performance of optical flowtechniques," in Computer Vision and Pattern Recognition[C], 1992.

  [31]S. Negahdaripour, "Revised definition of optical flow: integration of radiometric and geometriccues for dynamic scene analysis," Pattern Analysis & Machine Intelligence IEEETransactions[J], vol. 20, pp. 961-979, 1998.

  [32]S. S. Beauchemin and J. L. Barron, "The computation of optical flow," Acm ComputingSurveys[J], 1995.

  [33]R. Ke, Z. Li, J. Tang, Z. Pan, and Y. Wang, "Real-Time Traffic Flow Parameter EstimationFrom UAV Video Based on Ensemble Classifier and Optical Flow," IEEE Transactions onIntelligent Transportation Systems[J], vol. 20, pp. 54-64, 2019.

  [34]C. P. Papageorgiou, M. Oren and T. Poggio, "General framework for object detection," inComputer Vision[C], 1998.

  [35]F. C. Crow, "Summed-area tables for texture mapping," in Conference on Computer Graphics& Interactive Techniques[C], 1984.

  [36]Dalal, Navneet, and B. Triggs . "Histograms of Oriented Gradients for Human Detection." IEEEComputer Society Conference on Computer Vision & Pattern Recognition[C], 2005.

  [37]D. G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," InternationalJournal of Computer Vision[J], vol. 60, pp. 91-110, 2004.

  [38]T. Ojala, M. Pietikainen and D. Harwood, "Performance evaluation of texture measures withclassification based on Kullback discrimination of distributions," Pattern Recognition[J], Vol.1, 1994.

  [39]T. Ojala, M. Pietik Inen and D. Harwood, "A Comparative Study of Texture Measures withClassification Based on Feature Distributions," Pattern Recognition[J], vol. 29, pp. 51-59, 1996.

  [40]G. Yan, M. Yu, Y. Yu, and L. Fan, "Real-time vehicle detection using histograms of orientedgradients and AdaBoost classification," Optik[J], vol. 127, pp. 7941-7951, 2016.

  [41]X. Wen, L. Shao, W. Fang, and X. Yu, "Efficient Feature Selection and Classification forVehicle Detection," IEEE Transactions on Circuits And Systems For Video Technology[J], vol.25, pp. 508-517, 2015.

  [42]J. Zhou, D. Gao and D. Zhang, "Moving Vehicle Detection for Automatic Traffic Monitoring,"IEEE Transactions on Vehicular Technology[J], vol. 56, pp. 51-59, 2007.

  [43]Y. Wang, X. Ban, H. Wang, D. Wu, H. Wang, S. Yang, S. Liu, and J. Lai, "Detection andClassification of Moving Vehicle From Video Using Multiple Spatio-Temporal Features,"IEEE Access[J], vol. 7, pp. 80287-80299, 2019.

  [44]F. Zhang, F. Yang, C. Li, and G. Yuan, "CMNet: A Connect-and-Merge Convolutional NeuralNetwork for Fast Vehicle Detection in Urban Traffic Surveillance," IEEE Access[J], vol. 7, pp 72660-72671, 2019.

  [45]H. Geng, J. Guan, H. Pan, and H. Fu, "Multiple Vehicle Detection with Different Scales inUrban Surveillance Video,", in 2018 IEEE Fourth International Conference on Multimedia BigData[C], 2018.

  [46]K. Kim, P. Kim, Y. Chung, and D. Choi, "Multi-Scale Detector for Accurate Vehicle Detectionin Traffic Surveillance Data," IEEE Access[J], vol. 7, pp. 78311-78319, 2019.

  [47]X. Hu, X. Xu, Y. Xiao, H. Chen, S. He, J. Qin, and P. Heng, "SINet: A Scale-InsensitiveConvolutional Neural Network for Fast Vehicle Detection," IEEE Transactions on IntelligentTransportation Systems[J], vol. 20, pp. 1010-1019, 2019.

  [48]Y. Zhou, L. Liu, L. Shao, and M. Mellor, "Fast Automatic Vehicle Annotation for Urban TrafficSurveillance," IEEE Transactions on Intelligent Transportation Systems[J], vol. 19, pp. 1973-1984, 2018.

  [49]F. Hong, C. Lu, C. Liu, R. Liu, and J. Wei, "A Traffic Surveillance Multi-Scale VehicleDetection Object Method Base on Encoder-Decoder," IEEE Access[J], vol. 8, pp. 47664-47674,2020.

  [50]A. ?enta?, ?. Tashiev, F. Kü?ükayvaz, S. Kul, S. Eken, A. Sayar, and Y. Becerikli, "Performanceevaluation of support vector machine and convolutional neural network algorithms in real-timevehicle type and color classification," Evolutionary intelligence[J], vol. 13, pp. 83-91, 2018.

  [51]Otsu N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions onSystems Man & Cybernetics[J], pp. 62-66, 2007.

  [52]A. Krizhevsky, I. Sutskever, and G. E. Hinton, ''ImageNet classification with deepconvolutional neural networks,'' in Proc. Neural Inf. Process. Syst[C], pp. 1097-1105, 2012.

  [53]K. Simonyan and A. Zisserman, ''Very deep convolutional networks for large-scale imagerecognition,'' in International Conference on Learning Representations (ICLR) [C], pp. 1-14,2015.

  [54]Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens and Zbigniew Wojna,"Rethinking the Inception Architecture for Computer Vision", arXiv: 1512.00567[J], [Online].

  Available: https://arxiv.org/abs/1512.00567, 2015.

  [55]Kaiming He, Xiangyu Zhang, Shaoqing Ren and Jian Sun, "Deep Residual Learning for ImageRecognition", arXiv: 1512.03385[J], [Online]. Available: https://arxiv.org/abs/1512.03385,2015.

  [56]W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.- Y. Fu, and A. C. Berg, "SSD: SingleShot Multibox Detector," in European Conference on Computer Vision (ECCV) [C], pp 21-37.Springer, 2016.

  [57]T. Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollar, "Focal Loss for Dense Object Detection,"IEEE Trans Pattern Anal Mach Intelligence[J], vol. 42, pp. 318-327, 2020.

  [58]J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, ''You only look once: Unified, real-timeobject detection,'' in Proc. CVPR[C], 2016,[59]J. Redmon and A. Farhadi, "YOLO9000: Better, Faster, Stronger," in IEEE Conference onComputer Vision and Pattern Recognition (CVPR) [C], Honolulu, HI, pp. 6517-6525, 2017.

  [60]J. Redmon and A. Farhadi, ''YOLOv3: An incremental improvement,'' arXiv:1804.02767[J].

  [Online]. Available: https://arxiv.org/abs/1804.02767, 2018.

  [61]R. Girshick, J. Donahue, T. Darrell, and J. Malik, ''Rich feature hierarchies for accurate objectdetection and semantic segmentation,'' in IEEE Conference on Computer Vision and PatternRecognition (CVPR) [C], pp. 580-587, 2014.

  [62]R. Girshick, ''Fast R-CNN,'' in Proc. ICCV[C], pp. 1440-1448, 2015.

  [63]S. Ren, K. He, R. Girshick, and J. Sun, "Faster R-CNN: Towards Real-Time Object Detectionwith Region Proposal Networks," IEEE Transactions on Pattern Analysis and MachineIntelligence[J], vol. 39, pp. 1137-1149, 2017.

  [64]J. MacQueen, Some Methods for classification and Analysis of Multivariate Observations, 1967[65]A. Bochkovskiy, C. Wang and H. M. Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection," arXiv: 2004.10934[J]. [Online]. Available: https://arxiv.org/abs/2004.10934, 2020.

  [66]J. Dai, Y. Li, K. He, and J. Sun, "R-FCN: Object Detection via Region-based FullyConvolutional Networks," arXiv: 1605.06409[J]. [Online]. Available:https://arxiv.org/abs/1605.06409, 2016.

  [67]A. Neubeck and L. Van Gool, "Efficient Non-Maximum Suppression", pp. 850-855, 2006.

  [68]F. N. Iandola, S. Han, M. W. Moskewicz, K. Ashraf, W. J. Dally and K.Keutzer, "Squeezenet:AlexNet-Level Accuracy with 50x Fewer Parameters and <0.5MB Model Size," 2016,arXiv:1602.07360v4[J], [Online]. Available: https://arxiv.org/abs/1602.07360v4.

  [69]Z. Zivkovic, "Improved adaptive Gaussian mixture model for background subtraction," inInternational Conference on Pattern Recognition[C], 2004, pp. 28-31 Vol.2.

  [70]Z. Zivkovic and F. van der Heijden, "Efficient adaptive density estimation per image pixel forthe task of background subtraction," Pattern Recognition Letters[J], vol. 27, pp. 773-780, 2006.

  [71]Satoshi Suzuki and Keiichi Abe. "Topological structural analysis of digitized binary images byborder following," Computer Vision, Graphics, and Image Processing[J], 1985.

  [72]Prati, A., Mikic, I., Trivedi, M. M., and Cucchiara, R. "Detecting moving shadows: algorithmsand evaluation," IEEE Transactions on Pattern Analysis and Machine Intelligence[J], vol. 25,pp. 918-923, 2003.

  [73]J. R. R. Uijlings, K. E. A. van de Sande, T. Gevers, and A. W. M. Smeulders, "Selective Searchfor Object Recognition," International Journal of Computer Vision[J], vol. 104, pp. 154-171,2013.

  [74]A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, andH. Adam, "Mobilenets: Efficient convolutional neural networks for mobile vision applications,"2017, arXiv:1704.04861[J], [Online]. Available: https://arxiv.org/abs/1704.04861.

  [75]X. Zhang, X. Zhou, M. Lin, and J. Sun, "Shufflenet: An extremely efficient convolutional neuralnetwork for mobile devices," arXiv:1707.01083[J], [Online]. Available:

  https://arxiv.org/abs/1707.01083, 2017,[76]Chollet, Francois. "Xception: Deep Learning with Depthwise Separable Convolutions." in IEEEConference on Computer Vision and Pattern Recognition (CVPR) [C], pp. 1800-1807, 2017.

  [77]Y. Wang, P.-M. Jodoin, F. Porikli, J. Konrad, Y. Benezeth, and P. Ishwar, "CDnet 2014: AnExpanded Change Detection Benchmark Dataset", in Proc. IEEE Workshop on ChangeDetection (CDW-2014) at CVPR-2014[C], pp. 387-394, 2014.

  [78]A. Sanin, C. Sanderson and B. C. Lovell, "Shadow detection: A survey and comparativeevaluation of recent methods," Pattern Recognition[J], vol. 45, pp. 1684-1695.

  [79]Diederik P. Kingma and Jimmy Lei Ba, "ADAM: A METHOD FOR STOCHASTICOPTIMIZATION," arXiv:1412.6980[J], [Online]. Available: https://arxiv.org/abs/1412.6980,2015.

  [80]Wen L, Du D, Cai Z, et al. "UA-DETRAC: A new benchmark and protocol for multi-objectdetection and tracking," Computer Vision and Image Understanding[J], 2015.

(如您需要查看本篇畢業設計全文,請您聯系客服索。

相關內容
相關標簽:計算機畢業設計
好優論文定制中心主要為您提供代做畢業設計及各專業畢業論文寫作輔導服務。 網站地圖
所有論文、資料均源于網上的共享資源以及一些期刊雜志,所有論文僅免費供網友間相互學習交流之用,請特別注意勿做其他非法用途。
如有侵犯您的版權或其他有損您利益的行為,請聯系指出,論文定制中心會立即進行改正或刪除有關內容!
欧美国产伦久久久久久久
<acronym id="cqmsy"></acronym>
<acronym id="cqmsy"><center id="cqmsy"></center></acronym>