版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
1、<p><b> 京 江 學 院</b></p><p> JINGJIANG COLLEGE OF J I A N G S U U N I V E R S I T Y </p><p> 外 文 文 獻 翻 譯</p><p> 學生學號: 3081155033 </p>&
2、lt;p> 學生姓名: 繆成鵬 </p><p> 專業(yè)班級: J電子信息工程0802 </p><p> 指導教師姓名: 李正明 </p><p> 指導教師職稱: 教授 </p><p><b&
3、gt; 2012年6月</b></p><p> A System for Remote Video Surveillance and Monitoring</p><p> The thrust of CMU research under the DARPA Video Surveillance and Monitoring (VSAM) project is coop
4、erative multi-sensor surveillance to support battlefield awareness. Under our VSAM Integrated Feasibility Demonstration (IFD) contract, we have developed automated video understanding technology that enables a single hum
5、an operator to monitor activities over a complex area using a distributed network of active video sensors. The goal is to automatically collect and disseminate real-time information</p><p> Automated video
6、surveillance is an important research area in the commercial sector as well. Technology has reached a stage where mounting cameras to capture video imagery is cheap, but finding available human resources to sit and watch
7、 that imagery is expensive. Surveillance cameras are already prevalent in commercial establishments, with camera output being recorded to tapes that are either rewritten periodically or stored in video archives. After a
8、crime occurs – a store is robbed or a car is</p><p> Keeping track of people, vehicles, and their interactions in an urban or battlefield environment is a difficult task. The role of VSAM video understandin
9、g technology in achieving this goal is to automatically “parse” people and vehicles from raw video, determine their geolocations, and insert them into dynamic scene visualization. We have developed robust routines for de
10、tecting and tracking moving objects. Detected objects are classified into semantic categories such as human, human group, car, </p><p> Detection of moving objects in video streams is known to be a signific
11、ant, and difficult, research problem. Aside from the intrinsic usefulness of being able to segment video streams into moving and background components, detecting moving blobs provides a focus of attention for recognition
12、, classification, and activity analysis, making these later processes more efficient since only “moving” pixels need be considered.</p><p> There are three conventional approaches to moving object detection
13、: temporal differencing ; background subtraction; and optical flow. Temporal differencing is very adaptive to dynamic environments, but generally does a poor job of extracting all relevant feature pixels. Background subt
14、raction provides the most complete feature data, but is extremely sensitive to dynamic scene changes due to lighting and extraneous events. Optical flow can be used to detect independently moving objects in the pre</p
15、><p> Under the VSAM program, CMU has developed and implemented three methods for moving object detection on the VSAM testbed. The first is a combination of adaptive background subtraction and three-frame diff
16、erencing . This hybrid algorithm is very fast, and surprisingly effective – indeed, it is the primary algorithm used by the majority of the SPUs in the VSAM system. In addition, two new prototype algorithms have been dev
17、eloped to address shortcomings of this standard approach. First, a mechanism </p><p> The current VSAM IFD testbed system and suite of video understanding technologies are the end result of a three-year, ev
18、olutionary process. Impetus for this evolution was provided by a series of yearly demonstrations. The following tables provide a succinct synopsis of the progress made during the last three years in the areas of video un
19、derstanding technology, VSAM testbed architecture, sensor control algorithms, and degree of user interaction. Although the program is over now, the VSAM IFD tes</p><p> 1. better understanding of human moti
20、on, including segmentation and tracking of articulated body parts;</p><p> 2.improved data logging and retrieval mechanisms to support 24/7 system operations;</p><p> 3.bootstrapping functiona
21、l site models through passive observation of scene activities;</p><p> 4.better detection and classification of multi-agent events and activities;</p><p> 5.better camera control to enable smo
22、oth object tracking at high zoom; and</p><p> 6.acquisition and selection of “best views” with the eventual goal of recognizing individuals in the scene.</p><p><b> 遠程視頻監(jiān)控系統(tǒng)</b><
23、;/p><p> 在美國國防部高級研究計劃局,視頻監(jiān)控系統(tǒng)項目下進行的一系列監(jiān)控裝置研究是一項合作性的多層傳感監(jiān)控,用以支持戰(zhàn)場決策。在我們的視頻監(jiān)控綜合可行性示范條約下,我們已經(jīng)研發(fā)出自動視頻解析技術,使得單個操作員通過動態(tài)視頻傳感器的分布式網(wǎng)絡來監(jiān)測一個復雜區(qū)域的一系統(tǒng)活動。我們的目標是自動收集和傳播實時的戰(zhàn)場信息,以改善戰(zhàn)場指揮人員的戰(zhàn)場環(huán)境意識。在其他軍事和聯(lián)邦執(zhí)法領域的應用包括為部隊提供邊境安防,通過無人
24、駕駛飛機監(jiān)控和平條約及難民流動,保證使館和機場的安全,通過收集建筑物每個進口和出口的印時圖片識別可疑毒品和恐怖分子藏匿場所。</p><p> 自動視頻監(jiān)控在商業(yè)領域同樣也是一個重要的研究課題。隨著科技的發(fā)展,安裝攝像頭捕捉視頻圖像已經(jīng)非常廉價,但是通過人為監(jiān)視圖像的成本則非常高昂。監(jiān)視攝像頭已經(jīng)在商業(yè)機構中普遍存在,與相機輸出記錄到磁帶或者定期重寫或者存儲在錄像檔案。在犯罪發(fā)生后---比如商店被竊或汽車被盜后
25、,再查看當時錄像,往往為時已晚。盡管避免犯罪還有許多其他的選擇,但現(xiàn)在需要的是連續(xù)24小時的監(jiān)測和分析數(shù)據(jù),由視頻監(jiān)控系統(tǒng)提醒保安人員,及時發(fā)現(xiàn)正在進行的盜竊案,或游蕩在停車場的可疑人員。</p><p> 在城市或戰(zhàn)場環(huán)境中追蹤人員、車輛是一項艱巨的任務。VSAM視頻解析技術視頻,確定其geolocations,并插入到動態(tài)場景可視化。我們已經(jīng)開發(fā)強有力的例程為發(fā)現(xiàn)和跟蹤移動的物體。被測物體分為語義類別,如人
26、力,人力組,汽車和卡車使用形狀和顏色分析,這些標簽是用來改善跟蹤一致性使用時間限制。進一步分類的人類活動,如散步,跑步,也取得了。 Geolocations標記實體決心從自己的形象坐標使用廣泛的基準立體聲由兩個或兩個以上的重疊相機的意見,或查看射線相交的地形模型由單眼意見。這些計算機的位置飼料進入了更高一級的跟蹤模塊,任務多傳感器變盤,傾斜和縮放,以合作,不斷追蹤的對象,通過現(xiàn)場。所有產(chǎn)生的對象假設所有傳感器轉交作為象征性的數(shù)據(jù)包返回到
27、一個中央控制單元操作者,他們都顯示在圖形用戶界面提供了廣泛概述了現(xiàn)場活動。這些技術已證明,通過一系列每年演示,使用的試驗系統(tǒng)上發(fā)展起來的城市校園的債務工具中央結算系統(tǒng)。</p><p> 檢測移動物體的視頻流被認為是一個重要和困難,研究問題。除了固有的作用能夠部分進入移動視頻流和背景的組成部分,移動塊檢測提供了一個關注的焦點識別,分類,分析和活動,使這些后來過程更有效率,因為只有“移動”像素需要加以考慮。<
28、;/p><p> 有三種常規(guī)方法來進行移動物體的檢測:時間差分法;背景減法;和光流法。時間差分非常適應動態(tài)環(huán)境,但通常是一個貧窮的工作中提取所有相關的功能像素。背景減除提供最完整的功能數(shù)據(jù),但極為敏感,動態(tài)場景的變化,由于燈光和不相干的活動。光流可以用來檢測獨立移動的物體,在場的攝像機運動,但大多數(shù)的光流計算方法的計算復雜,不能適用于全幀視頻流的實時沒有專門的硬件。</p><p> 根據(jù)
29、VSAM計劃,債務工具中央結算系統(tǒng)制定并實施了三種方法的運動目標檢測的VSAM試驗。首先是結合自適應背景減除與三幀差分。這種混合算法是非???,令人驚訝的有效的-事實上,它是主要的算法所使用的大多數(shù)SPUs在VSAM系統(tǒng)。此外,兩個新的原型已經(jīng)開發(fā)的算法來解決這一缺陷的標準辦法。首先,一個機制,保持顳對象層次開發(fā),使更多的歧義的移動物體,可以有效地阻止了一會兒,是閉塞的其他物體,而且然后恢復動議。一個限制,影響到該方法和標準算法是他們唯一
30、的工作靜態(tài)相機,或在“ stepand凝視”模式泛傾斜相機。為了克服這一局限,第二次延長了beendeveloped讓背景減法從不斷平移和傾斜相機。通過巧妙的積累形象的證據(jù),該算法可以實現(xiàn)實時的傳統(tǒng)PC平臺。第四個辦法來探測移動物體從空中移動平臺,也得到了發(fā)展,根據(jù)分包合同的Sarnoff公司。這種方法是基于圖像穩(wěn)定使用特殊的視頻處理硬件。</p><p> 目前VSAM通用試驗系統(tǒng)和一套視頻理解技術的最終結果
31、是一項為期三年的,漸進的過程。推動這一演變提供了一系列每年示威。下列表格提供了一個簡明的大綱方面所取得的進展在過去三年中在視頻領域的理解,技術, VSAM試驗架構,傳感器控制算法,并一定程度的用戶交互。雖然該計劃是在現(xiàn)在, VSAM通用試驗繼續(xù)提供寶貴的資源開發(fā)和測試新的視頻理解能力。今后的工作將致力于實現(xiàn)以下目標:</p><p> 1、 更好地理解人類的議案,其中包括分割和跟蹤闡明身體部位;</p&g
32、t;<p> 2、 改善數(shù)據(jù)記錄和檢索機制,以支持24 / 7系統(tǒng)的運作</p><p> 3、引導功能的網(wǎng)站模式,通過被動觀察現(xiàn)場活動;</p><p> 4、更好的檢測和分類Multi -l Agent的事件和活動</p><p> 5、更好的相機控制,實現(xiàn)了流暢的目標跟蹤高變焦;和</p><p> 6、購置和選
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 遠程視頻監(jiān)控系統(tǒng)外文翻譯
- 遠程視頻監(jiān)控外文翻譯.doc
- 遠程視頻監(jiān)控外文翻譯.doc
- 遠程視頻監(jiān)控外文翻譯.doc
- 遠程視頻監(jiān)控外文翻譯.doc
- 外文翻譯---視頻監(jiān)控系統(tǒng)
- 視頻監(jiān)控系統(tǒng)外文翻譯
- 視頻監(jiān)控系統(tǒng)設計外文翻譯
- 視頻監(jiān)控系統(tǒng)外文翻譯譯
- 電梯遠程視頻監(jiān)控系統(tǒng).pdf
- 遠程視頻監(jiān)控畢業(yè)課程設計外文文獻翻譯、中英文翻譯、外文翻譯
- 遠程視頻監(jiān)控畢業(yè)課程設計外文文獻翻譯、中英文翻譯、外文翻譯
- 遠程視頻監(jiān)控畢業(yè)課程設計外文文獻翻譯、中英文翻譯、外文翻譯
- 基于android的遠程視頻監(jiān)控系統(tǒng)
- 遠程視頻監(jiān)控網(wǎng)絡系統(tǒng).pdf
- 基于arm的遠程視頻監(jiān)控系統(tǒng)
- 廣東揭陽林火遠程視頻監(jiān)控系統(tǒng)
- 廣東揭陽林火遠程視頻監(jiān)控系統(tǒng)
- 遠程視頻監(jiān)控系統(tǒng)畢業(yè)設計
- 基于java的遠程視頻監(jiān)控系統(tǒng)
評論
0/150
提交評論