欧美日韩亚洲一区二区精品_亚洲无码a∨在线视频_国产成人自产拍免费视频_日本a在线免费观看_亚洲国产综合专区在线电影_丰满熟妇人妻无码区_免费无码又爽又刺激又高潮的视频_亚洲一区区
公務(wù)員期刊網(wǎng) 精選范文 計(jì)算機(jī)視覺范疇范文

計(jì)算機(jī)視覺范疇精選(九篇)

前言:一篇好文章的誕生,需要你不斷地搜集資料、整理思路,本站小編為你收集了豐富的計(jì)算機(jī)視覺范疇主題范文,僅供參考,歡迎閱讀并收藏。

計(jì)算機(jī)視覺范疇

第1篇:計(jì)算機(jī)視覺范疇范文

關(guān)鍵詞:計(jì)算機(jī)視覺;跟蹤算法;綜述;人數(shù)統(tǒng)計(jì)

中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A DOI:10.3969/j.issn.1003-6970.2013.03.003

0 引言

計(jì)算機(jī)視覺作為一門多學(xué)科的交叉領(lǐng)域,涉及圖像處理、計(jì)算機(jī)圖形學(xué)、模式識別、人工智能、人工神經(jīng)網(wǎng)絡(luò)、計(jì)算機(jī)、數(shù)學(xué)、心理學(xué)、生理學(xué)和物理學(xué)等。本文是對視頻人數(shù)統(tǒng)計(jì)技術(shù)的綜述,屬于智能視頻監(jiān)控范疇。

由于智能視屏監(jiān)控的挑戰(zhàn)性以及其巨大的應(yīng)用價(jià)值,越來越多的學(xué)校、研究所以及公司的研究人員投入到該領(lǐng)域中來。麻省理工學(xué)院、卡內(nèi)基梅隆大學(xué)以及其他國外著名大學(xué)成立了專門的計(jì)算機(jī)視覺及多媒體方向的實(shí)驗(yàn)室;Nice和Object video等公司已經(jīng)針對飛機(jī)場、國界線等應(yīng)用場合開發(fā)了一些相應(yīng)的智能監(jiān)控系統(tǒng)。國際上的高級視頻和錄像(Advanced Videoand Signal-Based Surveillance)論壇每年都會舉辦PETS(Performance Evaluation of Tracking Systems)會議專門針對于人群行為分析,包括群體人數(shù)統(tǒng)計(jì),人流密度估計(jì);對單個(gè)人員以及群體中個(gè)體進(jìn)行跟蹤;特殊群體和特殊事件檢測等。本文主要針對視頻人數(shù)識別這個(gè)研究方向,從基于特征點(diǎn)、顏色與形狀信息、模板匹配三種不同類型識別跟蹤方式分析了近些年來國內(nèi)外的研究工作及最新進(jìn)展,通過對各種不同識別方法比較,對當(dāng)前亟需解決的問題做了詳細(xì)的分析。

1 人數(shù)識別研究現(xiàn)狀

人數(shù)統(tǒng)計(jì)算法融合了運(yùn)動(dòng)物體檢測、行人檢測與分割、形狀分析、特征提取和目標(biāo)跟蹤等多個(gè)領(lǐng)域的技術(shù)。從采用的手段來講可以分為直接法和間接法:直接法(或稱基于檢測的),即首先在場景中檢測出每個(gè)行人,再計(jì)數(shù)。第二種稱為間接法(也稱為基于映射或基于度量的),一般是建立場景特征與行人數(shù)量的函數(shù)關(guān)系來測算人數(shù)。在行人高度密集的場景中,間接法比直接法更加可靠,主要因?yàn)橹苯臃o法有效分割每個(gè)行人,特別是在行人高度密集的場景中,從20世紀(jì)90年代起到目前為止這近20年里,出現(xiàn)了眾多的視覺跟蹤算法,1988年,Aggarwal和Nanadhakumar對運(yùn)動(dòng)圖像分析算法進(jìn)行了總結(jié),將算法分為兩類,一類是基于光流法的分析,另一類是基于特征點(diǎn)的分析,此后在視覺跟蹤領(lǐng)域中,又出現(xiàn)了許多新的方法,目前,視頻中人數(shù)的跟蹤方法大致分為三類,分別是基于區(qū)域的跟蹤、基于特征點(diǎn)的跟蹤、基于模板和模型的跟蹤,這種分類方法概括了目前大多數(shù)視覺跟蹤算法,因此下面用這種分類方法對視覺跟蹤算法進(jìn)行介紹。

1.1 基于特征的人數(shù)識別

基于特征的人數(shù)跟蹤算法選取目標(biāo)的某個(gè)或某些局部特征作為相關(guān)時(shí)的對象,這種算法的優(yōu)點(diǎn)在于即使目標(biāo)的某一部分被遮擋,只要還有一部分特征可以被看到,就可以完成跟蹤任務(wù),另外,這種方法與卡爾曼濾波器聯(lián)合使用,也具有很好的跟蹤效果。這種算法的難點(diǎn)是:對某個(gè)運(yùn)動(dòng)目標(biāo),如何確定它的唯一特征集?這也是一個(gè)模式識別問題,若采用特征過多,系統(tǒng)效率將降低,且容易產(chǎn)生錯(cuò)誤,文獻(xiàn)對這一問題進(jìn)行了討論,在特征提取時(shí),一般采用Canny算子獲得目標(biāo)的邊緣特征,而采用SUSAN算子獲得目標(biāo)的角點(diǎn)信息。有關(guān)基于特征的跟蹤算法還可參見文獻(xiàn)。在2009年,Albiol使用角點(diǎn)個(gè)數(shù)作為場景特征來估測人數(shù),首先通過Harris角檢測器檢測出圖像角點(diǎn),然后進(jìn)行角點(diǎn)匹配以區(qū)分人身上的角點(diǎn)和背景角點(diǎn),Albiol認(rèn)為每幀總?cè)藬?shù)與人身上角點(diǎn)的個(gè)數(shù)成正比例關(guān)系,以此估測人數(shù),算法雖然簡單,但在PETS 2010“人數(shù)統(tǒng)計(jì)與密度估計(jì)”競賽中取得優(yōu)勝。2010年,Conte等“”基于Albiol的方法提出改進(jìn)。采用的SURF(Speed up Ro.bust Feature)特征點(diǎn)以代替角點(diǎn),同時(shí),Conte等不僅考慮到特征點(diǎn)個(gè)數(shù)對人數(shù)估測的影響,還考慮到透視投影(拍攝距離d)密度人群遮掩(特征點(diǎn)密度p)對于估測的影響,同時(shí)對所有SURF點(diǎn)進(jìn)行分組回歸以提高精度,在這個(gè)基礎(chǔ)上張茂軍等相比Conte等的研究成果在處理遠(yuǎn)距離人群上精度提高,主要因?yàn)槭褂谩胺亲畲笠种凭垲悺薄獙Σ煌臄z距離的人群采取不同的聚類標(biāo)準(zhǔn),有效解決遠(yuǎn)距離人群的類過大問題,提取人身上特征點(diǎn)的方法是在掩模上直接檢測特征點(diǎn),使得特征點(diǎn)個(gè)數(shù)更加穩(wěn)定,有利于SVM預(yù)測。

1.2 基于區(qū)域的人數(shù)識別

基于區(qū)域的跟蹤算法基本思想是:首先得包含目標(biāo)的模板(Template),該模板通過圖像分割獲得或是預(yù)先人為確定,模板通常為略大于目標(biāo)的矩形,也可為不規(guī)則形狀;然后在序列圖像中,運(yùn)用相關(guān)算法跟蹤目標(biāo),對灰度圖像可以采用基于紋理和特征的相關(guān),對彩色圖像還可利用基于顏色的相關(guān)。

McKenna等首先利用色彩和梯度信息建立自適應(yīng)的背景模型,并且利用背景減除方法提取運(yùn)動(dòng)區(qū)域,有效地消除了影子的影響;然后,跟蹤過程在區(qū)域、人、人群三個(gè)抽象級別上執(zhí)行,區(qū)域可以合并和分離,而人是由許多身體部分區(qū)域在滿足幾何約束的條件下組成的,同時(shí)人群又是由單個(gè)的人組成的,因此利用區(qū)域跟蹤器并結(jié)合人的表面顏色模型,在遮擋情況下也能夠較好地完成多人的跟蹤。Marana等認(rèn)為低密度人群在圖像上體現(xiàn)出粗糙紋理特征,而高密度人群則體現(xiàn)出精細(xì)紋理特征。文獻(xiàn)分別采用自組織理論和Minkowsld不規(guī)則維度理論從圖像紋理特征預(yù)測人群密度。Lin等則結(jié)合Harr小波變換(HWT)和支持向量機(jī)(SVM)進(jìn)行行人頭部輪廓檢測,從而達(dá)到人數(shù)統(tǒng)計(jì)的目的。文獻(xiàn)利用顏色和形狀信息實(shí)現(xiàn)人頭的檢測,包含兩個(gè)步驟:黑色區(qū)域提取和形狀分析。通過對HSV空間V通道的像素設(shè)置閾值這種方法有效地檢測出黑色區(qū)域,同時(shí)可以少受光照變化和陰影的影響。使用一種基于形狀描述的快速弧形結(jié)構(gòu)提取方法實(shí)現(xiàn)人頭檢測。姬紅兵等提出了一種基于局部特征的目標(biāo)跟蹤算法,通過多尺度分析方法,根據(jù)顏色和空間上的相似性將目標(biāo)分割為多個(gè)區(qū)域,每個(gè)區(qū)域由一個(gè)團(tuán)塊表示,團(tuán)塊包含了該區(qū)域所有像素的顏色均值、形狀和位置,根據(jù)團(tuán)塊特征構(gòu)造目標(biāo)的外觀模型,定義團(tuán)塊的匹配準(zhǔn)則,通過團(tuán)塊匹配進(jìn)行目標(biāo)跟蹤。

1.3 基于模板匹配的人數(shù)識別

采用模板匹配識別跟蹤方法首先將圖像序列轉(zhuǎn)換為一組靜態(tài)形狀模式然后在識別過程中和預(yù)先存儲的行為標(biāo)本相比較,

部分學(xué)者在運(yùn)動(dòng)前景提取的基礎(chǔ)上使用了輪廓匹配方法對目標(biāo)進(jìn)行定位,文獻(xiàn)使用了半圓模型搜索前景中人頭肩所在位置,然后使用Snake模型與卡爾曼濾波相結(jié)合對目標(biāo)進(jìn)行跟蹤目標(biāo),但Snake模型比較適合單目標(biāo)的跟蹤,當(dāng)行人發(fā)生重疊時(shí),定位精度會有一定的下降;在此基礎(chǔ)上文獻(xiàn)提出使用含有人harr特征分類器(使用頭肩部上半身樣本),對行人重疊情況下的檢測精度有一定的提升。文獻(xiàn)提出使用垂直攝像頭降低行人之間的遮擋程度,通過對基于AdaBoost的人頭檢測本方法,建立一個(gè)良好的人頭檢測分類器。然后根據(jù)運(yùn)動(dòng)人頭的特征去除誤檢區(qū)域。最后配合過線跟蹤實(shí)現(xiàn)出入口人數(shù)統(tǒng)計(jì)。

2 視頻跟蹤問題中的難點(diǎn)

從上面的闡述可以看出,各種方法都有自己的優(yōu)點(diǎn)和不足,是在文獻(xiàn)基礎(chǔ)上分析得到的幾種具體識別方法的比較結(jié)果,由于各種方法在設(shè)定理想情況下都有較好的準(zhǔn)確率,所以不對各種方法的準(zhǔn)確率做出比較,而是從各種算法的復(fù)雜度、魯棒性、先驗(yàn)知識需求、高密度復(fù)雜人群適應(yīng)性(有遮擋出現(xiàn))等方面進(jìn)行相對的比較分析,分析結(jié)果如表1。

2.1 視覺跟蹤問題中的難點(diǎn)

從控制的觀點(diǎn)來看,視覺跟蹤問題所面臨的主要難點(diǎn)可以歸結(jié)為對視覺跟蹤算法在三個(gè)方面的要求,即對算法的魯棒性、準(zhǔn)確性和快速性。

魯棒性是指視覺跟蹤算法能夠在各種環(huán)境條件下實(shí)現(xiàn)對運(yùn)動(dòng)目標(biāo)持續(xù)穩(wěn)定的跟蹤。影響人數(shù)跟蹤系統(tǒng)魯棒性的最主要原因在于目標(biāo)處環(huán)境的光照變化以及部分遮擋引起的運(yùn)動(dòng)目標(biāo)不規(guī)則變形和全部遮擋引起的目標(biāo)的暫時(shí)消失。當(dāng)運(yùn)動(dòng)目標(biāo)所處環(huán)境的光照發(fā)生改變時(shí),采用圖像灰度信息或色彩信息作為跟蹤基礎(chǔ)的視覺跟蹤算法一般都會失效,而基于圖像特征的方法往往不受光照改變的影響,如利用運(yùn)動(dòng)目標(biāo)的邊緣信息能有效避免光照變化對運(yùn)動(dòng)目標(biāo)的影響,但在復(fù)雜環(huán)境中要將運(yùn)動(dòng)目標(biāo)的邊緣和周圍其它目標(biāo)邊緣區(qū)分開來是非常困難的,遮擋問題是視覺跟蹤算法中又一難點(diǎn)問題,利用單攝像機(jī)解決遮擋問題也一直是視覺跟蹤領(lǐng)域中的熱點(diǎn)。而利用多攝像機(jī)可以在很大程度上解決這一問題,但正如前所述,多攝像機(jī)的應(yīng)用又會引入新的難題。

在視覺跟蹤研究中,準(zhǔn)確性包括兩個(gè)方面,一是指對運(yùn)動(dòng)目標(biāo)檢測的準(zhǔn)確性,另一個(gè)是指對運(yùn)動(dòng)目標(biāo)分割的準(zhǔn)確性,對運(yùn)動(dòng)目標(biāo)檢測準(zhǔn)確性的目的是盡量避免運(yùn)動(dòng)目標(biāo)虛檢和漏檢,從而提高對真實(shí)運(yùn)動(dòng)目標(biāo)的檢測概率。由于實(shí)際復(fù)雜環(huán)境中存在大量噪聲。至今已經(jīng)出現(xiàn)了上千種各種類型的分割算法,但由于尚無通用的分割理論,目前并沒有一種適合于所有圖像的通用分割算法。

一個(gè)實(shí)用的視覺跟蹤系統(tǒng)必須能夠?qū)崿F(xiàn)對運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)跟蹤,這就要求視覺跟蹤算法必須具有快速性但是,視覺跟蹤算法處理的對象是包含巨大數(shù)據(jù)量的圖像,這些算法往往需要大量的運(yùn)算時(shí)間,很難達(dá)到實(shí)時(shí)處理的要求,通常,簡單算法能夠?qū)崿F(xiàn)實(shí)時(shí)跟蹤,但跟蹤精度卻很差;復(fù)雜算法具有很高的跟蹤精度,實(shí)時(shí)性卻很差,一種通用的減小視覺跟蹤算法運(yùn)算量的方法是利用金字塔分解或小波變換將圖像分層處理。

3 展望與結(jié)束語

3.1 展望

實(shí)現(xiàn)一個(gè)具有魯棒性、準(zhǔn)確性和快速性的視覺跟蹤系統(tǒng)是當(dāng)前視覺跟蹤技術(shù)努力的方向。但視覺跟蹤技術(shù)在這幾個(gè)方面中每前進(jìn)一步都是非常困難的,因?yàn)樵摷夹g(shù)的發(fā)展與人的感知特性的研究緊密聯(lián)系在一起,由于目前對人的感知特性沒有一個(gè)主流的理論,其數(shù)學(xué)模型更是難以建立。同時(shí),在計(jì)算機(jī)視覺中大多數(shù)問題是不確定的,這就更增加了視覺跟蹤技術(shù)發(fā)展的難度。但是,近幾十年來,數(shù)學(xué)理論方面取得了巨大的進(jìn)步,因此合理的使用在數(shù)學(xué)理論方面的知識提高系統(tǒng)的性能能夠很好的解決視覺跟蹤問題。例如現(xiàn)在已經(jīng)應(yīng)用在諸多領(lǐng)域的模糊算法,神經(jīng)網(wǎng)絡(luò)等提高系統(tǒng)性能,簡化計(jì)算復(fù)雜度。

3.2 結(jié)束語

第2篇:計(jì)算機(jī)視覺范疇范文

關(guān)鍵詞:視頻拼接;跟蹤定位;OPENCV

[基金資助]:全國大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練項(xiàng)目(2013XKCX210)廣西高校科學(xué)技術(shù)研究項(xiàng)目:(2013YB092)

引言

隨著安防向著智能化的進(jìn)一步發(fā)展,越來越多的領(lǐng)域?qū)鹘y(tǒng)意義上的視頻監(jiān)控提出了更多的要求。傳統(tǒng)的監(jiān)控?cái)z像機(jī)多為固定攝像機(jī),監(jiān)控視野狹窄,而且運(yùn)動(dòng)目標(biāo)容易超出監(jiān)控視野范圍,而不能對其連續(xù)跟蹤,這也就導(dǎo)致了監(jiān)控漏洞的出現(xiàn)。如果能夠建立一種既能全局監(jiān)控掌握整體情況,又能針對感興趣目標(biāo)進(jìn)行跟蹤特寫的系統(tǒng),就可以很好地解決全局監(jiān)控與局部跟蹤不可兼得的難題,因此提出了基于視頻拼接的特寫聯(lián)動(dòng)系統(tǒng)。

1 介紹OPENCV

OPENCV是一個(gè)開源的跨平臺計(jì)算機(jī)視覺庫,可以運(yùn)行在Linux、Windows和Mac OS等多個(gè)操作系統(tǒng)上。它輕量級而且高效,由一系列 C 函數(shù)和少量 C++ 類構(gòu)成,同時(shí)提供了Python、Ruby、MATLAB等語言的接口,實(shí)現(xiàn)了圖像處理和計(jì)算機(jī)視覺方面的很多通用算法。

2 圖像拼接

OPENCV提供的專門用于全景拼接的類Stitcher,該類可以對無序的任意張圖片進(jìn)行全景拼接,拼接效果如圖2.1所示。

(a)

圖2.1 Stitcher類的拼接效果

可以看出,效果是十分不錯(cuò)的。不過在時(shí)間的處理上,Stitcher封裝的算法表現(xiàn)的并不令人滿意,對兩張320*240的JPG圖像,花費(fèi)了9968毫秒才完成了拼接。所以這個(gè)類也只適合用來做圖片的拼接,想要在視頻中做實(shí)時(shí)的拼接處理是不可能的。

3 視頻拼接

Stitcher封裝的算法,除了時(shí)間,其他各方面都令人滿意。假如需要將其運(yùn)用到視頻拼接上,以每秒播放20幀為例,速度需要提高100多倍,光優(yōu)化代碼是不現(xiàn)實(shí)的。

不過經(jīng)過對Stitcher類的詳細(xì)了解,可以對拼接兩張圖片的條件進(jìn)行總結(jié),就是相機(jī)參數(shù)和img_mask圖片。也就是說,不需要每一次都計(jì)算這兩個(gè)東西,只需要提取視頻的第一幀進(jìn)行拼接,然后保存這兩個(gè)參數(shù),視頻之后的所有幀直接用就行了。OPENCV提供了Stitcher所有的C源代碼,對應(yīng)的拼接算法封裝在estimateTransform和composePanorama函數(shù)中。只需要將這兩個(gè)函數(shù)融合成一個(gè),將其中涉及到相機(jī)參數(shù)(代碼中定義為cameras_)和img_mask圖片(代碼中定義為mask_warped)的變量轉(zhuǎn)換成Stitcher類的變量,然后重新定義一個(gè)函數(shù),將composePanorama尾部的圖片融入代碼復(fù)制出來就行了。代碼修改后,同樣是320*240的兩張圖片,耗時(shí)157毫秒。這樣視頻拼接的功能就可以用Stitcher類來實(shí)現(xiàn)了。

4 跟蹤定位

對圖像場景中的物體進(jìn)行跟蹤,首先需要知道物體是否是活動(dòng)的。假如物體一直處于不運(yùn)動(dòng)的狀態(tài),那么這種情況應(yīng)該屬于圖像識別的范疇。如果物體運(yùn)動(dòng),必將產(chǎn)生位移,也就是相對于上一幀發(fā)生了像素偏差,然而,圖像背景并沒有移動(dòng)。這樣一來跟蹤算法顯而易見。

首先需要記錄第一幀的圖像數(shù)據(jù),然后記錄第二幀的圖像數(shù)據(jù),兩幀數(shù)據(jù)圖像做對比,定義如下計(jì)算公式:

其中,x,y分別是像素的坐標(biāo),threshold是閾值。一般來說,閾值為零,表示像素沒有發(fā)生位移。不過在實(shí)際情況下,考慮到光線和天氣的影響,像素會在人眼分辨不出來的情況下發(fā)生變化,所以閾值就不同的場景而定。圖片的運(yùn)算結(jié)果如圖4.1所示,考慮到實(shí)際情況,需要對結(jié)果進(jìn)行濾波處理,之后進(jìn)行像素膨脹處理,這兩個(gè)步驟主要是將圖像中有明顯位置移動(dòng)的物體保留下來,過濾掉因光照、天氣產(chǎn)生的噪聲。為了達(dá)到更好的效果,也可以加入對時(shí)間的判斷,具體算法可以參見Gary Bradski和Adrian kaebler的learning Opencv[5]的第九章。

5 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)結(jié)果基本上每個(gè)小章節(jié)的結(jié)尾都已經(jīng)給出,以下給出系統(tǒng)整體運(yùn)行的結(jié)果。本文選用三個(gè)校園取景的視頻作為實(shí)驗(yàn)視頻,采用VS2008編譯器,搭建OPENCV2.2.4的環(huán)境,運(yùn)行系統(tǒng)為WINDOWS XP,運(yùn)行效果如圖5.1所示,時(shí)間耗費(fèi)如表5.2所示。

圖5.1 拼接及跟蹤的結(jié)果

實(shí)驗(yàn)采用兩個(gè)480*360大小的avi視頻,實(shí)時(shí)拼接耗時(shí)360毫秒,加上跟蹤算法總共消耗386毫秒。實(shí)際應(yīng)用中。從源代碼分析,主要消耗時(shí)間的過程有:圖片的重新投影(代碼中定義為warp),耗時(shí)109毫秒。投影后的圖片與各自的二值圖像標(biāo)記混合(代碼中定義為feed),耗時(shí)32毫秒。所有圖像融合(代碼中定義為blend),耗時(shí)47秒。其中wrap和feed執(zhí)行了多次,blend執(zhí)行一次。

6 總結(jié)

本文對視頻拼接的特寫聯(lián)動(dòng)系統(tǒng)的實(shí)現(xiàn)進(jìn)行了詳細(xì)的介紹。主要通過優(yōu)化OPENCV圖像處理庫來編寫系統(tǒng)程序代碼,通過優(yōu)化Stitcher類算法,從而實(shí)現(xiàn)所需的特定功能。融合了跟蹤算法,有效解決了跨場景跟蹤的難題,有一定的實(shí)用性和研究價(jià)值。

參考文獻(xiàn)

[1] MATTHEW BROWN* AND DAVID G LOWE. Automatic Panoramic Image Stitching using Invariant Festures, December 2006

[2] 王小強(qiáng),陳臨強(qiáng),梁旭. 實(shí)時(shí)全自動(dòng)視頻拼接方法, 2011

[3] David G. Lowe. Distanctive Image Festure from Scale-Invariant Keypoints, 2004

[4] Bill Triggs,Philip McLauchlan,Richard Hartley. Bundle Adjustment A modern Synthesis, 2000

第3篇:計(jì)算機(jī)視覺范疇范文

數(shù)字技術(shù)對影視制作的影響,這一類的研究文獻(xiàn)主要是從理論方面進(jìn)行討論,數(shù)字技術(shù)帶來的變革對傳媒界、從業(yè)人員、影視制作觀念的影響?!稊?shù)字技術(shù)對電視媒體的能動(dòng)性研究》從傳播事業(yè)發(fā)展的歷史入手,分析了傳播技術(shù)學(xué)派的理論以及它所引發(fā)的爭議。通過對數(shù)字技術(shù)的研究,尤其是通過數(shù)字技術(shù)對電視媒體的影響的重點(diǎn)研究,研究傳媒技術(shù)在傳媒事業(yè)發(fā)展過程中的能動(dòng)作用。作者認(rèn)為數(shù)字技術(shù)對影視制作的巨大推動(dòng)作用是積極的,是正面的,這種積極的能動(dòng)作用將為我們正確認(rèn)識傳媒技術(shù)與傳媒事業(yè)的關(guān)系帶來新的視角?!稊?shù)字技術(shù)對影視從業(yè)者的影響》這篇文章,數(shù)字技術(shù)在貫穿影視制作全過程的應(yīng)用中,其不僅僅改變了傳統(tǒng)的制作方式,不僅僅體現(xiàn)在數(shù)字特效令人震撼的視覺效果上,而是對影視制作從觀念到具體創(chuàng)作實(shí)現(xiàn)的方方面面都帶來了革命性的影響,作者從編劇、導(dǎo)演、攝像幾個(gè)影視制作的關(guān)鍵環(huán)節(jié)進(jìn)行分析?!稖\析數(shù)字技術(shù)對影視藝術(shù)發(fā)展的影響》對飛速發(fā)展的數(shù)字技術(shù)為影視藝術(shù)發(fā)展所帶來的深刻變化進(jìn)行了論述,重點(diǎn)闡明了在電影數(shù)字化進(jìn)程中應(yīng)該建立新的電影觀念?!蛾P(guān)于數(shù)字技術(shù)與影視創(chuàng)作觀念的冷思考》,認(rèn)為數(shù)字技術(shù)在影視創(chuàng)作中發(fā)揮著越來越重要的作用。但是作者認(rèn)為應(yīng)冷靜地看待數(shù)字技術(shù)對影視生產(chǎn)的價(jià)值。數(shù)字技術(shù)的確為影視創(chuàng)作提供了重要的美學(xué)表現(xiàn)手段,但從創(chuàng)作手段來看,傳統(tǒng)的影視拍攝手段仍然有無盡的開掘空間,辯證地看待數(shù)字技術(shù)所帶來的影響。

二、數(shù)字技術(shù)對影視制作中的美學(xué)方面的影響

比如,《數(shù)字技術(shù)從電影創(chuàng)作到接受的美學(xué)思考》這篇文章,認(rèn)為,當(dāng)前數(shù)字技術(shù)在電影中的運(yùn)用仍屬于初級階段,但其本身急劇的發(fā)展和日新月異的變化,以及其牽涉、融匯多門類學(xué)科的特性,使數(shù)字技術(shù)的概念和范疇仍紛繁復(fù)雜,還有待進(jìn)一步梳理和規(guī)范。其著重論述的數(shù)字技術(shù)是以計(jì)算機(jī)圖形學(xué)為基礎(chǔ),在與電影制作結(jié)合過程中發(fā)展起來的信息數(shù)字化處理技術(shù),側(cè)重于其在電影創(chuàng)作和接受方面引起的影像變革和美學(xué)意義?!峨p刃劍、雙重視閾與審美價(jià)值—論知識經(jīng)濟(jì)時(shí)代數(shù)字技術(shù)對影視藝術(shù)的影響》針對知識經(jīng)濟(jì)時(shí)代數(shù)字技術(shù)在影視藝術(shù)生產(chǎn)實(shí)踐中所體現(xiàn)出來的“雙刃劍”特性,文章在“雙重視域”的學(xué)理審視下分析了數(shù)字技術(shù)對影視劇藝術(shù)的積極影響和消極影響,并主張回到影視劇藝術(shù)生產(chǎn)的文化語境,在審美情境中貫注生動(dòng)的歷史具體性,弘揚(yáng)人文精神的審美價(jià)值理想。

第4篇:計(jì)算機(jī)視覺范疇范文

關(guān)鍵詞:韋伯局部描述子;LBP特征;SLBH特征;顯著性因子;行人檢測

中圖分類號:TP18 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-3044(2015)09-0202-03

近年來,基于計(jì)算機(jī)視覺的行人檢測技術(shù)一直是智能交通系統(tǒng)領(lǐng)域研究的熱點(diǎn)問題[1],而可行且高效的行人特征提取算法是其中的關(guān)鍵部分,為此,許多專家學(xué)者對此進(jìn)行了深入研究。

Haar特征由Viola等學(xué)者首次提出并用于人臉識別領(lǐng)域,取得了良好的檢測效果[2,3],而后被許多學(xué)者改進(jìn)和擴(kuò)展,使其更加適合于行人檢測領(lǐng)域。Abramson Y[4]在標(biāo)準(zhǔn)haar特征的基礎(chǔ)上進(jìn)行了擴(kuò)展,以增強(qiáng)對運(yùn)動(dòng)行人姿態(tài)的描述和檢測。但該特征仍然易受光照變化、環(huán)境遮擋等因素的影響,適應(yīng)場景變化的能力較差,魯棒性不高。HOG特征是行人檢測特征提取領(lǐng)域的另一經(jīng)典算法,與haar特征不同,HOG特征屬于矢量特征范疇[5]。Lazebnik S等人[6]為了提升了HOG特征提取速度提出了PHOG特征。SIFT特征[7]由于其優(yōu)異的不變性也被廣泛到應(yīng)用到目標(biāo)檢測特征提取的應(yīng)用中。HOG特征和SIFT特征都是比較典型的矢量特征提取算法,但是由于特征維數(shù)較高,實(shí)時(shí)性難以保證,必須經(jīng)過特征降維處理。再就是Edgelet特征[8-9],與其他行人檢測特征提取算法不同,該特征著力于描述行人輪廓特征,能有效處理環(huán)境復(fù)雜且目標(biāo)被遮擋情況較為嚴(yán)重條件下的行人檢測,但是由于計(jì)算較為復(fù)雜,實(shí)時(shí)性較低。Ojala T等人提出的LBP特征因其具有維度低、計(jì)算速度快、能很好的刻畫圖像的紋理信息而被廣泛應(yīng)用,并且出現(xiàn)了許多的變體[10,11]。Chen等人[12]根據(jù)韋伯定理提出了韋伯局部描述算子,該特征雖然對光照和噪聲干擾具有一定的魯棒性,但是其特征提取仍比較復(fù)雜,計(jì)算量較大。

本文在分析上述特征的基礎(chǔ)上,針對Haar特征維度高、冗余度大,而LBP特征又無法刻畫人眼的視覺敏感度,提出了一種基于顯著性的局部二值化Haar特征(Saliency Local Binary Haar,SLBH)提取算法。該特征維度低,對平移、縮放和噪聲具有一定的魯棒性,并能顯現(xiàn)特征的局部顯著性,從而提高了行人檢測的準(zhǔn)確率。本文結(jié)構(gòu)安排如下:SLBH特征將在第2節(jié)詳細(xì)介紹,第3節(jié)給出實(shí)驗(yàn)與結(jié)果分析,最后是總結(jié)。

1 SLBH特征

1.1 顯著性因子

顯著因子是對局部特征顯著性的描述,韋伯定律指出,在發(fā)散的局部特征中,局部顯著性不能由差別閾限的絕對值來進(jìn)行比較,而應(yīng)由其相對值進(jìn)行確定。根據(jù)韋伯定律[12],可以利用式(1)計(jì)算出中心像素點(diǎn)在其鄰域內(nèi)的顯著性因子。其中[Ic]表示中心像素點(diǎn)的灰度值,p為鄰域個(gè)數(shù),[Ii]為對應(yīng)鄰域像素點(diǎn)的灰度值。

[S(Ic)=arctani=0p(Ii-Ic)Ic] (1)

其中,[S(Ic)∈-π2,π2]。 為了方便后續(xù)計(jì)算,本文再通過增加一個(gè)值為[π2]的偏置項(xiàng)將[S(Ic)]值域轉(zhuǎn)換至轉(zhuǎn)換[0,π]。[S(Ic)]是對局部特征顯著性的描述,其值越大表明顯著性越強(qiáng)。

1.2 加權(quán)LBP特征

局部二元模式(LBP)是一種描述圖像局部紋理的算子,因其具有計(jì)算簡單,對光照變化不敏感等優(yōu)點(diǎn)而被廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。LBP特征計(jì)算如式(2)所示,其中[gc]為中心像素點(diǎn)的灰度值,[gi]為[gc]的八個(gè)鄰域像素點(diǎn)灰度值,[s(?)]為閾值比較函數(shù),其定義如式(3)所示。

[LBP(gc)=i=07s(gi-gc)?2i] (2)

[s(x,y)=0,if x-y≤T1,otherwise] (3)

在計(jì)算出整幅圖像的LBP特征值后,根據(jù)式(4)統(tǒng)計(jì)LBP特征直方圖,其中判斷函數(shù)[f(?)]定義如式(5)所示。

[H(k)=x,yf(LBP(x,y),k),k∈[0,K]] (4)

[ f(x,y)=1,if x=y0,otherwise] (5)

LBP特征僅利用了中心像素與其鄰域內(nèi)像素間的差異,而缺乏對物體顯著性的描述。如圖1所示,雖然兩個(gè)矩形區(qū)域具有相同LBP特征值,但是其顯著性因子相差卻很大。根據(jù)韋伯定律,顯著因子越大,其顯著性越強(qiáng),其所描述的信息也就越重要,而LBP特征并不能描述這些顯著性信息。Cao Y等人[11]利用中心像素與鄰域像素差的絕對值之和作為權(quán)值,來增加像素間差異在LBP特征直方圖中的影響,如式(6)所示,其中K為最大的LBP特征值,判斷函數(shù)與式(5)相同,權(quán)值函數(shù)如式(7)所示。

[H(k)=x,yw(x,y)*f(LBP(x,y),k),k∈[0,K]] (6)

[w(gc)=i=07|gi-gc|] (7)

Cao Y等提出的加權(quán)LBP直方圖雖然考慮到了像素鄰域間差異的影響,但是它也沒能很好描述特征的局部顯著性。此外,由于在加權(quán)直方圖統(tǒng)計(jì)過程中不斷累積權(quán)重,使得各維度之間相差較大。受韋伯定理的啟發(fā),本文使用更接近人類視覺差異的顯著性因子作為權(quán)重來統(tǒng)計(jì)加權(quán)LBP直方圖。直方圖統(tǒng)計(jì)函數(shù)如下:

[H(k)=x,yS(x,y)*f(LBP(x,y),k),k∈[0,K]] (8)

1.3 SLBH特征

Viola等人[3]最先提出并將Haar特征應(yīng)用于行人檢測中。但隨著研究的深入,學(xué)者們發(fā)現(xiàn)原始的Haar特征對于檢測靜止的、對稱的物體比較有效,而對于行人這類非剛性物體,則需要在其它方向上增加能夠描述行人運(yùn)動(dòng)特點(diǎn)的特征。Lienhart R等人在Viola提出的標(biāo)準(zhǔn)Haar特征的基礎(chǔ)上進(jìn)行了擴(kuò)展,本文使用了圖2所示的這8種擴(kuò)展的Haar特征。

將上述8種Haar特征構(gòu)成了一個(gè)3*3的矩形區(qū)域,為了方便描述,我們稱Haar特征的黑色或者白色矩形區(qū)域?yàn)橐粋€(gè)cell,而3*3的矩形區(qū)域稱為一個(gè)block。如果對3*3區(qū)域從上到下,順時(shí)針編號,分別表示為[c0],[c1], [c2], [c3], [c4], [c5], [c6],[c7], 中心黑色區(qū)域表示為[cc],如圖3所示。然后按照式(1)進(jìn)行計(jì)算,得到的結(jié)果為局部二值化Haar特征(Local Binary Haar,LBH)。

其中,[I(k,l)]表示圖像[I]在點(diǎn)[(k,l)]處像素值,w表示cell的寬度,h表示cell的高度??紤]到LBP模式缺乏對顯著性描述的缺陷,因此本文利用式(8)來統(tǒng)計(jì)局部二值化Haar特征直方圖,即SLBH特征。該特征計(jì)算步驟如下:

Step 1:將輸入圖像轉(zhuǎn)換到灰度空間。

Step 2:利用積分圖技術(shù)求取每個(gè)cell的像素灰度值之和。

Step 3:將8個(gè)cell按照圖3所示結(jié)構(gòu)組成一個(gè)block。

Step 4:根據(jù)式(9)計(jì)算每個(gè)block內(nèi)的LBH值,根據(jù)式(1)計(jì)算每個(gè)block的顯著性因子。

Step 5:按照式(8)統(tǒng)計(jì)直方圖,即為該圖像的SLBH特征。

與傳統(tǒng)Haar特征相比,SLBH特征增加了顯著性因子計(jì)算,其計(jì)算復(fù)雜度雖高于傳統(tǒng)Haar特征,但該特征在刻畫行人紋理信息時(shí)需要的特征數(shù)量較少,故此特征實(shí)時(shí)性較好。由于引入加權(quán)局部二元模式的思想使SLBH特征擁有傳統(tǒng)的Haar特征無法比擬的光照不變性,可以有效的提高系統(tǒng)的魯棒性,這在下面的試驗(yàn)中可以看到SLBH特征優(yōu)越的檢測效果。

2 實(shí)驗(yàn)與結(jié)果分析

為了驗(yàn)證本文算法的有效性與優(yōu)越性,設(shè)計(jì)了兩組實(shí)驗(yàn)進(jìn)行特征性能評估和檢測性能對比。所有的實(shí)驗(yàn)樣本均采集于INRIA行人樣本庫,其中訓(xùn)練集中正樣本2416幅行人圖像,負(fù)樣本為3070幅,測試集中正樣本1126幅,負(fù)樣本3070幅。圖4為本文算法的實(shí)現(xiàn)流程圖。為了能夠直觀的顯示出各種特征的檢測性能,本文使用檢測率(detection rate, DR)、虛警率(False Positive Rate, FPR)和識別率(recognize rate, RR)以及平均每幅圖像特征提取時(shí)間(Average Extraction Cost, AEC)4種評價(jià)指標(biāo),其計(jì)算公式如式(11)、式(12)和式(13)所示。其中TP表示行人檢測為行人(true positive),F(xiàn)P表示是非行人檢測為行人(false positive),F(xiàn)N表示行人檢測為非行人(false negative)。

2.1特征性能評估

為了測試本文對Haar特征改進(jìn)的性能,實(shí)驗(yàn)選用了Haar、LBH和SLBH特征做對比實(shí)驗(yàn),并且選擇SVM作為分類器。實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如表1所示,從表1中可以發(fā)現(xiàn)本文提出的SLBH特征雖然特征提取時(shí)間略高于其它兩種特征,但是在其它3種評價(jià)指標(biāo)上都優(yōu)于Haar和LBH特征。

2.2 檢測性能對比

本文在相同的實(shí)驗(yàn)條件下選擇PHOG特征[6]、加權(quán)LBP特征[11]、WLD特征[12]、HOG-LBP特征[13]和本文算法進(jìn)行對比實(shí)驗(yàn)。其實(shí)驗(yàn)結(jié)果如表2所示,可以看出,本文提出的SLBH特征的各項(xiàng)評價(jià)指標(biāo)均高于其它方法的實(shí)驗(yàn)效果。圖5是在Detect Human行人樣本測試集上測試的部分實(shí)驗(yàn)結(jié)果圖。

3 總結(jié)

本文針對Haar特征維度高、冗余大以及對光照敏感等不足提出了一種顯著性的局部二值化Haar特征,該特征結(jié)合了視覺顯著性和加權(quán)LBP的思想,能減少Haar特征的維數(shù),并增強(qiáng)了紋理描述能力。通過在INRIA行人樣本庫中實(shí)驗(yàn),結(jié)果表明本文所提方法的檢測率與誤檢率都優(yōu)于其它方法。

參考文獻(xiàn):

[1] Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: An evaluation of the state of the art[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(4): 743-761.

[2] Viola P., Jones M. Robust real-time face detection [J]. International Journal of Computer Vision, 2004, 52(2):137-154.

[3] Viola P, Jones MJ, Snow D. Detecting pedestrians using patterns of motion and appearance [J]. International Journal of Computer Vision, 2005, 63(2):153-161.

[4]Abramson Y., Rabinovich A..Decidability of split equivalence [J].Information and Computation,2002,173(1):15-39.

[5]Pang Yanwei, Yuan Yuan, Li Xuelong, Pan Jing.Efficient HOG human detection [J].Signal Processing,2011.91(4):773-781.

[6]Lazebnik S,Schmid C,Ponce J.Beyond Bags of Features:Spatial Pyramid Matching for Recognizing Natural Scene Categories [C]//Prac of the IEEE Computer Seciety Conference on Computer Vision and Pattern Recognition, 2006:2169-2178.

[7]Lowe D M.. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2):91-110.

[8]Wu Bo, Nevatia Ram.Detection and tracking of multiple, partially occluded humans by Bayesian combination of edgelet based part detectors [J].International Journal of Computer Vision,2007,75(2):247-266

[9]Hu Bin, Wang Shengjin, Ding Xiaoqing.Multi features combination for pedestrian detection [J].Journal of Multimedia,2010,5(1):79-84

[10]Thanh Nguyen D, Ogunbona P O, Li W. A novel shape-based non-redundant local binary pattern descriptor for object detection[J]. Pattern Recognition, 2013,46(5):1485-1500.

[11]Cao Y, Pranata S, Nishimura H. Local Binary Pattern features for pedestrian detection at night/dark environment[C]//18th IEEE International Conference on. IEEE, 2011: 2053-2056.

第5篇:計(jì)算機(jī)視覺范疇范文

【關(guān)鍵詞】智能時(shí)代;云計(jì)算;安全架構(gòu)

一、前言

當(dāng)今世界,新一輪的科技革命和產(chǎn)業(yè)變革正在持續(xù)深入,工業(yè)互聯(lián)網(wǎng)、智能制造、人工智能、大數(shù)據(jù)、物聯(lián)網(wǎng)等領(lǐng)域正在加速布局,“智能時(shí)代”企業(yè)信息系統(tǒng)最顯著的變化是虛擬化、數(shù)字化一切、軟件定義,促使企業(yè)信息化的不斷發(fā)展,公司信息化資產(chǎn)數(shù)量日趨增多、系統(tǒng)的關(guān)聯(lián)性和復(fù)雜度不斷增強(qiáng),使企業(yè)信息安全形勢日益嚴(yán)峻,信息安全防護(hù)工作面臨前所未有的困難和挑戰(zhàn)。為了更好監(jiān)控和保障信息系統(tǒng)運(yùn)行,及時(shí)識別和防范安全風(fēng)險(xiǎn),同時(shí)滿足國家和行業(yè)監(jiān)管要求,保證信息安全管理工作的依法合規(guī),企業(yè)亟需建立一個(gè)全數(shù)據(jù)、集中管理的企業(yè)安全平臺,做到事前預(yù)警、事中監(jiān)控、事后分析以及響應(yīng),全面的提升信息安全管理與防護(hù)水平。

二、智能時(shí)代的變化趨勢

我們正處在一個(gè)變革的時(shí)刻,“智能”是這個(gè)時(shí)代最顯著的標(biāo)志。在今年春天首屆世界智能大會上馬云提出,智能時(shí)代有三個(gè)最主要的要素:互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算;李彥宏也指出,未來30年推動(dòng)社會進(jìn)步的動(dòng)力,就是智能科技的進(jìn)步;浪潮董事長孫丕恕表示,智能從實(shí)現(xiàn)形式上就是要通過物聯(lián)網(wǎng)、互聯(lián)網(wǎng)將企業(yè)生產(chǎn)數(shù)據(jù)、互聯(lián)網(wǎng)數(shù)據(jù)和企業(yè)自身的管理數(shù)據(jù)全部打通,實(shí)現(xiàn)無邊界信息流和大數(shù)據(jù)分析。由此看來,一個(gè)企業(yè)走向智能化首先要完成業(yè)務(wù)在線化和流程服務(wù)軟件化,然后完成應(yīng)用軟件的SaaS(Software-as-a-Service)化,從而助企業(yè)實(shí)現(xiàn)智能生產(chǎn)、智能維護(hù)、智慧服務(wù)。1.安全技術(shù)的變化基于云計(jì)算、虛擬化、大數(shù)據(jù)、智能制造、移動(dòng)辦公的持續(xù)推進(jìn),都是基于企業(yè)信息基礎(chǔ)架構(gòu)所實(shí)施的,開放式計(jì)算環(huán)境和更靈活的支持架構(gòu),要求安全技術(shù)隨之匹配發(fā)展,才能適應(yīng)新環(huán)境,新技術(shù)下的安全需求。中國工程院倪光南院士在《云安全的思考》主題演講中指出,云安全一定會呈現(xiàn)出多維度、多層次、跨領(lǐng)域、多學(xué)科技術(shù)交叉等方面的特征。對于云計(jì)算的安全保護(hù),需要一個(gè)完備體系,從技術(shù)、監(jiān)管、法律三個(gè)層面上,形成可感知、可預(yù)防的智能云安全體系。2.企業(yè)智能架構(gòu)從應(yīng)用架構(gòu)上看,未來的應(yīng)用都是角色化、場景化的,可連接互聯(lián)網(wǎng)資源,全員應(yīng)用,實(shí)現(xiàn)移動(dòng)化和智能化。虛擬化、數(shù)字化一切、軟件定義促使企業(yè)信息架構(gòu)的變革,以業(yè)務(wù)為導(dǎo)向和驅(qū)動(dòng),在企業(yè)管理、集成等方向上提供基礎(chǔ)共性平臺,為企業(yè)快速構(gòu)建和集成應(yīng)用軟件提供基礎(chǔ)支持,從而實(shí)現(xiàn)工程經(jīng)驗(yàn)?zāi)K化、產(chǎn)品實(shí)際協(xié)同化、項(xiàng)目流程一體化結(jié)構(gòu),實(shí)現(xiàn)由統(tǒng)一業(yè)務(wù)層、統(tǒng)一界面構(gòu)架層、應(yīng)用系統(tǒng)層、統(tǒng)一工作臺面、大數(shù)據(jù)分析、云計(jì)算層組成的一種新模式。在企業(yè)IT系統(tǒng)的業(yè)務(wù)基礎(chǔ)機(jī)構(gòu)層面,引入先進(jìn)的統(tǒng)一軟件平臺,為上層應(yīng)用開發(fā)提供統(tǒng)一標(biāo)準(zhǔn),接口和規(guī)范,同時(shí)基于“平臺+組件”的架構(gòu)實(shí)現(xiàn)各類應(yīng)用的組合和復(fù)用,助企業(yè)實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型。3.云架構(gòu)在人工智能一日千里的時(shí)代,云計(jì)算已成為產(chǎn)業(yè)革新的原動(dòng)力、新型管理的主平臺、人工智能的強(qiáng)載體。在新的云時(shí)代,整個(gè)社會都在發(fā)生數(shù)字化的迭代。云成為數(shù)字化最重要的基礎(chǔ)架構(gòu)。騰訊董事局主席兼首席執(zhí)行官馬化騰指出:“用云量將成為一個(gè)重要的經(jīng)濟(jì)指標(biāo),能夠衡量一個(gè)行業(yè)數(shù)字經(jīng)濟(jì)發(fā)展程度?!彼€表示:“傳統(tǒng)企業(yè)的未來就是在云端用人工智能處理大數(shù)據(jù)?!薄霸?AI”是當(dāng)前最主流的方向,其核心包括三項(xiàng)核心能力(計(jì)算機(jī)視覺、智能語音識別、自然語言處理)。在計(jì)算機(jī)視覺領(lǐng)域?qū)崿F(xiàn)開放OCR識別、人臉核身、圖片處理等多項(xiàng)智能云服務(wù);在智能語音識別領(lǐng)域?qū)崿F(xiàn)語音轉(zhuǎn)文字、語音合成、聲紋識別、情緒識別等功能;在自然語言處理領(lǐng)域,以“數(shù)據(jù)+算法+系統(tǒng)”為核心,提供毫秒級響應(yīng)的個(gè)性化服務(wù)。

三、企業(yè)信息安全措施

VMware首席執(zhí)行官帕特•基辛格表示:“抵御安全攻擊,響應(yīng)速度不是核心,而是如何將支離破碎的安全保護(hù)進(jìn)行更有效的整合,實(shí)現(xiàn)安全架構(gòu)的簡化,這才是企業(yè)安全轉(zhuǎn)型的關(guān)鍵。”安全技術(shù)在智能時(shí)代必須跟上發(fā)展的變化,“智慧安全”的理念正在深入,著力點(diǎn)從網(wǎng)絡(luò)系統(tǒng)安全、數(shù)據(jù)安全深入到業(yè)務(wù)應(yīng)用安全等各個(gè)層面,AI防火墻、態(tài)勢感知平臺、云安全產(chǎn)品、企業(yè)移動(dòng)化信息安全管理平臺、智慧眼監(jiān)控雷達(dá)、業(yè)務(wù)應(yīng)用安全審計(jì)平臺成為保護(hù)企業(yè)信息安全的前沿技術(shù)。1.企業(yè)數(shù)據(jù)的安全阿里巴巴董事局主席馬云說:“數(shù)據(jù)是新能源?!彪S著數(shù)據(jù)量的持續(xù)增長,應(yīng)用數(shù)量不斷增加,數(shù)據(jù)將成為社會創(chuàng)新的重要驅(qū)動(dòng)力。隨著“網(wǎng)絡(luò)強(qiáng)國戰(zhàn)略”、“互聯(lián)網(wǎng)+”行動(dòng)計(jì)劃、大數(shù)據(jù)戰(zhàn)略的推進(jìn),網(wǎng)絡(luò)安全風(fēng)險(xiǎn)和威脅也進(jìn)入到企業(yè):非對稱的業(yè)務(wù)流量、定制化的應(yīng)用程序、需要被路由到計(jì)算層之外并達(dá)到數(shù)據(jù)中心周邊的高流量數(shù)據(jù)、跨多個(gè)虛擬化應(yīng)用,以及地理上分散的移動(dòng)應(yīng)用,都造成數(shù)據(jù)泄露的機(jī)會,隨著中央網(wǎng)絡(luò)安全和信息化領(lǐng)導(dǎo)小組的成立,信息安全已上升到國家安全層面。因此數(shù)據(jù)保護(hù)十分重要,最好的選擇是本源的防護(hù),既做到保護(hù)數(shù)據(jù)本源的同時(shí),又能靈活應(yīng)對各種安全環(huán)境的需求。而符合這種要求的安全技術(shù)就是基于專業(yè)的安全分析模型和大數(shù)據(jù)管理工具,可準(zhǔn)確、高效地感知整個(gè)網(wǎng)絡(luò)的安全狀態(tài)以及變化趨勢,通過企業(yè)本地部署安全大數(shù)據(jù)分析平臺,打通云端情報(bào)與本地設(shè)備的聯(lián)動(dòng),形成情報(bào)觸發(fā)預(yù)警,預(yù)警觸發(fā)防護(hù)的閉環(huán)。對外部的攻擊與危害行為可以及時(shí)的發(fā)現(xiàn),并采取相應(yīng)的響應(yīng)措施,保障企業(yè)信息系統(tǒng)安全。2.企業(yè)網(wǎng)絡(luò)安全2016年,在“4.19講話”中再一次強(qiáng)調(diào)網(wǎng)絡(luò)安全建設(shè)的重要性,并提出:“要樹立正確的網(wǎng)絡(luò)安全觀,加快構(gòu)建關(guān)鍵信息基礎(chǔ)設(shè)施安全保障體系,全天候全方位感知網(wǎng)絡(luò)安全態(tài)勢,增強(qiáng)網(wǎng)絡(luò)安全防御能力和威懾能力,要加快網(wǎng)絡(luò)立法進(jìn)程,完善依法監(jiān)管措施,化解網(wǎng)絡(luò)風(fēng)險(xiǎn)。此外根據(jù)網(wǎng)絡(luò)安全法相關(guān)規(guī)定,我們也可以看出,網(wǎng)絡(luò)安全法在原有信息系統(tǒng)安全等級保護(hù)制度的基礎(chǔ)上,創(chuàng)新了網(wǎng)絡(luò)安全等級保護(hù)的工作方法,企業(yè)的信息安全建設(shè)需在原有信息系統(tǒng)安全等級保護(hù)制度建設(shè)的基礎(chǔ)上,將新技術(shù)新應(yīng)用帶來的重要信息系統(tǒng)建設(shè)諸如云計(jì)算、移動(dòng)互聯(lián)、物聯(lián)網(wǎng)、工業(yè)控制、大數(shù)據(jù)等領(lǐng)域的國家關(guān)鍵信息基礎(chǔ)設(shè)施建設(shè)都納入國家安全等級保護(hù)制度進(jìn)行管理,將風(fēng)險(xiǎn)評估、安全監(jiān)測、通報(bào)預(yù)警、應(yīng)急演練、災(zāi)難備份、自主可控等重點(diǎn)措施也納入了國家網(wǎng)絡(luò)安全等級保護(hù)制度的管理范疇。企業(yè)緊跟網(wǎng)絡(luò)技術(shù)的發(fā)展,以“智慧安全2.0戰(zhàn)略”為指導(dǎo),將“智慧安全”的核心從網(wǎng)絡(luò)系統(tǒng)安全、數(shù)據(jù)安全深入到業(yè)務(wù)應(yīng)用安全等各個(gè)層面?,F(xiàn)在已可以采用AI、機(jī)器學(xué)習(xí)、行為分析等技術(shù)手段進(jìn)行動(dòng)態(tài)分析、靜態(tài)分析、異常檢測、深度解析等手段,更有效地防范未知威脅。3.物聯(lián)網(wǎng)安全預(yù)計(jì)到2021年,全球?qū)⒂谐^460億臺設(shè)備,傳感器和執(zhí)行器連接在一起,更廣闊,更強(qiáng)大和更穩(wěn)定的物聯(lián)網(wǎng)時(shí)代即將到來,并且最終將給企業(yè)帶來全新業(yè)務(wù)方式。物聯(lián)網(wǎng)(IoT)為企業(yè)創(chuàng)新提供了廣闊的前景。企業(yè)通過監(jiān)控、分析收集來的數(shù)據(jù)量,來確保業(yè)務(wù)的正常發(fā)展。其中數(shù)據(jù)大都是從傳感器、應(yīng)用、門禁系統(tǒng)、配電單元、UPS、發(fā)電機(jī)和太陽能電池板產(chǎn)生的數(shù)據(jù),但隨著這些應(yīng)用的增長,物聯(lián)網(wǎng)帶給企業(yè)的安全風(fēng)險(xiǎn)也很大。要應(yīng)對物聯(lián)網(wǎng)的安全挑戰(zhàn),企業(yè)應(yīng)從智能設(shè)備的離線安全、入網(wǎng)安全、在線安全等維度進(jìn)行整體安全檢測與防護(hù),在云端接入大數(shù)據(jù)感知威脅和安全態(tài)勢分析平臺,獲取威脅情報(bào);在本地端通過減少威脅“檢測時(shí)間(TTD)”,即減少發(fā)生威脅到發(fā)現(xiàn)威脅的時(shí)間差,縮短檢測時(shí)間,可有效限制攻擊者的操作空間,和最大限度減少損失。①及時(shí)更新基礎(chǔ)設(shè)施和應(yīng)用,讓攻擊者無法利用公開的漏洞;②利用集成防御對抗復(fù)雜性,采取平衡防御與主動(dòng)應(yīng)對的安全控制;③密切監(jiān)控網(wǎng)絡(luò)流量(這在網(wǎng)絡(luò)流量模式可預(yù)測性非常高的IoT環(huán)境中非常重要);④追蹤物聯(lián)網(wǎng)設(shè)備如何接觸網(wǎng)絡(luò)并與其他設(shè)備進(jìn)行交互(例如,如果物聯(lián)網(wǎng)設(shè)備正在掃描其他設(shè)備,則可能是表示惡意活動(dòng)的紅色警報(bào))。

四、結(jié)論

神州控股董事局主席郭為對未來的預(yù)測時(shí)說:“云計(jì)算將成為未來主流IT運(yùn)算模式,大數(shù)據(jù)會成為最重要核心資源;自上而下的創(chuàng)新將是智能時(shí)代推動(dòng)社會進(jìn)步的主流方式,借助云計(jì)算、大數(shù)據(jù)這兩項(xiàng)關(guān)鍵技術(shù)實(shí)現(xiàn)互聯(lián)網(wǎng)化、協(xié)同化和智能化?!敝悄苁俏覀冞@個(gè)時(shí)代的標(biāo)志,對于企業(yè)信息化來說,它的路很長,首先要完成核心業(yè)務(wù)在線化和所有的業(yè)務(wù)流程服務(wù)軟件化,然后完成應(yīng)用軟件的SaaS(Soft-as-a-Service)化,當(dāng)企業(yè)的核心業(yè)務(wù)完全建立在互聯(lián)網(wǎng)上,并有軟件SaaS平臺驅(qū)動(dòng),企業(yè)才能夠向智能化方向演進(jìn)——低成本積累大數(shù)據(jù),并通過數(shù)據(jù)分析進(jìn)行商業(yè)決策,最終向?qū)崟r(shí)數(shù)據(jù)分析、實(shí)時(shí)智能商業(yè)決策演進(jìn)。由此,企業(yè)信息智能化任重道遠(yuǎn),從現(xiàn)在開始制定適當(dāng)?shù)陌踩呗?,以此加快IT新趨勢的適應(yīng)能力,在不斷采用新技術(shù)的過程中建立適合企業(yè)的安全管理系統(tǒng),做到覆蓋企業(yè)安全運(yùn)維的所有場景,監(jiān)視安全威脅,預(yù)測安全風(fēng)險(xiǎn)。

參考文獻(xiàn)

[1]維克多•邁克熱•舍恩伯格.大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革[M].浙江人民出版社.

第6篇:計(jì)算機(jī)視覺范疇范文

關(guān)鍵詞:圖像分割;直方圖;粗糙集;粗糙度;閾值分割

中圖分類號:TP18 文獻(xiàn)標(biāo)識碼:A文章編號:1009-3044(2011)10-2356-02

Image Segmentation Based on Rough Set Theory

LI Ran

(School of Electronic and Communication Engineering, North China Electric Power University, Baoding 071003, China)

Abstract: Image segmentation is an important problem in digital image processing. Threshold segmentation method is a typical image segmentation method, and the choice of thresholds is an important aspect that affects the quality of image segmentation. For improving accuracy of segmentation, rough set theory is applied to determine threshold in this paper. Histogram is defined as the lower approximation of the rough set of image, and the Histon is defined as the upper one. Thus roughness is calculated, and then the effective segmentation threshold can be determined. Experimental results show that the algorithm has high segmentation accuracy compared with classical threshold segmentation method.

Key words: image segmentation; histogram; rough set; roughness; threshold segmentation

在圖像分析和計(jì)算機(jī)視覺中,如何把目標(biāo)物體從圖像中有效分割出來一直是一個(gè)經(jīng)典的難題,它決定圖像的最終分析質(zhì)量和模式識別的判別結(jié)果。圖像分割就是將圖像中有特殊意義的不同區(qū)域分割開來,使這些區(qū)域互不重疊。很多應(yīng)用領(lǐng)域,最終的對象分類質(zhì)量和場景解釋在很大程度上取決于高質(zhì)量的分割輸出[1]。

圖像分割方法的選擇,在很大程度上依賴于特定的成像方式以及成像中的可變因素和不變因素(如噪聲和紋理等),這些都會在很大程度上影響后繼的分割[2]。現(xiàn)今國內(nèi)外常用的圖像分割方法主要包括閾值法[3-6]、區(qū)域生長法[7-8]、邊緣檢測法[9-10]、結(jié)合特定理論工具的分割方法等[11-13]。

粗糙集理論是一種具有不精確、不確定、不完整和不一致信息的全新數(shù)學(xué)工具,它可以從大量的數(shù)據(jù)中分析、推理、挖掘隱含知識及規(guī)律。本文將粗糙集理論中上近似和下近似的概念引入圖像的直方圖中,將粗糙度和直方圖閾值分割法結(jié)合起來,確定最佳分割閾值,最終實(shí)現(xiàn)圖像分割。

1 粗糙集理論的基本思想

粗糙集理論是20世紀(jì)80年代初由波蘭數(shù)學(xué)家Z.Pawlak提出的,是一種用于研究不完整數(shù)據(jù)和不精確知識的表達(dá)、學(xué)習(xí)歸納的數(shù)學(xué)分析理論。粗糙集理論的核心思想是在保持分類能力不變的前提下,通過對知識的簡化,導(dǎo)出問題的決策或分類規(guī)則。

基于粗糙集理論進(jìn)行數(shù)據(jù)分析的全部對象的數(shù)據(jù)集合稱為信息系統(tǒng)(IS),也稱知識表達(dá)系統(tǒng)。一個(gè)信息系統(tǒng)可以用一個(gè)四元組來定義:IS=(U,A,V,f),其中U={x1,x2,…,xn}是對象的非空有限集合,稱為論域;A={a1,a2,…,an}是屬性的非空有限集合;V是屬性A所構(gòu)成的域,即V=∪Va,,Va是屬性a∈A的值域;f:U×A->V是一個(gè)信息函數(shù),U中任一元素取屬性a在Va中有唯一確定值,即a∈A,x∈U,f(x,a) ∈Va。

在粗糙集理論中,主要討論能夠在論域U上形成劃分或覆蓋的知識[14]。通常,在問題求解過程中,處理的是論域U上的一簇劃分。因此,定義論域U及論域U上的一簇等價(jià)關(guān)系S,稱二元組K=(U,S)是關(guān)于論域U的一個(gè)知識庫或近似空間。論域上的等價(jià)關(guān)系代表劃分和知識。這樣,知識庫就表示了論域上由等價(jià)關(guān)系(屬性特征及其有限個(gè)屬性特征的交)導(dǎo)出的各種各樣的知識,即劃分或分類模式,同時(shí)代表了對論域的分類能力,且隱含著知識庫中概念之間存在的各種關(guān)系。

粗糙集理論中還定義了不可分辨關(guān)系的概念。U/S表示論域U中的對象根據(jù)關(guān)系S構(gòu)成的所有的等價(jià)類簇,若PS,且P≠,則∩P(P中的全部等價(jià)關(guān)系的交集)也是論域U一種等價(jià)關(guān)系,稱為P上的不可分辨關(guān)系[15],記為:

不可分辨關(guān)系是對象P由屬性集表達(dá)時(shí)在論域U中的等價(jià)關(guān)系。不可分辨關(guān)系是粗糙集理論的基石,它揭示出論域知識的顆粒狀結(jié)構(gòu)。

2 直方圖分割法

基于直方圖的圖像分割方法屬于閾值分割法的一種。目標(biāo)區(qū)域和背景區(qū)域?qū)Ρ茸銐虼蟮膱D像,借助直方圖可方便地確定物體圖像和背景的灰度突變位置,并把此處確定為閾值來進(jìn)行圖像分割。

圖像的灰度直方圖反映了一幅圖像中各灰度級像素出現(xiàn)的頻率,它能反映出圖像的灰度分布情況。對于目標(biāo)區(qū)域和背景區(qū)域有較大對比度的圖像,其直方圖會呈現(xiàn)明顯的雙峰結(jié)構(gòu),根據(jù)直方圖的這一特點(diǎn),可以方便地找到判決門限。但是這種經(jīng)典的直方圖閾值分割法只適用于目標(biāo)物體有明顯的灰度特征并且背景簡單的圖像分割,對于目標(biāo)和背景沒有明顯灰度差異的圖像則不能實(shí)現(xiàn)完美的分割。

3 基于粗糙集理論的圖像分割方法

3.1 粗糙度基本概念

這里特別說明一下粗糙度的概念。給定知識庫K=(U,S),則XU和論域U上的一個(gè)等價(jià)關(guān)系R∈IND(K),定義子集(概念或信息粒)X關(guān)于知識R的下近似和上近似分別為式(1)和式(2):

(1)

(2)

等價(jià)關(guān)系R定義的集合X的近似精度和粗糙度分別為式(3)和式(4):

(3)

精度αR(X)反映了在知識R下對于集合X表達(dá)的范疇了解的程度。粗糙度恰恰相反,它反映了在知識R下對于集合X表達(dá)的范疇了解的不完全程度。顯然0≤αR(X)

3.2分割算法及其步驟

圖像的直方圖可以由粗糙集理論中近似空間的概念映射。設(shè)論域 為圖像的灰度直方圖,則知識庫K=(U,S)為圖像直方圖的近似空間。圖像的直方圖根據(jù)像素的灰度值把像素劃分為很多子集,每個(gè)像素被明確地歸為某個(gè)子集中,因此被看作下近似。關(guān)于上近似的確定可以引入一個(gè)Histon直方圖[16],它考慮了各像素和周圍像素顏色間的近似關(guān)系。由下近似和上近似可根據(jù)式(4)確定粗糙度為:

(5)

式(5)中hi(g)表示圖像基本直方圖函數(shù),Hi(g)為圖像的Histon直方圖函數(shù),g為灰度值。當(dāng)Hi(g)>>hi(g)時(shí),ρi(g)接近于1,此時(shí)灰度為g的像素點(diǎn)大部分位于像素值變化比較小的區(qū)域,即圖像的分割區(qū)域塊內(nèi)部;當(dāng)Hi(g)

根據(jù)上面的分析,分割算法步驟設(shè)計(jì)如下:1) 由基本直方圖求取下近似;2) 根據(jù)Histon直方圖求取上近似;3) 求取粗糙度;4) 依據(jù)粗糙度選取最佳分割閾值。

4 仿真結(jié)果

選取256×256的cameraman圖進(jìn)行分割實(shí)驗(yàn)。圖1(a)為原始圖像,圖1(b)為基本直方圖分割法得到的分割結(jié)果,圖1(c)為依據(jù)粗糙度選取最佳閾值的分割結(jié)果。由圖1(c)可以看出,選用本文給出的分割方法相對于基本直方圖分割法目標(biāo)區(qū)域的提取更為完整,背景去除更為徹底。

5 結(jié)論

本文將粗糙集理論引入傳統(tǒng)的直方圖閾值圖像分割法,提出了一種高效的圖像分割方法。該方法利用粗糙集理論中的近似空間概念,將基本直方圖和Histon直方圖分別歸為下近似和上近似,由此計(jì)算出粗糙度,來選取最佳的分割閾值,提高了區(qū)域劃分的準(zhǔn)確度。實(shí)驗(yàn)結(jié)果表明,基于粗糙度選取閾值的分割方法對于目標(biāo)和背景沒有明顯差異并且背景復(fù)雜的圖像會得到較好的分割結(jié)果。

參考文獻(xiàn):

[1] Lin Kai-yan, Wu Jun-hui, Xu Li-hong. A survey on color image segmentation techniques[J].Journal of Image and Graphics,2005,10(1):1-10.

[2] 何俊,葛紅,王玉峰.圖像分割算法研究綜述[J].計(jì)算機(jī)工程與科學(xué),2009,31(12):58-61.

[3] 任明武,楊靜宇,孫涵.一種基于邊緣模式的直方圖構(gòu)造新方法[J].計(jì)算機(jī)研究與發(fā)展,2001,38(8):972-976.

[4] 薛景浩,章毓晉,林行剛.基于最大類間后驗(yàn)交叉熵的閾值化分割算法[J].中國圖象圖形學(xué)報(bào),1999,4(2):110-114.

[5] 付忠良.基于圖像差距度量的閾值選取方法[J].計(jì)算機(jī)研究與發(fā)展,2001,38(5):563-567.

[6] Otsu N.A Threshold Selection Method from Gray Level His-togram[J].IEEE Trans on System Man and Cybernetics,1979,9(1):62-66.

[7] Pohle R, TENnies K D. A New Approach for Model-Based Adaptive Region Growing in Medical Image Analysis [C].Proc of the 9th Int'1 Conf on Computer Analysis and Patterns,2001:238-246.

[8] 王楠,黃養(yǎng)成.一種改進(jìn)的彩色圖像區(qū)域分割和邊緣提取算法[J].裝備指揮技術(shù)學(xué)院學(xué)報(bào),1999,10(4):106-110.

[9] 應(yīng)駿,葉秀清,顧偉康.一個(gè)基于知識的邊沿提取算法[J].中國圖象圖形學(xué)報(bào),1999,4(3):239-242.

[10] 王宇生,卜佳俊,陳純.一種基于積分變換的邊緣檢測算法[J].中國圖象圖形學(xué)報(bào),2002,7(2):145-159.

[11] KIM Jinsang, CHEN Tom. Multiple Feature Clustering for Image Sequence Segmentation[J].Pattern Recognition Letters,2001,(22):1207-1217.

[12] 陳燕新,戚飛虎.基于競爭Hopfield網(wǎng)絡(luò)的自動(dòng)聚類圖像分割方法[J].模式識別與人工智能,1998,11(2):215-221.

[13] Chen D,Sun Y. A Self-Learning Segmentation Framework The Taguchi Approach[J].Comput Med Imaging Graph,2000,24 (5):283-296.

[14] 苗奪謙,李道國.粗糙集理論、算法與應(yīng)用[M].北京:清華大學(xué)出版社,2008.

第7篇:計(jì)算機(jī)視覺范疇范文

人工智能如今已是科技行業(yè)中“閃耀的新星”。

我們不禁追問:

人工智能的前沿問題到底是什么?

眾多科技公司對“人工智能”的厚愛是趕時(shí)髦還是真較量?

在概念被炒得火熱的同時(shí),

人工智能的實(shí)際應(yīng)用和有效價(jià)值又表現(xiàn)如何?

5月23日-27日,圍棋界的人機(jī)大戰(zhàn)在烏鎮(zhèn)上演。柯潔與AlphaGo三番棋大戰(zhàn)之后,人類又組團(tuán)群雄再戰(zhàn)AlphaGo。人工智能再次成為這些天的新聞焦點(diǎn)。

人工智能如今已是科技行業(yè)中“閃耀的新星”。IDC的一份報(bào)告顯示,認(rèn)知計(jì)算和人工智能解決方案市場在2016年到2020年的年復(fù)合增長率將達(dá)到55.1%,認(rèn)知計(jì)算和人工智能在各行各業(yè)中的廣泛應(yīng)用將推動(dòng)其全球收入從2016年的近80億美元增加到2020年的470多億美元。

Gartner副總裁兼資深研究員大衛(wèi)?卡利(David Cearley)在2017年重大技術(shù)趨勢預(yù)測會上表示:“應(yīng)用人工智能和高級機(jī)器學(xué)習(xí)實(shí)現(xiàn)了一系列的智能應(yīng)用,包括物理設(shè)備(機(jī)器人、自動(dòng)駕駛汽車、消費(fèi)電子產(chǎn)品)、應(yīng)用程序和服務(wù)(虛擬個(gè)人助理、智能顧問)?!?/p>

卡利說,這些應(yīng)用將以不同于以往的智能應(yīng)用程序和智能產(chǎn)品的形式呈現(xiàn)出來,并為各種各樣的網(wǎng)絡(luò)設(shè)備、現(xiàn)有軟件和服務(wù)解決方案提供嵌入式的智能。

Gartner執(zhí)行副總裁、研究主管兼資深研究員達(dá)爾?普拉默(Daryl Plummer)預(yù)測,到2020年,更智能的算法將會讓人工智能改變?nèi)?0多億工作者的狀態(tài)。

在Gartner的2017年十大重大技術(shù)趨勢預(yù)測中,人工智能相關(guān)技術(shù)占據(jù)了前三名的位置,分別是:人工智能和高級機(jī)器學(xué)習(xí)、智能應(yīng)用、智能產(chǎn)品。

第一,人工智能和高級機(jī)器學(xué)習(xí)。人工智能和高級機(jī)器學(xué)習(xí)由很多技術(shù)(比如深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、自然語言處理)組成。Gartner認(rèn)為,更先進(jìn)的技術(shù)將超越基于規(guī)則的傳統(tǒng)算法,創(chuàng)造能夠理解、學(xué)習(xí)、預(yù)測、適應(yīng)甚至有望自主運(yùn)作的系統(tǒng),從而讓智能機(jī)器顯得更加“智能”。

第二,智能應(yīng)用。像虛擬個(gè)人助理這樣的智能應(yīng)用程序可以發(fā)揮人類助理的某些職能,讓人們的日常工作變得更加容易,提高用戶工作效率。Gartner認(rèn)為,這些智能應(yīng)用程序有潛力改變現(xiàn)在人們的工作性質(zhì)和職場結(jié)構(gòu)?!拔磥硎?,幾乎所有的應(yīng)用程序、服務(wù)都將包含某種程度的人工智能。人工智能和機(jī)器學(xué)習(xí)在應(yīng)用程序和服務(wù)方面的應(yīng)用將不斷發(fā)展壯大,這將成為一個(gè)長期的趨勢?!笨ɡe了一個(gè)麥當(dāng)勞的案例:麥當(dāng)勞生產(chǎn)漢堡,智能應(yīng)用每分鐘通過照片分析超過1000個(gè)面包來檢查其顏色、形態(tài)和芝麻分布狀況,從而不斷自動(dòng)調(diào)整烤箱的溫度和烘烤時(shí)間,可以大幅減少人工成本,并保證高質(zhì)量。

第三,智能產(chǎn)品。智能產(chǎn)品是指超出了剛性編程模型范疇的物理實(shí)體,通過應(yīng)用人工智能和機(jī)器學(xué)習(xí)來實(shí)現(xiàn)高級行為,并與周圍環(huán)境和人類更加自然地交互。

目前,日本長崎的Henn-ne賓館已經(jīng)開始使用10臺類人機(jī)器人進(jìn)行迎賓服務(wù),代替了原來預(yù)訂柜臺的所有服務(wù)員。隨著無人機(jī)、無人駕駛汽車和智能家電等智能產(chǎn)品的不斷普及,Gartner預(yù)計(jì)各自為政的智能產(chǎn)品將轉(zhuǎn)變?yōu)橄嗷f(xié)作的智能產(chǎn)品。

數(shù)據(jù)經(jīng)濟(jì)時(shí)代下,人工智能和物聯(lián)網(wǎng)等新技術(shù)正在成為全球經(jīng)濟(jì)發(fā)展的新動(dòng)力。人工智能的廣泛應(yīng)用將會作為一種新的常態(tài),推動(dòng)行業(yè)企業(yè)轉(zhuǎn)型,改變?nèi)藗兊纳罟ぷ鞣绞?。隨著“加快人工智能等技術(shù)研發(fā)和轉(zhuǎn)化”今年首次被寫入政府工作報(bào)告,商業(yè)人工智能將在擁有龐大數(shù)據(jù)資源的中國市場迎來前所未有的發(fā)展機(jī)遇。

當(dāng)今世界上各大科技公司均將投資目光投向人工智能的未來發(fā)展上,并且在可預(yù)知的未來一段時(shí)間內(nèi),他們紛紛計(jì)劃在該領(lǐng)域發(fā)力。

那么,我們不禁追問:人工智能的前沿問題到底是什么?這么多科技公司對“人工智能”的厚愛是趕時(shí)髦還是真較量?在概念被炒得火熱的同r,人工智能的實(shí)際應(yīng)用和有效價(jià)值又表現(xiàn)如何?

前沿領(lǐng)域篇 人工智能研究的前沿是什么

史蒂芬?霍金教授在2017GMIC 全球移動(dòng)互聯(lián)網(wǎng)大會上的視頻演講中對于人工智能的前言研究領(lǐng)域如此表述。在過去的20 年里,人工智能一直專注于圍繞建設(shè)智能所產(chǎn)生的問題,也就是在特定環(huán)境下可以感知并行動(dòng)的各種系統(tǒng)。在這種情況下,智能是一個(gè)與統(tǒng)計(jì)學(xué)和經(jīng)濟(jì)學(xué)相關(guān)的理性概念。通俗地講, 這是一種做出好的決定、計(jì)劃和推論的能力。基于這些工作,大量的整合和交叉孕育被應(yīng)用在人工智能、機(jī)器學(xué)習(xí)、統(tǒng)計(jì)學(xué)、控制論、神經(jīng)科學(xué)以及其它領(lǐng)域。共享理論框架的建立,結(jié)合數(shù)據(jù)的供應(yīng)和處理能力,在各種細(xì)分的領(lǐng)域取得了顯著的成功。例如語音識別、圖像分類、自動(dòng)駕駛、機(jī)器翻譯、步態(tài)運(yùn)動(dòng)和問答系統(tǒng)。

他說,現(xiàn)在,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長期來討論。一些短期的擔(dān)憂在無人駕駛方面,從民用無人機(jī)到自主駕駛汽車。比如說,在緊急情況下, 一輛無人駕駛汽車不得不在小風(fēng)險(xiǎn)的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔(dān)憂在致命性智能自主武器。它們是否該被禁止?如果是, 那么“自主” 該如何精確定義。如果不是, 任何使用不當(dāng)和故障的過失應(yīng)該如何問責(zé)。還有另外一些擔(dān)憂,由人工智能逐漸可以解讀大量監(jiān)控?cái)?shù)據(jù)引起的隱私和擔(dān)憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟(jì)影響。

長期擔(dān)憂主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),隨著不遵循人類意愿行事的超級智能的崛起,那個(gè)強(qiáng)大的系統(tǒng)威脅到人類。這樣錯(cuò)位的結(jié)果是否有可能?如果是,這些情況是如何出現(xiàn)的?我們應(yīng)該投入什么樣的研究,以便更好地理解和解決危險(xiǎn)的超級智能崛起的可能性,或智能爆發(fā)的出現(xiàn)?

有人說,腦科學(xué)和人工智能迄今為止還是兩門平行的學(xué)科,人工智能對人類腦科學(xué)研究暫時(shí)沒有任何實(shí)質(zhì)性的幫助。反觀腦科學(xué)卻對人工智能的深度學(xué)習(xí)方面提供了不少幫助, 比如人工智能借用神經(jīng)科學(xué)里的視覺工作機(jī)制理論,使得人工智能有了今天的發(fā)展。但實(shí)際上,至今為止, 人工智能也只是用了腦科學(xué)其中的一個(gè)理論而已。

但卡內(nèi)基?梅隆大學(xué)計(jì)算機(jī)科學(xué)學(xué)院機(jī)器學(xué)習(xí)系主任Tom Mitchellt不這么認(rèn)為。他在GMIC2017上的演講中提到,下圍棋、下象棋,人工智能在這一領(lǐng)域突破非???,背后主要是依靠深層次的機(jī)器學(xué)習(xí)。

另外在腦科學(xué)方面的發(fā)展也非常迅猛。在過去十幾年的時(shí)間里,有很多先進(jìn)的技術(shù)和設(shè)備,使得我們可以采用無創(chuàng)或者微創(chuàng)的方法進(jìn)入到人的大腦,進(jìn)行毫米級的觀察,而且在毫秒內(nèi)就可以對幾千張影像進(jìn)行分析,觀察人腦的活性。

此外,動(dòng)物大腦的研究更加令人歡心鼓舞,通過基因方面的研究,在基因上進(jìn)行相應(yīng)的工程,對老鼠和其他動(dòng)物相應(yīng)的神經(jīng)元進(jìn)行修飾、改變,這樣可以更好地對人的神經(jīng)活動(dòng)進(jìn)行一些管理和控制。無論是人工智能還是腦科學(xué),都取得了令人矚目的巨大進(jìn)展?,F(xiàn)在人的腦科學(xué)和人工智能方面到了可以有更多交集的好時(shí)機(jī),我們應(yīng)該在人工智能和腦科學(xué)之間搭建更多的橋梁。

而天風(fēng)證券海外首席分析師何翩翩(美國麻省理工學(xué)院電機(jī)工程學(xué)士、人工智能碩士、MBA三學(xué)位獲得者)在GMIC 全球移動(dòng)互聯(lián)網(wǎng)大會上分享關(guān)于人工智能未來發(fā)展趨勢的報(bào)告時(shí)表示,目前, 國內(nèi)外人工智能的討論范疇一直都圍繞著五個(gè)點(diǎn):強(qiáng)度、能力、廣度、監(jiān)督和自主性。通俗地講可以概括為:機(jī)器訓(xùn)練智能化的程度;用來解決什么問題;特定性向通用性的延伸;監(jiān)督和無監(jiān)督;人工智能是助手還是主角。

她介紹了MIT關(guān)于人工智能的五大趨勢預(yù)測。首先,最先出現(xiàn)的兩個(gè)趨勢應(yīng)該是正向強(qiáng)化學(xué)習(xí)和對抗性神經(jīng)網(wǎng)絡(luò)。AlphaGo 可以說是深度強(qiáng)化學(xué)習(xí)技術(shù)的一個(gè)里程碑。GAN (生成對抗網(wǎng)絡(luò))很有可能會是在無監(jiān)督學(xué)習(xí)還沒能普及之前讓計(jì)算機(jī)變得更加智能的關(guān)鍵所在。其次是語言學(xué)習(xí)。語音識別和語音接口,在技術(shù)和應(yīng)用場景方面已經(jīng)算是AI 里面較為成熟的,計(jì)算機(jī)通過語言與我們交流和互動(dòng),理解語言的上下文含義,將使AI 系統(tǒng)獲得全方位的實(shí)用性提升,這也是AI步入夏天的第一步。

第四個(gè)趨勢是,2017 年中國開始成為人工智能主要參與者。BAT 的布局,加上國內(nèi)投資者對于AI 創(chuàng)業(yè)公司的投資熱情高漲。政府方面也在積極推動(dòng)政策扶持,預(yù)計(jì)在2018 年前投資約150 億美元。但我們也發(fā)現(xiàn)關(guān)于AI 的夸張報(bào)道鋪天蓋地,對AI 的炒作也達(dá)到了令業(yè)界人士不安的程度。我們認(rèn)為這樣對AI 可能會造成揠苗助長的負(fù)面效果,繼而導(dǎo)致創(chuàng)業(yè)公司因估值過高而步向失敗以及投資枯竭的情況。

第五個(gè)趨勢就是面對炒作我們應(yīng)該深呼吸一口氣,頭腦時(shí)刻保持清醒,理智地去看待AI 行業(yè)的下一步發(fā)展,踏踏實(shí)實(shí)地去做好AI 應(yīng)用的研發(fā)工作。

百家爭鳴篇 廠商厚愛AI 是趕時(shí)髦還是真較量

谷歌

谷歌早在2011年就成立了AI部門。2015年8月,谷歌宣布架構(gòu)重組,設(shè)立母公司Alphabet,把谷歌搜索里提煉出來的人工智能做成谷歌大腦,然后應(yīng)用到各領(lǐng)域。

今年5月,谷歌揭示了人工智能發(fā)展的一種主要新方法,它被稱為“自動(dòng)機(jī)器學(xué)習(xí)(AutoML)”,它允許人工智能成為另一個(gè)人的架構(gòu)師,并在無需人工工程師輸入的情況下進(jìn)行自我創(chuàng)造。

AutoML項(xiàng)目專注于深度學(xué)習(xí),一種涉及到通過神經(jīng)網(wǎng)絡(luò)層傳遞數(shù)據(jù)的技術(shù)。創(chuàng)建這些層是很復(fù)雜的,因此谷歌的想法是創(chuàng)造能夠自我創(chuàng)造的人工智能。

谷歌的這個(gè)想法,就是讓現(xiàn)有的人工智能創(chuàng)建自己的代碼層,而事實(shí)證明,它比它的人類技術(shù)人員更快、更有效地完成了它的工作。

NVIDIA

在AI世界里,NVIDIA擁有的GPU技術(shù)一直占據(jù)中心地位。從2016年起,NVIDIA開始為數(shù)據(jù)中心和自動(dòng)駕駛技術(shù)提供圖形處理器,成為提振去年股價(jià)的中心動(dòng)力,而這兩項(xiàng)業(yè)務(wù)的發(fā)展也是蒸蒸日上。根據(jù)其最近公開的財(cái)報(bào),第一財(cái)季的數(shù)據(jù)中心業(yè)務(wù)收入翻倍至4.09億美元,遠(yuǎn)超過預(yù)期的3.182億美元。汽車業(yè)務(wù)收入增長24%至1.4億美元,好于預(yù)期的1.32億美元。

NVIDIA創(chuàng)始人兼CEO黃仁勛在本月初的2017 GPU技術(shù)大會上宣布,將與日本汽車制造商豐田合作,為其提供人工智能硬件及軟件技術(shù),致力于在未來幾年內(nèi)提升自動(dòng)駕駛系統(tǒng)的性能并推進(jìn)商業(yè)化進(jìn)程。

IBM

日前,以“天工開物?人機(jī)同行”為主題的2017 IBM論壇在北京召開。會上IBM了全面升級的加強(qiáng)版合作伙伴計(jì)劃(PartnerWorld計(jì)劃),以期幫助合作伙伴在云計(jì)算、認(rèn)知、大數(shù)據(jù)、安全等高增長領(lǐng)域建立更強(qiáng)大的專業(yè)知識和新技能,在認(rèn)知時(shí)代打造企業(yè)核心競爭力、推動(dòng)業(yè)務(wù)高速增長以及提升最終客戶的滿意度。

IBM大中華區(qū)董事長陳黎明認(rèn)為,Watson是IBM在人工智能領(lǐng)域60年集大成者。IBM在人工智能這個(gè)領(lǐng)域的尖端技術(shù)集中體現(xiàn)到了Watson這套系統(tǒng)上面去,當(dāng)然IBM的能力也在不斷的研發(fā)、不斷拓展當(dāng)中,它的能力一定會變得越來越強(qiáng)。目前Watson 所有具備的URLI四大能力是: Watson能夠理解、推理、學(xué)習(xí)并通過自然語言與人類進(jìn)行交互。它已經(jīng)超越了語言和語音的范疇,深入到視覺、情緒和發(fā)現(xiàn)領(lǐng)域,其中情緒和發(fā)現(xiàn)是Watson所特有的。

OpenAI

OpenAI 是一家非營利性機(jī)構(gòu),由特斯拉CEO 馬斯克聯(lián)合多個(gè)硅谷名人成立,馬斯克也時(shí)常發(fā)出人工智能,如開發(fā)人工智能即召喚邪惡,甚至表示未來人類將會成為人工智能的寵物,以及人機(jī)結(jié)合,人類與人工智能并存,或者可以理解為“半機(jī)械人”。

在2015 年12 月,馬斯克及多位硅谷大亨成立了OpenAI 機(jī)構(gòu),開始了他的瘋狂人工智能計(jì)劃,并籌得了10 億美元的資金來推動(dòng)人工智能健康有序發(fā)展。他所研究的人工智能技術(shù)成果開源,分享給想要使用的每一個(gè)人。要知道推動(dòng)人工智能發(fā)展的關(guān)鍵因素是人才和數(shù)據(jù),OpenAI 擁有龐大資金后,首先爭奪人工智能人才,從谷歌等公司直接挖來頂尖人工智能研究人員,Google2Brain 團(tuán)隊(duì)的前研究員Ilya2 Sutskever 擔(dān)任研究總監(jiān)。與谷歌、微軟等相比,OpenAI人工智能隊(duì)伍仍然十分弱小。OpenAI 近日一項(xiàng)實(shí)驗(yàn)具有里程碑的意義,基于全新算法,人類在虛擬現(xiàn)實(shí)環(huán)境中演示一遍后,機(jī)器人就能模仿執(zhí)行相同的任務(wù)。盡管任務(wù)相對比較簡單,但對未來發(fā)展奠定基礎(chǔ),前景廣闊。

百度

百度是我國最早在人工智能領(lǐng)域布局的公司。2013 年年初,李彥宏就提出設(shè)立深度學(xué)習(xí)研究院;當(dāng)年4月,百度設(shè)立了硅谷人工智能實(shí)驗(yàn)室。之后,人工智能就漸漸成為百度的戰(zhàn)略發(fā)展方向,到如今,百度在人工智能的投入與布局已經(jīng)初現(xiàn)成果。2016 年6 月,《麻省理工科技評論》評選的“全球最聰明的50 家公司”,百度成功入選; 2016 年11月, 百度大腦入選15 項(xiàng)世界互聯(lián)網(wǎng)領(lǐng)先科技成果。除百度大腦外,百度在人工智能領(lǐng)域的布局還包括:無人車駕駛、度秘、百度AR 和百度醫(yī)療大腦。

阿里巴巴

依托阿里云和電商大數(shù)據(jù), 阿里巴巴也在人工智能領(lǐng)域逐漸發(fā)力。2016 年8 月初, 在云棲大會北京峰會上,阿里云正式推出人工智能ET。ET 目前已具備智能語音交互、圖像視頻識別、交通預(yù)測、情感分析等技能。此外,阿里還有“電商大腦” 和“阿里小蜜”。

騰訊

騰訊相對較晚,2016 年9 月末,騰訊AI 實(shí)驗(yàn)室成立,專注于人工智能的基礎(chǔ)研究及應(yīng)用探索。目前, 該實(shí)驗(yàn)室已經(jīng)有超過30 位頂尖科學(xué)家入職,其中超過90%擁有博士學(xué)歷。下一步,將圍繞內(nèi)容、社交、游戲三個(gè)領(lǐng)域的應(yīng)用場景,專注機(jī)器學(xué)習(xí)、自然語言處理、語音識別和和計(jì)算機(jī)視覺四個(gè)方面的基礎(chǔ)研究。

聯(lián)想

2017 年4 月中旬,聯(lián)想集團(tuán)董事長楊元慶對外宣布,未來4 年,聯(lián)想集團(tuán)將在人工智能、物聯(lián)網(wǎng)和大數(shù)據(jù)方面的投資超過12 億美元(約82 億元人民幣)。至2021 年3 月份,聯(lián)想集團(tuán)每年研發(fā)開支將到達(dá)15 億美元左右,且上述款項(xiàng)將占總研發(fā)預(yù)算的20%以上。

同BAT 相比,聯(lián)想在人工智能領(lǐng)域的探索起步較晚。但未來,每年將有15 億美元的研發(fā)資金用于三個(gè)技術(shù)方向的研究:第一, 將AR作為未來的顯示和應(yīng)用平臺;第二,對話式的人機(jī)交互;第三,針對后臺設(shè)備的數(shù)據(jù)中心技術(shù)平臺。據(jù)悉,其在智能家居、智能辦公室、智能醫(yī)療及其他領(lǐng)域已經(jīng)開始有所動(dòng)作,最終聯(lián)想能否殺入人工智能排位賽的前列, 讓我們拭目以待。

美團(tuán)云

近日,美團(tuán)云推出高性能GPU 云主機(jī),標(biāo)志著美團(tuán)云正式進(jìn)軍AI 領(lǐng)域,開啟云端AI 戰(zhàn)略。

美團(tuán)云高級研發(fā)總監(jiān)王昕溥向《中國信息化周報(bào)》記者介紹,美團(tuán)云打造的人工智能版圖主要包含三大類產(chǎn)品:主機(jī)類、平臺類和服務(wù)類。主機(jī)類產(chǎn)品中,除已可申使用的高性能GPU 云主機(jī)外,還將上線FPGA 云主機(jī)服務(wù)。FPGA 的單位功耗性能是GPU 的10 倍以上,由多個(gè)FPGA 組成的集群能達(dá)到GPU 的圖像處理能力并保持低功耗的特點(diǎn)。英特爾預(yù)計(jì),到2020 年,將有1/3 的云數(shù)據(jù)中心節(jié)點(diǎn)采用FPGA 技術(shù)。平臺類產(chǎn)品方面,美團(tuán)云還將于7 月正式開放深度學(xué)習(xí)平臺,輸出美團(tuán)云AI 能力,為用戶提供TensorFlow 的靈活、高擴(kuò)展性深度學(xué)習(xí)框架。美團(tuán)云深度學(xué)習(xí)平臺可以讓工程師擺脫底層的繁瑣細(xì)節(jié)及資源約束,實(shí)現(xiàn)一站式開發(fā)、測試、部署。在上層服務(wù)類產(chǎn)品中,美團(tuán)云即將上線人臉識別、OCR 文字識別、圖片識別、語音識別、智能客服、自然語言處理、機(jī)器翻譯等與人們生活場景密切相關(guān)的AI 服務(wù),讓人類生活更加智能化。

實(shí)際應(yīng)用篇 最接地氣的AI應(yīng)用有哪些

說到人工智能(AI),目前被炒得最熱的似乎都是天上飛的技術(shù),比如無人駕駛、AlphaGO 對戰(zhàn)下圍棋, 而實(shí)實(shí)在在落地到應(yīng)用生活層面的人工智能卻并不被關(guān)注。這不禁讓市場感嘆,2017 年的人工智能虛火上升, 不接地氣。

云知聲董事長/CTO 梁家恩就曾在4月舉辦的硬蛋AI+ 產(chǎn)業(yè)峰會演講中表示,現(xiàn)在絕大多數(shù)的AI 產(chǎn)品都更像是在炫耀技術(shù),哪天看不到技術(shù)的痕跡了,才可能是達(dá)到了一個(gè)使用的階段,并最終滲透到智慧生活、智慧城市、智慧制造等領(lǐng)域。其中智慧生活是面向普通的用戶,智能城市是讓資源如何變得更加的優(yōu)化,智能制造是軟件實(shí)現(xiàn)個(gè)性化。

可能,生活中的智能家居是最接地氣的AI應(yīng)用。

隨著物聯(lián)網(wǎng)時(shí)代的來臨,智能生活將成為大多數(shù)人的生活常態(tài)。而老百姓日常生活所離不開的家居用品則可能是人工智能這項(xiàng)飄在云端的技術(shù)中最接地氣和最容易落地的產(chǎn)業(yè),而智能家居落地后會大大改變?nèi)藗兊纳罘绞健?/p>

數(shù)據(jù)顯示,2017 年全球智能語音產(chǎn)業(yè)規(guī)模將達(dá)112.4 億美元,復(fù)合年均增長率達(dá)35.1%,將成為未來智能硬件爆發(fā)的據(jù)點(diǎn)之一。2012 年至2020年,中國智能家居市場年增長率將達(dá)到25%左右,2020 年市場規(guī)模將達(dá)到3576 億元。而國外,包括蘋果在內(nèi)的科技巨頭也在布局HomeKit 的智能家居新模式。

IBM Watson Health已經(jīng)開始證明自己在幫助處理期刊文章、開展最新醫(yī)學(xué)研究以及隨后充當(dāng)診斷助理方面的寶貴價(jià)值?,F(xiàn)在,IBM正在訓(xùn)練Watson讀取醫(yī)學(xué)影像,以幫助放射科醫(yī)師加速開展工作并減少錯(cuò)誤。

無人機(jī)是現(xiàn)在最火的智能設(shè)備,除了民用航拍,近幾年專家們還開始利用它們回傳的視頻和圖片來進(jìn)行大型工程的結(jié)構(gòu)檢查。人們將現(xiàn)有的機(jī)器視覺AI技術(shù)加入無人機(jī),它就可自行對設(shè)備進(jìn)行檢視,大大縮短設(shè)備維護(hù)的時(shí)間。

Facebook 表示未來將使1000多架太陽能激光無人機(jī)為全球 50 億人提供上網(wǎng)服務(wù),用激光從 6 萬至 9 萬英尺(約合 1.8 萬至 2.7 萬米)的高空發(fā)送高速數(shù)據(jù)供全球最偏遠(yuǎn)的地區(qū)上網(wǎng)。據(jù)悉,該公司將使用一種名為 Aquila 的無人機(jī)來完成該項(xiàng)目,這種 V 形無人機(jī)的翼展與波音767相仿,重量卻不及一輛小轎車。

F8 大會期間,F(xiàn)acebook 還展示了這種無人機(jī)的最新設(shè)計(jì),它可以一次性在高空停留 3 個(gè)月,這些無人機(jī)有望在今年夏天升空測試――聽起來真的很酷。

如今,人工智能雖在整個(gè)行業(yè)內(nèi)掀起火熱的浪潮,但是如何將研究進(jìn)程轉(zhuǎn)換為實(shí)際的有效價(jià)值才是研究的最終方向。

相關(guān)鏈接

第8篇:計(jì)算機(jī)視覺范疇范文

[關(guān)鍵詞]增強(qiáng)現(xiàn)實(shí);移動(dòng)學(xué)習(xí);學(xué)習(xí)情境

[中圖分類號]G40-057 [文獻(xiàn)標(biāo)識碼]A [論文編號]1009-8097(2013)05-0005-05 [DOI]10.3969/j.issn.1009-8097.2013.05.001

引言

隨著智能終端技術(shù)的成熟與發(fā)展,無線寬帶網(wǎng)絡(luò)與移動(dòng)數(shù)據(jù)業(yè)務(wù)的部署與推廣,曾經(jīng)局限于實(shí)驗(yàn)室的增強(qiáng)現(xiàn)實(shí)技術(shù)開始走進(jìn)大眾生活,增強(qiáng)現(xiàn)實(shí)應(yīng)用開始涌現(xiàn)。增強(qiáng)現(xiàn)實(shí)(Augmented Reality,AR)是在虛擬現(xiàn)實(shí)技術(shù)基礎(chǔ)上發(fā)展起來的一種計(jì)算機(jī)應(yīng)用和人機(jī)交互技術(shù),通過將虛擬的信息應(yīng)用到真實(shí)環(huán)境中,使真實(shí)的環(huán)境和虛擬的物體實(shí)時(shí)地疊加到同一個(gè)畫面或空間同時(shí)存在,呈現(xiàn)給使用者一個(gè)感官效果真實(shí)的新環(huán)境。

高普及度、便攜易用的手持設(shè)備如智能手機(jī)等,實(shí)現(xiàn)了增強(qiáng)現(xiàn)實(shí)系統(tǒng)的小型化和便攜化,是最能體現(xiàn)增強(qiáng)現(xiàn)實(shí)價(jià)值的平臺之一,將大大拓展和深化增強(qiáng)現(xiàn)實(shí)系統(tǒng)應(yīng)用的廣度和深度。在近年新媒體聯(lián)盟(New Media Consortium,NMC)的地平線報(bào)告中,增強(qiáng)現(xiàn)實(shí)技術(shù)和移動(dòng)技術(shù)多次被列為具有潛力的關(guān)鍵技術(shù),在教育領(lǐng)域具有廣闊的應(yīng)用空間和發(fā)展?jié)撃?,將對教學(xué)、學(xué)習(xí)和創(chuàng)造性表達(dá)產(chǎn)生積極的重大影響。增強(qiáng)現(xiàn)實(shí)技術(shù)為學(xué)習(xí)者提供情境性的學(xué)習(xí)體驗(yàn),為移動(dòng)學(xué)習(xí)提供了新的交互方式和學(xué)習(xí)情境,更好地符合了學(xué)習(xí)者隨時(shí)隨地進(jìn)行學(xué)習(xí)的泛在學(xué)習(xí)目標(biāo)。如何有效地將其應(yīng)用到學(xué)習(xí)領(lǐng)域,為用戶提供學(xué)習(xí)支持,需要我們的深入研究和思考。

一、增強(qiáng)現(xiàn)實(shí)系統(tǒng)

增強(qiáng)現(xiàn)實(shí)系統(tǒng)研究涉及多學(xué)科背景,包括計(jì)算機(jī)圖形處理、人機(jī)交互、信息三維可視化、新型顯示器、傳感器設(shè)計(jì)、無線網(wǎng)絡(luò)等。我們對增強(qiáng)現(xiàn)實(shí)系統(tǒng)從多個(gè)角度進(jìn)行了綜合分析,如圖1所示。增強(qiáng)現(xiàn)實(shí)系統(tǒng)的工作原理與傳統(tǒng)增強(qiáng)現(xiàn)實(shí)系統(tǒng)相同,基本流程為:(1)獲取場景信息;(2)對傳感器獲取的信息進(jìn)行分析處理;(3)生成虛擬圖像;(4)三維顯示。相對于傳統(tǒng)增強(qiáng)現(xiàn)實(shí)系統(tǒng),增強(qiáng)現(xiàn)實(shí)系統(tǒng)一般不需要顯示完整的場景,但需要實(shí)時(shí)地分析處理大量傳感器數(shù)據(jù)和虛擬信息,以進(jìn)行精確的三維注冊,所以增強(qiáng)現(xiàn)實(shí)系統(tǒng)具有特定的軟硬件平臺支持和關(guān)鍵技術(shù)支撐。與傳統(tǒng)的增強(qiáng)現(xiàn)實(shí)系統(tǒng)相比,增強(qiáng)現(xiàn)實(shí)創(chuàng)新了移動(dòng)應(yīng)用模式,具有增強(qiáng)、移動(dòng)、整合、開放等特征。

1.硬件系統(tǒng)

(1)處理器系統(tǒng)——持續(xù)計(jì)算能力

處理器系統(tǒng)用于提供增強(qiáng)現(xiàn)實(shí)系統(tǒng)的計(jì)算能力,是評價(jià)移動(dòng)互聯(lián)網(wǎng)終端性能的重要參數(shù),主要包括CPU和GPU。當(dāng)前智能手機(jī)的CPU已發(fā)展為多核處理器,以高速頻率保證高運(yùn)算要求。同時(shí)隨著應(yīng)用程序的豐富,智能終端需要處理復(fù)雜的圖像任務(wù),在硬件上引入了GPU負(fù)責(zé)圖形顯示功能的處理,系統(tǒng)性能得到極大提高。

(2)顯示系統(tǒng)——采集顯示能力

顯示系統(tǒng)主要提供智能終端的采集顯示能力,包括顯示屏幕、攝像頭等,是實(shí)現(xiàn)增強(qiáng)現(xiàn)實(shí)應(yīng)用的重要設(shè)備。當(dāng)前智能終端的顯示屏幕基本在3.5英寸以上,屏幕色彩度日益提高,分辨率逐漸增強(qiáng)。終端攝像頭分辨率通常達(dá)到百萬級別至千萬級別,可以拍攝和錄制高清晰度影像。

(3)傳感器系統(tǒng)——狀態(tài)感知能力

傳感器系統(tǒng)是實(shí)現(xiàn)增強(qiáng)現(xiàn)實(shí)的必要支持。當(dāng)前,豐富的傳感器設(shè)備已經(jīng)成為智能手機(jī)的重要組成部分,如GPS、電子羅盤、加速計(jì)、陀螺儀、重力感應(yīng)器、位移傳感器、光線感應(yīng)器等。傳感器系統(tǒng)使手機(jī)變得越來越智慧化,向著情境感知的方向發(fā)展,增強(qiáng)了手機(jī)體驗(yàn)感和用戶互動(dòng),是實(shí)現(xiàn)增強(qiáng)現(xiàn)實(shí)系統(tǒng)的有力支持。

(4)交互系統(tǒng)——人機(jī)互動(dòng)能力

交互系統(tǒng)是影響增強(qiáng)現(xiàn)實(shí)系統(tǒng)體驗(yàn)的主要手段。當(dāng)前智能手機(jī)采用觸摸屏交互、語音交互等交互方式,在人機(jī)操作關(guān)系上產(chǎn)生了很大的變革,可以通過多通道與計(jì)算機(jī)生成的虛擬信息進(jìn)行交互式反應(yīng),使用戶更自然地融入到場景中去,具有更新鮮的體驗(yàn)感。

(5)網(wǎng)絡(luò)系統(tǒng)——通信傳輸能力

無線通信技術(shù)和互聯(lián)網(wǎng)技術(shù)是移動(dòng)服務(wù)的支撐技術(shù)。在一些增強(qiáng)現(xiàn)實(shí)的應(yīng)用中需要通過遠(yuǎn)程服務(wù)器來存儲大量的數(shù)據(jù)信息,某些數(shù)據(jù)處理也要通過遠(yuǎn)程服務(wù)器來完成。3G等無線通信技術(shù)為增強(qiáng)現(xiàn)實(shí)應(yīng)用的發(fā)展提供了網(wǎng)絡(luò)帶寬等支持。

2.軟件系統(tǒng)

(1)目標(biāo)識別算法

目標(biāo)識別指在相關(guān)場景中找到給定的目標(biāo)物體,并對其進(jìn)行標(biāo)記。增強(qiáng)現(xiàn)實(shí)需要實(shí)現(xiàn)復(fù)雜移動(dòng)場景中的實(shí)時(shí)目標(biāo)識別,如可采用多特征如色彩、紋理、輪廓融合的方式對復(fù)雜場景進(jìn)行特征提取和識別。

(2)跟蹤注冊算法

跟蹤注冊算法將虛擬物體合并到真實(shí)空間中的準(zhǔn)確位置。增強(qiáng)現(xiàn)實(shí)系統(tǒng)應(yīng)實(shí)時(shí)跟蹤手機(jī)在真實(shí)場景中的位置及姿態(tài),并根據(jù)這些信息計(jì)算出虛擬物體在圖像中的坐標(biāo),實(shí)現(xiàn)實(shí)時(shí)、魯棒、穩(wěn)定、準(zhǔn)確的跟蹤,保證虛擬物體畫面與真實(shí)場景畫面精準(zhǔn)匹配。

(3)三維圖形渲染算法

通過三維圖形建模和渲染算法處理,在真實(shí)環(huán)境中疊加有增強(qiáng)顯示效果的三維物體,進(jìn)行逼真顯示,幫助用戶對環(huán)境的理解。

3.增強(qiáng)現(xiàn)實(shí)的類型

從增強(qiáng)現(xiàn)實(shí)在跟蹤注冊技術(shù)采用的不同方法角度來分析,可以將增強(qiáng)現(xiàn)實(shí)分為基于標(biāo)記的和無標(biāo)記的兩類。基于標(biāo)記的增強(qiáng)現(xiàn)實(shí)是指通過特定的標(biāo)記或圖案供系統(tǒng)辨識,使用計(jì)算機(jī)視覺方法識別出這些標(biāo)志物,從而計(jì)算出攝像機(jī)相對于標(biāo)志物的位置和方向,再據(jù)此計(jì)算出虛擬物體應(yīng)該放置的位置和方向。在無標(biāo)記增強(qiáng)現(xiàn)實(shí)系統(tǒng)中,真實(shí)環(huán)境的任何一部分都能被用作一個(gè)可跟蹤的目標(biāo),通過攝像頭捕捉現(xiàn)實(shí)世界的圖像,然后在顯示屏的圖像上疊加文本、鏈接或其他對象實(shí)體,構(gòu)建一個(gè)新的三維圖形模型。二移動(dòng)學(xué)習(xí)與增強(qiáng)現(xiàn)實(shí)的研究與發(fā)展分析

對增強(qiáng)現(xiàn)實(shí)技術(shù)的研究屬于教育新技術(shù)研究的范疇,目標(biāo)是通過技術(shù)研究,探索技術(shù)在教與學(xué)中的應(yīng)用模式。本節(jié)基于Hype Cycle模型與地平線報(bào)告研究,分析增強(qiáng)現(xiàn)實(shí)在教育中的應(yīng)用發(fā)展與前景。

1.Hy]pe Cycle模型分析

(1)Hype Cycle模型與教育技術(shù)

Hype Cycle(發(fā)展規(guī)律周期)模型是由Gartner提出的一個(gè)應(yīng)用廣泛的發(fā)展周期預(yù)測模型,模型描述了一項(xiàng)技術(shù)從誕生到成熟,再到廣泛應(yīng)用的過程,如圖2所示。模型指出,技術(shù)的發(fā)展過程通常有以下規(guī)律:首先是起步上升期和快速發(fā)展期,這兩個(gè)時(shí)期主要是理論研究階段,新的技術(shù)理論從出現(xiàn)到快速成長,理論突破頻繁。到了快速發(fā)展期的頂端,基礎(chǔ)理論基本成熟,理論探索空問縮小。而此時(shí)該項(xiàng)技術(shù)在產(chǎn)業(yè)上的應(yīng)用尚未成熟,缺乏成熟的應(yīng)用模式,因此新技術(shù)受關(guān)注程度進(jìn)入下降期。隨著新技術(shù)應(yīng)用模式的不斷創(chuàng)新,該項(xiàng)技術(shù)的受關(guān)注程度將再次增加,并將其帶入一個(gè)持續(xù)發(fā)展的爬坡期。隨著技術(shù)應(yīng)用模式的成熟,進(jìn)入穩(wěn)定應(yīng)用期。

教育技術(shù)關(guān)注技術(shù)在教育領(lǐng)域應(yīng)用,Hype Cycle發(fā)展周期模型對技術(shù)演進(jìn)的分析,有助于我們對技術(shù)教學(xué)應(yīng)用的研究。在教育技術(shù)研究中,教育新技術(shù)研究是前瞻性研究,它有助于我們探索教育技術(shù)未來發(fā)展的方向,幫助我們研究新技術(shù),預(yù)見新技術(shù)在教育領(lǐng)域中的發(fā)展。技術(shù)的教學(xué)應(yīng)用研究是核心研究,是教育技術(shù)的目的。需要在對新技術(shù)研究的基礎(chǔ)上進(jìn)一步設(shè)計(jì)開發(fā)其在教學(xué)中的應(yīng)用,通過技術(shù)在教育中的應(yīng)用體現(xiàn)和提升其價(jià)值。表1和圖2分析了技術(shù)發(fā)展周期模型與教育技術(shù)研究各個(gè)階段的關(guān)系。

(2)基于Hype Cycle模型的移動(dòng)學(xué)習(xí)與增強(qiáng)現(xiàn)實(shí)分析

我們綜合分析了Gartner最新提出的關(guān)于教育、新型技術(shù)、情境感知、人機(jī)交互等領(lǐng)域的分析,對其中與移動(dòng)學(xué)習(xí)、增強(qiáng)現(xiàn)實(shí)、移動(dòng)應(yīng)用等相關(guān)的項(xiàng)目進(jìn)行了分析,作出圖3分析。

由圖3中各項(xiàng)技術(shù)所處的發(fā)展階段,得到如下分析結(jié)果:

增強(qiáng)現(xiàn)實(shí):處于快速發(fā)展階段末期,理論研究逐步成熟,但在行業(yè)上的應(yīng)用尚未成熟,需要進(jìn)一步探索技術(shù)的行業(yè)應(yīng)用模式。

移動(dòng)學(xué)習(xí):Gartner將移動(dòng)學(xué)習(xí)分為了兩類,一類為低階(Low-range/Midrange)手持設(shè)備,一類為智能終端設(shè)備。兩類移動(dòng)學(xué)習(xí)當(dāng)前都尚處于應(yīng)用模式探索階段。

移動(dòng)應(yīng)用開發(fā):與增強(qiáng)現(xiàn)實(shí)相關(guān)的移動(dòng)應(yīng)用開發(fā)研究,如位置服務(wù)應(yīng)用、移動(dòng)開發(fā)平臺等,技術(shù)相對成熟,已經(jīng)具有相關(guān)的應(yīng)用模式,處于技術(shù)的穩(wěn)定應(yīng)用期。

情境感知:情境感知是與增強(qiáng)現(xiàn)實(shí)密切相關(guān)的一個(gè)研究領(lǐng)域,當(dāng)前主要處于理論研究的快速發(fā)展時(shí)期。

2.地平線報(bào)告分析

我們對新媒體聯(lián)盟歷年的地平線報(bào)告中,與移動(dòng)學(xué)習(xí)和增強(qiáng)現(xiàn)實(shí)有關(guān)的項(xiàng)目進(jìn)行了分析。從2006年至今,在地平線報(bào)告中,每年都有移動(dòng)技術(shù)和移動(dòng)學(xué)習(xí)相關(guān)的項(xiàng)目,2005、2006、2010和2011年四年的地平線報(bào)告中,也都關(guān)注了增強(qiáng)現(xiàn)實(shí)在教育領(lǐng)域中的應(yīng)用。

從地平線報(bào)告分析可以發(fā)現(xiàn),手機(jī)、移動(dòng)寬帶、移動(dòng)設(shè)備、移動(dòng)計(jì)算等技術(shù)在近年被提及的次數(shù)最多,移動(dòng)技術(shù)在教育中具有巨大的應(yīng)用空間和發(fā)展?jié)撃?,移?dòng)學(xué)習(xí)是教育信息化發(fā)展的重要趨勢。增強(qiáng)現(xiàn)實(shí)也在近年逐漸得到教育領(lǐng)域的關(guān)注。在2012年地平線報(bào)告中,與移動(dòng)學(xué)習(xí)和增強(qiáng)現(xiàn)實(shí)有關(guān)的項(xiàng)目有如下變化。首先,“增強(qiáng)現(xiàn)實(shí)”這一項(xiàng)在2012年地平線報(bào)告中已不再出現(xiàn)。而在2011年地平線報(bào)告中排列第二位的“移動(dòng)設(shè)備”,2012年從關(guān)注硬件設(shè)備轉(zhuǎn)為關(guān)注如何通過移動(dòng)設(shè)備更好地進(jìn)行各種應(yīng)用研究。2012年提出的“移動(dòng)應(yīng)用程序”(Mobile Apps)和“平板電腦應(yīng)用”,強(qiáng)調(diào)的都是“應(yīng)用”(Tablet Computing)。2013年地平線報(bào)告中再次強(qiáng)調(diào)了“平板電腦應(yīng)用”(Tablet Computing)。分析這種變化,在于傳統(tǒng)增強(qiáng)現(xiàn)實(shí)和移動(dòng)相關(guān)的理論與技術(shù)研究相對成熟,未來關(guān)注的重點(diǎn)是學(xué)習(xí)應(yīng)用模式的研究與創(chuàng)新,這與Garter的預(yù)測模型分析結(jié)果是一致的。

3.分析

基于Hype Cycle模型和地平線報(bào)告,我們分析如下:

(1)傳統(tǒng)增強(qiáng)現(xiàn)實(shí)、移動(dòng)設(shè)備、移動(dòng)計(jì)算等理論與技術(shù)已趨于發(fā)展成熟,為增強(qiáng)現(xiàn)實(shí)和移動(dòng)學(xué)習(xí)的發(fā)展提供了支持,未來將更多的關(guān)注應(yīng)用模式的創(chuàng)新研究。

(2)增強(qiáng)現(xiàn)實(shí)技術(shù)在理論研究上日趨成熟,需要進(jìn)一步探索其行業(yè)應(yīng)用模式,隨著移動(dòng)學(xué)習(xí)和泛在學(xué)習(xí)的發(fā)展,教育應(yīng)用將是增強(qiáng)現(xiàn)實(shí)應(yīng)用開發(fā)和價(jià)值體現(xiàn)的重要領(lǐng)域。

(3)基于智能設(shè)備的移動(dòng)學(xué)習(xí)正處于應(yīng)用模式的發(fā)現(xiàn)和創(chuàng)新階段,增強(qiáng)現(xiàn)實(shí)為移動(dòng)學(xué)習(xí)提供了新的學(xué)習(xí)情境和交互方式,帶來了新的研究場景和研究思路,將有效推動(dòng)新的移動(dòng)學(xué)習(xí)模式的研究。

(4)移動(dòng)學(xué)習(xí)和增強(qiáng)現(xiàn)實(shí)二者相互融合,相互推動(dòng),共同發(fā)展。隨著未來在情境感知等領(lǐng)域研究的發(fā)展和成熟,也將進(jìn)一步推動(dòng)增強(qiáng)現(xiàn)實(shí)的應(yīng)用研究。

三、基于增強(qiáng)現(xiàn)實(shí)技術(shù)的移動(dòng)學(xué)習(xí)分析

基于增強(qiáng)現(xiàn)實(shí)技術(shù)的移動(dòng)學(xué)習(xí)研究在國內(nèi)外還處于起步階段,還需要我們更多的探索。

1.研究現(xiàn)狀分析

已有研究中,學(xué)者們對增強(qiáng)現(xiàn)實(shí)技術(shù)應(yīng)用于移動(dòng)學(xué)習(xí)領(lǐng)域的有效性進(jìn)行了分析,指出其在多個(gè)方面的優(yōu)勢。

(1)在學(xué)習(xí)情境創(chuàng)設(shè)上,基于增強(qiáng)現(xiàn)實(shí)的移動(dòng)學(xué)習(xí)可以創(chuàng)建符合情境的學(xué)習(xí)環(huán)境,支持泛在的、協(xié)作的情境學(xué)習(xí),豐富了個(gè)人學(xué)習(xí)環(huán)境的建設(shè)。

(2)在增強(qiáng)學(xué)習(xí)體驗(yàn)上,增強(qiáng)現(xiàn)實(shí)促進(jìn)學(xué)習(xí)者與多種形式的情境信息進(jìn)行交互互動(dòng),使學(xué)習(xí)信息的搜索更加便捷、學(xué)習(xí)體驗(yàn)更加真實(shí),學(xué)習(xí)交互更加自然。

(3)在促進(jìn)學(xué)習(xí)與能力培養(yǎng)上,增強(qiáng)現(xiàn)實(shí)型學(xué)習(xí)軟件在注意力保持、學(xué)習(xí)遷移方面等優(yōu)于文本型、圖文型、計(jì)算機(jī)多媒體型等類型,有助于提高學(xué)習(xí)有效性。

2.學(xué)習(xí)案例分析

當(dāng)前增強(qiáng)現(xiàn)實(shí)在教學(xué)領(lǐng)域的應(yīng)用案例主要集中在泛在學(xué)習(xí)和游戲等方面。Star Walk(星空漫步)是一款典型的基于iOS系統(tǒng)的天文地理學(xué)習(xí)軟件,如圖4所示。

在使用時(shí),當(dāng)學(xué)習(xí)者開啟Star Walk后,將攝像頭對準(zhǔn)天空,軟件將對屏幕內(nèi)的對象信息進(jìn)行分析處理,及時(shí)提供關(guān)于對象的信息,呈現(xiàn)學(xué)習(xí)對象的增強(qiáng)實(shí)時(shí)互動(dòng)三維模型,是一種即指即現(xiàn)的方式。學(xué)習(xí)者可以實(shí)時(shí)根據(jù)所處的經(jīng)緯度、時(shí)間,學(xué)習(xí)所在位置的星空圖,并可以通過“時(shí)間機(jī)器”功能,使學(xué)習(xí)者觀察過去、現(xiàn)在的星相信息。軟件通過維基百科鏈接描述天體條目的信息,并能夠設(shè)置標(biāo)簽,通過微博等社交網(wǎng)絡(luò)與其他學(xué)習(xí)者交互。Star Walk增強(qiáng)現(xiàn)實(shí)軟件拉近了學(xué)習(xí)者與星空、天文學(xué)的距離,并且使用方法簡單、界面設(shè)計(jì)美觀、功能強(qiáng)大,是增強(qiáng)現(xiàn)實(shí)技術(shù)在移動(dòng)學(xué)習(xí)中應(yīng)用的成功案例。

3.Speeht的增強(qiáng)現(xiàn)實(shí)學(xué)習(xí)模式

對Star Walk學(xué)習(xí)案例進(jìn)行分析,可以發(fā)現(xiàn),增強(qiáng)現(xiàn)實(shí)應(yīng)用綜合了學(xué)習(xí)者的位置、時(shí)間、環(huán)境和社會關(guān)系等情境信息,創(chuàng)設(shè)了完善的移動(dòng)學(xué)習(xí)體驗(yàn)。Marcus Speeht等提出了一個(gè)基于增強(qiáng)現(xiàn)實(shí)的學(xué)習(xí)分析模式,如圖5所示。

模式基于增強(qiáng)現(xiàn)實(shí)的情境增強(qiáng)維度和學(xué)習(xí)目標(biāo)維度進(jìn)行分析,橫向維度分析了六種典型的移動(dòng)學(xué)習(xí)情境:獨(dú)立情境,標(biāo)識、位置、環(huán)境、關(guān)系與時(shí)間,縱向維度分析了六種不同層次的教學(xué)目標(biāo):資源描述、探索發(fā)現(xiàn)、內(nèi)容理解、學(xué)習(xí)反思、團(tuán)體合作、行為績效。

增強(qiáng)現(xiàn)實(shí)支持和滿足了學(xué)習(xí)對情境的要求,學(xué)習(xí)內(nèi)容由移動(dòng)學(xué)習(xí)系統(tǒng)通過感知學(xué)習(xí)者的學(xué)習(xí)情境自動(dòng)推送給學(xué)習(xí)者,并且通過情境感知和處理,增強(qiáng)和創(chuàng)設(shè)新的學(xué)習(xí)情境。不同類型的增強(qiáng)現(xiàn)實(shí)學(xué)習(xí),能夠滿足移動(dòng)學(xué)習(xí)不同的情境需求,達(dá)到不同層次的教育目標(biāo)。如StarWalk學(xué)習(xí)應(yīng)用,基于學(xué)習(xí)者的位置情境、環(huán)境情境和時(shí)間情境,為用戶提供良好的學(xué)習(xí)體驗(yàn),將有助于學(xué)習(xí)內(nèi)容的資源描述、探索發(fā)現(xiàn)、增強(qiáng)學(xué)習(xí)者的內(nèi)容理解與協(xié)作學(xué)習(xí)。

Specht的分析模式對我們研究基于增強(qiáng)現(xiàn)實(shí)的學(xué)習(xí)具有借鑒和指導(dǎo)作用,從情境信息角度設(shè)計(jì)和分析移動(dòng)學(xué)習(xí)應(yīng)用,為學(xué)習(xí)者創(chuàng)設(shè)完善的學(xué)習(xí)情境,將增強(qiáng)移動(dòng)學(xué)習(xí)的智能性和適應(yīng)性,有助于學(xué)習(xí)支持系統(tǒng)功能的進(jìn)一步完善,是移動(dòng)學(xué)習(xí)可以深度擴(kuò)展的方向。四增強(qiáng)現(xiàn)實(shí)學(xué)習(xí)系統(tǒng)設(shè)計(jì)

本節(jié)提出一個(gè)增強(qiáng)現(xiàn)實(shí)學(xué)習(xí)系統(tǒng)的設(shè)計(jì)與開發(fā)模型。在前期研究中,我們曾提出了一個(gè)面向位置服務(wù)移動(dòng)學(xué)習(xí)的開發(fā)模型,在此基礎(chǔ)上,我們對前期模型進(jìn)行了擴(kuò)展和細(xì)化,新的模型不僅適用于基于增強(qiáng)現(xiàn)實(shí)的系統(tǒng)開發(fā),也能夠?qū)Ω鞣N移動(dòng)學(xué)習(xí)系統(tǒng)的開發(fā)提供框架指導(dǎo),如圖6所示。

增強(qiáng)現(xiàn)實(shí)學(xué)習(xí)系統(tǒng)的設(shè)計(jì)與開發(fā)包括需求分析、功能設(shè)計(jì)與技術(shù)實(shí)現(xiàn)三個(gè)模塊。在需求分析階段,要從用戶角度和資源特點(diǎn)出發(fā),對所要開發(fā)的軟件進(jìn)行分析。并非所有的學(xué)習(xí)活動(dòng)都適用于移動(dòng)學(xué)習(xí)形式,因此,需求分析是首要步驟,目的在于判斷學(xué)習(xí)是否適合于增強(qiáng)現(xiàn)實(shí)類型。不恰當(dāng)?shù)膽?yīng)用移動(dòng)設(shè)備不僅會造成資源上的浪費(fèi),還可能對學(xué)習(xí)的最終效果產(chǎn)生負(fù)面作用。在功能設(shè)計(jì)階段,結(jié)合增強(qiáng)現(xiàn)實(shí)軟件的特點(diǎn)和移動(dòng)學(xué)習(xí)應(yīng)用模式要求,進(jìn)行媒體設(shè)計(jì)、交互設(shè)計(jì)、三維模型設(shè)計(jì)、位置服務(wù)和社交服務(wù)設(shè)計(jì)。在技術(shù)開發(fā)階段,基于相應(yīng)的移動(dòng)平臺,進(jìn)行應(yīng)用程序的開發(fā)。三個(gè)模塊對應(yīng)的層次包括系統(tǒng)層、服務(wù)層、應(yīng)用層和開發(fā)層。系統(tǒng)層為手機(jī)提供底層的軟硬件支撐,包括手機(jī)硬件平臺和操作系統(tǒng)。服務(wù)層提供應(yīng)用程序開發(fā)的接口和模塊,我們將服務(wù)層進(jìn)一步細(xì)化為兩個(gè)層次:操作系統(tǒng)平臺類庫和第三方支持類庫。不同類型移動(dòng)學(xué)習(xí)系統(tǒng)開發(fā)涉及的功能模塊,主要在服務(wù)層提供的各種開發(fā)包的支持下實(shí)現(xiàn)。其中基礎(chǔ)服務(wù)層主要包括操作系統(tǒng)平臺類庫,如傳感器編程組件、位置服務(wù)組件等。開發(fā)服務(wù)層包括第三方支持類庫,地圖引擎,增強(qiáng)現(xiàn)實(shí)開發(fā)的相關(guān)工具開發(fā)包如ARToolKit、Layar、高通Vuforia,以及各種相關(guān)移動(dòng)開發(fā)框架等。應(yīng)用層向上為用戶提供學(xué)習(xí)應(yīng)用,向下選擇和使用服務(wù)層的相關(guān)功能。根據(jù)對移動(dòng)學(xué)習(xí)系統(tǒng)的應(yīng)用需求、功能模塊、學(xué)習(xí)目標(biāo)等的分析,選擇適當(dāng)?shù)囊苿?dòng)學(xué)習(xí)應(yīng)用模式。具體的開發(fā)結(jié)合選用的平臺,基于服務(wù)層的支持實(shí)現(xiàn)。在用戶層,學(xué)習(xí)者通過智能手機(jī)終端,使用相應(yīng)的學(xué)習(xí)軟件。

欧美乱色亚洲激情| 中文字幕高清在线视频| 亚洲精品一卡2卡三卡4卡5卡| 男人舔女人的私密视频| 天堂动漫精品| 久久性视频一级片| 国内精品久久久久精免费| 曰老女人黄片| 亚洲片人在线观看| 中亚洲国语对白在线视频| 十分钟在线观看高清视频www| 可以在线观看毛片的网站| 夜夜看夜夜爽夜夜摸| 色在线成人网| 少妇裸体淫交视频免费看高清 | 久久中文看片网| 91av网站免费观看| 国产精品亚洲av一区麻豆| 国产激情欧美一区二区| 99久久久亚洲精品蜜臀av| 宅男免费午夜| 麻豆av在线久日| 自拍欧美九色日韩亚洲蝌蚪91| 在线观看舔阴道视频| 欧美一区二区精品小视频在线| 在线永久观看黄色视频| 一边摸一边抽搐一进一小说| 国产精品一区二区在线不卡| 亚洲成人国产一区在线观看| 色精品久久人妻99蜜桃| 欧洲精品卡2卡3卡4卡5卡区| 国语自产精品视频在线第100页| 欧美+亚洲+日韩+国产| 99在线人妻在线中文字幕| 一区二区三区精品91| 日本在线视频免费播放| 日韩中文字幕欧美一区二区| 欧美激情 高清一区二区三区| 久久久久久久精品吃奶| www.精华液| 欧美国产精品va在线观看不卡| 天天躁夜夜躁狠狠躁躁| 一二三四社区在线视频社区8| 又大又爽又粗| xxx96com| 纯流量卡能插随身wifi吗| 亚洲久久久国产精品| 久久久久九九精品影院| 怎么达到女性高潮| 成人国产一区最新在线观看| 大陆偷拍与自拍| 精品国产一区二区久久| 成人永久免费在线观看视频| 波多野结衣av一区二区av| 日韩视频一区二区在线观看| 很黄的视频免费| 波多野结衣巨乳人妻| 一进一出抽搐gif免费好疼| 亚洲成av片中文字幕在线观看| 一本久久中文字幕| 啦啦啦韩国在线观看视频| 妹子高潮喷水视频| 国产黄a三级三级三级人| 久久久国产成人免费| 欧美一级a爱片免费观看看 | 少妇 在线观看| 男女做爰动态图高潮gif福利片 | 国产精品一区二区精品视频观看| 国产又色又爽无遮挡免费看| 亚洲精品久久国产高清桃花| 欧美一级a爱片免费观看看 | 午夜视频精品福利| 一个人免费在线观看的高清视频| 久久久国产成人精品二区| 搡老熟女国产l中国老女人| 人人妻,人人澡人人爽秒播| videosex国产| 成人国语在线视频| 国产精品1区2区在线观看.| 一区福利在线观看| 午夜福利视频1000在线观看 | 天天添夜夜摸| 精品久久蜜臀av无| 亚洲精品一卡2卡三卡4卡5卡| 在线永久观看黄色视频| 久99久视频精品免费| 一级毛片精品| 精品电影一区二区在线| 色综合站精品国产| 大码成人一级视频| 黄色成人免费大全| 久久精品影院6| 嫁个100分男人电影在线观看| 最近最新中文字幕大全电影3 | 国产一区二区三区视频了| 日韩欧美一区二区三区在线观看| 如日韩欧美国产精品一区二区三区| 50天的宝宝边吃奶边哭怎么回事| 欧美亚洲日本最大视频资源| 久久久精品欧美日韩精品| 桃色一区二区三区在线观看| 又黄又爽又免费观看的视频| 国产精品,欧美在线| 黄片大片在线免费观看| 精品卡一卡二卡四卡免费| 精品人妻1区二区| 久久中文字幕一级| 久久伊人香网站| 侵犯人妻中文字幕一二三四区| 久久天堂一区二区三区四区| 久久久精品国产亚洲av高清涩受| 在线十欧美十亚洲十日本专区| 国产高清激情床上av| 中国美女看黄片| 精品第一国产精品| 亚洲 国产 在线| av在线天堂中文字幕| 欧美黄色淫秽网站| 黑人巨大精品欧美一区二区mp4| 国产91精品成人一区二区三区| 嫁个100分男人电影在线观看| 看免费av毛片| 无遮挡黄片免费观看| 满18在线观看网站| 欧美久久黑人一区二区| av天堂在线播放| 搡老妇女老女人老熟妇| 国产成人av激情在线播放| 大型黄色视频在线免费观看| 满18在线观看网站| 啦啦啦韩国在线观看视频| 婷婷精品国产亚洲av在线| 国产亚洲精品久久久久5区| www.精华液| 国产99白浆流出| 淫秽高清视频在线观看| 成人三级做爰电影| 国产一级毛片七仙女欲春2 | 欧美一级毛片孕妇| 亚洲欧美激情在线| 精品久久久久久久毛片微露脸| 亚洲一区高清亚洲精品| 老熟妇乱子伦视频在线观看| 美女高潮到喷水免费观看| 99久久精品国产亚洲精品| 免费在线观看视频国产中文字幕亚洲| 他把我摸到了高潮在线观看| 国产成人一区二区三区免费视频网站| 成年版毛片免费区| 女生性感内裤真人,穿戴方法视频| 亚洲人成伊人成综合网2020| 又紧又爽又黄一区二区| 亚洲视频免费观看视频| 久久这里只有精品19| 老司机深夜福利视频在线观看| av欧美777| 欧美色视频一区免费| 亚洲午夜理论影院| 久久天堂一区二区三区四区| 国产97色在线日韩免费| 精品福利观看| 亚洲av日韩精品久久久久久密| 久久久国产成人精品二区| 久热爱精品视频在线9| 一级,二级,三级黄色视频| 9色porny在线观看| 97碰自拍视频| 欧美成人一区二区免费高清观看 | 99国产精品一区二区蜜桃av| 国产成人av激情在线播放| av天堂在线播放| 久久久久久久久久久久大奶| 亚洲av电影不卡..在线观看| 欧美性长视频在线观看| 欧美不卡视频在线免费观看 | 一区二区三区精品91| 国产av一区在线观看免费| 黄网站色视频无遮挡免费观看| 国产蜜桃级精品一区二区三区| 久久人妻福利社区极品人妻图片| 久久午夜亚洲精品久久| 久久午夜综合久久蜜桃| 咕卡用的链子| 欧美一区二区精品小视频在线| 少妇被粗大的猛进出69影院| 老汉色av国产亚洲站长工具| 国产色视频综合| 中文字幕最新亚洲高清| 国产精品国产高清国产av| av中文乱码字幕在线| 国产成人精品在线电影| 给我免费播放毛片高清在线观看| 丰满人妻熟妇乱又伦精品不卡| 亚洲最大成人中文| 亚洲欧美日韩无卡精品| 俄罗斯特黄特色一大片| 极品人妻少妇av视频| 真人做人爱边吃奶动态| 日韩精品免费视频一区二区三区| 三级毛片av免费| 欧美不卡视频在线免费观看 | 精品国产美女av久久久久小说| 一级作爱视频免费观看| 一级黄色大片毛片| а√天堂www在线а√下载| 久久人妻av系列| 精品人妻1区二区| 这个男人来自地球电影免费观看| 午夜福利影视在线免费观看| 岛国视频午夜一区免费看| 免费在线观看亚洲国产| 国产99白浆流出| 精品免费久久久久久久清纯| 久久国产亚洲av麻豆专区| 免费少妇av软件| 麻豆国产av国片精品| 亚洲自偷自拍图片 自拍| 他把我摸到了高潮在线观看| 很黄的视频免费| 女同久久另类99精品国产91| 国产成人精品无人区| 夜夜躁狠狠躁天天躁| 天天躁狠狠躁夜夜躁狠狠躁| 三级毛片av免费| 一级黄色大片毛片| 大型av网站在线播放| 脱女人内裤的视频| 亚洲第一青青草原| 熟女少妇亚洲综合色aaa.| 每晚都被弄得嗷嗷叫到高潮| 18美女黄网站色大片免费观看| 男男h啪啪无遮挡| 一进一出好大好爽视频| 大码成人一级视频| 涩涩av久久男人的天堂| 精品熟女少妇八av免费久了| 亚洲精品在线美女| 这个男人来自地球电影免费观看| 国产亚洲精品一区二区www| 国产91精品成人一区二区三区| 久久久久久亚洲精品国产蜜桃av| 国产欧美日韩一区二区三区在线| 亚洲成av人片免费观看| 天天一区二区日本电影三级 | 色婷婷久久久亚洲欧美| 一个人免费在线观看的高清视频| 精品国产乱子伦一区二区三区| 国产在线观看jvid| 三级毛片av免费| 亚洲欧美激情在线| 搡老妇女老女人老熟妇| 精品久久久精品久久久| 女生性感内裤真人,穿戴方法视频| 国产精品永久免费网站| 国产在线观看jvid| 久久久久久亚洲精品国产蜜桃av| 黑人巨大精品欧美一区二区蜜桃| 午夜精品在线福利| 国语自产精品视频在线第100页| 一个人免费在线观看的高清视频| 黄色毛片三级朝国网站| 岛国视频午夜一区免费看| 自拍欧美九色日韩亚洲蝌蚪91| 18禁观看日本| 如日韩欧美国产精品一区二区三区| 激情在线观看视频在线高清| 免费看美女性在线毛片视频| 精品高清国产在线一区| 国产精品九九99| 午夜久久久久精精品| 免费少妇av软件| 美女 人体艺术 gogo| 久久香蕉精品热| 男女之事视频高清在线观看| 国产亚洲精品一区二区www| 欧美日本中文国产一区发布| 丰满人妻熟妇乱又伦精品不卡| 久久久国产欧美日韩av| 国产精品秋霞免费鲁丝片| 国产精品亚洲一级av第二区| 1024视频免费在线观看| 亚洲一区中文字幕在线| 91av网站免费观看| 一本综合久久免费| 国产一区二区三区在线臀色熟女| 麻豆一二三区av精品| 91麻豆精品激情在线观看国产| 自拍欧美九色日韩亚洲蝌蚪91| 国产精品久久久久久亚洲av鲁大| 国产国语露脸激情在线看| 日本黄色视频三级网站网址| 久久久久九九精品影院| 免费无遮挡裸体视频| 欧美激情高清一区二区三区| 国产99久久九九免费精品| 久久精品国产亚洲av香蕉五月| 夜夜夜夜夜久久久久| 午夜精品国产一区二区电影| 成年人黄色毛片网站| 一级a爱视频在线免费观看| 亚洲九九香蕉| 久久久久久久久中文| 午夜福利,免费看| 美女扒开内裤让男人捅视频| 国产精品香港三级国产av潘金莲| 可以免费在线观看a视频的电影网站| 此物有八面人人有两片| 十八禁人妻一区二区| 欧美 亚洲 国产 日韩一| 国产三级黄色录像| 看免费av毛片| 亚洲熟妇熟女久久| 精品国产乱子伦一区二区三区| 国产欧美日韩一区二区三| 91麻豆av在线| 搡老岳熟女国产| 亚洲免费av在线视频| 日韩免费av在线播放| 如日韩欧美国产精品一区二区三区| 亚洲欧美日韩另类电影网站| 女生性感内裤真人,穿戴方法视频| 国产精品一区二区在线不卡| 1024香蕉在线观看| 精品第一国产精品| 欧美黑人欧美精品刺激| 欧美久久黑人一区二区| 日本精品一区二区三区蜜桃| 国产在线精品亚洲第一网站| 国产精品免费一区二区三区在线| xxx96com| 亚洲av成人av| 怎么达到女性高潮| 亚洲精品粉嫩美女一区| 亚洲色图综合在线观看| АⅤ资源中文在线天堂| 50天的宝宝边吃奶边哭怎么回事| 国产欧美日韩精品亚洲av| 亚洲天堂国产精品一区在线| 少妇被粗大的猛进出69影院| 欧美大码av| 婷婷六月久久综合丁香| 久久久久精品国产欧美久久久| 日韩 欧美 亚洲 中文字幕| 成年女人毛片免费观看观看9| 波多野结衣高清无吗| 一级作爱视频免费观看| 亚洲专区中文字幕在线| 国产国语露脸激情在线看| 一进一出抽搐gif免费好疼| 一区在线观看完整版| 身体一侧抽搐| 国产熟女午夜一区二区三区| 每晚都被弄得嗷嗷叫到高潮| 一进一出抽搐动态| 97碰自拍视频| 国产区一区二久久| 精品久久久久久,| 最新在线观看一区二区三区| 搡老岳熟女国产| 老司机午夜福利在线观看视频| 在线视频色国产色| 欧美一级毛片孕妇| 国产高清激情床上av| 国产成人啪精品午夜网站| 精品一品国产午夜福利视频| 久久伊人香网站| av欧美777| 国产激情久久老熟女| avwww免费| 午夜精品久久久久久毛片777| 妹子高潮喷水视频| 久99久视频精品免费| 精品电影一区二区在线| 99久久精品国产亚洲精品| 亚洲少妇的诱惑av| 性欧美人与动物交配| 国产野战对白在线观看| 欧美中文日本在线观看视频| 美女免费视频网站| 一卡2卡三卡四卡精品乱码亚洲| 中文字幕人成人乱码亚洲影| 免费久久久久久久精品成人欧美视频| 精品国产美女av久久久久小说| 中文字幕最新亚洲高清| www.999成人在线观看| 50天的宝宝边吃奶边哭怎么回事| av有码第一页| av电影中文网址| 黄频高清免费视频| 九色亚洲精品在线播放| 18禁裸乳无遮挡免费网站照片 | 好男人电影高清在线观看| 黄色片一级片一级黄色片| 日本免费一区二区三区高清不卡 | 国产真人三级小视频在线观看| 欧美日韩亚洲国产一区二区在线观看| 精品国产美女av久久久久小说| 国产精品一区二区在线不卡| 国产一区二区三区综合在线观看| 色播在线永久视频| 91av网站免费观看| 欧美精品亚洲一区二区| 午夜福利视频1000在线观看 | 久久久国产成人精品二区| 97人妻精品一区二区三区麻豆 | 免费在线观看日本一区| 一个人免费在线观看的高清视频| 久久精品亚洲熟妇少妇任你| 欧美在线一区亚洲| 精品不卡国产一区二区三区| 欧美成狂野欧美在线观看| 亚洲一区二区三区色噜噜| 后天国语完整版免费观看| 老司机靠b影院| 一进一出抽搐动态| 亚洲国产毛片av蜜桃av| 色在线成人网| 日本一区二区免费在线视频| 国产野战对白在线观看| 午夜久久久在线观看| 久热这里只有精品99| 成人18禁高潮啪啪吃奶动态图| 免费高清视频大片| 亚洲中文日韩欧美视频| 国产高清有码在线观看视频 | 成人18禁高潮啪啪吃奶动态图| 91精品三级在线观看| 91精品国产国语对白视频| 国产av精品麻豆| 欧美日韩瑟瑟在线播放| 18美女黄网站色大片免费观看| 精品国产亚洲在线| 国产欧美日韩综合在线一区二区| 天天躁狠狠躁夜夜躁狠狠躁| www.熟女人妻精品国产| 亚洲成av片中文字幕在线观看| 真人做人爱边吃奶动态| 51午夜福利影视在线观看| av免费在线观看网站| 两性夫妻黄色片| 久久人人97超碰香蕉20202| 国产色视频综合| 精品少妇一区二区三区视频日本电影| 51午夜福利影视在线观看| 国产熟女xx| 欧美日韩亚洲综合一区二区三区_| 一区二区三区国产精品乱码| 国产成年人精品一区二区| 欧美大码av| 国产又爽黄色视频| 国产成人影院久久av| 亚洲午夜理论影院| 女性生殖器流出的白浆| 亚洲自偷自拍图片 自拍| 久久亚洲真实| 悠悠久久av| x7x7x7水蜜桃| 欧美黑人精品巨大| 国产99久久九九免费精品| 俄罗斯特黄特色一大片| 亚洲专区国产一区二区| 在线观看免费午夜福利视频| 亚洲第一av免费看| xxx96com| 黄色视频,在线免费观看| 欧美不卡视频在线免费观看 | 搡老妇女老女人老熟妇| 午夜两性在线视频| 一进一出抽搐动态| 免费少妇av软件| 国产精品一区二区在线不卡| 久久久久久国产a免费观看| 欧美 亚洲 国产 日韩一| 久久精品成人免费网站| 国产高清视频在线播放一区| 国产区一区二久久| 国产私拍福利视频在线观看| 午夜日韩欧美国产| av超薄肉色丝袜交足视频| 香蕉久久夜色| 少妇被粗大的猛进出69影院| xxx96com| 俄罗斯特黄特色一大片| 亚洲五月色婷婷综合| 在线观看免费午夜福利视频| 久久国产精品男人的天堂亚洲| 亚洲精品国产色婷婷电影| 国产一区二区激情短视频| 欧美性长视频在线观看| 两性夫妻黄色片| 免费看a级黄色片| 美女扒开内裤让男人捅视频| 欧美日本中文国产一区发布| 不卡av一区二区三区| 1024视频免费在线观看| 91字幕亚洲| 美女扒开内裤让男人捅视频| 久久精品人人爽人人爽视色| 国产免费男女视频| 99riav亚洲国产免费| 午夜精品国产一区二区电影| 一卡2卡三卡四卡精品乱码亚洲| 亚洲久久久国产精品| av电影中文网址| 丝袜人妻中文字幕| av天堂在线播放| 婷婷丁香在线五月| 国产成年人精品一区二区| 国产熟女xx| 久久久久久久久久久久大奶| 少妇 在线观看| 18美女黄网站色大片免费观看| 老司机靠b影院| 久久精品国产99精品国产亚洲性色 | 国产伦一二天堂av在线观看| 1024视频免费在线观看| 乱人伦中国视频| 国内久久婷婷六月综合欲色啪| 亚洲中文av在线| 99国产精品一区二区三区| 国产亚洲av嫩草精品影院| av天堂在线播放| 高清在线国产一区| 免费高清在线观看日韩| 女同久久另类99精品国产91| 99久久精品国产亚洲精品| 欧美午夜高清在线| 91九色精品人成在线观看| 麻豆av在线久日| 久久久久亚洲av毛片大全| 国产片内射在线| 免费高清在线观看日韩| 久久香蕉精品热| 女人精品久久久久毛片| 1024香蕉在线观看| 久久精品亚洲精品国产色婷小说| 两性夫妻黄色片| 搡老岳熟女国产| 国产99久久九九免费精品| 久久久久久久精品吃奶| 18禁观看日本| 国产精品永久免费网站| 嫩草影院精品99| 午夜两性在线视频| 久久久国产成人精品二区| 中文字幕人妻丝袜一区二区| 女性被躁到高潮视频| 中文字幕人妻熟女乱码| 国产又色又爽无遮挡免费看| 免费一级毛片在线播放高清视频 | 午夜福利高清视频| 色尼玛亚洲综合影院| 亚洲狠狠婷婷综合久久图片| 侵犯人妻中文字幕一二三四区| 美女 人体艺术 gogo| 亚洲视频免费观看视频| 国产精品亚洲美女久久久| 亚洲五月婷婷丁香| 婷婷精品国产亚洲av在线| 九色国产91popny在线| 18禁美女被吸乳视频| 99久久久亚洲精品蜜臀av| 国产激情久久老熟女| 午夜福利免费观看在线| 在线观看66精品国产| 女人精品久久久久毛片| 国产精品一区二区三区四区久久 | 12—13女人毛片做爰片一| 美女扒开内裤让男人捅视频| 一个人免费在线观看的高清视频| 黄网站色视频无遮挡免费观看| 少妇的丰满在线观看| 久久久水蜜桃国产精品网| 欧美精品亚洲一区二区| 日本撒尿小便嘘嘘汇集6| 欧美黑人欧美精品刺激| 亚洲午夜精品一区,二区,三区| 国产成人一区二区三区免费视频网站| 国产免费av片在线观看野外av| 搡老熟女国产l中国老女人| 久久午夜亚洲精品久久| 一区福利在线观看| 国产亚洲精品av在线| 欧美乱妇无乱码| 日韩精品免费视频一区二区三区| 国产亚洲精品综合一区在线观看 | av网站免费在线观看视频| 伊人久久大香线蕉亚洲五| 久久影院123| 少妇裸体淫交视频免费看高清 | 久久国产亚洲av麻豆专区| 丝袜人妻中文字幕| 国产又爽黄色视频| 久久久久久久久中文| 午夜福利视频1000在线观看 | 欧美最黄视频在线播放免费| 免费搜索国产男女视频| 神马国产精品三级电影在线观看 | 校园春色视频在线观看| 女性生殖器流出的白浆| 日韩中文字幕欧美一区二区| 99久久综合精品五月天人人| 午夜福利免费观看在线| 妹子高潮喷水视频| 多毛熟女@视频| 欧美日韩乱码在线| 亚洲专区中文字幕在线| xxx96com| av网站免费在线观看视频| 国产野战对白在线观看| 亚洲精品av麻豆狂野| 亚洲人成电影观看| 美女免费视频网站| 精品卡一卡二卡四卡免费| 国产精华一区二区三区|