0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計(jì)算機(jī)視覺(jué)中主要的五大技術(shù)

新機(jī)器視覺(jué) ? 來(lái)源:全球人工智能 ? 作者:全球人工智能 ? 2021-06-18 11:18 ? 次閱讀

摘要:本文主要介紹計(jì)算機(jī)視覺(jué)中主要的五大技術(shù),分別為圖像分類、目標(biāo)檢測(cè)、目標(biāo)跟蹤、語(yǔ)義分割以及實(shí)例分割。針對(duì)每項(xiàng)技術(shù)都給出了基本概念及相應(yīng)的典型方法,簡(jiǎn)單通俗、適合閱讀。

計(jì)算機(jī)視覺(jué)是當(dāng)前最熱門的研究之一,是一門多學(xué)科交叉的研究,涵蓋計(jì)算機(jī)科學(xué)(圖形學(xué)、算法、理論研究等)、數(shù)學(xué)(信息檢索、機(jī)器學(xué)習(xí))、工程(機(jī)器人、NLP等)、生物學(xué)(神經(jīng)系統(tǒng)科學(xué))和心理學(xué)(認(rèn)知科學(xué))。由于計(jì)算機(jī)視覺(jué)表示對(duì)視覺(jué)環(huán)境及背景的相對(duì)理解,很多科學(xué)家相信,這一領(lǐng)域的研究將為人工智能行業(yè)的發(fā)展奠定基礎(chǔ)。

那么,什么是計(jì)算機(jī)視覺(jué)呢?下面是一些公認(rèn)的定義:

1.從圖像中清晰地、有意義地描述物理對(duì)象的結(jié)構(gòu)(Ballard & Brown,1982);

2.由一個(gè)或多個(gè)數(shù)字圖像計(jì)算立體世界的性質(zhì)(Trucco & Verri,1998);

3.基于遙感圖像對(duì)真實(shí)物體和場(chǎng)景做出有用的決定(Sockman & Shapiro,2001);

那么,為什么研究計(jì)算機(jī)視覺(jué)呢?答案很明顯,從該領(lǐng)域可以衍生出一系列的應(yīng)用程序,比如:

1.人臉識(shí)別:人臉檢測(cè)算法,能夠從照片中認(rèn)出某人的身份;

2.圖像檢索:類似于谷歌圖像使用基于內(nèi)容的查詢來(lái)搜索相關(guān)圖像,算法返回與3.查詢內(nèi)容最佳匹配的圖像。

4.游戲和控制:體感游戲;

5.監(jiān)控:公共場(chǎng)所隨處可見(jiàn)的監(jiān)控?cái)z像機(jī),用來(lái)監(jiān)視可疑行為;

6.生物識(shí)別技術(shù):指紋、虹膜和人臉匹配是生物特征識(shí)別中常用的方法;

7.智能汽車:視覺(jué)仍然是觀察交通標(biāo)志、信號(hào)燈及其它視覺(jué)特征的主要信息來(lái)源;

正如斯坦福大學(xué)公開(kāi)課CS231所言,計(jì)算機(jī)視覺(jué)任務(wù)大多是基于卷積神經(jīng)網(wǎng)絡(luò)完成。比如圖像分類、定位和檢測(cè)等。那么,對(duì)于計(jì)算機(jī)視覺(jué)而言,有哪些任務(wù)是占據(jù)主要地位并對(duì)世界有所影響的呢?本篇文章將分享給讀者5種重要的計(jì)算機(jī)視覺(jué)技術(shù),以及其相關(guān)的深度學(xué)習(xí)模型和應(yīng)用程序。相信這5種技術(shù)能夠改變你對(duì)世界的看法。

1.圖像分類

圖像分類這一任務(wù)在我們的日常生活中經(jīng)常發(fā)生,我們習(xí)慣了于此便不以為然。每天早上洗漱刷牙需要拿牙刷、毛巾等生活用品,如何準(zhǔn)確的拿到這些用品便是一個(gè)圖像分類任務(wù)。官方定義為:給定一組圖像集,其中每張圖像都被標(biāo)記了對(duì)應(yīng)的類別。之后為一組新的測(cè)試圖像集預(yù)測(cè)其標(biāo)簽類別,并測(cè)量預(yù)測(cè)準(zhǔn)確性。

如何編寫一個(gè)可以將圖像分類的算法呢?計(jì)算機(jī)視覺(jué)研究人員已經(jīng)提出了一種數(shù)據(jù)驅(qū)動(dòng)的方法來(lái)解決這個(gè)問(wèn)題。研究人員在代碼中不再關(guān)心圖像如何表達(dá),而是為計(jì)算機(jī)提供許多很多圖像(包含每個(gè)類別),之后開(kāi)發(fā)學(xué)習(xí)算法,讓計(jì)算機(jī)自己學(xué)習(xí)這些圖像的特征,之后根據(jù)學(xué)到的特征對(duì)圖像進(jìn)行分類。

鑒于此,完整的圖像分類步驟一般形式如下:

1.首先,輸入一組訓(xùn)練圖像數(shù)據(jù)集;

2.然后,使用該訓(xùn)練集訓(xùn)練一個(gè)分類器,該分類器能夠?qū)W習(xí)每個(gè)類別的特征;

3.最后,使用測(cè)試集來(lái)評(píng)估分類器的性能,即將預(yù)測(cè)出的結(jié)果與真實(shí)類別標(biāo)記進(jìn)行比較;

對(duì)于圖像分類而言,最受歡迎的方法是卷積神經(jīng)網(wǎng)絡(luò)(CNN)。CNN是深度學(xué)習(xí)中的一種常用方法,其性能遠(yuǎn)超一般的機(jī)器學(xué)習(xí)算法。CNN網(wǎng)絡(luò)結(jié)構(gòu)基本是由卷積層、池化層以及全連接層組成,其中,卷積層被認(rèn)為是提取圖像特征的主要部件,它類似于一個(gè)“掃描儀”,通過(guò)卷積核與圖像像素矩陣進(jìn)行卷積運(yùn)算,每次只“掃描”卷積核大小的尺寸,之后滑動(dòng)到下一個(gè)區(qū)域進(jìn)行相關(guān)的運(yùn)算,這種計(jì)算叫作滑動(dòng)窗口。

e1afcc7c-cf68-11eb-9e57-12bb97331649.jpg

從圖中可以看到,輸入圖像送入卷積神經(jīng)網(wǎng)絡(luò)中,通過(guò)卷積層進(jìn)行特征提取,之后通過(guò)池化層過(guò)濾細(xì)節(jié)(一般采用最大值池化、平均池化),最后在全連接層進(jìn)行特征展開(kāi),送入相應(yīng)的分類器得到其分類結(jié)果。

大多數(shù)圖像分類算法都是在ImageNet數(shù)據(jù)集上訓(xùn)練的,該數(shù)據(jù)集由120萬(wàn)張的圖像組成,涵蓋1000個(gè)類別,該數(shù)據(jù)集也可以稱作改變?nèi)斯ぶ悄芎褪澜绲臄?shù)據(jù)集。ImagNet 數(shù)據(jù)集讓人們意識(shí)到,構(gòu)建優(yōu)良數(shù)據(jù)集的工作是 AI 研究的核心,數(shù)據(jù)和算法一樣至關(guān)重要。為此,世界組織也舉辦了針對(duì)該數(shù)據(jù)集的挑戰(zhàn)賽——ImageNet挑戰(zhàn)賽。

第一屆ImageNet挑戰(zhàn)賽的第一名是由Alex Krizhevsky(NIPS 2012)獲得,采用的方法是深層卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。在該模型中,采用了一些技巧,比如最大值池化、線性修正單元激活函數(shù)ReLU以及使用GPU仿真計(jì)算等,AlexNet模型拉開(kāi)了深度學(xué)習(xí)研究的序幕。

e1cd58a0-cf68-11eb-9e57-12bb97331649.jpg

自從AlexNet網(wǎng)絡(luò)模型贏得比賽之后,有很多基于CNN的算法也在ImageNet上取得了特別好的成績(jī),比如ZFNet(2013)、GoogleNet(2014)、VGGNet(2014)、ResNet(2015)以及DenseNet(2016)等。

2.目標(biāo)檢測(cè)

e1fe1a76-cf68-11eb-9e57-12bb97331649.jpg

目標(biāo)檢測(cè)通常是從圖像中輸出單個(gè)目標(biāo)的Bounding Box(邊框)以及標(biāo)簽。比如,在汽車檢測(cè)中,必須使用邊框檢測(cè)出給定圖像中的所有車輛。

之前在圖像分類任務(wù)中大放光彩的CNN同樣也可以應(yīng)用于此。第一個(gè)高效模型是R-CNN(基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)),如下圖所示。在該網(wǎng)絡(luò)中,首先掃描圖像并使用搜索算法生成可能區(qū)域,之后對(duì)每個(gè)可能區(qū)域運(yùn)行CNN,最后將每個(gè)CNN網(wǎng)絡(luò)的輸出送入SVM分類器中來(lái)對(duì)區(qū)域進(jìn)行分類和線性回歸,并用邊框標(biāo)注目標(biāo)。

e215c428-cf68-11eb-9e57-12bb97331649.jpg

本質(zhì)上,是將物體檢測(cè)轉(zhuǎn)換成圖像分類問(wèn)題。但該方法存在一些問(wèn)題,比如訓(xùn)練速度慢,耗費(fèi)內(nèi)存、預(yù)測(cè)時(shí)間長(zhǎng)等。

為了解決上述這些問(wèn)題,Ross Girshickyou提出Fast R-CNN算法,從兩個(gè)方面提升了檢測(cè)速度:

1)在給出建議區(qū)域之前執(zhí)行特征提取,從而只需在整幅圖像上運(yùn)行一次CNN;2)使用Softmax分類器代替SVM分類器;

e24e9a00-cf68-11eb-9e57-12bb97331649.jpg

雖然Fast R-CNN在速度方面有所提升,然而,選擇搜索算法仍然需要大量的時(shí)間來(lái)生成建議區(qū)域。為此又提出了Faster R-CNN算法,該模型提出了候選區(qū)域生成網(wǎng)絡(luò)(RPN),用來(lái)代替選擇搜索算法,將所有內(nèi)容整合在一個(gè)網(wǎng)絡(luò)中,大大提高了檢測(cè)速度和精度。

e25c6f04-cf68-11eb-9e57-12bb97331649.jpg

近年來(lái),目標(biāo)檢測(cè)研究趨勢(shì)主要向更快、更有效的檢測(cè)系統(tǒng)發(fā)展。目前已經(jīng)有一些其它的方法可供使用,比如YOLO、SSD以及R-FCN等。

3.目標(biāo)跟蹤

目標(biāo)跟蹤是指在給定場(chǎng)景中跟蹤感興趣的具體對(duì)象或多個(gè)對(duì)象的過(guò)程。簡(jiǎn)單來(lái)說(shuō),給出目標(biāo)在跟蹤視頻第一幀中的初始狀態(tài)(如位置、尺寸),自動(dòng)估計(jì)目標(biāo)物體在后續(xù)幀中的狀態(tài)。該技術(shù)對(duì)自動(dòng)駕駛汽車等領(lǐng)域顯得至關(guān)重要。

根據(jù)觀察模型,目標(biāo)跟蹤可以分為兩類:產(chǎn)生式(generative method)和判別式(discriminative method)。其中,產(chǎn)生式方法主要運(yùn)用生成模型描述目標(biāo)的表觀特征,之后通過(guò)搜索候選目標(biāo)來(lái)最小化重構(gòu)誤差。常用的算法有稀疏編碼(sparse coding)、主成分分析(PCA)等。與之相對(duì)的,判別式方法通過(guò)訓(xùn)練分類器來(lái)區(qū)分目標(biāo)和背景,其性能更為穩(wěn)定,逐漸成為目標(biāo)跟蹤這一領(lǐng)域的主要研究方法。常用的算法有堆棧自動(dòng)編碼器(SAE)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)等。

使用SAE方法進(jìn)行目標(biāo)跟蹤的最經(jīng)典深層網(wǎng)絡(luò)是Deep Learning Tracker(DLT),提出了離線預(yù)訓(xùn)練和在線微調(diào)。該方法的主要步驟如下:

1.先使用棧式自動(dòng)編碼器(SDAE)在大規(guī)模自然圖像數(shù)據(jù)集上進(jìn)行無(wú)監(jiān)督離線預(yù)訓(xùn)練來(lái)獲得通用的物體表征能力。

2.將預(yù)訓(xùn)練網(wǎng)絡(luò)的編碼部分與分類器相結(jié)合組成分類網(wǎng)絡(luò),然后利用從初始幀獲得的正、負(fù)樣本對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào),使其可以區(qū)分當(dāng)前對(duì)象和背景。在跟蹤過(guò)程中,選擇分類網(wǎng)絡(luò)輸出得分最大的patch作為最終預(yù)測(cè)目標(biāo)。

3.模型更新策略采用限定閾值的方法。

基于CNN完成目標(biāo)跟蹤的典型算法是FCNT和MD Net。

FCNT的亮點(diǎn)之一在于對(duì)ImageNet上預(yù)訓(xùn)練得到的CNN特征在目標(biāo)跟蹤任務(wù)上的性能做了深入的分析:

1.CNN的特征圖可以用來(lái)做跟蹤目標(biāo)的定位;

2.CNN的許多特征圖存在噪聲或者和物體跟蹤區(qū)分目標(biāo)和背景的任務(wù)關(guān)聯(lián)較小;

3.CNN不同層提取的特征不一樣。高層特征更加抽象,擅長(zhǎng)區(qū)分不同類別的物體,而低層特征更加關(guān)注目標(biāo)的局部細(xì)節(jié)。

基于以上觀察,F(xiàn)CNT最終提出了如下圖所示的模型結(jié)構(gòu):

1.對(duì)于Conv4-3和Con5-3采用VGG網(wǎng)絡(luò)的結(jié)構(gòu),選出和當(dāng)前跟蹤目標(biāo)最相關(guān)的特征圖通道;

2.為了避免過(guò)擬合,對(duì)篩選出的Conv5-3和Conv4-3特征分別構(gòu)建捕捉類別信息GNet和SNet;

3.在第一幀中使用給出的邊框生成熱度圖(heap map)回歸訓(xùn)練SNet和GNet;

4.對(duì)于每一幀,其預(yù)測(cè)結(jié)果為中心裁剪區(qū)域,將其分別輸入GNet和SNet中,得到兩個(gè)預(yù)測(cè)的熱圖,并根據(jù)是否有干擾來(lái)決定使用哪個(gè)熱圖。

e3a39e5a-cf68-11eb-9e57-12bb97331649.jpg

區(qū)別與FCNT,MD Net使用視頻中所有序列來(lái)跟蹤它們的運(yùn)動(dòng)。但序列訓(xùn)練也存在問(wèn)題,即不同跟蹤序列與跟蹤目標(biāo)完全不一樣。最終MD Net提出多域的訓(xùn)練思想,網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示,該網(wǎng)絡(luò)分為兩個(gè)部分:共享層和分類層。網(wǎng)絡(luò)結(jié)構(gòu)部分用于提取特征,最后分類層區(qū)分不同的類別。

e3b5d714-cf68-11eb-9e57-12bb97331649.jpg

4.語(yǔ)義分割

e3e89a50-cf68-11eb-9e57-12bb97331649.jpg

計(jì)算機(jī)視覺(jué)的核心是分割過(guò)程,它將整個(gè)圖像分成像素組,然后對(duì)其進(jìn)行標(biāo)記和分類。語(yǔ)言分割試圖在語(yǔ)義上理解圖像中每個(gè)像素的角色(例如,汽車、摩托車等)。

CNN同樣在此項(xiàng)任務(wù)中展現(xiàn)了其優(yōu)異的性能。典型的方法是FCN,結(jié)構(gòu)如下圖所示。FCN模型輸入一幅圖像后直接在輸出端得到密度預(yù)測(cè),即每個(gè)像素所屬的類別,從而得到一個(gè)端到端的方法來(lái)實(shí)現(xiàn)圖像語(yǔ)義分割。

e3f7635a-cf68-11eb-9e57-12bb97331649.jpg

與FCN上采樣不同,SegNet將最大池化轉(zhuǎn)移至解碼器中,改善了分割分辨率。提升了內(nèi)存的使用效率。

e4243218-cf68-11eb-9e57-12bb97331649.jpg

還有一些其他的方法,比如全卷積網(wǎng)絡(luò)、擴(kuò)展卷積,DeepLab以及RefineNet等。

5.實(shí)例分割

e4583dba-cf68-11eb-9e57-12bb97331649.jpg

除了語(yǔ)義分割之外,實(shí)例分割還分割了不同的類實(shí)例,例如用5種不同顏色標(biāo)記5輛汽車。在分類中,通常有一個(gè)以一個(gè)物體為焦點(diǎn)的圖像,任務(wù)是說(shuō)出這個(gè)圖像是什么。但是為了分割實(shí)例,我們需要執(zhí)行更復(fù)雜的任務(wù)。我們看到復(fù)雜的景象,有多個(gè)重疊的物體和日常背景,我們不僅對(duì)這些日常物體進(jìn)行分類,而且還確定它們的邊界、差異和彼此之間的關(guān)系。

到目前為止,我們已經(jīng)看到了如何以許多有趣的方式使用CNN功能來(lái)在帶有邊界框的圖像中有效地定位日常用品。我們可以擴(kuò)展這些技術(shù)來(lái)定位每個(gè)對(duì)象的精確像素,而不僅僅是邊界框嗎?

CNN在此項(xiàng)任務(wù)中同樣表現(xiàn)優(yōu)異,典型算法是Mask R-CNN。Mask R-CNN在Faster R-CNN的基礎(chǔ)上添加了一個(gè)分支以輸出二元掩膜。該分支與現(xiàn)有的分類和邊框回歸并行,如下圖所示:

e492b486-cf68-11eb-9e57-12bb97331649.jpg

Faster-RCNN在實(shí)例分割任務(wù)中表現(xiàn)不好,為了修正其缺點(diǎn),Mask R-CNN提出了RolAlign層,通過(guò)調(diào)整Rolpool來(lái)提升精度。從本質(zhì)上講,RolAlign使用雙線性插值避免了取整誤差,該誤差導(dǎo)致檢測(cè)和分割不準(zhǔn)確。

一旦掩膜被生成,Mask R-CNN結(jié)合分類器和邊框就能產(chǎn)生非常精準(zhǔn)的分割:

e4c53136-cf68-11eb-9e57-12bb97331649.jpg

結(jié)論

以上五種計(jì)算機(jī)視覺(jué)技術(shù)可以幫助計(jì)算機(jī)從單個(gè)或一系列圖像中提取、分析和理解有用信息。此外,還有很多其它的先進(jìn)技術(shù)等待我們的探索,比如風(fēng)格轉(zhuǎn)換、動(dòng)作識(shí)別等。希望本文能夠引導(dǎo)你改變看待這個(gè)世界的方式。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:一文讀懂深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域中的應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    計(jì)算機(jī)視覺(jué)有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺(jué)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像和視頻的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也
    的頭像 發(fā)表于 08-14 09:49 ?288次閱讀

    計(jì)算機(jī)視覺(jué)技術(shù)的AI算法模型

    計(jì)算機(jī)視覺(jué)技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像及視頻的信息。為了實(shí)現(xiàn)這一目標(biāo),
    的頭像 發(fā)表于 07-24 12:46 ?355次閱讀

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)有什么區(qū)別

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)是兩個(gè)密切相關(guān)但又有所區(qū)別的概念。 一、定義 機(jī)器視覺(jué) 機(jī)器視覺(jué),又稱為計(jì)算機(jī)
    的頭像 發(fā)表于 07-16 10:23 ?282次閱讀

    計(jì)算機(jī)視覺(jué)五大技術(shù)

    計(jì)算機(jī)視覺(jué)作為深度學(xué)習(xí)領(lǐng)域最熱門的研究方向之一,其技術(shù)涵蓋了多個(gè)方面,為人工智能的發(fā)展開(kāi)拓了廣闊的道路。以下是對(duì)計(jì)算機(jī)視覺(jué)
    的頭像 發(fā)表于 07-10 18:26 ?902次閱讀

    計(jì)算機(jī)視覺(jué)的工作原理和應(yīng)用

    圖像和視頻中提取有用信息,進(jìn)而進(jìn)行決策和行動(dòng)。自1960年代第一批學(xué)術(shù)論文問(wèn)世以來(lái),計(jì)算機(jī)視覺(jué)技術(shù)已經(jīng)取得了長(zhǎng)足的發(fā)展,并在多個(gè)領(lǐng)域展現(xiàn)出巨大的應(yīng)用潛力和價(jià)值。
    的頭像 發(fā)表于 07-10 18:24 ?1068次閱讀

    計(jì)算機(jī)視覺(jué)與人工智能的關(guān)系是什么

    、交流等方面。計(jì)算機(jī)視覺(jué)與人工智能之間存在著密切的聯(lián)系,計(jì)算機(jī)視覺(jué)是人工智能的一個(gè)重要分支,也是實(shí)現(xiàn)人工智能的關(guān)鍵技術(shù)之一。
    的頭像 發(fā)表于 07-09 09:25 ?306次閱讀

    計(jì)算機(jī)視覺(jué)和機(jī)器視覺(jué)區(qū)別在哪

    ,旨在實(shí)現(xiàn)對(duì)圖像和視頻的自動(dòng)分析和理解。 機(jī)器視覺(jué) 機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)的一個(gè)分支,主要應(yīng)用于工業(yè)自動(dòng)化領(lǐng)域。它利用
    的頭像 發(fā)表于 07-09 09:22 ?289次閱讀

    計(jì)算機(jī)視覺(jué)在人工智能領(lǐng)域有哪些主要應(yīng)用?

    計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域的一個(gè)重要分支,它主要研究如何讓計(jì)算機(jī)能夠像人類一樣理解和處理圖像和視頻數(shù)據(jù)。計(jì)算機(jī)
    的頭像 發(fā)表于 07-09 09:14 ?340次閱讀

    計(jì)算機(jī)視覺(jué)屬于人工智能嗎

    屬于,計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域的一個(gè)重要分支。 引言 計(jì)算機(jī)視覺(jué)是一門研究如何使計(jì)算機(jī)具有視覺(jué)
    的頭像 發(fā)表于 07-09 09:11 ?558次閱讀

    深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了顯著的成果。計(jì)算機(jī)
    的頭像 發(fā)表于 07-01 11:38 ?433次閱讀

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)的區(qū)別

    在人工智能和自動(dòng)化技術(shù)的快速發(fā)展,機(jī)器視覺(jué)(Machine Vision, MV)和計(jì)算機(jī)視覺(jué)(Computer Vision, CV)作
    的頭像 發(fā)表于 06-06 17:24 ?826次閱讀

    計(jì)算機(jī)視覺(jué)主要研究方向

    計(jì)算機(jī)視覺(jué)(Computer Vision, CV)作為人工智能領(lǐng)域的一個(gè)重要分支,致力于使計(jì)算機(jī)能夠像人眼一樣理解和解釋圖像和視頻的信息。隨著深度學(xué)習(xí)、大數(shù)據(jù)等
    的頭像 發(fā)表于 06-06 17:17 ?520次閱讀

    計(jì)算機(jī)視覺(jué)的十大算法

    視覺(jué)技術(shù)的發(fā)展起到了重要的推動(dòng)作用。一、圖像分割算法圖像分割算法是計(jì)算機(jī)視覺(jué)領(lǐng)域的基礎(chǔ)算法之一,它的主要任務(wù)是將圖像分割成不同的區(qū)域或?qū)ο蟆?/div>
    的頭像 發(fā)表于 02-19 13:26 ?1045次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的十大算法

    什么是計(jì)算機(jī)視覺(jué)?計(jì)算機(jī)視覺(jué)的三種方法

    計(jì)算機(jī)視覺(jué)是指通過(guò)為計(jì)算機(jī)賦予人類視覺(jué)這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計(jì)算機(jī)
    的頭像 發(fā)表于 11-16 16:38 ?4160次閱讀
    什么是<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>?<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的三種方法

    最適合AI應(yīng)用的計(jì)算機(jī)視覺(jué)類型是什么?

    計(jì)算機(jī)視覺(jué)是指為計(jì)算機(jī)賦予人類視覺(jué)這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計(jì)算機(jī)
    的頭像 發(fā)表于 11-15 16:38 ?346次閱讀
    最適合AI應(yīng)用的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>類型是什么?