0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個允許在瀏覽器中進行實時人體姿勢判斷的機器學(xué)習(xí)模型

Tensorflowers ? 來源:未知 ? 作者:李倩 ? 2018-08-22 11:43 ? 次閱讀

通過與 Google 創(chuàng)意實驗室的合作,我很高興地宣布 TensorFlow.js 版本的 PoseNet1,2 發(fā)布了,這是一個允許在瀏覽器中進行實時人體姿勢判斷的機器學(xué)習(xí)模型。

PoseNet 可以使用單一姿勢或多種姿勢算法檢測到圖像和視頻中的人物 - 所有這些均來自瀏覽器

那么究竟什么是姿勢判斷呢? 姿勢判斷是指在圖像和視頻中檢測人物形象的計算機視覺技術(shù),比如可以確定某個人的肘部出現(xiàn)在圖像中的位置。 需要澄清的是,這項技術(shù)無法識別圖像中的人物到底是誰 –因為沒有任何與識別身份相關(guān)的個人身份信息。 該運算法則僅僅是判斷人體主要關(guān)節(jié)的位置。

好吧,知道為什么這是一個令人興奮的開始? 姿勢判斷有許多用途,從對身體做出反應(yīng)的交互式裝置到增強現(xiàn)實,動畫,健身用途等等。 我們希望此模型的可訪問性能夠激發(fā)更多開發(fā)人員和制造商嘗試將姿態(tài)檢測應(yīng)用到他們自己的項目中去。 雖然許多可選的姿勢檢測系統(tǒng)都已開源,但都需要配備專門的硬件和/或攝像頭,以及繁復(fù)的系統(tǒng)設(shè)置。

PensNet 在 TensorFlow.js 上運行后,只要配備適合網(wǎng)絡(luò)攝像頭的 PC 或手機,任何人可以在網(wǎng)絡(luò)瀏覽器中體驗這項技術(shù)。 由于我們已經(jīng)開源了該模型,因此 Javascript 開發(fā)人員只要通過幾行代碼就能修補和使用這項技術(shù)。更重要的是,這實際上還能有助保護用戶隱私。由于 TensorFlow.js 上的 PoseNet 是在瀏覽器中運行,因此任何姿勢數(shù)據(jù)都不會留在用戶的計算機上。

在深入研究該如何使用這個模型之前,對于那些將該項目付諸實現(xiàn)的人們,讓我們大聲歡呼向他們致敬:發(fā)布在 Wild and PersonLab 上有關(guān)于準確的多人姿勢判斷的文章《自下而上,基于部分的幾何嵌入模型進行人物姿勢判斷及實例分割》背后的谷歌研發(fā)人員 George Papandreou 和 Tyler Zhu, 以及 TensorFlow.js 庫背后的 Google Brain 團隊的工程師 Nikhil Thorat 和 Daniel Smilkov。

PoseNet 入門

PoseNet 可用于判斷單一姿勢或多個姿勢, 這就意味著會有一個檢測圖像/視頻中單人算法版本以及另一個可以檢測圖像/視頻中多個人的版本。 為什么有兩個版本? 單人姿勢檢測器更快更簡單,但是需要圖像中只有一個主體(稍后會深入探討)。 我們首先來講一講簡單易用的單一姿勢版本。

姿勢判斷在上層會分成兩個階段進行:

1. 輸入 RGB 圖像通過卷積神經(jīng)網(wǎng)絡(luò)饋送。

2. 單一姿勢或多姿勢解碼算法用于從模型輸出解碼姿勢,姿勢置信度得分,關(guān)鍵點位置和關(guān)鍵點置信度得分。

稍等一下,這些關(guān)鍵字的含義是什么? 讓我們回顧一下最重要的內(nèi)容:

姿勢 - 在最高級別,PoseNet 將每個檢測到的人的關(guān)鍵點列表和實例級置信度分數(shù)反饋給一個姿勢對象。

PoseNet 反饋檢測到的每個人的置信度值以及檢測到的每個姿勢關(guān)鍵點。 Image Credit:“Microsoft Coco:Context Dataset 中的公共對象”,https://cocodataset.org。

姿勢置信度 –這決定了姿勢判斷的整體置信度。 范圍介于 0.0 到 1.0 之間。 它可以用來隱藏那些幅度不夠大的姿勢。

關(guān)鍵點 –它是判斷人體姿勢的一部分,例如鼻子,右耳,左膝,右腳等。它包含了位置和關(guān)鍵點置信度分數(shù)。 PoseNet 目前可檢測到下圖所示的 17 個關(guān)鍵點:

PoseNet 檢測到的 17 個姿勢關(guān)鍵點

關(guān)鍵點置信度得分 - 這決定了估計關(guān)鍵點位置準確的置信度。 范圍在 0.0 到 1.0 之間。 它可用于隱藏那些不夠強大的關(guān)鍵點。

關(guān)鍵點位置 –檢測到的關(guān)鍵單在原始輸入圖像中的 x 和 y 二維坐標。

第1步:導(dǎo)入 TensorFlow.js 和 PoseNet 庫

將模型的復(fù)雜性抽象化并將功能封裝為易于使用的方法,這方面已經(jīng)做了很多的工作。 讓我們回顧一下如何設(shè)置 PoseNet 項目的基礎(chǔ)知識。

該庫可以使用 npm 安裝:

npm install @tensorflow-models/posenet

并使用 es6 模塊導(dǎo)入:

import * as posenet from '@tensorflow-models/posenet';const net = await posenet.load();

或通過頁面中的 bundle:

第 2a 步:單人姿態(tài)判斷

應(yīng)用于圖像的單人姿勢判斷算法示例

Image Credit:“Microsoft Coco:Context Dataset 中的通用對象”,https://cocodataset.org

如前所述,兩個版本中,單一姿勢判斷算法更簡單,更快速。 它的理想場景是只有一個人居于輸入圖像或視頻中間。 缺點是,如果圖像中有多個人,那么來自兩個人的關(guān)鍵點可能被判斷為同一個單一姿勢的一部分 –意思就是,例如,第 1 個人的左臂和第 2 個人的右膝通過算法被判斷屬于相同的姿勢而被混淆。 如果輸入圖像中包含多人,則應(yīng)該使用多姿勢判斷的算法。

讓我們回顧一下單一姿勢判斷算法的輸入:

輸入圖像元素 - 包含用于預(yù)測姿勢的圖像的 html 元素,例如視頻或圖像標簽。 重要的一點是,輸入的圖像或視頻元素必須是方形的。

圖像比例系數(shù) –是介于 0.2 和 1 之間的數(shù)字。默認為 0.50。 在輸入到網(wǎng)絡(luò)之前的縮放圖像比例。 將此數(shù)值設(shè)置得較低可以縮小圖像,以犧牲精度為代價從而提高速度。

水平翻轉(zhuǎn) - 默認為 false。 姿勢應(yīng)該是水平翻轉(zhuǎn)/鏡像。 對于視頻默認水平翻轉(zhuǎn)的視頻(即網(wǎng)絡(luò)攝像頭),如果您希望姿勢得以正確的方向回饋,應(yīng)將此設(shè)置為 true。

輸出步幅 - 必須為 32,16 或 8。默認值為 16。在內(nèi)部,此參數(shù)會影響神經(jīng)網(wǎng)絡(luò)中圖層的高度和寬度。 在上層來看,它會影響姿勢判斷的精度和速度。 輸出值越低,精度越高但速度越慢;輸出值越高,速度越快但精度越低。 查看輸出步幅對輸出質(zhì)量影響的最佳方法是嘗試使用這個單一姿勢判斷的實例。

現(xiàn)在讓我們回顧一下單一姿勢判斷算法的輸出:

包含姿勢置信度得分和 17 個關(guān)鍵點數(shù)組的姿勢。

每個關(guān)鍵點包含關(guān)鍵點位置和關(guān)鍵點置信度得分。 同樣,所有關(guān)鍵點位置在輸入圖像空間中都有 x 和 y 坐標,并且可以直接映射到圖像上。

這個簡短的代碼塊展示了如何使用單一姿勢判斷算法:

const imageScaleFactor = 0.50;const flipHorizontal = false;const outputStride = 16;

const imageElement = document.getElementById('cat');

// load the posenet modelconst net = await posenet.load();

const pose = await net.estimateSinglePose(imageElement, scaleFactor, flipHorizontal, outputStride)

示例輸出姿勢如下所示:

{ "score": 0.32371445304906, "keypoints": [ { // nose "position": { "x": 301.42237830162, "y": 177.69162777066 }, "score": 0.99799561500549 }, { // left eye "position": { "x": 326.05302262306, "y": 122.9596464932 }, "score": 0.99766051769257 }, { // right eye "position": { "x": 258.72196650505, "y": 127.51624706388 }, "score": 0.99926537275314 }, ... ]}

第 2b 步: 多人姿勢判斷

應(yīng)用于圖像的示例多人姿勢判斷算法

Image Credit: “Microsoft Coco: Common Objects in Context Dataset”,?https://cocodataset.org

多人姿勢判斷算法可以判斷圖像中許多的姿勢/人。 它比單一姿勢算法更為復(fù)雜,且速度稍慢,不過它的優(yōu)點是,如果圖片中出現(xiàn)多個人,他們檢測到的關(guān)鍵點不太可能與錯誤的姿勢相關(guān)聯(lián)。 因此,即使用例是檢測單個人的姿勢,這個算法可能更合乎需要。

此外,該運算法則一個引人入勝的特性是其性能不會因輸入圖像中的人數(shù)多少而受到影響。 不管是檢測 15 個人或 5 個人,計算的時間是相同的。

我們來看一下輸入:

輸入圖像元素 - 與單一姿勢判斷相同

圖像比例系數(shù) - 與單一姿勢判斷相同

水平翻轉(zhuǎn) - 與單一姿勢判斷相同

輸出步幅 - 與單一姿勢判斷相同

幅度最大的姿勢檢測 - 整數(shù)。 默認為 5. 要檢測的幅度最大的姿勢數(shù)值。

姿勢置信度得分閾值 - 0.0 到 1.0。 默認為 0.5。 在較高級別,這將控制回饋的姿勢最低置信度分數(shù)。

非最大抑制(NMS)半徑 –這是一個以像素為單位的數(shù)字。在上層,它會控制返回姿勢之間的最小距離。其默認值為 20,這在大多數(shù)情況下均表現(xiàn)良好。只有在調(diào)整姿勢置信度得分不夠好的情況下,為了過濾掉不太準確的姿勢,該數(shù)值應(yīng)該增加或減少。

查看這些參數(shù)影響的最佳方法是嘗試一下多姿勢判斷的演示。

讓我們再看一下輸出:

一個通過一系列姿勢來解決的承諾。

每個姿勢包含與單人判斷算法中相同描述的信息。

這個短代碼塊展示了如何使用多姿勢判斷算法:

const imageScaleFactor = 0.50;const flipHorizontal = false;const outputStride = 16;// get up to 5 posesconst maxPoseDetections = 5;// minimum confidence of the root part of a poseconst scoreThreshold = 0.5;// minimum distance in pixels between the root parts of posesconst nmsRadius = 20;

const imageElement = document.getElementById('cat');// load posenet

const net = await posenet.load();

const poses = await net.estimateMultiplePoses( imageElement, imageScaleFactor, flipHorizontal, outputStride, maxPoseDetections, scoreThreshold, nmsRadius);

姿勢的示例輸出數(shù)組如下所示:

// array of poses/persons[ { // pose #1 "score": 0.42985695206067, "keypoints": [ { // nose "position": { "x": 126.09371757507, "y": 97.861720561981 }, "score": 0.99710708856583 }, ... ] }, { // pose #2 "score": 0.13461434583673, "keypositions": [ { // nose "position": { "x": 116.58444058895, "y": 99.772533416748 }, "score": 0.9978438615799 }, ... ] }, ... ]

如果您已經(jīng)閱讀過這篇文章,那么您就已經(jīng)了解了 PoseNet 演示的全部內(nèi)容。 這也許是一個很好的停止點。 如果您想深入了解有關(guān)模型和實施的技術(shù)細節(jié)的更多信息,我們邀請您繼續(xù)閱讀下文。

致孜孜不倦的鉆研者:技術(shù)深潛

在本節(jié)中,我們將詳細介紹單一姿勢判斷算法。在上層,該過程如下所示:

使用 PoseNet 的單人姿勢探測器通道

需要注意的一個重要細節(jié)是,研究人員同時訓(xùn)練了 PoseNet 上的一個 ResNet 模型和一個 MobileNet 模型。 雖然 ResNet 模型具有更高的準確性,但對于實時應(yīng)用程序來說,其大尺寸和多層面使頁面加載時間和推理時間變得不太理想。我們使用 MobileNet 模型,因為它是專為移動設(shè)備上運行而設(shè)計的。

注:ResNet 模型鏈接

https://arxiv.org/abs/1512.03385

MobileNet 模型鏈接

https://arxiv.org/abs/1704.04861

再看一下單一姿勢判斷算法

處理模型輸入:輸出步幅的解釋

首先,我們將討論如何通過輸出步幅來獲得 PoseNet 模型輸出(主要是熱圖和偏移矢量)。

PoseNet 模型可以方便地保持圖像大小恒定,意思是不管圖像是否縮小,它能夠以與原始圖像相同的比例預(yù)測姿勢位置。 這就意味著通過設(shè)置我們在運行上面提到的輸出步幅時,在犧牲了性能的情況下,可以將 PoseNet 配置成更高的精度。

輸出步幅決定了我們相對于輸入圖像大小縮小輸出的程度。 它會影響圖層的大小和模型輸出。 輸出步幅越高,網(wǎng)絡(luò)中的層的分辨率和輸出越小,相應(yīng)地它們的精度也越高。 在此應(yīng)用中,輸出步幅可以取值 8,16 或 32。換句話說,在輸出步幅為 32 的情況下,能夠取得最快的表現(xiàn)但是精度卻是最低,而 8 則相反,精度最高但表現(xiàn)最慢。 我們建議從 16 開始。

輸出步幅決定了我們相對于輸入圖像大小縮小輸出的程度。 輸出步幅更高,表現(xiàn)更快,但精度更低

在后臺中,當輸出步幅設(shè)置為 8 或 16 時,減少層中步幅的輸入量就能創(chuàng)建更大的輸出分辨率。 然后使用帶孔卷積核使后續(xù)層中的卷積濾波器具有更寬的視場(當輸出步幅為 32 時不適用帶孔卷積核)。 雖然 Tensorflow 支持帶孔卷積核,但 TensorFlow.js 卻不支持,為此我們添加了一個 PR 來包含它。

模型輸出: 熱圖和偏移矢量

當 PoseNet 處理圖像時,實際上反饋的是熱圖以及偏移矢量,可以對其進行解碼,用以在圖像中找到與姿勢關(guān)鍵點對應(yīng)的高置信度區(qū)域。 我們可以快速討論其中每一個意味著什么,但眼下我們在高級別情況下捕獲的如下圖演示了每個姿勢關(guān)鍵點如何與一個熱圖張量和偏移矢量張量相關(guān)聯(lián)。

PoseNet 反饋的 17 個姿勢關(guān)鍵點中的每一個都與一個熱圖張量和一個偏移矢量張量相關(guān)聯(lián),用于確定關(guān)鍵點的確切位置

這兩個輸出都是具有高度和寬度的 3D 張量,我們將其稱為分辨率。 分辨率根據(jù)以下公式由輸入圖像大小和輸出步幅決定:

Resolution = ((InputImageSize - 1) / OutputStride) + 1

// Example: an input image with a width of 225 pixels and an output// stride of 16 results in an output resolution of 15// 15 = ((225 - 1) / 16) + 1

熱圖

每個熱圖是尺寸為分辨率 x 分辨率 x 17 的 3D 張量,因為 17 是 PoseNet 檢測到的關(guān)鍵點的數(shù)量。 例如,圖像大小為 225,輸出步幅為 16,那么就是 15x15x17。 第三維(17)中的每個切片與特定關(guān)鍵點的熱圖對應(yīng)。 該熱圖中的每個位置都有一個置信度分數(shù),即該關(guān)鍵點類型的一部分存在于該位置的概率。 可以視作原始圖像被分解成 15x15 網(wǎng)格,而熱圖分數(shù)將對每個網(wǎng)格方塊中每個關(guān)鍵點存在的可能性進行分類。

偏移矢量

每個偏移矢量是尺寸分辨率 x 分辨率 x 34 的 3D 張量,其中 34 是關(guān)鍵點的數(shù)量 * 2。圖像尺寸為 225,輸出步幅為 16,那么就是 15x15x34。 由于熱圖是關(guān)鍵點所在的近似值,因此偏移矢量在位置上對應(yīng)于熱圖點,并用于通過沿相應(yīng)熱圖點的矢量行進來預(yù)測關(guān)鍵點的確切位置。 偏移矢量的前 17 個切片包含矢量的 x,最后的 17 個 y。 偏移矢量大小與原始圖像的比例相同。

從模型的輸出判斷姿勢

圖像通過模型后,我們會執(zhí)行一系列計算來判斷輸出的姿勢。 例如,單一姿勢判斷算法會回饋姿勢置信度得分,其本身包含關(guān)鍵點陣列(由部件 ID 索引),每個關(guān)鍵點具有置信度得分和 x,y 位置。

要獲得姿勢的關(guān)鍵點:

在熱圖上進行 S 形激活以獲得分數(shù)。得分= heatmap.sigmoid()

argmax2d 在關(guān)鍵點置信度得分上完成,以獲得熱圖中的x和y索引,每個部分的得分最高,這實際上是該部分最可能存在的位置。這會產(chǎn)生一個大小為 17x2 的張量,每一行都是熱圖中的 y 和 x 索引,每個部分的得分最高。heatmapPositions = scores.argmax(y,x)

通過從對應(yīng)于該部件的熱圖中的 x 和 y 索引的偏移量獲取 x 和 y 來檢索每個部件的偏移矢量。這會產(chǎn)生一個大小為 17x2 的張量,每行是相應(yīng)關(guān)鍵點的偏移量。例如,對于索引 k 處的部分,當熱圖位置為 y 和 d 時,偏移矢量為:offsetVector = [offsets.get(y,x,k),offsets.get(y,x,17 + k)]

為了得到關(guān)鍵點,每個部件的熱圖 x 和 y 乘以輸出步幅,然后加到它們相應(yīng)的偏移矢量,該矢量與原始圖像的比例相同。keypointPositions = heatmapPositions * outputStride + offsetVectors

最后,每個關(guān)鍵點置信度得分是其熱圖位置的置信度得分。姿勢置信度得分是關(guān)鍵點得分的平均值。

多人姿勢判斷

多姿勢判斷運算法則的詳細內(nèi)容就不在本文中一一贅述。 大體來說,該運算法則的不同之處在于它使用了貪婪過程,通過沿著基于部分的圖形來跟隨位移矢量來將關(guān)鍵點分組成姿勢。 確切地說,就是它使用了研究論文 PersonLab 中的快速貪婪解碼算法:人物姿勢判斷和實例分割與自下而上,基于部分的幾何嵌入模型。 有關(guān)多姿勢運算法則的更多信息,請閱讀完整的研究論文或查看代碼。

注:代碼鏈接

https://github.com/tensorflow/tfjs-models/tree/master/posenet/src

最后

我們希望隨著越來越多的模型被移植導(dǎo)入到 TensorFlow.js,機器學(xué)習(xí)的世界變得對新的編碼員和制造者來說更容易接近,更受歡迎,更有趣。 TensorFlow.js 上的 PoseNet 是一個小嘗試,使之成為可能。 我們將很樂意看到你的制作 - 并且不要忘記使用 #tensorflowjs 和 #posenet 來分享你的精彩項目!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 瀏覽器
    +關(guān)注

    關(guān)注

    1

    文章

    1007

    瀏覽量

    34970
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131841
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    327

    瀏覽量

    60413

原文標題:有了 TensorFlow.js,瀏覽器中就能進行實時人體姿勢判斷

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    11你應(yīng)當使用FIREFOX瀏覽器的理由

    安全。與IE不同的是,火狐不允許瀏覽器安裝ActiveX控件 。 ActiveX其實是可以在線更新Internet Explorer和Windows 的程序。但是它也
    發(fā)表于 11-26 16:31

    Web瀏覽器,Web瀏覽器是什么意思

    Web瀏覽器,Web瀏覽器是什么意思 看起來給Web瀏覽器下定義似乎有點荒謬,因為它像電視或收音機樣為大家所熟悉。互聯(lián)網(wǎng)用戶通過使
    發(fā)表于 03-22 11:01 ?2.1w次閱讀

    四大瀏覽器續(xù)航對決,結(jié)果Chrome瀏覽器完勝

    近日,YouTube頻道UP主Linus Tech Tips進行次四大瀏覽器續(xù)航對決,結(jié)果Chrome瀏覽器完勝。
    發(fā)表于 06-27 10:16 ?1367次閱讀

    新版火狐瀏覽器款專為VR開發(fā)的網(wǎng)絡(luò)瀏覽器

    今年早些時候,火狐瀏覽器Firefox的開發(fā)者Mozilla宣布,他們正在開發(fā)款新版本的火狐瀏覽器,這款瀏覽器專為VR和AR頭戴設(shè)備設(shè)計。現(xiàn)在該公司宣布他們想法已經(jīng)實現(xiàn),F(xiàn)iref
    發(fā)表于 10-01 16:30 ?3566次閱讀

    開發(fā)VR網(wǎng)絡(luò)瀏覽器需要注意以下這些事項

    混合現(xiàn)實團隊與位于西雅圖的BlinkUX合作進行了用戶測試。關(guān)于如何開發(fā)VR網(wǎng)絡(luò)瀏覽器,下面是她們所學(xué)習(xí)到的經(jīng)驗教訓(xùn),以及相應(yīng)的解決方案
    發(fā)表于 11-12 11:27 ?1318次閱讀

    用TensorFlow.js瀏覽器中構(gòu)建了使用任意圖像進行風(fēng)格化的demo

    了10倍。所以作者認為distillation這種技術(shù)被低估了,它可以為瀏覽器帶來些很酷的ML功能,因為很多模型由于太大而無法資源有限的環(huán)境中進
    的頭像 發(fā)表于 11-22 09:33 ?3540次閱讀

    iOS 14的功能揭秘:允許用戶用Chrome瀏覽器替代Safari

    iOS 14 系統(tǒng)中,如果用戶并不喜歡原生的 Safari 和 Apple Mail,蘋果允許用戶將第三方網(wǎng)頁瀏覽器和電子郵件客戶端作為系統(tǒng)默認。根據(jù) App Store 應(yīng)用頁面顯示,
    的頭像 發(fā)表于 09-14 15:47 ?2058次閱讀

    Google正在其Chrome瀏覽器中測試項備受期待的新功能

    所做的更改將在擴展程序所在的瀏覽器右上角以實驗室瓶的形式啟用新圖標。通過單擊它,您將能夠以更實用,更易用的方式從Google Chrome瀏覽器可用的最新功能
    的頭像 發(fā)表于 12-16 16:04 ?1408次閱讀

    如何制作通過本地WiFi網(wǎng)絡(luò)瀏覽器進行控制的恒溫

    該項目將向你介紹可以通過本地WiFi上的網(wǎng)絡(luò)瀏覽器進行控制的恒溫的制作。
    的頭像 發(fā)表于 05-03 17:24 ?1887次閱讀
    如何制作<b class='flag-5'>一</b><b class='flag-5'>個</b>通過本地WiFi網(wǎng)絡(luò)<b class='flag-5'>瀏覽器</b><b class='flag-5'>進行</b>控制的恒溫<b class='flag-5'>器</b>

    瀏覽器需要支持javascript怎么解決

    JavaScript是種流行的腳本語言,用于對網(wǎng)頁進行動態(tài)交互和功能增強。幾乎所有現(xiàn)代瀏覽器都支持JavaScript,但在某些情況下,用戶可能需要采取措施來確保瀏覽器支持JavaS
    的頭像 發(fā)表于 11-26 11:23 ?4359次閱讀

    js腳本怎么瀏覽器中運行

    瀏覽器中運行JavaScript腳本是種常見的方式,因為JavaScript是Web瀏覽器
    的頭像 發(fā)表于 11-27 16:46 ?2309次閱讀

    微軟推出ONNX Runtime Web,利用WebGPU優(yōu)化瀏覽器機器學(xué)習(xí)性能

    作為微軟的 JavaScript 庫,ONNX Runtime Web 使得網(wǎng)絡(luò)開發(fā)者能在瀏覽器環(huán)境下部署機器學(xué)習(xí)模型,并提供多種硬件加速的后端支持。
    的頭像 發(fā)表于 03-05 14:23 ?763次閱讀

    英碼科技EA500I基于昇騰Mind SDK實現(xiàn)實時人體關(guān)鍵點檢測

    在教育、體育、安防、交通、醫(yī)療等領(lǐng)域中,實時人體關(guān)鍵點檢測應(yīng)用發(fā)揮著至關(guān)重要的作用,比如在體育訓(xùn)練時,實時人體關(guān)鍵點檢測可以精確、實時地捕捉運動員的動作,從而進行動作分析和優(yōu)化;
    的頭像 發(fā)表于 04-21 17:44 ?831次閱讀
    英碼科技EA500I基于昇騰Mind SDK實現(xiàn)<b class='flag-5'>實時人體</b>關(guān)鍵點檢測

    英碼科技EA500I基于昇騰Mind SDK實現(xiàn)實時人體關(guān)鍵點檢測

    在教育、體育、安防、交通、醫(yī)療等領(lǐng)域中,實時人體關(guān)鍵點檢測應(yīng)用發(fā)揮著至關(guān)重要的作用,比如在體育訓(xùn)練時,實時人體關(guān)鍵點檢測可以精確、實時地捕捉運動員的動作,從而進行動作分析和優(yōu)化;
    的頭像 發(fā)表于 04-20 08:25 ?381次閱讀
    英碼科技EA500I基于昇騰Mind SDK實現(xiàn)<b class='flag-5'>實時人體</b>關(guān)鍵點檢測

    Opera瀏覽器引領(lǐng)潮流,全球首接端側(cè)AI大模型

    昆侖萬維旗下海外平臺Opera宣布,其旗艦瀏覽器Opera One和游戲瀏覽器Opera GX將正式接入端側(cè)AI大模型,成為全球首個實現(xiàn)這突破的主流
    的頭像 發(fā)表于 06-03 09:18 ?532次閱讀