0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解這些基本分析技術(shù)將為為項目的開發(fā)和數(shù)據(jù)的理解帶來更多的益處

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-03-21 15:43 ? 次閱讀

不管你怎樣看待數(shù)據(jù)科學家的研究工作,都不能輕易忽略對數(shù)據(jù)進行分析、組織和梳理的重要性。Glassdoor 網(wǎng)站收集了大量的雇主和員工的反饋數(shù)據(jù),發(fā)現(xiàn)數(shù)據(jù)科學家位列 "美國最好的 25 個職位"榜首。盡管摘得這一桂冠,但需要數(shù)據(jù)科學家們研究的工作內(nèi)容還在不斷新增。隨著機器學習等技術(shù)越來越普遍的應用,深度學習等熱門領(lǐng)域受到研究人員和工程師以及企業(yè)的關(guān)注日漸增加,數(shù)據(jù)科學家必將繼續(xù)站在技術(shù)創(chuàng)新的浪潮之巔,引領(lǐng)著時代的技術(shù)變革。

因此他們需要系統(tǒng)地研究統(tǒng)計機器學習,該學科脫胎于統(tǒng)計學和泛函分析,并結(jié)合了信息論、最優(yōu)化理論和線性代數(shù)等多門學科。盡管強大的編程能力對數(shù)據(jù)科學家而言十分重要,但數(shù)據(jù)科學家也不完全就是軟件工程師。事實上熟練掌握Python對于他們就已足夠,真正重要的是同時具備編程、統(tǒng)計和批判思維的能力。

正如Josh Wills所言:“數(shù)據(jù)科學家比程序員擅長統(tǒng)計學,比統(tǒng)計學家擅長編程?!?很多軟件工程師想轉(zhuǎn)型數(shù)據(jù)科學家,但他們盲目地使用 TensorFlow 或 Apache Spark 等機器學習框架來處理數(shù)據(jù),卻忽略了背后的統(tǒng)計學理論知識。也就是統(tǒng)計學習理論,機器學習的理論框架,這些都源自統(tǒng)計學和泛函分析。

那么為什么要學習統(tǒng)計學習?我們只有深刻理解了不同技術(shù)背后的想法,才能學以致用。也只有先易后難,才能游刃有余、融會貫通。同時,準確評估一種方法的性能也非常重要,不僅能知道工作效果的好壞,也能得知方法的適用范圍。此外,統(tǒng)計學習也是一個令人振奮的研究領(lǐng)域,在科學、工業(yè)和金融領(lǐng)域都有重要的應用。最后,統(tǒng)計學習是培養(yǎng)現(xiàn)代數(shù)據(jù)科學家的基礎(chǔ)要素。統(tǒng)計學習問題應用的例子如下:

確定前列腺癌的風險因素

根據(jù)對數(shù)周期圖對錄音進行分類

根據(jù)人口統(tǒng)計學、飲食和臨床測量預測是否會患有心臟病

定制垃圾郵件檢測系統(tǒng)

識別手寫郵政編碼

對組織樣本進行癌癥分類

建立人口調(diào)查數(shù)據(jù)中的薪資與人口統(tǒng)計變量的關(guān)系

在介紹常用的10種統(tǒng)計技術(shù)之前,我們需要先區(qū)分一下機器學習和統(tǒng)計學習,主要有以下幾點區(qū)別:

機器學習是人工智能的一個分支

統(tǒng)計學習是統(tǒng)計領(lǐng)域的一個分支

機器學習更側(cè)重于大規(guī)模應用和預測的精準性

統(tǒng)計學習強調(diào)模型及其解釋性、精度和不確定性

但區(qū)別也在變得越來越模糊,兩者很多時候交織在一起

不得不說,市場營銷把機器學習炒得很熱

線性回歸

在統(tǒng)計學中,線性回歸是一種通過擬合因變量和自變量之間的最佳線性關(guān)系來預測目標變量的方法。最佳擬合即表示由當前的線性表達式得到的預測輸出與實際觀測值的誤差和最小。

線性回歸主要分為簡單線性回歸和多元線性回歸。簡單線性回歸使用一個自變量來擬合最佳線性關(guān)系預測因變量;而多元線性回歸使用多個自變量來擬合最佳線性關(guān)系預測因變量。

那么線性回歸可以用在哪些實際問題上呢?實際上任意選擇日常生活中相關(guān)的兩件事,你便能通過線性回歸模型得到他們之間的線性關(guān)系。比如你有了過去三年的月消費、月收入和月旅行次數(shù)的數(shù)據(jù),那你可以預測下一年月支出,還可以知道是月收入還是月旅行次數(shù)對月消費更影響,甚至還能用方程式表達月收入、月旅行次數(shù)、月消費三者之間的關(guān)系呢。

分類

分類是屬于一種數(shù)據(jù)挖掘技術(shù),將數(shù)據(jù)集分成多個類別可以幫助更準確的預測和分析。分類是一種高效分析大型數(shù)據(jù)集的方法,典型的代表有邏輯回歸(Logistic Regression) 分析和判別分析(Discriminant Analysis)。

邏輯回歸分析適合用于因變量為二元類別時的回歸分析。 和所有回歸分析一樣,邏輯回歸也屬于預測分析。 Logistic回歸用于描述數(shù)據(jù),并解釋二元因變量與一個或多個名義、序數(shù)、區(qū)間或比率級別等描述性的自變量之間的關(guān)系。 適合邏輯回歸的問題類型有:

體重每超出標準體重一磅或每天每抽一包煙對得肺癌概率是否有影響(是或否)。

卡路里攝入、脂肪攝入和年齡對心臟病是否有影響(是或否)。

在判別分析中,兩個或多個已知的集合、簇或群體都可以作為分類的先驗知識,使用時根據(jù)被測特征就可把新的觀測值劃分到相應類別。判別分析會對每個類中的預測因素 X 分別進行建模,然后根據(jù)貝葉斯定理便能將其轉(zhuǎn)換成只需根據(jù) X 值就可獲得對應類別的概率估計。此類模型既可以是線性判別分析,也可以是二次判別分析。

Linear Discriminant Analysis線性判別分析,通過自變量的線性組合對每個觀測值計算“判別分數(shù)”,并對其所處的響應變量Y類別進行分類。它假設(shè)每個類別內(nèi)的觀測值都服從多變量高斯分布,且每個類別的方差一樣。

Quadratic Discriminant Analysis二次判別分析,提供了另一種方法。與LDA一樣,QDA也假設(shè)來自Y的每類觀察值都服從高斯分布。但與LDA不同的是,QDA假定每個類別都有其自己的協(xié)方差矩陣,也就是說每個類別的方差不一樣。

重采樣方法

重采樣方法就是從原始數(shù)據(jù)樣本中重復提取樣本,屬于統(tǒng)計推斷的非參數(shù)方法。重采樣不使用通用分布表來逼近地計算概率 p 的值,而是基于實際數(shù)據(jù)生成一個獨特的采樣分布。這種采用分布通過經(jīng)驗性方法生成,而不是分析方法,它能夠基于數(shù)據(jù)所有可能結(jié)果的無偏樣本獲取無偏估計。為了很好的理解重采樣的概念,我們需要先了解Bootstrapping和交叉驗證(Cross-Validation):

Bootstrapping是有助于在許多情況下驗證預測模型的性能和集成方法,估計模型的偏差和方差。 它通過對原始數(shù)據(jù)進行有放回的采樣,并將“未被選擇”的數(shù)據(jù)點作為測試用例。 我們可以多做幾次這樣的操作,然后用平均值來作為我們對模型性能的估計。

Cross validation交叉驗證通過將訓練數(shù)據(jù)分成k個部分來驗證模型性能,使用k-1部分作為訓練集,余下的部分作為測試集。 重復不同的k次后,將k個分數(shù)的平均值作為模型的性能估計。

通常對于線性模型而言,普通的最小二乘法是擬合數(shù)據(jù)時的主要標準。 接下來的3種方法可以為線性模型擬合提供更好的預測精度和模型可解釋性。

子集選擇

子集選擇的主要目的是挑選出與問題最相關(guān)的 p 個預測因子,然后使用該子集特征和最小二乘法擬合模型。

最佳子集的選擇,我們可以為 p 個預測因子的每個組合分別擬合普通最小二乘回歸,然后再觀察各個模型的擬合結(jié)果。算法分為兩個階段:(1)擬合包含 k 個預測因子的所有模型,其中 k 表示模型的最大長度;(2)使用交叉驗證預測損失選擇單個模型。要記住,不能單純使用訓練誤差評估模型的擬合情況,驗證集或測試集的誤差也是十分重要的,因為 RSS 和 R^2 會隨變量的增加而單調(diào)遞增。最好的方法就是通過選擇測試集中最高的 R^2 和最低的 RSS 來交叉驗證,從而選擇模型。

前向逐步選擇,可以選出 p 個預測因子的較小子集。算法先從不包含預測因子的模型開始,然后逐步地添加預測因子到模型中,直到所有預測因子都包含在模型中。添加預測因子的順序是根據(jù)不同變量對模型擬合性能提升的程度來確定的,不斷添加新的預測因子,直到交叉驗證誤差沒有大的改變。

后向逐步選擇,與前向逐步選擇相反,首先模型包含所有 p個 預測因子,然后迭代地移除用處最小的預測因子。

混合法,主體遵循前向逐步方法,但在添加每個新變量之后,該方法可能還會移除對模型擬合無用的變量。

特征縮減技術(shù)

特征縮減技術(shù)使用了所有 p 個預測因子進行建模,然而,表示預測因子重要性的系數(shù)將隨最小二乘誤差向零收縮,這種收縮也稱之為正則化,它旨在減少方差以防止模型的過擬合。常用的縮減系數(shù)方法有l(wèi)asso(L1正則化),嶺回歸(L2正則化)。

Ridge regression嶺回歸,跟最小二乘法很像都是尋求減少 RSS 的系數(shù)估計,只不過它是通過對損失函數(shù)(即優(yōu)化目標)加入懲罰項,使得訓練求解參數(shù)過程中會考慮到系數(shù)的大小。我們不需要數(shù)學分析就能看出 Ridge 回歸很擅長于將特征收縮到最小的子空間中。如主成分分析PCA,通過Ridge 回歸可以將數(shù)據(jù)投影到低維空間,并在系數(shù)空間內(nèi)收縮較低方差的成分而保留有較高方差的成分。

但Ridge 回歸有一個缺點,最終的模型需要包含所有 p 個預測因子,這源于盡管懲罰項將會令許多預測因子的系數(shù)逼近零,但又一定不等于零。雖然這對預測準確度并沒有什么影響,卻令模型的結(jié)果更難以解釋。Lasso 方法就很好的克服了這一缺點,因為它能在 s 足夠小的時候迫使一些預測因子的系數(shù)歸零。當 s = 1 時,就像正常的OLS 回歸,而當 s 逼近 0 時,系數(shù)將收縮到零。因此 Lasso 回歸同樣是執(zhí)行變量選擇的好方法。

降維(維數(shù)減約)

降維是將將p + 1個系數(shù)估計問題簡化為為M + 1系數(shù)估計問題,其中M

Principal Components Regression主成分回歸,是從大量的變量中尋找低維特征集的方法。數(shù)據(jù)中的第一主成分(first principal component)是指觀測數(shù)據(jù)沿著這個變量方向的變化最大,也就是說若用 p 個不同的主成分分別擬合數(shù)據(jù),那第一主成分必然是最接近數(shù)據(jù)分布的那條線。第二主成分是和第一主成分不相關(guān)的變量的線性組合,且在該約束下有最大的方差。主要思想是主成分能在各個互相垂直的方向使用數(shù)據(jù)的線性組合得到最大的方差?;谶@種方法,我們還能結(jié)合相關(guān)變量的效應從數(shù)據(jù)中獲取更多的信息,畢竟在常規(guī)的最小二乘法中需要舍棄其中一個相關(guān)變量。

由于PCR 方法需要得到 X 的最優(yōu)線性組合。由于 X 對應的輸出 Y 對主成分方向的計算沒有影響,也就是說這些組合(方向)是通過無監(jiān)督方法獲得的,那么就無法保證這些方向是預測器的最優(yōu)表征,也無法保證能獲得最優(yōu)預測輸出。偏最小二乘法(PLS)作為 PCR 的代替方法,屬于有監(jiān)督方法。和 PCR 類似,PLS 也是一種降維方法,它首先提取一個新的較小的特征集合(原始特征的線性組合),然后通過最小二乘法將原來的模型擬合為一個新的具有 M 個特征的線性模型,通過對模型預測誤差來評價特征集合是否是Y的最優(yōu)線性組合。

非線性模型

在統(tǒng)計學中,非線性回歸屬于回歸分析的一種形式,通過模型參數(shù)的非線性組合來(依賴于一個或多個獨立變量)對觀測數(shù)據(jù)建模,并使用逐次逼近法來擬合數(shù)據(jù)。以下是幾種處理非線性模型的重要技術(shù):

階梯函數(shù)(step function),變量為實數(shù),可以寫成區(qū)間的效用函數(shù)的有限線性組合的形式。通俗的講,階梯函數(shù)就是一種只有有限部分的分段常數(shù)函數(shù)。

分段函數(shù)(piecewise function)通過多個子函數(shù)定義,且每一個子函數(shù)被定義在確定的區(qū)間上。分段實際上是函數(shù)的表示方式,而不是函數(shù)自身特性,但通過額外的限定條件,它也可以用于描述函數(shù)本身。例如,一個分段多項式函數(shù)是一個在每一個子定義上為多項式的函數(shù),其中每一個多項式都可能是不同的。

樣條曲線(spline)是一種用多項式分段定義的特殊函數(shù)。在計算機圖形學中,樣條曲線是一種分段多項式參數(shù)化曲線。由于結(jié)構(gòu)簡單、評估簡易和精度高,以及通過曲線擬合和交互曲線設(shè)計就能逼近復雜曲線的能力,使得樣條曲線很常用。

廣義加性模型(generalized additive model)是一種廣義線性模型,其中線性預測器線性依賴于某些預測器變量的未知平滑函數(shù),其主要作用就是推斷這些平滑函數(shù)。

基于樹的方法

基于樹的方法可以用于回歸和分類問題,它會將預測器空間分層或分割成一些簡單的區(qū)域。由于預測器空間的分裂規(guī)則集合可以總結(jié)為一個樹,因此也被稱為決策樹方法。以下的方法是幾種不同的樹,它們可以組合起來投票輸出統(tǒng)一的預測。

Bagging能通過從原始數(shù)據(jù)中生成額外的訓練數(shù)據(jù)(通過組合和重復生成和原始數(shù)據(jù)大小相同的多段數(shù)據(jù))來減少預測的方差,但無法提高模型的預測能力。

Boosting是一種計算輸出的方法,使用多個不同的模型,然后使用加權(quán)平均的方法對結(jié)果取平均值。一般結(jié)合各方法的優(yōu)勢來改變這些方法所占的權(quán)重,此外,針對更寬泛的輸入數(shù)據(jù)還可以微調(diào)參數(shù)得到更佳的預測能力。

隨機森林算法(random forest algorithm)實際上和 bagging 算法很相似,同樣是對訓練集提取隨機 bootstrap 樣本。然而,除了 bootstrap 樣本以外,還可以提取特征的隨機子集來訓練單個樹;在 bagging 中,則需要為每個樹提供全部的特征。由于特征選擇是隨機的,相比常規(guī)的bagging 算法,每個樹之間更加獨立,從而通常能獲得更好的預測性能(得益于更好的方差-偏差權(quán)衡)。由于每個樹只需要學習特征的一個子集,因此速度也得以提升。

支持向量機

支持向量機(SVM)是一種常用的有監(jiān)督學習分類技術(shù)。通俗地說,它尋找兩類點集的最優(yōu)超平面(hyperplane,在 2D 空間中是線,在 3D 空間中是面,在高維空間中就是超平面。超平面是n 維空間的 n-1 維子空間)。這個超平面使得兩類點集的間隔最大,本質(zhì)上是約束最優(yōu)化問題,在一定約束下使得間隔最大化,從而實現(xiàn)數(shù)據(jù)的完美分類。

"支持向量",就是那些支持著超平面的數(shù)據(jù)點,也可以說是離超平面最近的數(shù)據(jù)點。在上圖中,藍色填充圓和兩個填充方塊就是支持向量。使用過程中,當兩類數(shù)據(jù)線性不可分時,數(shù)據(jù)點可以通過核函數(shù)投影到高維空間中,使得數(shù)據(jù)變得線性可分。而多分類問題也可以分解成多個"一對一"(one-versus-one)或"一對剩余"(one-versus-rest)的二分類問題。

無監(jiān)督學習

有監(jiān)督學習是機器學習中的一大部分,其中數(shù)據(jù)分類已知。當數(shù)據(jù)分類是未知時,就需要使用另一種技術(shù)了,就是無監(jiān)督學習,它們需要自己去發(fā)現(xiàn)數(shù)據(jù)中的模式。聚類(clustring)是一種典型的無監(jiān)督學習,數(shù)據(jù)會根據(jù)相關(guān)性被分為多簇。以下是幾種最常用的無監(jiān)督學習算法:

Principal Component Analysis主成分分析:通過保留具備最大方差和互相不相關(guān)的特征之間的線性組合,可以生成數(shù)據(jù)集的低維表示。它還有助于理解無監(jiān)督學習中的隱變量交互。

k-Means clusteringk 均值聚類:屬于硬聚類算法,根據(jù)數(shù)據(jù)到聚類中心的距離將其分成 k 個不同的簇。

Hierarchical clustering層次聚類:由于k-means算法始終有K值選擇和初始聚類中心點選擇的問題,而這些問題也會影響聚類的效果。為了避免這些問題,我們可以選擇另外一種比較實用的聚類算法,就是層次聚類算法。顧名思義,層次聚類就是一層一層的進行聚類,可以自頂向下把大的類別(cluster)分割,叫作分裂法;也可以自下而上對小的類別進行聚合,叫作凝聚法;但是一般用的比較多的是由下向上的凝聚方法。

以上就是一些幫助數(shù)據(jù)科學家理解數(shù)據(jù)基本的統(tǒng)計技術(shù),了解這些基本分析技術(shù)將為為項目的開發(fā)和數(shù)據(jù)的理解帶來更多的益處,對數(shù)據(jù)的抽象和操作會變得更加容易。希望這篇文章能幫助小伙伴們在理解數(shù)據(jù)科學的路上帶來一些新的收獲。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 線性
    +關(guān)注

    關(guān)注

    0

    文章

    194

    瀏覽量

    25079
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131841

原文標題:數(shù)據(jù)科學家必備的10大統(tǒng)計技術(shù)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何提升單片機開發(fā)技術(shù)?

    是提升技術(shù)的最好方式。通過參與實際項目的開發(fā),可以掌握更多的實踐經(jīng)驗和技能。在實際項目中,我們可以遇到各種各樣的問題,需要不斷地調(diào)試和優(yōu)化程
    發(fā)表于 01-05 10:14

    [轉(zhuǎn)帖]JAVA私塾關(guān)于實訓項目的總結(jié)

    真實項目,不能是精簡以后的,不能脫離實際應用系統(tǒng)3、在開發(fā)時要和企業(yè)的開發(fā)保持一致4、在做項目的時候不應該有參考代碼 長話短說就是以上幾點,如果你想要
    發(fā)表于 01-03 12:04

    德州儀器將為Arduino開源項目提供ARM芯片

    3D打印以及無線數(shù)據(jù)傳輸?shù)?德州儀器這一消息是在昨天英特爾表示將為Arduino提供支持,其打造Galileo主板.然而德州儀器所提供的芯片將基于現(xiàn)在在可移動設(shè)備上十分常見的ARM架構(gòu)芯片,相信這會對廣大
    發(fā)表于 10-07 23:03

    2016藍牙將作出怎樣的改進

    也將與時俱進,以確保開發(fā)者提供強有力的支持,幫助他們了解并利用這些物聯(lián)網(wǎng)新功能。同時,2016年藍牙技術(shù)路線圖中的
    發(fā)表于 03-01 16:07

    低功耗藍牙技術(shù)給醫(yī)療帶來了什么益處,藍牙血糖儀有哪些黑科技!

    來看一下給健康生活帶來的新益處:采用智能手機監(jiān)測血糖水平。血糖監(jiān)測已有數(shù)十年的發(fā)展歷史,血糖監(jiān)測儀器也已經(jīng)從米級般大小的尺寸演進非常小的儀表。以前,人們測量體內(nèi)的血糖含量需要使用體積龐大而緩慢的血糖
    發(fā)表于 03-15 16:19

    低功耗藍牙技術(shù)給醫(yī)療帶來了什么益處,藍牙血糖儀有哪些黑科技!

    來看一下給健康生活帶來的新益處:采用智能手機監(jiān)測血糖水平。血糖監(jiān)測已有數(shù)十年的發(fā)展歷史,血糖監(jiān)測儀器也已經(jīng)從米級般大小的尺寸演進非常小的儀表。以前,人們測量體內(nèi)的血糖含量需要使用體積龐大而緩慢的血糖
    發(fā)表于 04-11 15:05

    安森美客戶提供真正益處的交易

    只是提供產(chǎn)品??蛻羝谕@得設(shè)計及應用支援和技術(shù)專家的支持,幫助他們?nèi)〉酶偁巸?yōu)勢,減少開發(fā)時間和加快獲利時效。除了廣泛的產(chǎn)品和方案,新公司也客戶和伙伴提供前所未有的支持,包括增加的技術(shù)
    發(fā)表于 10-22 09:04

    pyhanlp文本分類與情感分析

    預測接口都是線程安全的(被設(shè)計不儲存中間結(jié)果,將所有中間結(jié)果放入?yún)?shù)棧中)。情感分析可以利用文本分類在情感極性語料上訓練的模型做淺層情感分析。目前公開的情感
    發(fā)表于 02-20 15:37

    前照燈領(lǐng)域技術(shù)帶來新的變革

    的分辨率高出10,000倍。利用TI DLP技術(shù)開發(fā)人員可以創(chuàng)建照明解決方案,這些方案可經(jīng)過編程來執(zhí)行諸如項目符號和動畫之類的操作,或轉(zhuǎn)換光束以適應彎曲的山丘和道路。
    發(fā)表于 08-21 04:45

    九眼公共安全語義智能分析平臺,實現(xiàn)文本分析的公共安全應用

    平臺是集文本挖掘、快速檢索、高維可視和數(shù)據(jù)預測等功能于一體的警情數(shù)據(jù)智能化管理與分析平臺;能夠完成數(shù)據(jù)實時分析檢測,助力維穩(wěn)管控。能夠重構(gòu)公安大數(shù)據(jù)
    發(fā)表于 10-08 15:56

    通常項目的開發(fā)過程是怎樣的?

    技術(shù)的,不免要和項目打交道,無論是學校還是企業(yè),都要有項目的開發(fā)過程吧首先,要對項目的需求進行分析
    發(fā)表于 06-01 15:56

    基于安防項目的MEC視頻分流技術(shù)解析

    ,而逐步走向智能化。智能安防系統(tǒng)可以簡單理解為:圖像的傳輸和存儲、數(shù)據(jù)的存儲和處理準確而選擇性操作的技術(shù)系統(tǒng)?! ≈悄芤曨l分析技術(shù)在安防系統(tǒng)
    發(fā)表于 12-03 14:58

    2018年AI的技術(shù)發(fā)展的五大趨勢是什么?它給我們帶來了哪些益處

    我們需要理解的是:AI是幾個相互關(guān)聯(lián)的技術(shù)的總稱術(shù)語。它包括:自然語言處理、機器學習、認知計算、神經(jīng)網(wǎng)絡、計算機視覺、機器人科學及其相關(guān)技術(shù)。在本文中,我們將解釋所有這些
    的頭像 發(fā)表于 07-09 09:53 ?5374次閱讀

    貝葉斯統(tǒng)計的一個實踐案例讓你更快的對貝葉斯算法有更多了解

    為了大家可以對貝葉斯算法有更多了解,大家整理過一篇關(guān)于貝葉斯算法的文章。今天將為大家介紹利用貝葉斯統(tǒng)計的一個實踐案例。通項目實踐達到學以
    的頭像 發(fā)表于 07-16 17:15 ?1.4w次閱讀

    SOLIDWORKS教育版使學生了解如何加快設(shè)計項目的速度

    在當今信息爆炸的時代,設(shè)計項目的速度和效率對于工程專業(yè)的學生來說至關(guān)重要。SOLIDWORKS教育版作為一款專門學生設(shè)計的3D CAD軟件,不僅提供了強大的設(shè)計工具,更致力于幫助學生了解如何加快設(shè)計
    的頭像 發(fā)表于 04-09 16:00 ?228次閱讀