本次主題是隨機森林,杰里米(講師)提供了一些基本信息以及使用Jupyter Notebook的提示和技巧。
Jeremy談到的一些重要的事情是,數(shù)據(jù)科學(xué)并不等同于軟件工程。 在數(shù)據(jù)科學(xué)中,我們做的是設(shè)計模型。 雖然軟件工程有自己的一套實踐,但數(shù)據(jù)科學(xué)也有自己的一套最佳實踐。
模型構(gòu)建和原型設(shè)計需要一個交互的環(huán)境,是一個迭代的過程。 我們建立一個模型。 然后,我們采取措施來改善它。 重復(fù)直到我們對結(jié)果滿意為止。
隨機森林
我聽說過“隨機森林”這個詞,我知道它是現(xiàn)有的機器學(xué)習(xí)技術(shù)之一,但是老實說,我從來沒有想過要去了解它。 我一直熱衷于更多地了解深度學(xué)習(xí)技術(shù)。
從這次演講中,我了解到隨機森林確實很棒。
它就像一個通用的機器學(xué)習(xí)技術(shù),既可以用于回歸,也可以用于分類。 這意味著你可以使用隨機森林來預(yù)測股票價格以及對給定的醫(yī)療數(shù)據(jù)樣本進行分類。
一般來說,隨機森林模型不會過擬合,即使它會,它也很容易阻止過擬合。
對于隨機森林模型,不需要單獨的驗證集。
隨機森林只有一些統(tǒng)計假設(shè)。 它也不假設(shè)你的數(shù)據(jù)是正態(tài)分布的,也不假設(shè)這些關(guān)系是線性的。
它只需要很少的特征工程。
因此,如果你是機器學(xué)習(xí)的新手,它可以是一個很好的起點。
其他概念
維數(shù)詛咒是一個概念,意思是你擁有的數(shù)據(jù)特征越多,數(shù)據(jù)點就會越分散。 這意味著兩點之間的距離沒有意義。
Jeremy確信,在實踐中,情況并非如此,事實上,你的數(shù)據(jù)擁有的特征越多,對模型的訓(xùn)練效果就越好。
沒有免費午餐定理是這樣一個概念:沒有一個模型可以完美地適用于任何類型的數(shù)據(jù)。
技巧和竅門
你可以在Jupyter Notebook中使用!來執(zhí)行bash命令,例如。
!ls
!mkdir new_dr
在Python 3.6中追加字符串的新方法。
name = ‘Sabina’
print(f‘Hello {name}’)no_of_new_msg = 11
print(f‘Hello {name}, you have {no_of_new_msg} new messages’)
不需要離開Jupyter notebook就可以查看python函數(shù)。在函數(shù)名前使用?獲取它的文檔。
from sklearn.ensemble import RandomForestClassifier?RandomForestClassifier.fit()
如果你想閱讀源代碼,可以使用??在函數(shù)名稱前。
from sklearn.ensemble import RandomForestClassifier??RandomForestClassifier.fit()
通過使用to_feather方法保存處理過的數(shù)據(jù)集,將數(shù)據(jù)集以存儲在RAM中的相同格式保存到磁盤??梢允褂胷ead_feather方法從保存的文件中讀取數(shù)據(jù)。注意,為了使用這些方法,你需要安feather-format庫。
import pandasdf = pd.DataFrame()
df.to_feather(‘filename’)saved_df= pd.read_feather(‘filename’)
-
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8355瀏覽量
132324 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5470瀏覽量
120903 -
隨機森林
+關(guān)注
關(guān)注
1文章
22瀏覽量
4260
發(fā)布評論請先 登錄
相關(guān)推薦
評論