0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于Datalore開發(fā)機器學習項目的體驗

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-11 11:23 ? 次閱讀

如果說“古代”的編輯器圣戰(zhàn)是Vi和Emacs,那當今時代的IDE圣戰(zhàn)可能是Eclipse和Intellij了。大多數(shù)人都覺得Intellij是后出轉(zhuǎn)精。不過,Eclipse其實有一個獨特的優(yōu)勢,Eclipse Che,基于Eclipse的云端開發(fā)環(huán)境。Eclipse Che可以方便地統(tǒng)一開發(fā)環(huán)境,避免不同系統(tǒng)、不同硬件導致的各種兼容問題,同時節(jié)省開發(fā)人員配置環(huán)境的時間。Intellij乃至其他JetBrains系的IDE,則都只有本地版本。

不過,JetBrains今年倒是出了一個云端開發(fā)環(huán)境Datalore,不過并不針對Java開發(fā)者,而是面向機器學習

經(jīng)過三個多月的公測,Datalore的基本功能也比較完善了。所以今天我們將通過一個具體的例子(使用卷積網(wǎng)絡分類服飾圖像)來分享下基于Datalore開發(fā)機器學習項目的體驗。

首先我們訪問datalore.io,可以使用Google賬號或JetBrains賬號登錄。如果沒有的話,可以注冊一個。

登錄后,點擊New workbook圖標,新建一個workbook。

如果你接觸過Jupyter Notebook,那么workbook可以看成是Jupyter Notebook的加強版。如果你沒接觸過,那么簡單來說,workbook是內(nèi)嵌代碼的文檔,其中的代碼是可以直接運行的。

workbook是左右雙欄,左邊是源代碼,右邊顯示結果。

我們注意到,左邊默認提供了一些常用操作,包括load dataset(加載數(shù)據(jù)集)、standard imports(標準導入),等等。如果你接觸過JetBrains家的IDE,那么你應該已經(jīng)意識到,這是JetBrains系列IDE廣受贊譽的意圖行動(intention actions)功能。

我們首先要做的是引入相應的庫,當把鼠標懸浮到standard imports(標準導入)后,會有懸浮提示,告訴我們所謂的標準導入包括numpy、pandas、matplotlib,還有datalore定制的一個繪圖庫。如果你打算做一點數(shù)據(jù)分析,或者數(shù)據(jù)可視化的工作,那這個標準導入就很方便。只需點擊一下就可以自動生成導入語句,不用一行一行敲了。

不過我打算試下機器學習,所以就不用這個標準導入了。我將導入TensorFlow

import tensorflow as tf

咦,我只輸了i、m兩個字母,workbook界面就出現(xiàn)了這個:

是啊,JetBrains出品的東西怎么少得了自動補全呀?按回車就好,不用一個一個字母敲了。

然后我輸入tensorflow。咦?沒有補全。感覺不太妙。

果然,tensorflow顯示為紅色,意味著出問題了。再看右邊,是報錯信息,提示沒有tensorflow這個模塊。

看來tensorflow沒有預裝。我們裝一下。菜單選擇Tools(工具)->Library Manager(庫管理器),輸入tensorflow搜索。

鼠標點下就可以裝了,右邊還有下拉菜單可以選版本。

稍等片刻就裝好了,其間會彈出窗口顯示安裝信息,等看到綠色的Installation complete(安裝完成)就說明安裝成功了??梢渣cClose(關閉)把窗口關了。

由于安裝了新的包,Datalore會提示你需要重啟內(nèi)核(restart kernel),確認就可以了。然后我們看到,報錯信息消失了。我們可以接著鍵入as tf了。

然后我們需要加載數(shù)據(jù)集。點擊load dataset,可以看到,其中包括了一些常用的數(shù)據(jù)集。

前面我已經(jīng)說過,我打算試下機器學習。而且我剛安裝了TensorFlow。那TensorFlow入門最經(jīng)典的數(shù)據(jù)集就是MNIST,Datalore也提供了。

不過么……

“花書”作者Ian Goodfellow、Keras作者Fran?ois Chollet一起炮轟MNIST

上面的推特就不逐字逐句翻譯了,大意就是MNIST不能代表現(xiàn)代的計算機視覺任務,學術界不應該老是用MNIST。

所以我也趕下時髦,換個數(shù)據(jù)集用用。好吧,我只是找了個借口,不管怎么說,MNIST用來入門還是不錯的。其實我只是看了太多MNIST的入門教程,有點審美疲勞了。

手寫數(shù)字看厭了,畢竟數(shù)字又不能當飯吃。不如換成衣服、鞋子吧,雖然也不能吃,好歹可以穿啊。

隆重介紹MNIST的時尚版,F(xiàn)ashion-MNIST。

TensorFlow的API寫起來還是有點啰嗦,所以我決定使用Keras。而且,Keras的datasets模塊自帶獲取和加載Fashion-MNIST的方法。

按照之前描述的方法,通過Library Manager安裝Keras后,加載Fashion-MNIST數(shù)據(jù)集:

from keras.datasets import fashion_mnist

(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()

好吧,這行代碼看著稍微有點長,其實在Datalore里打起來非???,因為很多地方稍微敲一兩個字母就可以一路補全下去。與此同時,我們能在右邊看到,Datalore會自動幫我們下載數(shù)據(jù)集,并在下載完成后自動加載數(shù)據(jù)集。

好了。數(shù)據(jù)集加載好了,下面我們將構建一個模型分類服飾。分類圖像最常用的是卷積神經(jīng)網(wǎng)絡,這也是我們的選擇。圖像的每個像素是由整數(shù)表示的(0-255的亮度值),為了提高訓練的效率,我們需要首先將其歸一化:

x_train = x_train.astype('float32') / 255

x_train = x_train.reshape(x_train.shape[0], 28, 28, 1)

x_test = x_test.astype('float32') / 255

x_test = x_test.reshape(x_test.shape[0], 28, 28, 1)

除了歸一化外,我們還順便重整了一下數(shù)據(jù)的形狀為28, 28, 1(Fashion-MNIST中的圖像為28x28的灰度圖像)。

和MNIST一樣,F(xiàn)ashion-MNIST中的圖像分屬10類:

圖片來源:Margaret Maynard-Reid

在數(shù)據(jù)集中,標簽(y_train)是類別變量,具體而言,是取值范圍為0-9的整數(shù)。一般而言,為了便于模型利用,我們需要將其轉(zhuǎn)成one hot編碼。y_test同理。

y_train = keras.utils.to_categorical(y_train, 10)

y_test = keras.utils.to_categorical(y_test, 10)

這里有一個提高效率的小技巧。在輸完y_train這行后,按Ctrl + D(Mac OS X下是Command + D),可以復制當前行。之后將復制行中的兩個y_train改成y_test就可以了。

設計預處理完畢,接著就是設計模型了。由于本文的主題不是關于如何設計卷積網(wǎng)絡,因此我這里就偷個懶,直接使用Keras自帶的MNIST分類器樣例(examples/mnist_cnn.py),看看這個為MNIST設計的CNN分類器在Fashion-MNIST上的效果如何。

model = Sequential()

model.add(Conv2D(32, kernel_size=(3, 3),

activation='relu',

input_shape=(28, 28, 1)))

model.add(Conv2D(64, (3, 3), activation='relu'))

model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Dropout(0.25))

model.add(Flatten())

model.add(Dense(128, activation='relu'))

model.add(Dropout(0.5))

model.add(Dense(10, activation='softmax'))

這個CNN網(wǎng)絡模型還是比較簡單的。我們有兩個卷積層(均使用3x3的卷積核和ReLU激活),之后加上最大池化層,然后是Dropout層和全連接層,最后,因為需要預測10個分類,所以順理成章地在輸出層中使用了softmax激活。

接下來我們編譯模型,因為是分類問題,所以損失函數(shù)很自然地使用了交叉熵。優(yōu)化使用了Adadelta,這是Matthew D. Zeiler在2012年底提出的一種優(yōu)化算法,使用自適應的學習率。

model.compile(loss=keras.losses.categorical_crossentropy,

optimizer=keras.optimizers.Adadelta(),

metrics=['accuracy'])

然后就是訓練和評估,并輸出結果:

model.compile(loss=keras.losses.categorical_crossentropy,

optimizer=keras.optimizers.Adadelta(),

metrics=['accuracy'])

model.fit(x_train, y_train,

batch_size=128,

epochs=20,

verbose=1,

validation_data=(x_test, y_test))

score = model.evaluate(x_test, y_test, verbose=0)

print('測試損失', score[0])

print('測試精確度', score[1])

由于Datalore目前為免費公測階段,只有t2.medium規(guī)格的AWS主機可用(2核、4 GB內(nèi)存),因此,大約需要等1小時完成訓練。等以后正式上線了,會有GPU主機可用(p2.xlarge,4 cpu核心、1 gpu核心、61GB 內(nèi)存,12 GB顯存)。當然,你也可以嘗試去Datalore官方論壇申請GPU主機。

結果:

測試損失 0.22063894088864328

測試精確度 0.9295

20個epoch后精確度超過90%,比我預料中的表現(xiàn)要好。

看到這個結果,我有點好奇這個模型在MNIST上的表現(xiàn)有多好。Keras文檔告訴我精確度超過99%,不過,俗話說得好,耳聽為虛,眼見為實。我想親自試一試。

實際上,上面的代碼只需改動兩處,就可以變?yōu)榉诸怣NIST。

將開頭兩行中的fashion_mnist替換為mnist:

from keras.datasets import mnist

(x_train, y_train), (x_test, y_test) = mnist.load_data()

其他的都不用動。就這么簡單!

不過,在此之前,先讓我們保存一下當前的版本,以備以后繼續(xù)使用。

通過菜單Tools->Add history checkpoint,我們可以添加一個checkpoint,比如說,起名為keras-mnist-cnn.

然后,通過菜單Tools->History,我們可以查看workbook的歷史。其中,第一個checkpoint是創(chuàng)建workbook時的狀態(tài)。除此之外,勾選左上角的Show inactivity checkpoints之后,我們能看到很多Datalore自動保存的checkpoint,你再也不用擔心不小心丟失代碼了。沒錯,如果你接觸過JetBrain系的IDE,這就是其歷史功能。

你不僅可以查看不同的checkpoint,還可以比較不同checkpoint之間的區(qū)別:

這個功能在調(diào)bug的時候是非常方便的。說到調(diào)bug,在Datalore下調(diào)bug還是比較方便的。比如,假設我們把模型的輸入形狀改一下,故意改成錯誤的:

這雖然是一個故意編造的簡單錯誤,但確實是可能出現(xiàn)的錯誤。因為有的情況下,頻道是放在最前的。有的時候不小心,就會出現(xiàn)這種失誤。

一旦我們做了這個改動后,Datalore幾乎立刻反應過來。

從上圖我們可以看到:

代碼單元左邊框為紅色,提示我們這里有誤。正常情況下,左邊框為閃爍的綠色(提示正在進行運算)或黃色(提示運算完成)。

右側(cè)結果為報錯的Trackback.

左側(cè)代碼的出錯行有紅色波浪線標識。懸浮鼠標于其上,我們能看到報錯信息,如下圖所示。

其實很多地方,懸浮鼠標都能給出相應的提示,比如懸浮到y(tǒng)_train后,會提示這是一個變量(而不是函數(shù)),甚至Datalore能推斷其類型numpy.ndarray。

而單擊一個變量后,Datalore會高亮這一變量的所有用例:

從上圖我們可以看到,Datalore沒有直接簡單粗暴地匹配字符串,最后兩行中,注釋和字符串里的x_test并沒有高亮。

好了,說了這么多。讓我們回到之前的MNIST數(shù)據(jù)集訓練上來。如前所述將兩處fashion_mnist替換為mnist后,我們在MNIST數(shù)據(jù)集上訓練模型,并評估其表現(xiàn)。

最終訓練了一個多小時(和Fashion-MNIST時間差不多,畢竟這兩個數(shù)據(jù)集的圖像規(guī)格是一樣的,都是28x28的灰度圖像),20個epoch后精確度為0.9918,看來Keras文檔所言不虛。

當然,除了代碼之外,workbook里還能寫文檔。文檔使用Markdown格式,加上了LaTeX公式擴展。

另外,線上開發(fā)環(huán)境的一大優(yōu)勢就是方便協(xié)作。Datalore也不例外。通過菜單File->Share即可邀請別人協(xié)作,一起開發(fā)。

分享共有3種方式:

輸入Datalore用戶名或郵箱,邀請對方協(xié)作開發(fā)。

分享一個鏈接,通過這個鏈接訪問的用戶可以協(xié)作開發(fā)。

同樣是分享一個鏈接,只不過這是一個只讀鏈接,通過這個鏈接訪問的用戶只能查看,無法修改。

最后,附上快捷鍵列表(有些已經(jīng)在前文中介紹過):

C-空格(C在mac os x上是Command鍵,其他平臺上是ctrl鍵)可以觸發(fā)自動補全。

C-d重復當前行

在Markdown單元中,按alt + 左右方向鍵可以在單詞間跳轉(zhuǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編輯器
    +關注

    關注

    1

    文章

    800

    瀏覽量

    31055
  • 機器學習
    +關注

    關注

    66

    文章

    8353

    瀏覽量

    132315
  • 數(shù)據(jù)集

    關注

    4

    文章

    1200

    瀏覽量

    24621

原文標題:Datalore初體驗:JetBrains的云端機器學習開發(fā)環(huán)境

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【申精】智能機器項目實戰(zhàn)(免費) 轉(zhuǎn)

    智能機器項目實戰(zhàn)(免費)本課程著眼于實際應用,循序漸進的進行機器人實戰(zhàn);并在實戰(zhàn)中提升基礎能力,從結構設計基礎、三維設計軟件的應用、運動學和動力學仿真、C語言基礎、單片機的應用、嵌入式開發(fā)
    發(fā)表于 02-23 14:42

    有承接開發(fā)項目的嗎?

    有承接開發(fā)項目的嗎,公司打算開發(fā)一套測控系統(tǒng),其中控制伺服電機,測量位移、壓力,測控溫度,想用ARM開發(fā),觸摸屏操作,同時上位機也可以操作,有感興趣的可以詳談,我的QQ:9850622
    發(fā)表于 03-17 12:10

    【米爾MYD-C7Z020開發(fā)板試用申請】機器項目評估

    項目名稱:機器項目評估試用計劃:本人在有機器人和視覺領域有7年多的學習開發(fā)經(jīng)驗,曾設計過AG
    發(fā)表于 10-30 17:03

    如何完成機器學習項目流程和數(shù)據(jù)清洗

    機器學習:完整機器學習項目流程,數(shù)據(jù)清洗
    發(fā)表于 04-26 09:31

    機器學習入門篇:一個完整的機器學習項目

    機器學習項目入門篇:一個完整的機器學習項目
    發(fā)表于 05-11 14:47

    Deeplearningai結構化機器學習項目

    Deeplearningai 結構化機器學習項目 Week2 6-10
    發(fā)表于 05-18 15:12

    通常項目的開發(fā)過程是怎樣的?

    做技術的,不免要和項目打交道,無論是學校還是企業(yè),都要有項目的開發(fā)過程吧首先,要對項目的需求進行分析,我想問問都分析一些什么呢?其次,要弄清哪些功能的可執(zhí)行性,具體什么
    發(fā)表于 06-01 15:56

    11個機器學習開源項目

    隨著機器學習越來越受到開發(fā)者關注,出現(xiàn)了很多機器學習的開源項目,在本文列舉的11個
    發(fā)表于 02-14 14:25 ?2793次閱讀

    全年開源項目的盤點和總結

    如果你們這些.NET 開發(fā)者們想要學一點機器學習知識來補充現(xiàn)有的技能,你會怎么做?現(xiàn)在就有一個完美的開源項目可以助你開始實施這一想法!這個完美的開源
    的頭像 發(fā)表于 01-17 11:18 ?3304次閱讀

    谷歌大牛Ian Goodfellow已經(jīng)加盟蘋果,擔任特殊項目的機器學習主管

    Ian Goodfellow在蘋果擔任“特殊項目組的機器學習主管”,具體工作內(nèi)容并未披露。目前,除了為FaceID和Siri等功能開發(fā)AI之外,涉及到AI的還有自動駕駛技術,而蘋果不久
    的頭像 發(fā)表于 04-08 08:52 ?2697次閱讀
    谷歌大牛Ian Goodfellow已經(jīng)加盟蘋果,擔任特殊<b class='flag-5'>項目的</b><b class='flag-5'>機器</b><b class='flag-5'>學習</b>主管

    Everyday Robot項目啟動 意在開發(fā)通用學習機器

    今天,Alphabet的X moonshot部門(以前稱為Google X)啟動了Everyday Robot項目,該項目的目的開發(fā)“通用學習機器
    發(fā)表于 11-22 11:29 ?781次閱讀

    機器學習模型部署到ML項目的過程

    在構建一個大的機器學習系統(tǒng)時,有很多事情需要考慮。但作為數(shù)據(jù)科學家,我們常常只擔心項目的某些部分。
    的頭像 發(fā)表于 05-04 11:56 ?2123次閱讀

    Facebook開發(fā)出更加強大的機器學習模型

    近日,F(xiàn)acebook公司分享了兩個內(nèi)部人工智能項目的細節(jié),分別是Learning from video和TimeSformer,這兩個項目旨在促進更強大的機器學習模型的
    的頭像 發(fā)表于 03-18 09:18 ?1705次閱讀

    ST MEMS傳感器內(nèi)嵌機器學習核心的優(yōu)勢

    ???????一旦您熟悉了開發(fā)步驟并掌握了機器學習項目中的要點,就能夠開發(fā)有價值的機器
    的頭像 發(fā)表于 09-03 14:55 ?1703次閱讀

    機器視覺應用項目的文檔應包括哪些

    和安裝與測試小組。項目經(jīng)理對機器視覺系統(tǒng)必須非常專業(yè)和熟悉,負責項目的總體設計、任務分配、進度安排和必要的開發(fā)工作;研發(fā)小組致力于光學系統(tǒng)設計、機械安裝結構設計、信號與電氣設計、軟件功
    的頭像 發(fā)表于 09-10 10:39 ?763次閱讀