用神經網絡做 MNIST 手寫數字識別是機器學習小白用來練手的入門項目,業(yè)內最佳準確率已經達到了 99.84%。但最近,谷歌向這個「古老」的數據集發(fā)起了一項新的挑戰(zhàn):用量子計算來進行識別,看看準確率能達到多少。
MNIST 對于機器學習研究者來說再熟悉不過了,它是一個由 Yann Lecun 等人創(chuàng)建的手寫數字圖像數據集,包含訓練集和測試集,訓練集包含 60000 個樣本,測試集包含 10000 個樣本(在 2019 年又增加了 50000 個測試集樣本)。
在機器學習研究中,MNIST 手寫數字圖像數據集已經作為基準使用了二十余年,它可以說是所有機器學習研究者的入門必備。對于新興方法的研究來說,從 MNIST 開始也是最合理的選擇,2017 年 Geoffrey Hinton 提出的膠囊網絡(Capsule Networks)也是這樣做的。
目前,大部分深度學習模型在 MNIST 上的分類精度都超過了 95%。有時為了更直觀地觀察算法之間的差異,我們會使用圖像內容更加復雜的 Fashion-MNIST 數據集。
在準確率已經如此之高的情況下,用神經網絡向此數據集發(fā)起挑戰(zhàn)已經沒有多大意義。于是,谷歌索性換了一個思路:用量子計算技術來挑戰(zhàn)一下,看看分類準確率能達到多少。
實驗結果表明,用量子計算技術可以在 MNIST 數據集上至少實現(xiàn) 41.27% 的分類準確率,而之前的經典方法只能達到 21.27%。
為什么要這么做?
在現(xiàn)代科技中,量子力學和機器學習都發(fā)揮著重要作用,量子計算的 AI 應用這一新興領域很有可能幫助許多學科實現(xiàn)重大突破。然而,目前大多數機器學習從業(yè)者對量子力學還沒有透徹的了解,多數量子物理學家對機器學習的理解也非常有限。因此,找到一些二者都能理解的問題非常重要,這些問題既要包含簡單且被廣泛理解的機器學習思想,也要包含類似的量子力學思想。
基于以上考量,谷歌的研究者提出用簡單的量子力學知識解決一種簡單的機器學習問題——MNIST 手寫數字分類。這有點類似于谷歌的 TensorFlow Playground。TensorFlow Playground 本質上就是一種教學輔助,目的是向大眾闡明深度學習的關鍵概念。
研究細節(jié)
具體來說,研究者想要探究的是:在一個普通的圖像分類問題中,如果你必須在通過一個 filter(可以顯示來自測試集的示例圖像)的第一個光量子(光子)之后做出決定,最高準確率能達到多少?在 MNIST 手寫數字數據集上(28×28 像素),最佳經典方法是檢測落在其中某個像素上的光子,然后使用在訓練集上觀察到的 per-pixel 概率(即光強度)分布來選擇最有可能的數字類別。這需要將每個示例圖像的亮度縮放到一個單位和(unit sum),以獲得一個概率分布。在 MNIST 數據集上,上述經典方法可以實現(xiàn) 21.27% 的分類準確率,大大高于隨機結果(10%)。每個像素最有可能的數字類別如下圖 2(b)所示。
如果可以將學習到的轉換應用到圖像和檢測器之間的光子的量子態(tài),我們就能利用量子力學實現(xiàn)更高的準確率。分束器和移相器等無源線性光學器件(passive linear optical element)可以用來解決這一問題,它們可以產生一種全息圖式的干涉圖樣。接下來,根據第一個光子落在哪一個區(qū)域來進行最大似然估計。這說明了一種量子原理:單個量子的概率振幅與自身發(fā)生干涉。此處沒有必要同時用許多光子照亮一個場景來產生干涉。
從概念上講,利用干涉來增強量子實驗產生所需結果的可能性是所有量子計算的基本思想。這個問題與現(xiàn)代量子計算之間的主要區(qū)別在于,后者試圖通過控制多個「糾纏」成分的量子態(tài)來執(zhí)行計算,這些「糾纏」成分通常是耦合了兩種狀態(tài)的量子系統(tǒng)(被稱作「量子比特」),通過由整個量子系統(tǒng)量子態(tài)的一部分所控制的「量子門」來實現(xiàn)。
因此,構建有多個量子比特的量子計算機需要精細地控制量子比特之間的相互作用。這通常需要將溫度降至 0.1 開爾文(-273.05℃)來消除熱噪聲。
但是,在本文研究的這個問題中,量子態(tài)之間的轉換可以在室溫下使用常規(guī)光學器件來完成:綠色光子的能量為 2.5 eV(電子伏特),遠高于典型的室溫熱輻射能量 kT ‘ 25 meV。但制造一種允許多個光子像在多比特量子計算機中一樣交互的設備就非常具有挑戰(zhàn)性了。
盡管如此,Knill、Laflamme 和 Milburn 等人在 2001 年設計了一種協(xié)議,使其在理論上可行。他們通過巧妙地利用輔助光子量子比特(ancillary photon qubit)、玻色統(tǒng)計和測量過程避免了使用保留相干性的非線性光學器件(可能無法通過實驗實現(xiàn))。在所有此類應用中,基本思想都是采用相干多光子量子態(tài)進行多個量子比特的計算。
在這個問題中,研究者只用了一個光子,唯一要處理的相關信息被編碼在其波函數的空間部分(即偏振無關)。因此,當前的工作類似于由 Cerf 等人在 1998 年提出的「量子邏輯的光學模擬」,其中一個 N 量子比特的系統(tǒng)由一個光子的 2^N 個空間模式表示。目前相關的研究有用于實現(xiàn)各種算法的類似「量子計算的光學模擬」,包括(小)整數分解等,但仍未與機器學習關聯(lián)起來。
本研究可以被歸為量子不可擴展(non-scalable)架構上的機器學習方法范疇?;蛘?,我們也可以將其視為一項最新研究 (Khoram et al. [2019]。) 的量子模擬。
研究者表示:「從概念上說,利用干涉來提高量子實驗產生所需結果的可能性是量子計算領域的基本思想。」除了為量子和機器學習專家提供一個容易理解、上手的問題之外,這對于在更易訪問的環(huán)境中進行測量過程的物理學教學(通常被稱為波函數的坍縮)也有一定意義。
遇事不決,量子力學
研究者說,這項工作旨在展示簡單的量子力學技術如何能夠為解決 AI 問題提供新的思路。
在 MNIST 上,最經典的計算可以實現(xiàn)的是檢測落在圖像像素之一上的光子,并根據光的強度分布猜測數字,光的強度的分布是通過將每個圖像的亮度重新縮放為單位和而獲得的。
該研究的量子力學方法采用分束器、移相器和其他光學元件來創(chuàng)建類似全息圖的推斷圖。光子所降落的推斷模式區(qū)域可作為信息提供給圖像分類,從而說明了不必同時用多個光子照射一個場景來產生干涉。
有人預測,量子計算將大大推動人工智能和機器學習領域的發(fā)展。去年 3 月,IBM、麻省理工學院和牛津大學在《自然》雜志發(fā)表了一篇文章,稱隨著量子計算機變得越來越強大,它們將能夠執(zhí)行特征映射,也就是將數據分解為非冗余特征。如此一來,研究者將可以開發(fā)出更高效的 AI,比如去識別傳統(tǒng)計算機無法識別的數據模式。
在那篇《自然》雜志的文章中,作者們這樣寫道:「機器學習和量子計算是兩種技術,每一種技術都有潛力改變彼此之前無法解決的難題。量子算法所提供的計算加速的核心要素是通過可控的糾纏和干涉來利用指數級的量子態(tài)空間。」
-
谷歌
+關注
關注
27文章
6128瀏覽量
104979 -
神經網絡
+關注
關注
42文章
4749瀏覽量
100434 -
量子計算
+關注
關注
4文章
1074瀏覽量
34873
發(fā)布評論請先 登錄
相關推薦
評論