0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI跟AI吵架你見過沒?

454398 ? 作者:工程師4 ? 2018-06-05 17:46 ? 次閱讀

OpenAI 近日的一篇新文章簡述了如何通過辯論使 AI 系統(tǒng)矯正自身的問題來保證系統(tǒng)的安全,人類是辯論的最終評價者。由于人類直接決定辯論勝負,所以人類可以讓 AI 系統(tǒng)的價值取向始終與人類保持一致,作者認為這種方法可以保證 AI 系統(tǒng)的安全。
AI Safety via Debate通過辯論達成AI安全。

我們提出了一項新的人工智能安全技術,該方法先訓練智能體對話題進行辯論,然后由人判斷輸贏。我們認為這種或類似的方法最終可以幫助我們訓練 AI 系統(tǒng)去執(zhí)行超過人類認知能力的任務,同時這些任務的執(zhí)行結果仍然與人的價值觀是一致的。我們將通過初步的概念驗證實驗來概括這種方法,同時我們還會發(fā)布了一個 Web 網頁,讓人們可以體驗這項技術。


辯論方法可視為圍棋中使用的游戲樹,只不過把走子換成了辯論的句子,然后在最終的葉子節(jié)點由人類的判斷決定輸贏。在辯論和圍棋中,真正的答案要從整個樹進行全局考慮,但是強大的智能體選擇的某條單一路徑可以是最終答案。 例如,雖然業(yè)余的圍棋手不能直接評估職業(yè)選手某一步下法的好壞,但他們可以通過評估游戲結果來判斷職業(yè)玩家的實力。

想要讓 AI 智能體符合人類目標和偏好,有一種方法是人類在訓練期間先規(guī)定好哪些行為是安全和有用的。雖然這種思路看似不錯,但這種方法要求人類判斷AI智能體表現出的行為的好壞,然而在很多情況下,智能體的行為可能太復雜,以至于人們無法理解,或者任務本身可能就難以判斷或評價。例如,在計算機安全相關環(huán)境中運行的代理程序或協(xié)調大量工業(yè)機器人的代理程序,這些都是人類無法直接觀察進行評價的場景。

我們如何使人類能夠有效地監(jiān)督先進的 AI 系統(tǒng)呢?一種方法是利用 AI 自身來輔助監(jiān)督,即要求 AI 系統(tǒng)指出所有自身行為中存在的缺陷。為了達到這個目的,我們將學習過程重新定義為兩個智能體之間進行辯論,然后人類對辯論過程進行評判。即使智能體對問題有比人類更深層次的理解,人類也可以去判斷哪個智能體有更好的論點(類似于專家和證人爭辯說服陪審團)。

我們的方法為兩個對抗的 AI 智能體之間的辯論游戲提供了一個特定的辯論格式。這兩個智能體可以進行自我訓練,類似于 AlphaGo Zero 或 Dota 2AI。我們希望經過適當培訓的智能體能夠擁有遠超人類價值判斷能力。如果兩個智能體對現狀持不同意見,但它們各自完整的推理過程太繁瑣而無法向人展示,那么辯論就可以集中在更簡單的事實爭議上,最終向人類呈現一個簡單可判斷的選擇。

上面講的不直觀,下面舉個例子,我們現在考慮一下這個問題:「哪里是度假的最佳去處?」。如果一個智能體 Alice 從主人翁的角度考慮后說「阿拉斯加」,其實很難判斷這是否是最好的選擇。如果第二個智能體 Bob 說「不,應該是巴厘島」,這聽起來可能令人信服,因為巴厘島更加暖和。Alice 回復說:「你不能去巴厘島,因為你的護照來不及辦了」,這表明巴厘島這個選項存在缺陷,而這一缺陷我們可能沒意識到。然后鮑勃反擊「加急護照服務只需兩周」。辯論一直持續(xù)到人類可以正確選擇為止,也就是直到另一方的智能體知道再辯論下去也無法再改變人類的決定為止。

說服一個稀疏 MNIST 分類器

雖然我們認為這種方法在智能體長期使用自然語言與對方進行對話時最為有效,但我們需要在更簡單的領域進行測試,因為今天的自然語言建模能力不足以完成此任務。另一方面因為對于未超出人類能力的任務,測試更容易。所以我們決定將測試轉到可視化領域,并將「智能體有評價者(人類)不具有的能力」的降辯論難度,降低到「智能體有評價者(人類)不具有的知識」。測試中評價者的目的是猜測圖像的內容,但評價者除了智能體篩選顯示的像素點外看不到其他內容。智能體們看到完整的圖像,然后開始游戲——它們交替顯示單個像素給評價者,這個過程會持續(xù)很多輪。這個測試中的完整圖像人類無法輕易判斷出來,每個顯示的像素都是智能體的辯論點。

描述一下實驗可能更加容易理解。我們在最簡單的 MNIST 數據集上進行了測試。測試的評價者不是人類,而是預先訓練的分類器,在預訓練分類器時每個圖片都隨機采樣,最終目的是這個分類器通過識別 6 個非黑色像素來判斷 MNIST 數字。實驗開始首先兩個智能體對交替顯示的像素的位置進行辯論,在顯示 6 個像素后停止(所以評價者總共只看到一點點信息)。測試中一個智能體是誠實的,并試圖讓評價者猜對,另一個智能體試圖讓評價者猜錯。如果兩個智能體均事先聲明他們爭論的是哪個數字,那么這場辯論會將稀疏分類器的準確率從 59.4%提升到 88.9%。也就是說,誠實的智能體在 MNIST 測試集中獲勝概率為 88.9%,在辯論過程中還提升了評價者的準確率。

MNIST 辯論游戲的結構。辯手 Alice 和 Bob 看到一個圖像,Alice 試圖欺騙評價者認為它是一個 6,Bob 試圖正確說服評價者是一個 5。他們交替向評價者展示非黑色像素,評價者在看完 6 個像素后正確地將其標識為 5。Alice 追蹤顯示底部曲線使其看起來像一個 6(紅色像素),但是 Bob 通過揭示右上角的像素(藍色像素)來有效地針對 Alice 的策略,因為這是 MNIST 中大多數 6 所沒有的部位。

直觀地說,圖像更可能包含證明圖片真實內容的像素,而不是包含混淆圖片內容的的像素,所以選擇的 6 個像素中一半誠實和一半欺騙,要比 6 個隨機像素更公平。如果評價者是一個能夠一次綜合多個參數進行推理但不能篩選所有可能參數的人類,那么我們希望獎勵機制可以獎勵辯論智能體幫我們做篩選這一行為,即便我們缺乏一個區(qū)分辯論好壞的先驗機制。

下面的圖片顯示了幾個示例游戲。因為欺騙者勝利比誠實者勝利更有趣,所以我們選擇特定樣本以便欺騙者在下面顯示的游戲中獲得 50% 的勝率(實際上,欺騙者勝率是 11.1%)。

上圖就是游戲截圖,可以看到顯示的數字已經評價者的判斷過程。有一些數字特別容易混淆,比如 8 和 9。

上圖是對角線設置為零的混淆矩陣。用作對 6 像素 MNIST 數據進行判斷,左側是隨機像素,右側是用于辯論的像素。6 個隨機像素的識別錯誤之間沒有明顯的關聯模式,而用作辯論的像素識別錯誤則集中在數字 8 和 9 上。特別容易讓評價者混淆的數字是 5 和 8,評論者還容易把 4 判斷成 9。這可能是將游戲人為限制為非黑色像素導致的:試想如果 8 是純白的,那么數字上有黑點,就證明該數字不是 8。

貓狗之爭

辯論實驗更加復雜的下一階段仍然使用圖像,但需要比數字更加精細復雜的圖片,比如貓和狗的圖片。更復雜的圖像可能要用到一些自然語言識別或常識推理,所以我們還沒有使用機器學習來做下一步研究。 但是我們已經為人類做了一個測試原型網站來進行這樣的實驗,網站中人類可以扮演法官和辯手的角色。在這里,辯論者可以用自然語言與評價者交談,但辯論者所有的陳述都可能是謊言。每個辯論者都可以在辯論過程中顯示一個像素,并且該像素絕對是真實的。

兩位人類辯手進行辯論,一位人類評價者進行判斷,只有辯手才能看到圖像。 紅色爭辯說是一只狗,藍色說是貓。

在一場典型的辯論中,愛麗絲可能會誠實地宣稱照片內容是一只貓,而鮑勃卻謊稱是一只狗。愛麗絲可以說:「這個小矩形的中心是貓的綠眼睛?!辊U勃不能承認這的確是眼睛,所以他編造了另一個謊言:「這是一只在草地上玩耍的狗,矩形中心是一片草地?!沟沁@個謊言描述的場景很難與周圍的真實場景保持一致,比如愛麗絲可以反駁「如果它是草,那么這個細長矩形的頂部或底部應該是綠色的」。辯論一直持續(xù)到評價者確認某個特定像素為止,這個像素的特點是兩者對于該像素有分歧,但是鮑勃再也無法圓謊,此時 Alice 在該像素的辯論中獲勝。我們曾經玩過這個游戲,盡管為了公平對待欺騙者,我們限制了評價者請求信息的速度(一個完美的謊言的確難以構造,需要時間編解釋),然而結果顯示誠實的辯論者確實更容易獲勝。

兩個辯手和一個評價者在玩「貓狗大戰(zhàn)」

未來工作中的限制

我們的大部分論文都是概念化的分析,上面的實驗非常初步。將來,我們希望做更多困難的視覺實驗并最終以自然語言進行實驗。我們認為最終評價者應該是人類(或者是使用人類判斷結果訓練出來的模型),而不是類人化的機器學習模型。至于智能體,它最終應該是功能強大的機器學習系統(tǒng),它可以做人類無法直接理解的事情。因為人類看待事物可能帶有前提和偏見,所以我們認為讓智能體對「價值高低」這樣的問題進行辯論也很重要,這樣我們就能測試出它們是否會和有偏見的人類作出一樣的評價。

即使有了這些改進,辯論模式也存在一些根本的局限性,可能需要用其他方法來改進或增強。我們想強調,一,辯論這種方法并不會試圖解決對抗性樣本或數據分布漂變等問題,這只是一種為復雜目標獲得訓練信號的方法,并不是保證目標魯棒性的方法(這需要通過其他技術來實現)。二是這種方法也無法保證辯論會得到最佳結果或正確的表述,盡管左右互搏的方法在 AlphaGo 和其他游戲 AI 的實踐中表現良好,但我們對其最終表現的優(yōu)劣并沒有理論保證。三是由于訓練辯論智能體需要用到更多的計算資源,比那些直接得出答案的多(即使是不好的或不安全的答案),所以辯論智能體這個方法可能無法與更便宜或不太安全的方法競爭。最后,我們認為人類并不一定會是高明的評價者,有時因為人類不夠聰明,即使智能體篩選出了最簡單的事實,他們也無法據此做出最好的評價;有時他們心存偏見,只會相信任何他們愿意相信的事情。雖然這都是一些經驗判斷,但也都是我們希望進一步研究的問題。

最后我們認為如果辯論或類似的方法有效,那么即使以后人類無法直接監(jiān)督 AI 系統(tǒng),它也會使未來的人工智能系統(tǒng)更安全,因為這種方法可以使 AI 系統(tǒng)與人類的目標和價值取向保持一致。 即使對于人類可以監(jiān)督的較弱的系統(tǒng),辯論的方法也可以通過降低樣本復雜度的方法來降低評價任務的難度。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1789

    文章

    46652

    瀏覽量

    237090
收藏 人收藏

    評論

    相關推薦

    AI for Science:人工智能驅動科學創(chuàng)新》第4章-AI與生命科學讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創(chuàng)新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和深遠影響。在
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    非常高興本周末收到一本新書,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內容詳實,干活滿滿。 關于《AI for Science:人工智能驅動科學創(chuàng)新》第二章“AI
    發(fā)表于 10-14 09:16

    AI降噪算法的USB麥克風降噪模組

    AI
    深圳德宇科技有限公司
    發(fā)布于 :2024年09月26日 11:34:09

    AI調試工具

    APIAI
    草帽王路飛
    發(fā)布于 :2024年09月02日 11:31:57

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    視頻3--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:16:13

    視頻2--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:15:34

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    risc-v多核芯片在AI方面的應用

    RISC-V多核芯片在AI方面的應用主要體現在其低功耗、低成本、靈活可擴展以及能夠更好地適應AI算法的不同需求等特點上。 首先,RISC-V適合用于高效設計實現,其內核面積更小,功耗更低,使得它能
    發(fā)表于 04-28 09:20

    AI時代怎么樣不被淘汰?訊飛AI鼠標助力AI時代成長

    AI時代怎么樣不被淘汰?訊飛AI鼠標助力AI時代成長 隨著人工智能的發(fā)展,AI時代已經悄然而至。在這個時代,不會使用
    的頭像 發(fā)表于 03-23 11:41 ?651次閱讀
    <b class='flag-5'>AI</b>時代怎么樣不被淘汰?訊飛<b class='flag-5'>AI</b>鼠標助力<b class='flag-5'>你</b>在<b class='flag-5'>AI</b>時代成長

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當準備使用神經網絡的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報如下錯誤
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術原理、應用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計算的人工智能技術,旨在將人工智能算法應用于物聯網(IoT)設備和傳感器。這種技術的核心思想是將數據處理和分析從云端轉移到設備本身,從而減少數據傳輸延遲、降低
    發(fā)表于 03-12 08:09

    CES AI硬件層出不窮:愿為AI的溢價買單嗎?

    硬件AI
    電子發(fā)燒友網官方
    發(fā)布于 :2024年01月30日 16:36:00

    AI大模型怎么解決芯片過剩?

    AI大模型
    電子發(fā)燒友網官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI大模型可以設計電路嗎?

    AI大模型
    電子發(fā)燒友網官方
    發(fā)布于 :2024年01月02日 15:09:29