0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI是否有邊界 誰來握住AI野馬的韁繩

454398 ? 來源:ST社區(qū) ? 作者:ST社區(qū) ? 2020-10-15 09:46 ? 次閱讀

人工智能在我看來可以說是一個人類最偉大的創(chuàng)造,并不是說這個技術(shù)能夠?qū)崿F(xiàn)什么樣的高度,而是這個技術(shù)真的解放了人類,激發(fā)出機器的生產(chǎn)力,讓人釋放出來可以做更具人性和創(chuàng)造性的事情。不過對于人工智能的擔憂也與生俱來,人工智能會不會失控,會不會帶來人類無法挽回的后果?

近日,人工智能公司曠視科技宣布成立AI治理研究院,呼吁各界對AI治理事件的關(guān)注和討論?!叭斯ぶ悄芗夹g(shù)要可持續(xù)化發(fā)展,過去幾年,人工智能經(jīng)歷了一段野蠻生長的時期,”曠視AI治理研究院負責人稱:“2020年將成為AI治理元年。”

“人工智能的野蠻生長”這種說法并非沒有緣由,隨著互聯(lián)網(wǎng)、云計算在各行各業(yè)的快速滲透,整個社會的網(wǎng)絡(luò)化和數(shù)據(jù)化程度空前提升,原來越多的智能化設(shè)備開始切實的落地進入到智慧城市之中,而相關(guān)的算法也不斷進步,人工智能開始在各種領(lǐng)域中開展探索應(yīng)用,甚至已經(jīng)開始進入到一個自我學習和進化的過程之中。尤其是在最近幾年,伴隨著人工智能技術(shù)的大規(guī)模產(chǎn)業(yè)化應(yīng)用,一些并無先例可循的人與人工智能矛盾逐漸浮出水面。擔憂和質(zhì)疑之聲愈演愈烈,盡快探討出一種可預(yù)期的、可被約束的、行為向善的人工智能治理機制,成為了近人工智能時代的首要命題。

AI的邊界在哪兒?從《終結(jié)者》說起

1984年,卡梅隆拍了第一部《終結(jié)者》,2019年,《終結(jié)者6》上映,35年彈指一揮間,唯一改變的就是這個世界真的已經(jīng)連接在了一起,天網(wǎng)的故事似乎不再那么遙不可及。著名物理學家霍金在去世之前,曾經(jīng)和人稱“鋼鐵俠”的特斯拉創(chuàng)始人馬斯克共同發(fā)布公開信,提出了對人工智能發(fā)展的擔憂?;艚鹫f:“在未來100年內(nèi),結(jié)合人工智能的計算機將會變得比人類更聰明。屆時,我們需要確保計算機與我們的目標相一致。我們的未來取決于技術(shù)不斷增強的力量和我們使用技術(shù)的智慧之間的賽跑?!背钟羞@種觀點的人并非少數(shù),由于民眾的擔憂,美國加州就立法禁止警方在執(zhí)法記錄儀上使用面部識別技術(shù),而浙理工一個博士也起訴了一家把指紋識別換成人臉識別的野生動物公園,他的理由是害怕人臉生物信息的泄露,當然這個擔心也很有趣,因為比起公開的人臉信息的泄露,指紋的泄露恐怕是更致命的。顯然,人工智能發(fā)展一日千里,實際應(yīng)用落地也快馬加鞭,人們可能還來不及思考這些看似的便利背后是否會帶來什么不妥,這些設(shè)備就已經(jīng)在運行之中了。而在問題逐漸暴露之前,類似的擔憂和爭議恐怕還會繼續(xù)。

事實上,機器也好,人工智能也好,人們對新技術(shù)的擔憂在近一百年中一直存在。早在1950年,阿西莫夫的科幻小說中就針對人們對機器人的擔憂提出了著名的機器人三定律,奠定了一個思考的方向和基礎(chǔ)。這三個定律就是“一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。”從這里我們可以很清晰的看到機器人生存的天條就是不得傷害人類,而后續(xù)這些規(guī)則得到了一些補充,不過最讓我覺得有價值的一個補充就是繁殖原則,機器人不得參與機器人的設(shè)計和制造,除非新機器人的行為符合機器人原則。在這個階段,人們已經(jīng)開始思考到機器人的繁衍帶來的可能的危害了,而這個問題,事實上也是《終結(jié)者》中矛盾沖突的起源。

這些本屬于科幻領(lǐng)域思考和探討的問題,現(xiàn)在終于開始擺在了現(xiàn)實的世界面前:2020年1月,歐盟專利局駁回了英國薩里大學一個名為DABUS的AI所申報的專利成果,理由是歐盟專利申請中指定的發(fā)明者必須是人,而不是機器。但薩里大學研究人員強烈反對這一決定,他們認為因沒有人類發(fā)明者而拒絕將所有權(quán)授予發(fā)明者,將成為“人類取得偉大成果的新時代”的重大障礙。

但無論如何技術(shù)發(fā)展的腳步都不會暫停,尤其是在云計算全面普及、5G全面部署,AI能力全面發(fā)育的今天,2020年將無疑成為應(yīng)用爆發(fā)之年和矛盾最為突出的一年。人工智能應(yīng)用的邊界是什么?是否能夠享有和人一樣的權(quán)利?誰能夠為人工智能犯的錯誤負責?在人工智能進入爆發(fā)期之前這些問題亟待解決。因此,稱2020年是AI治理元年并不為過,除了技術(shù)研發(fā)和進步之外,關(guān)于AI倫理方面的規(guī)則制定我覺得也到了最為關(guān)鍵的時刻。

各國各界在摸索中前行

事實上,社會各界對AI技術(shù)的討論熱情只增不減,全球范圍內(nèi)很多政府或社會組織、名門政要都或多或少對人工智能提過一些要求。比如2019年4月,歐盟委員會公布了指導人工智能發(fā)展和建立信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎(chǔ)。同年6月17日,我國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了人工智能治理的框架和行動指南。

但是世界各國政府層面對于人工智能治理的規(guī)范和邊界,還沒有進入實質(zhì)性的立法或明確標準,在推動人工智能應(yīng)用規(guī)范這一方面,人工智能企業(yè)反倒起了更為積極的作用。

作為國內(nèi)領(lǐng)先的人工智能企業(yè),曠視在推進人工智能應(yīng)用的過程中已經(jīng)意識到正視人工智能技術(shù)所帶來的倫理問題的重要性,主張AI企業(yè)要把治理當作頭等大事來關(guān)注。2019年7月,曠視首發(fā)《人工智能應(yīng)用準則》,《準則》從正當性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責和及時修正、數(shù)據(jù)安全與隱私保護六個維度,對人工智能正確有序發(fā)展作出明確規(guī)范,同時給出相應(yīng)干預(yù)措施或指導意見,確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展。據(jù)透露,曠視內(nèi)部還成立了專門的道德委員會,以監(jiān)督該《準則》在企業(yè)技術(shù)研發(fā)和產(chǎn)品應(yīng)用中的實施。

曠視聯(lián)合創(chuàng)始人、CEO印奇認為AI治理需要 “理性的關(guān)注,深度的研究,建設(shè)性的討論和堅持不懈的行動”。這個問題我覺得各大企業(yè)乃至主管部門都應(yīng)該參與其中,早些劃定可以研究和使用的范疇,能夠避免人工智能行業(yè)誤入歧途,在良好的環(huán)境中快速發(fā)展,這就像在建大樓之前打地基。

誰來握住AI野馬的韁繩

坦白說對于人工智能發(fā)展的問題,你可以提出反對意見,但卻沒有辦法阻止它的發(fā)展,因為這是一個大勢所趨。猶如核武器,猶如工業(yè)化,不管你有多大的擔憂,都沒有辦法阻止他的發(fā)展,這是討論這個問題的一個前提。所以剩下的其實還是一個規(guī)則和倫理的探討,猶如核武器的管理問題,可能也是全世界最重要的一個管理問題。人工智能的管理重要性,可能并不在核武器之下,但只要這匹野馬不脫韁,就能夠為人類所用,載我們到達從未到過的地方。

整個人工智能領(lǐng)域也要制定出自己的“機器人三定律”來保證技術(shù)的發(fā)展最終不能傷害人類,畢竟之前電腦中毒重裝系統(tǒng)就可以了,現(xiàn)在AI失控,就可能斷水斷電甚至交通癱瘓。人工智能可以看作是人類智慧的結(jié)晶,它可以具有人類掌握的所有知識,也可以操控人類世界的大部分設(shè)施,不能說全知全能其實也相去不遠,在我們不斷加大它的力量之前,思考清楚如何控制還是非常必要的。

如此看來,人工智能的倫理討論要比人工智能技術(shù)的發(fā)展研究可能更重要也更急切一些,一個簡單的例子,一輛自動駕駛的車輛出現(xiàn)了車禍,那么誰應(yīng)該為此負責?是駕駛員?還是車輛的生產(chǎn)者?這個問題的界定恐怕比自動駕駛的技術(shù)本身更阻礙了自動駕駛的發(fā)展和落地。再比如說,人工智能寫出了假新聞?誰又該為此負責?之前大熱的AI換臉應(yīng)用通過AI為視頻換臉,包括很多模擬人聲音的產(chǎn)品,一旦出現(xiàn)了假冒的事件,又有誰來負責?人們還能夠說,無圖無真相?無視頻無真相?或者無聲音無真相么? 而另一個有趣的問題則是,人臉識別的準確率對于有色人種隨著膚色的加深會大大下降,換句話說,白種人可能會遭到更加嚴格的監(jiān)管,而黑人則可能會寬松許多,這是否會造成一種不公?斯坦福大學則發(fā)表了另一項研究,用人工智能識別性取向的準確率遠高于人類,那么這樣去識別這種少數(shù)群體,會不會帶來隱私問題,會不會帶來族群的生存窘境?

所以從這個角度來看,在一線搞人工智能應(yīng)用研發(fā)的科技企業(yè)應(yīng)該更早的意識到這一點,一個可參考的案例就是基因和克隆方面的研究,優(yōu)先的是倫理管理而非技術(shù)突破。大家應(yīng)該更早的坐在一起制定研究的方向和規(guī)則,并進行有效的監(jiān)督和管理,讓人工智能可以在一個清晰安全的規(guī)范之下,有條不紊又可控的發(fā)展,使得2020年成為一個人類社會向前發(fā)展的關(guān)鍵節(jié)點。

也許東方人遠比西方樂觀,同樣是關(guān)于機器人的幻想題材,1969年誕生的《機器貓》就顯得人畜無害很多,我們相信天人合一,相信一切都能和人和諧發(fā)展。所以我也希望曠視這樣的中國企業(yè)在人工智能的發(fā)展中能夠起到更大的作用,更好的引領(lǐng)行業(yè)規(guī)范健康的發(fā)展。

編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    210

    文章

    27839

    瀏覽量

    204596
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235016
收藏 人收藏

    評論

    相關(guān)推薦

    AI調(diào)試工具

    APIAI
    草帽王路飛
    發(fā)布于 :2024年09月02日 11:31:57

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    視頻3--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:16:13

    視頻2--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:15:34

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    risc-v多核芯片在AI方面的應(yīng)用

    RISC-V多核芯片在AI方面的應(yīng)用主要體現(xiàn)在其低功耗、低成本、靈活可擴展以及能夠更好地適應(yīng)AI算法的不同需求等特點上。 首先,RISC-V適合用于高效設(shè)計實現(xiàn),其內(nèi)核面積更小,功耗更低,使得它能
    發(fā)表于 04-28 09:20

    開發(fā)者手機 AI - 目標識別 demo

    功能簡介 該應(yīng)用是在Openharmony 4.0系統(tǒng)上開發(fā)的一個目標識別的AI應(yīng)用,旨在從上到下打通Openharmony AI子系統(tǒng),展示Openharmony系統(tǒng)的AI能力,并為開發(fā)者提供
    發(fā)表于 04-11 16:14

    FP_AI_VISION1工程是否可以適用于stm32f746discovery開發(fā)板?

    FP_AI_VISION1工程是否可以適用于stm32f746discovery開發(fā)板?使用STM32CUBEIDE打開FP_AI_VISION1工程為什么沒有stm32可運行文件,不能編譯?
    發(fā)表于 03-18 07:21

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTER
    發(fā)表于 03-14 07:09

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當準備使用神經(jīng)網(wǎng)絡(luò)的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報如下錯誤
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
    發(fā)表于 03-12 08:09

    AI大模型怎么解決芯片過剩?

    AI大模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI大模型可以設(shè)計電路嗎?

    AI大模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29