0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能的未來在哪里?

我快閉嘴 ? 來源:企業(yè)網(wǎng)D1Net ? 作者:Maria Korolov ? 2020-09-23 11:04 ? 次閱讀

人工智能機器學習在帶來好處的同時也帶來了新的漏洞。本文敘述了幾家公司將風險降至最低的方法。

當企業(yè)采用新技術(shù)時,安全性往往被放在次要位置,以最低的成本盡快將新產(chǎn)品或服務(wù)提供給客戶似乎更為重要。

人工智能(AI)和機器學習(ML)提供了與早期技術(shù)進步相同的漏洞和錯誤配置的機會,而且還有其特有的風險。隨著企業(yè)開始進行以人工智能驅(qū)動的數(shù)字化轉(zhuǎn)型,這些風險可能會變得更大。博思艾倫漢密爾頓公司(Booz Allen Hamilton)的首席科學家愛德華?拉夫(Edward Raff)表示:“不要倉促地進入這個領(lǐng)域。”

與其他技術(shù)相比,人工智能和機器學習需要更多的數(shù)據(jù),也需要更復雜的數(shù)據(jù)。數(shù)學家和數(shù)據(jù)科學家開發(fā)的算法來自研究項目。拉夫表示,在科學界,直到最近才開始認識到人工智能存在安全問題。

云平臺通常要處理大量的工作負載,從而增加了另一個級別的復雜性和脆弱性。毫不奇怪,網(wǎng)絡(luò)安全是人工智能采用者最令人擔憂的風險。德勤上月公布的一項調(diào)查顯示,62%的采納者認為網(wǎng)絡(luò)安全風險是主要的擔憂,但只有39%的人表示他們準備應(yīng)對這些風險。

讓問題變得更加復雜的是,網(wǎng)絡(luò)安全是人工智能使用的首要功能之一。德勤技術(shù)、媒體和電信中心的執(zhí)行董事杰夫?洛克斯(Jeff Loucks)表示,企業(yè)在人工智能方面的經(jīng)驗越豐富,他們就越擔心網(wǎng)絡(luò)安全風險。

此外,即使是經(jīng)驗更豐富的企業(yè),也沒有遵循基本的安全做法,例如對所有AI和ML項目進行完整的審計和測試。Loucks表示,公司目前在實施這些方面做得不是很好。

AI和ML對數(shù)據(jù)的需求帶來了風險

AI和ML系統(tǒng)需要三組數(shù)據(jù):

?訓練數(shù)據(jù)以建立預測模型

?測試數(shù)據(jù)以評估模型的運行情況

?當模型投入使用時運營數(shù)據(jù)

雖然實時交易或運營數(shù)據(jù)顯然是一項有價值的企業(yè)資產(chǎn),但很容易忽略也包含敏感信息的訓練和測試數(shù)據(jù)池。

許多用于保護其他系統(tǒng)中的數(shù)據(jù)的原則可以應(yīng)用于AI和ML項目,包括匿名化、令牌化和加密。第一步是詢問是否需要數(shù)據(jù)。在準備AI和ML項目時,收集所有可能的數(shù)據(jù),然后看看可以做些什么。

關(guān)注業(yè)務(wù)成果可以幫助企業(yè)將收集的數(shù)據(jù)限制在所需的范圍內(nèi)。為教育機構(gòu)分析學生數(shù)據(jù)的Othot公司的首席技術(shù)官約翰?阿巴蒂科(John Abbatico)表示,數(shù)據(jù)科學團隊非??释麛?shù)據(jù),他們在處理學生數(shù)據(jù)時明確表示,高度敏感的PII(個人身份信息)不是必需的,也永遠不應(yīng)該包含在提供給他們團隊的數(shù)據(jù)中。

當然,錯誤是會發(fā)生的。例如,客戶有時會提供敏感的個人信息,如社會保險號。這些信息不會提高模型的性能,但會帶來額外的風險。阿巴蒂科表示,他的團隊已經(jīng)制定了一套程序來識別PII,將其從所有系統(tǒng)中清除,并將錯誤通知客戶。

人工智能系統(tǒng)還需要情景數(shù)據(jù),這可能會極大地擴大公司的暴露風險。假設(shè)一家保險公司想要更好地掌握客戶的駕駛習慣,它可以購買購物、駕駛、位置和其他數(shù)據(jù)集,這些數(shù)據(jù)集可以很容易地交叉關(guān)聯(lián)并與客戶賬戶匹配。這種新的、呈指數(shù)級增長的數(shù)據(jù)集對黑客更具吸引力,如果被攻破,對公司的聲譽也會造成更大的破壞。

人工智能的安全設(shè)計

有很多數(shù)據(jù)需要保護的一家公司是在線文件共享平臺Box。Box使用AI提取元數(shù)據(jù),并提高搜索、分類等能力。Box的CISO拉克希米?漢斯帕爾(Lakshmi Hanspal)表示,Box可以從合同中提取條款、續(xù)訂和定價信息。Box的大多數(shù)客戶內(nèi)容分類要么是用戶定義的分類,要么是被完全忽視。他們坐在堆積如山的數(shù)據(jù)上,這些數(shù)據(jù)可能對數(shù)字化轉(zhuǎn)型有用。

漢斯帕爾說,保護數(shù)據(jù)是Box的一個重要事項,同樣的數(shù)據(jù)保護標準也適用于人工智能系統(tǒng),包括訓練數(shù)據(jù)。Box建立信任并保持信任。

這意味著所有系統(tǒng),包括新的人工智能項目,都是圍繞核心數(shù)據(jù)安全原則構(gòu)建的,包括加密、日志記錄、監(jiān)控、身份驗證和訪問控制。漢斯帕爾指出,數(shù)字信任是其平臺與生俱來的,他們將其付諸于實踐。

Box對傳統(tǒng)代碼和新的AI和ML支持的系統(tǒng)都有一個安全的開發(fā)流程。漢斯帕爾說:“我們在開發(fā)安全產(chǎn)品方面與ISO的行業(yè)標準保持一致。設(shè)計上的安全性是內(nèi)置的,而且有制衡機制,包括滲透測試和紅色團隊。”

數(shù)學家和數(shù)據(jù)科學家在編寫AI和ML算法代碼時通常不擔心潛在的漏洞。當企業(yè)構(gòu)建AI系統(tǒng)時,他們會借鑒現(xiàn)有的開源算法,使用商業(yè)的“黑匣子”AI系統(tǒng),或者從零開始構(gòu)建自己的AI系統(tǒng)。

對于開放源碼,攻擊者有可能嵌入惡意代碼,或者代碼包含漏洞或易受攻擊的依賴項。專有商業(yè)系統(tǒng)還使用開放源代碼,以及企業(yè)客戶通常無法查看的新代碼。

逆向攻擊是一個主要威脅

AI和ML系統(tǒng)通常是由非安全工程師創(chuàng)建的開源庫和新編寫的代碼的組合。此外,不存在用于編寫安全AI算法的標準最佳實踐??紤]到安全專家和數(shù)據(jù)科學家的短缺,這兩方面的專家供應(yīng)更少。

AI和ML算法是最大的潛在風險之一,也是博思艾倫?漢密爾頓(Booz Allen Hamilton)的Raff最擔心的長期威脅之一,其有可能將訓練數(shù)據(jù)泄露給攻擊者。他表示:“有一些逆向攻擊,可以讓人工智能模型向你提供關(guān)于它自身以及它所接受的訓練的信息。如果它是根據(jù)PII數(shù)據(jù)進行訓練的,你就可以讓模型向你泄露這些信息。實際的PII可能會暴露出來。”

Raff說,這是一個被積極研究的領(lǐng)域,也是一個巨大的潛在痛點。有些工具可以保護訓練數(shù)據(jù)免受逆向攻擊,但它們太昂貴了。他表示:“我們知道如何阻止這種威脅,但這樣做會使培訓模型的成本增加100倍,這并不夸張,所以沒人會這么做?!?/p>

你不能確保你不能解釋的東西安全

另一個研究領(lǐng)域是可解釋性。今天,許多AI和ML系統(tǒng),包括許多主要網(wǎng)絡(luò)安全供應(yīng)商提供的AI和ML支持的工具,都是“黑匣子”系統(tǒng)。YL Ventures的CISO Sounil Yu表示:“供應(yīng)商沒有在其中建立可解釋性。在安全方面,能夠解釋所發(fā)生的事情是一個基本的組成部分。如果我不能解釋為什么會發(fā)生這種情況,我怎么能補救呢?“。

對于構(gòu)建自己的AI或ML系統(tǒng)的公司來說,當出現(xiàn)問題時,他們可以回到訓練數(shù)據(jù)或使用的算法來解決問題。Yu指出,如果你是從別人那里構(gòu)建的,你根本不知道訓練數(shù)據(jù)是什么。

需要保護的不僅僅是算法

人工智能系統(tǒng)不僅僅是一個自然語言處理引擎,或者僅僅是一個分類算法,或者僅僅是一個神經(jīng)網(wǎng)絡(luò)。即使這些部分是完全安全的,系統(tǒng)仍然必須與用戶和后端平臺交互。

系統(tǒng)是否使用強身份驗證和最低權(quán)限原則?到后端數(shù)據(jù)庫的連接是否安全?與第三方數(shù)據(jù)源的連接情況如何?用戶界面對注入攻擊是否有彈性?

另一個與人相關(guān)的不安全感來源是人工智能和機器學習項目獨有的:數(shù)據(jù)科學家。奧托特的阿巴蒂科表示,優(yōu)秀的數(shù)據(jù)科學家對數(shù)據(jù)進行實驗,得出有洞察力的模型。然而,當涉及到數(shù)據(jù)安全時,實驗可能會導致危險的行為。使用完數(shù)據(jù)后,他們可能會傾向于將數(shù)據(jù)移動到不安全的位置或刪除樣本數(shù)據(jù)集。Othot在早期就投資于獲得SOC II認證,這些控制有助于在整個公司實施強有力的數(shù)據(jù)保護實踐,包括在移動或刪除數(shù)據(jù)時。

人工智能機構(gòu)Urvin AI的產(chǎn)品經(jīng)理、國際非營利性安全研究組織ISECOM的聯(lián)合創(chuàng)始人彼得?赫爾佐格(Peter Herzog)表示:“事實是,所有地方的大多數(shù)人工智能模型中最大的風險并不在人工智能中,問題出在人身上。沒有安全問題的人工智能模型幾乎沒有,因為人們決定如何訓練他們,人們決定包括什么數(shù)據(jù),人們決定他們想要預測和預測什么,以及人們決定暴露多少信息。”

另一個特定于AI和ML系統(tǒng)的安全風險是數(shù)據(jù)中毒,即攻擊者將信息輸入系統(tǒng),迫使系統(tǒng)做出不準確的預測。例如,攻擊者可能會通過向系統(tǒng)提供具有類似惡意軟件指示器的合法軟件示例來欺騙系統(tǒng),使其認為惡意軟件是安全的。

拉夫說:“這是大多數(shù)企業(yè)高度關(guān)注的問題。目前,我沒有意識到任何人工智能系統(tǒng)在現(xiàn)實生活中受到攻擊。從長遠來看,這是一個真正的威脅,但現(xiàn)在攻擊者用來逃避殺毒軟件的經(jīng)典工具仍然有效,所以他們不需要變得更花哨?!?/p>

避免偏差和模型漂移

當AI和ML系統(tǒng)用于企業(yè)安全時,例如,用于用戶行為分析、監(jiān)控網(wǎng)絡(luò)流量或檢查數(shù)據(jù)泄露,偏差和模型漂移可能會產(chǎn)生潛在風險。很快過時的訓練數(shù)據(jù)集可能會使組織變得脆弱,特別是在越來越依賴人工智能進行防御的情況下。企業(yè)需要不斷更新模型,讓更新模型成為一件持續(xù)的事情。

在某些情況下,訓練數(shù)據(jù)可以是自動的。例如,調(diào)整模型以適應(yīng)不斷變化的天氣模式或供應(yīng)鏈交付時間表,可以幫助使其隨著時間的推移變得更加可靠。當信息源涉及惡意行為者時,則需要仔細管理訓練數(shù)據(jù)集,以避免中毒和操縱。

企業(yè)已經(jīng)在處理造成道德問題的算法,例如當面部識別或招聘平臺歧視女性或少數(shù)族裔時。當偏見悄悄滲透到算法中時,它還可能造成合規(guī)問題,或者,在自動駕駛汽車和醫(yī)療應(yīng)用的情況下,可能會導致人員死亡。

就像算法可以在預測中注入偏差一樣,它們也可以用來控制偏差。例如,Othot幫助大學實現(xiàn)優(yōu)化班級規(guī)?;?qū)崿F(xiàn)財務(wù)目標。Othot的Abbatico說,在沒有適當約束的情況下創(chuàng)建模型很容易造成偏見。“對偏見進行審查需要多花精力。添加與多樣性相關(guān)的目標有助于建模理解目標,并有助于抵消偏見,如果不將多樣性目標作為約束因素包括在內(nèi),偏見則很容易被納入?!?/p>

人工智能的未來在云端

AI和ML系統(tǒng)需要大量的數(shù)據(jù)、復雜的算法和強大的處理器,這些處理器可以在需要時進行擴展。所有主要的云供應(yīng)商都在爭先恐后地提供數(shù)據(jù)科學平臺,這些平臺將所有東西都放在一個方便的地方。這意味著數(shù)據(jù)科學家不需要等待IT為他們配置服務(wù)器。他們只需上網(wǎng),填寫幾張表格,就可以開業(yè)了。

根據(jù)德勤的AI調(diào)查,93%的企業(yè)正在使用某種形式的基于云的AI。德勤的Loucks說:“這讓我們更容易上手?!比缓?,這些項目會變成運營系統(tǒng),隨著規(guī)模的擴大,配置問題會成倍增加。有了最新的服務(wù),集中化、自動化的配置和安全管理儀表盤可能不可用,公司必須自己編寫或等待供應(yīng)商加快步伐填補空白。

當使用這些系統(tǒng)的人是公民數(shù)據(jù)科學家或理論研究人員,而他們在安全方面沒有很強的背景時,這可能是一個問題。此外,供應(yīng)商歷來都是先推出新功能,然后再推出安全功能。當系統(tǒng)被快速部署,然后擴展得更快時,這可能會是一個問題。我們已經(jīng)在物聯(lián)網(wǎng)設(shè)備、云存儲和容器上看到了這種情況。

Raff說,人工智能平臺供應(yīng)商越來越意識到這一威脅,并從錯誤中吸取了教訓。他說:“我看到,考慮到歷史上的‘安全放在最后’的心態(tài),納入安全內(nèi)容的計劃比我們原本預期的要積極得多。ML社區(qū)對此更為關(guān)注,延遲時間可能會更短。”

德勤(Deloitte)AI聯(lián)席主管Irfan Saif對此表示贊同,特別是在涉及到支持大型企業(yè)AI工作負載的主要云平臺時。就網(wǎng)絡(luò)安全能力的演變而言,它們可能比之前的技術(shù)更成熟。

人工智能項目安全檢查清單

以下這些幫助確保人工智能項目安全的清單摘自德勤的《企業(yè)中的人工智能狀況》(第3版):

?保存所有人工智能實施的正式清單

?使人工智能風險管理與更廣泛的風險管理工作保持一致

?有一名高管負責與人工智能相關(guān)的風險

?進行內(nèi)部審計和測試

?利用外部供應(yīng)商進行獨立審計和測試

?培訓從業(yè)者如何認識和解決圍繞人工智能的倫理問題

?與外部各方合作,制定合理的人工智能道德規(guī)范

?確保人工智能供應(yīng)商提供不偏不倚的系統(tǒng)

?制定指導人工智能倫理的政策或委員會
責任編輯:tzh

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29862

    瀏覽量

    268152
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46698

    瀏覽量

    237188
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8357

    瀏覽量

    132328
收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第6章人AI與能源科學讀后感

    探討了人工智能如何通過技術(shù)創(chuàng)新推動能源科學的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹了人工智能在能源領(lǐng)域的基本概念和技術(shù)原理。這使得我對人工智能
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章-AI與生命科學讀后感

    。 4. 對未來生命科學發(fā)展的展望 在閱讀這一章后,我對未來生命科學的發(fā)展充滿了期待。我相信,在人工智能技術(shù)的推動下,生命科學將取得更加顯著的進展。例如,在藥物研發(fā)領(lǐng)域,AI技術(shù)將幫助科學家們更加
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得

    非常高興本周末收到一本新書,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內(nèi)容詳實,干活滿滿。 關(guān)于《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章“AI
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第一章人工智能驅(qū)動的科學創(chuàng)新學習心得

    的同時,確保其公正性、透明度和可持續(xù)性,是當前和未來科學研究必須面對的重要課題。此外,培養(yǎng)具備AI技能的科研人才,也是推動這一領(lǐng)域發(fā)展的關(guān)鍵。 4. 激發(fā)創(chuàng)新思維 閱讀這一章,我被深深啟發(fā)的是人工智能
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V和Arm內(nèi)核及其定制的機器學習和浮點運算單元,用于處理復雜的人工智能圖像處理任務(wù)。 四、未來發(fā)展趨勢 隨著人工智能技術(shù)的不斷發(fā)展和普及,RISC-V在人工智能圖像處理領(lǐng)域的
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學 不過好像都是要學的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結(jié)經(jīng)驗,擬按照要求準備相關(guān)體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動科學創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    貼片電容與貼片電阻的本質(zhì)差異在哪里?

    貼片電容與貼片電阻的本質(zhì)差異在哪里?
    的頭像 發(fā)表于 08-27 15:51 ?284次閱讀
    貼片電容與貼片電阻的本質(zhì)差異<b class='flag-5'>在哪里</b>?

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    致力于為汽車人工智能硬件提供未來保障

    為了保證汽車人工智能硬件的未來發(fā)展,汽車人工智能正逐漸滲透到車輛的各個領(lǐng)域,如ADAS、電動汽車智能電池管理、車廂監(jiān)控系統(tǒng)、智能降噪信息娛樂
    的頭像 發(fā)表于 05-14 16:36 ?622次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2) 課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎(chǔ)知識指引
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17