0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI的安全與光明的消逝

AI智勝未來 ? 來源:大數(shù)據(jù)文摘 ? 2023-11-14 17:19 ? 次閱讀

最近關(guān)乎AI監(jiān)管的觀點(diǎn)可謂有了“新高度”,一群AI大佬在推特上就“人類滅絕論”展開激烈討論。

正方辯手是以Hinton為代表的“AI有風(fēng)險(xiǎn)派”,反方代表是以吳恩達(dá)為核心的“AI積極論”。在這場辯論中,吳恩達(dá)更是聲稱“一部分人非常賣力地傳播AI擔(dān)憂其實(shí)只是為了“錢”。

8a396b60-8230-11ee-939d-92fbcf53809c.png

究竟要不要AI監(jiān)管?AI監(jiān)管會(huì)帶來什么樣的后果?fast.ai的一群研究者們,開展了一項(xiàng)調(diào)查研究,采訪了70多名專家,并查閱了300多篇學(xué)術(shù)論文。最終形成結(jié)論:我們正處在AI啟蒙階段,嚴(yán)格的監(jiān)管勢必要扼殺希望的萌芽。

8a5333ce-8230-11ee-939d-92fbcf53809c.png

以下是對fast.ai觀點(diǎn)文章“AI Safety and theAge of Dislightenment

”的原文,文摘菌做了不改變原意的編譯

8a65daba-8230-11ee-939d-92fbcf53809c.png

編者注:這篇文章,還有一個(gè)目的,就是駁斥OpenAI的監(jiān)管論“Frontier AI regulation:Managing emerging risks to public safety”

嚴(yán)格的AI模型許可和監(jiān)管可能無法實(shí)現(xiàn)預(yù)期目標(biāo),甚至可能產(chǎn)生負(fù)面后果。這可能導(dǎo)致權(quán)力集中且不可持續(xù),并可能抵消啟蒙時(shí)代的社會(huì)進(jìn)步。

在保護(hù)社會(huì)和提高社會(huì)自我防衛(wèi)能力之間,需要找到一個(gè)微妙的平衡點(diǎn)。我們應(yīng)該采用開放的態(tài)度、保持謙遜并廣泛征求意見。隨著對具有改變社會(huì)的潛力技術(shù)的了解加深,有些應(yīng)對策略也應(yīng)該不斷調(diào)整。

人工智能(AI)發(fā)展迅速,我們目前還不知道它能走到哪里。OpenAI 的首席執(zhí)行官 SamAltman 認(rèn)為 AI 可能會(huì)“握住宇宙中一切未來價(jià)值的光芒”(capture the light cone of all future value in the universe)。但另一些專家警告說,AI可能會(huì)導(dǎo)致“滅絕風(fēng)險(xiǎn)”。

也有許多人提出了一些規(guī)范 AI 的方法,包括白皮書“前沿 AI 規(guī)制:管理公共安全的新興風(fēng)險(xiǎn)”(FAR),以及歐盟 AI 法案的議會(huì)版本,內(nèi)容大致包含兩個(gè)部分:

1.為 AI 模型的開發(fā)和部署制定標(biāo)準(zhǔn);

2.創(chuàng)建機(jī)制以確保符合這些標(biāo)準(zhǔn)。

然而,其他專家反駁說:“對存在風(fēng)險(xiǎn)(x-risk,指可能導(dǎo)致人類滅絕的風(fēng)險(xiǎn))的關(guān)注如此之多,以至于它‘?dāng)D占了更緊迫問題的關(guān)注空間’,并對關(guān)注其他風(fēng)險(xiǎn)的研究人員產(chǎn)生了潛在的社會(huì)壓力。”

因此不禁要問:盡管當(dāng)前的AI風(fēng)險(xiǎn)很重要,但人類滅絕的威脅是否意味著我們應(yīng)該繼續(xù)實(shí)施這種監(jiān)管呢?也許不應(yīng)該。正如我們將看到的,如果 AI 真的足夠強(qiáng)大以至于構(gòu)成災(zāi)難性威脅,那么這個(gè)提議實(shí)際上可能無濟(jì)于事(文摘菌注:小雨不用打傘,大雨打傘沒用)。事實(shí)上,過嚴(yán)的提議可能會(huì)使事情變得更糟,例如創(chuàng)造嚴(yán)重的權(quán)力失衡,導(dǎo)致社會(huì)的瓦解。

有些擔(dān)憂針對的是:要監(jiān)管AI 模型的開發(fā)階段全過程,而不只是監(jiān)管模型如何被使用。而監(jiān)管措施的影響可能無法逆轉(zhuǎn),因此在立法前我們應(yīng)該非常謹(jǐn)慎。

前沿 AI 規(guī)制(FAR)和 AI 法案試圖對“基礎(chǔ)模型”進(jìn)行監(jiān)管。這些基礎(chǔ)模型是通用 AI,它們能夠處理幾乎所有類型的問題,盡管成功程度可能因問題而異。

對于任何通用設(shè)備(例如計(jì)算機(jī)或鋼筆),無法確保它們永遠(yuǎn)不會(huì)被用來造成傷害。因此,為了確保 AI 模型不被濫用,唯一的方法是:不讓別人直接使用這些模型。

另外,也可以將它們限制在一個(gè)受嚴(yán)格控制的有限服務(wù)接口上,如 ChatGPT是一個(gè)與 GPT-4 相連的接口,可以提供受限但可控的訪問權(quán)限。

如果我們現(xiàn)在為了“安全”而采取加強(qiáng)權(quán)力集中的監(jiān)管措施,我們可能會(huì)抹殺啟蒙時(shí)代的成就,導(dǎo)致社會(huì)進(jìn)入一個(gè)相反的新時(shí)代:the Age of Dislightenment(黯淡時(shí)代)。

與此相反,我們應(yīng)該堅(jiān)守啟蒙時(shí)代的開放與信任原則,例如支持開源模型的開發(fā)。開源通過廣泛參與和分享推動(dòng)了巨大的技術(shù)進(jìn)步。廣泛的參與意味著更多具備不同專業(yè)知識(shí)的人可以共同識(shí)別和應(yīng)對潛在威脅,從而提高整體安全水平,這在網(wǎng)絡(luò)安全等領(lǐng)域已經(jīng)被證實(shí)是有效的。

大問題

隨著 AI 能力的迅速發(fā)展,許多人開始尋求“保護(hù)”,也有很多人提供“保護(hù)”。正如那篇名為“前沿 AI 規(guī)制:管理公共安全的新興風(fēng)險(xiǎn)”的白皮書認(rèn)為:政府的介入有助于確保這類“前沿 AI 模型”符合公共利益。

然而,我們是否能真正確保這一點(diǎn),以及需要付出怎樣的代價(jià)?

同時(shí),白皮書也沒有解決一個(gè)重要且明顯的問題:任何能夠獲取強(qiáng)大 AI 模型完整版本的人相較于那些只能通過受限服務(wù)訪問該模型的人,擁有更大的權(quán)力。當(dāng)然,如果 AI 真的變得非常強(qiáng)大,這種巨大的權(quán)力差距將無法持續(xù)存在。

盡管從表面上看,推進(jìn)的監(jiān)管制度似乎滿足了各種安全要求,但最終這導(dǎo)致了大量權(quán)力被集中到既得利益公司(因?yàn)樗鼈兛梢栽L問原始模型),這些公司會(huì)利用信息不對稱優(yōu)勢,試圖監(jiān)管或限制政府,從而導(dǎo)致社會(huì)的瓦解。

原因如下:AI 模型實(shí)際上是通用計(jì)算設(shè)備,所以無法保證它們不會(huì)被濫用。這就好比試圖制造一臺(tái)無法被濫用的計(jì)算機(jī)(例如用于發(fā)送勒索郵件)。同樣,如果你給某人一個(gè)通用計(jì)算設(shè)備,你無法確保他不會(huì)利用它來造成傷害。這就像我們無法制造一臺(tái)不會(huì)被濫用的計(jì)算機(jī)。

如果某人控制了一個(gè)強(qiáng)大的模型,它負(fù)責(zé)處理所有信息的消費(fèi)和生產(chǎn),并且這個(gè)模型是保密的專有技術(shù),那么他就可以塑造人們的觀念、影響人們的行為,并隨意審查內(nèi)容。

監(jiān)管政策最終使得那些不在“少數(shù)公司”工作的人無法接觸到最強(qiáng)大的 AI,這些公司的主導(dǎo)地位將因此得到鞏固。這對社會(huì)來說是一條極為危險(xiǎn)且不穩(wěn)定的道路。

競賽

行,現(xiàn)在設(shè)想一下,如果監(jiān)管政策實(shí)現(xiàn),我們社會(huì)將發(fā)生什么?

設(shè)想的前提:我們擁有世界上最強(qiáng)大的技術(shù),并且它不斷快速發(fā)展,但只有少數(shù)大公司能訪問這項(xiàng)技術(shù)最強(qiáng)版本,并無限制地使用。

接下來,所有關(guān)心權(quán)力和金錢的人現(xiàn)在都迫切需要找到辦法獲得這些模型的完全訪問權(quán)限。因?yàn)椋魏尾荒芡耆L問這項(xiàng)歷史上最強(qiáng)技術(shù)的人都無法與之競爭。對他們來說好消息是,這些模型實(shí)際上只是一堆數(shù)字。它們可以很容易地被復(fù)制,一旦你擁有了它們,你就可以免費(fèi)把它們傳給所有的朋友。(FAR 就此問題有一整個(gè)部分,稱為“擴(kuò)散問題”。)

有很多專家擅長數(shù)據(jù)滲透,他們知道如何運(yùn)用敲詐、賄賂、社會(huì)工程等非常有效的手段得到AI能力。對于那些不愿使用這些手段但有資源的人來說,他們也可以通過投資大約1億美元來獲得AI能力。即使是《財(cái)富》全球2000強(qiáng)中最小的公司也有70億美元的年收入,這樣的支出在他們的預(yù)算范圍內(nèi)。當(dāng)然,大多數(shù)國家政府也負(fù)擔(dān)得起這筆費(fèi)用。然而,這些組織在不違反擬議中的監(jiān)管要求的情況下,無法直接向公眾提供這些模型,但至少組織中的一些人將能夠獲得完整模型的力量。

那些渴望權(quán)力和財(cái)富但無法獲得AI模型的人現(xiàn)在有了新目標(biāo):努力進(jìn)入擁有大型AI模型的組織的高層職位,或進(jìn)入政府部門的高層,從而影響相關(guān)決策。

因此,一開始致力于為社會(huì)利益發(fā)展AI的組織,很快就會(huì)發(fā)現(xiàn)自己成為追求公司利潤的一環(huán),因?yàn)樗泄驹诔砷L過程中都會(huì)加入這個(gè)競爭,并且領(lǐng)導(dǎo)這些公司的人都是追求利潤的能手。

8b483aae-8230-11ee-939d-92fbcf53809c.png

TogetherComputer的最新成果

實(shí)際上,試圖控制AI使用的整個(gè)努力是毫無意義且無效的。不僅模型的“擴(kuò)散”無法控制(因?yàn)閿?shù)字信息很容易被泄露和復(fù)制),事實(shí)證明限制訓(xùn)練模型計(jì)算量的措施也是不可能實(shí)施的。這是因?yàn)楝F(xiàn)在世界各地的人們可以在虛擬環(huán)境中聯(lián)合起來共同訓(xùn)練一個(gè)模型。例如,Together Computer 創(chuàng)建了一個(gè)完全去中心化、開放、可擴(kuò)展的AI云服務(wù),最近的研究表明這種方法可以取得相當(dāng)大的進(jìn)展。

GPU即能用于訓(xùn)練模型,也能用于玩電腦游戲。目前世界上用于玩游戲的計(jì)算能力比用于AI的計(jì)算能力要多。全球的游戲玩家只需在自己的計(jì)算機(jī)上安裝一個(gè)小軟件,就能選擇加入幫助訓(xùn)練這些開源模型的行列。

換句話說,開發(fā)者們已經(jīng)在思考如何確保普通人訓(xùn)練這些模型。AI安全社區(qū)對這個(gè)問題非常了解,并提出了各種解決方案。例如,AI政策專家Yo Shavit最近的一篇有影響力的論文,研究了可以添加到計(jì)算機(jī)芯片的監(jiān)控機(jī)制,指出:

“隨著先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)在地緣政治和社會(huì)秩序方面發(fā)揮越來越重要的作用,兩個(gè)方面可能變得尤為關(guān)鍵:第一,政府需要在其管轄范圍內(nèi)對先進(jìn)機(jī)器學(xué)習(xí)系統(tǒng)的發(fā)展進(jìn)行規(guī)定;第二,各國需要能夠互相核實(shí)彼此是否遵守關(guān)于先進(jìn)機(jī)器學(xué)習(xí)開發(fā)的未來國際協(xié)議(如果有的話)。”

解決這個(gè)問題,必須確保每個(gè)制造此類芯片的公司都在其芯片中加入監(jiān)控功能。若有一家公司未實(shí)施此限制,所有想建立強(qiáng)大模型的人將選擇使用該公司的芯片。Shavit指出,在硬件層面全面執(zhí)行這種規(guī)則需要監(jiān)視和管控個(gè)人公民對其個(gè)人計(jì)算機(jī)的使用,這在道義上是極其不能接受的。

然而,現(xiàn)實(shí)是,要使集中化和控制有效,就需要這樣的規(guī)則,因?yàn)閭€(gè)人計(jì)算機(jī)只需通過互聯(lián)網(wǎng)連接就可以用來訓(xùn)練大型模型。

當(dāng)AI安全先驅(qū)Eliezer Yudkowsky建議空襲未授權(quán)數(shù)據(jù)中心并使用核武器威懾未被授權(quán)的國家確保合規(guī)時(shí),許多人震驚了。實(shí)際上,轟炸數(shù)據(jù)中心和監(jiān)視全球計(jì)算機(jī)是實(shí)現(xiàn)FAR提出安全合規(guī)的唯一方法。

管制用戶,不要發(fā)展

另一名為亞歷克斯·恩格勒的學(xué)者,提出了一種替代方法,與強(qiáng)制執(zhí)行安全標(biāo)準(zhǔn)或許可模型不同,這種方法主張“規(guī)范有風(fēng)險(xiǎn)和有害的應(yīng)用,而非開源AI模型”。這正是大多數(shù)法規(guī)的運(yùn)作方式:通過追求責(zé)任。

例如,如果有人創(chuàng)建了一個(gè)通用工具,而別人用這個(gè)工具去做壞事,制造工具的人則不會(huì)承擔(dān)責(zé)任。

像互聯(lián)網(wǎng)、計(jì)算機(jī)和紙筆這樣的“雙重用途”技術(shù),并不僅限于大公司使用,任何人都可以搭建計(jì)算機(jī)或制作自己的紙張。他們無需確保所建造的東西只能用于社會(huì)利益。

這是一個(gè)關(guān)鍵的區(qū)別:它區(qū)分了使用規(guī)定(即將模型實(shí)際應(yīng)用于系統(tǒng)的部分,特別是像醫(yī)藥這樣的高風(fēng)險(xiǎn)系統(tǒng)),與發(fā)展(即訓(xùn)練模型的過程)。

這個(gè)區(qū)別之所以關(guān)鍵,是因?yàn)檫@些模型實(shí)際上只是數(shù)學(xué)函數(shù)。它們將一堆數(shù)字作為輸入,計(jì)算并返回另一堆數(shù)字。它們本身并不做任何事情,它們只能計(jì)算數(shù)字。

然而,這些計(jì)算可能非常有用!

實(shí)際上,計(jì)算機(jī)本身也只是計(jì)算機(jī)器(因此得名“計(jì)算機(jī)”)。它們在使用時(shí)非常有用,因?yàn)槟苓B接到某個(gè)可以真正發(fā)揮作用的系統(tǒng)上。

FAR同樣關(guān)注了模型開發(fā)與模型使用之間的區(qū)別,并聲稱AI能力的改進(jìn)可能是不可預(yù)測的,在沒有進(jìn)行密集測試之前很難完全理解。因此,如果監(jiān)管并未要求在部署前對模型進(jìn)行充分的測試,可能無法防止部署的模型帶來嚴(yán)重風(fēng)險(xiǎn)。

然而,這種推論并不成立,因?yàn)槟P驮谖幢皇褂脮r(shí)無法造成危害,所以開發(fā)模型本身并非有害活動(dòng)。此外,由于我們討論的是通用模型,我們無法確保模型本身的安全性。只有在嘗試確保模型在使用過程中的安全性時(shí),才有可能降低風(fēng)險(xiǎn)。

另一種有用的監(jiān)管方法是考慮確保敏感基礎(chǔ)設(shè)施(如化學(xué)實(shí)驗(yàn)室)的安全訪問。FAR簡要地考慮了這個(gè)想法,稱“對于前沿AI開發(fā),特定領(lǐng)域的監(jiān)管可能很有價(jià)值,但可能會(huì)遺漏一部分高嚴(yán)重性和規(guī)模風(fēng)險(xiǎn)?!钡?,F(xiàn)AR沒有進(jìn)一步研究。

如果我們開發(fā)先進(jìn)AI,應(yīng)期望它幫助識(shí)別需加固的敏感基礎(chǔ)設(shè)施。若利用這些設(shè)施可能有害,則很可能識(shí)別出它們,因?yàn)闊o法識(shí)別的AI也無法使用它們。

當(dāng)然,處理一個(gè)已經(jīng)識(shí)別出的威脅可能并不簡單;例如,如果一個(gè)臺(tái)式DNA打印機(jī)可以用來制造危險(xiǎn)的病原體,那么加固所有該設(shè)備需要巨大的工作量。但這比限制全世界的計(jì)算設(shè)備要花費(fèi)的成本小得多,也不那么具有侵入性。

這引導(dǎo)我們走向另一條有用的監(jiān)管途徑:部署披露。如果你考慮將使用AI的自動(dòng)化系統(tǒng)連接到任何類型的敏感基礎(chǔ)設(shè)施,那么應(yīng)該要求披露這一事實(shí)。此外,某些類型的連接和基礎(chǔ)設(shè)施應(yīng)該事先進(jìn)行仔細(xì)的安全檢查和審計(jì)。這樣可以確保在應(yīng)用AI技術(shù)時(shí),對潛在的安全風(fēng)險(xiǎn)進(jìn)行了有效的評(píng)估和管理。

走向集中化

更好的AI可以用來改進(jìn)AI。這已經(jīng)在早期能力較弱、資源較少的算法時(shí)代多次出現(xiàn)。谷歌已經(jīng)利用AI改進(jìn)了數(shù)據(jù)中心的能源利用方式,創(chuàng)造了更好的神經(jīng)網(wǎng)絡(luò)架構(gòu),并為優(yōu)化這些網(wǎng)絡(luò)中的參數(shù)開發(fā)了更好的方法。模型輸出已經(jīng)被用來創(chuàng)建用于訓(xùn)練新模型的提示、為這些提示創(chuàng)建模型答案以及解釋答案的推理過程。隨著模型變得更強(qiáng)大,研究人員將找到更多方法來改進(jìn)數(shù)據(jù)、模型和訓(xùn)練過程。

因此,我們沒有理由相信我們已經(jīng)接近這項(xiàng)技術(shù)的極限。

那些能夠訪問完整模型的人可以比那些無法訪問的人,更快、更好地構(gòu)建新模型。其中一個(gè)原因是他們可以充分利用強(qiáng)大的功能,如微調(diào)、激活以及直接學(xué)習(xí)和修改權(quán)重。例如,最近的一篇論文發(fā)現(xiàn),微調(diào)允許模型用比基礎(chǔ)模型少幾個(gè)數(shù)量級(jí)的參數(shù)來解決具有挑戰(zhàn)性的問題。

這種反饋回路導(dǎo)致集中化:大公司變得更大,其他競爭者無法與之抗衡。這導(dǎo)致了集中化、競爭減少,致使價(jià)格上升、創(chuàng)新減少以及安全性降低。

其他強(qiáng)大的力量也在推動(dòng)集中化。以谷歌為例。谷歌擁有地球上最多的數(shù)據(jù)。更多的數(shù)據(jù)直接導(dǎo)致更好的基礎(chǔ)模型。此外,隨著人們使用他們的AI服務(wù),他們獲得了越來越多關(guān)于這些互動(dòng)的數(shù)據(jù)。他們使用AI改進(jìn)產(chǎn)品,使產(chǎn)品對用戶更具“粘性”,吸引更多人使用,從而獲得更多數(shù)據(jù),進(jìn)一步改進(jìn)他們的模型和基于模型的產(chǎn)品。此外,他們正變得越來越垂直整合,他們制造自己的AI芯片(TPU),運(yùn)行自己的數(shù)據(jù)中心,并開發(fā)自己的軟件…….

對前沿模型開發(fā)的監(jiān)管加劇了集中化。特別地,未來AI監(jiān)管(FAR)提出的許可制成為了推動(dòng)集中化的有力因素。在這種制度下,希望建立與當(dāng)前最先進(jìn)技術(shù)同等或更優(yōu)秀的模型的新參與者在獲得開發(fā)權(quán)之前,必須申請?jiān)S可。這使得與已經(jīng)穩(wěn)固地位的參與者競爭變得更加困難。同時(shí),這種制度為監(jiān)管俘獲提供了一個(gè)強(qiáng)有力的途徑,因?yàn)樗沟靡粋€(gè)缺乏民主性的許可委員會(huì)在決定誰能夠開發(fā)地球上最強(qiáng)大的技術(shù)方面擁有最后的決定權(quán)。

開源與AI啟蒙的新時(shí)代

與尋求安全、控制和集中化的愿望相反,我們應(yīng)該再次承擔(dān)幾百年前的風(fēng)險(xiǎn),相信人類和社會(huì)的力量與善意。

正如啟蒙時(shí)代的思想家們提出了一系列具有挑戰(zhàn)性的問題,例如“如果每個(gè)人都接受教育會(huì)怎樣?如果每個(gè)人都有投票權(quán)會(huì)怎樣?”等,我們也應(yīng)該思考這樣一個(gè)問題:“如果每個(gè)人都能獲得AI的全部能力會(huì)怎樣?” 這意味著我們應(yīng)該勇于設(shè)想一個(gè)每個(gè)人都能充分利用AI能力的未來,并思考如何實(shí)現(xiàn)這一目標(biāo)。

我們從啟蒙時(shí)代的成果中可以看出,這個(gè)前提是錯(cuò)誤的。但這個(gè)觀念仍然頑固地存在。幾十年來,社會(huì)學(xué)家一直在研究和記錄“精英恐慌”:精英階層認(rèn)為普通人會(huì)在災(zāi)難面前表現(xiàn)糟糕,因此必須加以控制的傾向。然而,這也是錯(cuò)誤的。事實(shí)上,正如麗貝卡·索爾尼特所言:“我認(rèn)為這些危機(jī)時(shí)刻是人民力量和積極社會(huì)變革的時(shí)刻。

當(dāng)我們面對AI誤用的威脅時(shí),怎樣擁抱進(jìn)步信念和所有人類的理性呢?許多專家現(xiàn)在正在研究的一個(gè)觀點(diǎn)是開源模型可能是關(guān)鍵。

模型只是軟件,它們是以代碼形式體現(xiàn)的數(shù)學(xué)函數(shù)。當(dāng)我們復(fù)制軟件時(shí),我們通常不稱之為“擴(kuò)散”,因?yàn)檫@詞通常與核武器有關(guān)。當(dāng)我們復(fù)制軟件時(shí),我們稱之為“安裝”、“部署”或“共享”。由于軟件可以自由復(fù)制,它引起了一個(gè)龐大的開源運(yùn)動(dòng),共享是一種道德善舉。既然所有人都可以受益,為什么要把價(jià)值限制在少數(shù)人身上呢?

這個(gè)觀點(diǎn)具有很大的影響力。如今,幾乎你使用的每一個(gè)網(wǎng)站都在運(yùn)行一個(gè)開源的網(wǎng)絡(luò)服務(wù)器(如Apache),它又安裝在一個(gè)開源的操作系統(tǒng)上(通常是Linux)。大多數(shù)程序都是用開源編譯器編譯的,用開源編輯器編寫的。起初,這些被認(rèn)為是瘋狂的想法,有很多懷疑者,但最后證明是正確的。簡單地說,如果沒有開源,今天使用的計(jì)算機(jī)和互聯(lián)網(wǎng)的很大一部分世界將無法存在。

如果最強(qiáng)大的AI模型是開源的會(huì)怎樣呢?仍然會(huì)有壞人想利用它們傷害他人或不正當(dāng)?shù)刂赂?。但是大多?shù)人并不是壞人。大多數(shù)人會(huì)使用這些模型來創(chuàng)造和保護(hù)。有什么比讓整個(gè)人類社會(huì)的巨大多樣性和專業(yè)知識(shí)都竭盡全力去識(shí)別和應(yīng)對威脅,同時(shí)擁有AI的全部力量更安全的辦法呢?與只有一家營利性公司的少數(shù)人能完全訪問AI模型相比,如果全球頂尖的網(wǎng)絡(luò)安全、生物武器和社會(huì)工程學(xué)者都在利用AI的優(yōu)勢研究AI安全,而且你可以自己訪問和使用他們的所有成果,你會(huì)感覺更安全嗎?

為了獲得完整模型訪問的更好功能,并減少商業(yè)控制在原本具有分享文化的開放研究社區(qū)中的程度,開源社區(qū)最近介入并訓(xùn)練了一些相當(dāng)有能力的語言模型。截至2023年7月,這些模型中最好的那個(gè)與第二梯隊(duì)較便宜的商業(yè)模型處于類似水平,但不如GPT-4或Claude。它們的能力正在迅速增長,并吸引了越來越多的捐助者、政府、大學(xué)和希望避免權(quán)力集中及確保獲得高質(zhì)量AI模型的公司的投資。

然而,F(xiàn)AR中關(guān)于安全保證的提案與開源前沿模型是不相容的。FAR建議“在明確可行的安全部署之前,謹(jǐn)慎避免潛在的危險(xiǎn)前沿AI模型被開源”。但即使一個(gè)開源模型以與監(jiān)管批準(zhǔn)的封閉商業(yè)模型完全相同的方式從完全相同的數(shù)據(jù)中訓(xùn)練,它仍然無法提供相同的安全保證。這是因?yàn)樽鳛橥ㄓ糜?jì)算設(shè)備,任何人都可以將其用于他們想要的任何目的,包括使用新數(shù)據(jù)集進(jìn)行微調(diào),并應(yīng)用于新任務(wù)。

開源并不是萬能的解決方案。這仍然需要謹(jǐn)慎、合作和深入仔細(xì)的研究。通過使系統(tǒng)對所有人可用,我們確保整個(gè)社會(huì)都能從它們的能力中受益,但也可以努力理解和抵制它們潛在的危害。斯坦福和普林斯頓的頂尖人工智能和政策團(tuán)隊(duì)聯(lián)合起來,回應(yīng)了美國政府對人工智能問責(zé)的請求,并表示:

“為了推動(dòng)公共利益,基礎(chǔ)模型的開發(fā)和部署應(yīng)確保透明,支持創(chuàng)新,分配權(quán)力并最小化傷害... 我們認(rèn)為,開源基礎(chǔ)模型可以實(shí)現(xiàn)這四個(gè)目標(biāo)中的所有目標(biāo),部分原因是由于開源的內(nèi)在優(yōu)點(diǎn)(支持透明度,支持創(chuàng)新,反對壟斷)?!?/p>

此外,他們警告說:如果研究人員和技術(shù)人員無法檢查閉源模型,安全漏洞可能在造成傷害之前無法被發(fā)現(xiàn)... 另一方面,跨領(lǐng)域的專家可以檢查和分析開源模型,這使得安全漏洞更容易被發(fā)現(xiàn)和解決。此外,限制誰可以創(chuàng)建基礎(chǔ)模型將減少能力強(qiáng)大的基礎(chǔ)模型的多樣性,并可能導(dǎo)致復(fù)雜系統(tǒng)中的單點(diǎn)故障。

今天獲得開源模型的訪問權(quán)面臨嚴(yán)重的風(fēng)險(xiǎn)。歐洲人工智能法案可能會(huì)根據(jù)FAR中的類似原則有效地禁止開源基礎(chǔ)模型。技術(shù)創(chuàng)新政策分析師Alex Engler在他的文章“歐盟試圖規(guī)范開源人工智能是適得其反”的寫道:

如果監(jiān)管委員會(huì)試圖對開源進(jìn)行規(guī)范,可能會(huì)產(chǎn)生一系列復(fù)雜的要求,這將對開源人工智能貢獻(xiàn)者構(gòu)成威脅,而不會(huì)改善通用人工智能(GPAI)的使用。開源人工智能模型為社會(huì)帶來了巨大價(jià)值,因?yàn)樗鼈兲魬?zhàn)了大型技術(shù)公司對通用人工智能的主導(dǎo)地位,并幫助公眾了解人工智能的功能。

不傷害原則

AI政策專家Patrick Grady和Daniel Castro推薦不要急于采取監(jiān)管行動(dòng):

“對新技術(shù)的恐懼遵循一個(gè)可預(yù)測的軌跡,被稱為‘技術(shù)恐慌周期’。隨著公眾熟悉技術(shù)及其好處,恐懼感會(huì)增加、達(dá)到高峰,然后隨著時(shí)間的推移逐漸減弱。事實(shí)上,其他先前在創(chuàng)意領(lǐng)域中的“生成型”技術(shù),如印刷機(jī)、留聲機(jī)和電影攝影機(jī)也遵循了同樣的軌跡。但與今天不同的是,政策制定者不太可能采取措施來監(jiān)管和限制這些技術(shù)。隨著對生成型AI的恐慌進(jìn)入最不穩(wěn)定的階段,政策制定者應(yīng)該“深呼吸”,認(rèn)識(shí)到我們正在經(jīng)歷可預(yù)測的周期,并將直接加強(qiáng)生成型AI的任何監(jiān)管努力暫時(shí)擱置?!?/p>

然而,監(jiān)管者也許應(yīng)考慮希波克拉底的醫(yī)學(xué)忠告:“先不要傷害”。醫(yī)療干預(yù)可能會(huì)產(chǎn)生副作用,治療方法有時(shí)可能比疾病本身更糟。一些藥物甚至可能損害免疫反應(yīng),使身體過于虛弱而無法抵抗感染。

監(jiān)管干預(yù)也是如此?!按_保安全”的中心化監(jiān)管挾制不僅可能直接危害社會(huì),還可能降低安全性。如果只有一個(gè)大型組織掌握了巨大的技術(shù)力量,我們就處于脆弱的境地,因?yàn)樯鐣?huì)上其他力量無法取得同等的權(quán)力來保護(hù)自己。然而,爭權(quán)斗爭可能引發(fā)人工智能誤用,導(dǎo)致社會(huì)毀滅。

人工智能監(jiān)管的影響微妙且難以預(yù)測。平衡社會(huì)保護(hù)和賦權(quán)難度大,過快監(jiān)管難以成功。

我們還有時(shí)間。人類社會(huì)的綜合能力非常強(qiáng)大,超越它的AI還很遙遠(yuǎn)。OpenAI的技術(shù)專家Ted Sanders和GSK的AI總監(jiān)Ari Allyn-Feuer共同做了一項(xiàng)深入研究,得出的結(jié)論是:“我們估計(jì)到2043年實(shí)現(xiàn)具有變革性的通用人工智能(AGI)的可能性小于1%。”

時(shí)間過得越長,我們學(xué)到的就越多。不僅是關(guān)于技術(shù)方面,還有社會(huì)如何應(yīng)對技術(shù)方面。我們不應(yīng)匆忙實(shí)施可能讓社會(huì)步入無法擺脫的反烏托邦路線的監(jiān)管變化。

對AI語言模型安全性的擔(dān)憂已經(jīng)存在一段時(shí)間。2019年,我就OpenAI決定不公開新語言模型權(quán)重的事情寫過一篇文章。我引用了一篇名為《人工智能的惡意使用》的論文,其重要作者如今在OpenAI工作。論文有四個(gè)建議:

政策制定者和科研人員應(yīng)共同防止AI的惡意使用;

AI研究人員和工程師需意識(shí)到他們工作的雙重用途;

應(yīng)借鑒計(jì)算機(jī)安全等領(lǐng)域的最佳實(shí)踐應(yīng)用于AI;

應(yīng)擴(kuò)大參與討論這些問題的人群。

《人工智能的惡意使用》論文由14個(gè)機(jī)構(gòu)的26位作者共同撰寫,其首作者現(xiàn)在在OpenAI工作。論文的四條建議并非強(qiáng)調(diào)集中化和控制,而是互動(dòng)和合作。有趣的是,作為FAR的共同創(chuàng)作者,那位跳到OpenAI的論文作者,和他的初心漸行漸遠(yuǎn)。

FAR提醒我們注意防范AI的強(qiáng)大和潛在欺騙性,聲稱這可能引發(fā)AI接管的危險(xiǎn)。我們可能因?yàn)榘踩卸龀鲆恍┬袆?dòng),但需要冷靜和理智來應(yīng)對這種可能的恐慌。

古希臘人警告我們不要因?yàn)檫^度的自信而制造出我們想要避免的未來。如果我們?yōu)榱吮苊釧I末日,過度控制技術(shù),那么未來可能會(huì)變得像封建社會(huì)一樣,計(jì)算能力掌握在少數(shù)精英手中。我們需要避免像古希臘的故事人物那樣,因?yàn)檫^于自信而做出我們本來想要避免的事情。例如國王俄狄浦斯,被預(yù)言會(huì)殺死他的父親并娶他的母親,但由于設(shè)法避免這個(gè)命運(yùn)而最終做了完全相同的事情?;蛘呦窈衫飱W斯的兒子法埃頓,他對自己控制太陽戰(zhàn)車的能力如此自信,以致他避開了父親為他設(shè)定的道路,從而差點(diǎn)摧毀了地球。”

《人工智能的惡意使用》提倡一種基于謙遜的方法,即與專家和被技術(shù)影響的人協(xié)作,反復(fù)學(xué)習(xí)和磋商。這種方法能讓我們學(xué)習(xí)到計(jì)算機(jī)安全的關(guān)鍵理念:“通過隱蔽來確保安全”是無效的。網(wǎng)絡(luò)安全專家阿文德·納拉揚(yáng)和薩亞什·卡普爾有篇文章列出了讓少數(shù)公司獨(dú)占AI技術(shù)的五大風(fēng)險(xiǎn),包括:加劇安全風(fēng)險(xiǎn);導(dǎo)致結(jié)果同質(zhì)化;定義可接受言論的界限;影響態(tài)度和意見;監(jiān)管俘獲。

我們是如何走到這一步的

我和其他用過GPT-4和Bard的人都對它們的功能感到驚訝,盡管有些錯(cuò)誤,但它們可以提供各種主題的幫助。我每天都用它們做各種事,包括編程幫助和為女兒提供玩耍的想法。

就像FAR里解釋的:基礎(chǔ)模型,比如大規(guī)模語言模型(LLM),都是在大量的自然語言和其他文本(例如計(jì)算機(jī)代碼)數(shù)據(jù)集上訓(xùn)練的,通常從簡單的預(yù)測下一個(gè)“記號(hào)(token)”的目標(biāo)開始。這種相對簡單的方法產(chǎn)生了驚人的廣泛能力模型。因此,與許多其他類的AI模型相比,這些模型具有更多的通用功能。

FAR接著介紹:關(guān)注的重點(diǎn)是那些可能具有潛在危險(xiǎn)的新興人工智能模型。在這個(gè)定義中,狹窄的模型(即那些只能在特定任務(wù)或領(lǐng)域中表現(xiàn)良好的模型)是被排除在外的,盡管這些模型在某些情況下可能具有危險(xiǎn)潛力。

例如,有些模型專門用于優(yōu)化化學(xué)合物的毒性或病原體的毒力,這可能會(huì)導(dǎo)致預(yù)期或可預(yù)見的危害。對于這類模型,更適合采用針對性的監(jiān)管措施。

因此,作者提議“制定負(fù)責(zé)任的新興AI開發(fā)和部署的安全標(biāo)準(zhǔn)”,并“授權(quán)監(jiān)管機(jī)構(gòu)識(shí)別和懲處違規(guī)行為;或者通過許可證制度來部署和潛在地開發(fā)新興AI。”他們提議這樣做是為了“確保”這些模型“被用于公共利益”。

假設(shè)這些提議被接受并且這項(xiàng)法規(guī)被制定,那么接下來會(huì)發(fā)生什么呢?嗯,有兩種可能性:

1.AI能力的增長達(dá)到極限,因此盡管AI可能會(huì)成為一種非常重要的技術(shù),但我們不會(huì)達(dá)到一種可能摧毀社會(huì)的超級(jí)智能

2.AI繼續(xù)發(fā)展其能力,直到成為人類歷史上迄今為止最強(qiáng)大的技術(shù)力量。OpenAI的CEO Sam Altman的預(yù)測證明是準(zhǔn)確的,即擁有這種技術(shù)的人可以“握住宇宙中一切未來價(jià)值的光芒”。

我們應(yīng)該專注于(2),明確地說,沒有人確定這將會(huì)發(fā)生,但是長時(shí)間研究AI的人,認(rèn)為這可能實(shí)現(xiàn)。

人類最強(qiáng)大的技術(shù)

由于“通用”或“基礎(chǔ)”模型(例如OpenAI的GPT-4、Google的Bard和Anthropic的Claude)的出現(xiàn),我們現(xiàn)在處于“通用人工智能”(GPAI)的時(shí)代。這些模型是通用計(jì)算設(shè)備,它們可以回答(成功程度不同)幾乎任何你提出的問題。

隨著基礎(chǔ)模型變得越來越強(qiáng)大,我們應(yīng)該期望研究人員會(huì)找到更多“使用AI改進(jìn)數(shù)據(jù)、模型和訓(xùn)練過程”的方法。目前的模型、數(shù)據(jù)集創(chuàng)建技術(shù)和訓(xùn)練方法都非常簡單,基本的想法可以用幾行代碼實(shí)現(xiàn)。有很多相當(dāng)明顯的方法可以大幅度改進(jìn)現(xiàn)有技術(shù),因此我們沒有理由相信我們已經(jīng)接近技術(shù)的極限,我們應(yīng)該期望在未來幾個(gè)月和年份內(nèi)看到越來越快的技術(shù)發(fā)展周期。

但是,這些模型的訓(xùn)練成本很高。由于技術(shù)進(jìn)步,訓(xùn)練相同大小的模型變得更便宜了,但是模型變得越來越大。訓(xùn)練GPT-4可能需要花費(fèi)大約1億美元。目前最強(qiáng)大的所有模型,包括GPT-4、Bard和Claude,都是由美國(分別是OpenAI、Google和Anthropic)和中國的大公司進(jìn)行訓(xùn)練的。

共同建設(shè)

已經(jīng)有許多監(jiān)管舉措落實(shí),包括白宮科學(xué)技術(shù)政策辦公室的《AI權(quán)利法案藍(lán)圖》、國家標(biāo)準(zhǔn)與技術(shù)研究院的AI風(fēng)險(xiǎn)管理框架以及拜登的行政命令14091。

AI社區(qū)也開發(fā)了有效的機(jī)制來共享重要信息,例如數(shù)據(jù)集數(shù)據(jù)表、模型報(bào)告、模型卡和生態(tài)系統(tǒng)圖。監(jiān)管可能要求數(shù)據(jù)集和模型包含關(guān)于它們是如何構(gòu)建或訓(xùn)練的信息,以幫助用戶更有效且安全地部署它們。這類似于營養(yǎng)標(biāo)簽:雖然我們不禁止人們吃太多垃圾食品,但我們努力提供他們需要做出良好選擇的信息。歐盟提出的AI法案已經(jīng)包括了對這種信息的要求。

我們還有許多事情要做,在變化迅速的AI世界里,需要保留未來選擇,避免過早決定路徑,同時(shí)迅速、知情地應(yīng)對新的機(jī)遇和威脅,當(dāng)然這需要各行各業(yè)廣泛參與。

政策決策者需要深入理解AI,而不只是聽取行業(yè)意見。如斯坦福大學(xué)的Marietje Schaake所說,我們需要避免CEO參與AI監(jiān)管:

“想象銀行CEO告訴國會(huì),由于金融產(chǎn)品復(fù)雜,銀行應(yīng)自行決定防止洗錢和欺詐,這是荒謬的。歷史證明,企業(yè)自我監(jiān)管是失敗的,它們既不獨(dú)立,也無法制定公平的監(jiān)管規(guī)定?!?/p>

我們還應(yīng)謹(jǐn)慎,不要讓有趣的科幻情景分散我們對即時(shí)真實(shí)危害的注意力。Aiden Gomez是transformers神經(jīng)網(wǎng)絡(luò)架構(gòu)的共同創(chuàng)造者,它為所有頂級(jí)語言模型提供動(dòng)力,包括GPT 4,他警告說:

“這項(xiàng)技術(shù)存在真正的風(fēng)險(xiǎn)和使用方式需要被關(guān)注,但把大量時(shí)間用于討論關(guān)于超級(jí)智能AGI接管會(huì)導(dǎo)致人類滅絕的奇幻故事是荒謬的,這樣做只會(huì)分散公眾的注意力。我們應(yīng)該關(guān)注真正的問題和討論。”

反啟蒙

如果我們不敢面對新的力量和不確定性,而是選擇回歸中央集權(quán)和限制權(quán)力的做法,那就是“反啟蒙”。這樣做會(huì)導(dǎo)致富者愈富、窮者愈窮。因?yàn)槟切└徽呖梢越⒃絹碓胶玫哪P停糜谛麄?、威脅開發(fā)或者壟斷行業(yè)。窮人對社會(huì)的貢獻(xiàn)較小,因?yàn)樗麄冎荒芡ㄟ^有限且安全的方式接觸AI。

一旦走上這條路,回頭將變得困難,甚至可能是不可能的。科技政策專家指出,部署糟糕的解決方案(如不良監(jiān)管措施)可能需要數(shù)十年才能撤銷,如果這對某些人有利,撤銷更為困難。

實(shí)現(xiàn)集權(quán)將導(dǎo)致富者和窮者的分化,富者擁有使他們更強(qiáng)大的技術(shù)。當(dāng)權(quán)力和財(cái)富差異巨大時(shí),渴望權(quán)力財(cái)富的人將控制它,歷史顯示只有暴力才能消除差異。約翰·肯尼迪曾說,阻止和平革命者讓暴力革命不可避免。隨著AI力量和監(jiān)視體系的發(fā)展,暴力可能變得無效。如果真要走這條路,我們應(yīng)清楚了解它將帶我們走向何方。

“啟蒙時(shí)代”的脆弱性

在大部分人類歷史中,未來令人恐懼、不安。我們應(yīng)對的方式是將信任集中于更強(qiáng)大的個(gè)體來確保安全。多數(shù)社會(huì)將危險(xiǎn)工具如教育和權(quán)力掌握在少數(shù)精英手中。

但是發(fā)生了變化,西方興起一種新想法:保證安全的另一種方式是相信整個(gè)社會(huì)的利益,而非權(quán)力精英。如果人人都能接受教育、投票和掌握技術(shù)?這是“啟蒙時(shí)代”的理念,盡管實(shí)現(xiàn)這一承諾需要幾個(gè)世紀(jì)的努力。

在自由民主國家生活的我們?nèi)菀淄涍@種制度的脆弱和稀有。然而,世界各地正滑向威權(quán)領(lǐng)導(dǎo)。正如赫爾曼·戈林所說,領(lǐng)導(dǎo)者可以左右民眾,只需告訴他們面臨攻擊。

明確一點(diǎn):我們并未受到攻擊?,F(xiàn)在不應(yīng)放棄為平等和機(jī)會(huì)所取得的成果。雖然沒有人能保證安全,但我們可以共建一個(gè)使用AI并服務(wù)于所有人的社會(huì)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29822

    瀏覽量

    268112
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46669

    瀏覽量

    237106
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24621
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    285

    瀏覽量

    13320

原文標(biāo)題:AI 的安全與光明的消逝

文章出處:【微信號(hào):AI智勝未來,微信公眾號(hào):AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI即服務(wù)平臺(tái)的安全性分析

    AIaaS平臺(tái)降低AI應(yīng)用門檻,但面臨數(shù)據(jù)泄露、惡意攻擊等安全威脅。需加強(qiáng)數(shù)據(jù)加密、訪問控制、模型加固、供應(yīng)鏈安全等措施,確保合法合規(guī),提供安全可靠的
    的頭像 發(fā)表于 11-07 09:32 ?76次閱讀

    基于AI網(wǎng)關(guān)的智慧煤礦安全監(jiān)測應(yīng)用

    煤礦安全一直是礦業(yè)管理的重中之重。由于煤礦環(huán)境的惡劣與復(fù)雜性,針對煤礦的安全監(jiān)測和防范時(shí)常面臨著極大的挑戰(zhàn)。本篇就結(jié)合AI網(wǎng)關(guān)的功能和優(yōu)勢,簡單介紹基于AI網(wǎng)關(guān)的智慧煤礦
    的頭像 發(fā)表于 09-24 17:47 ?258次閱讀
    基于<b class='flag-5'>AI</b>網(wǎng)關(guān)的智慧煤礦<b class='flag-5'>安全</b>監(jiān)測應(yīng)用

    達(dá)實(shí)智能為深圳市中醫(yī)院光明院區(qū)打造智慧空間

    深圳市中醫(yī)院光明院區(qū)進(jìn)行揭牌儀式,深圳市中醫(yī)院光明院區(qū)將迎來具有里程碑意義的時(shí)刻——門診試運(yùn)營。
    的頭像 發(fā)表于 09-19 10:26 ?404次閱讀

    中軟國際為光明區(qū)新質(zhì)生產(chǎn)力發(fā)展注入新動(dòng)能

    近日,深圳市光明區(qū)區(qū)委書記蔡穎率隊(duì)蒞臨中軟國際北京總部考察調(diào)研,與中軟國際董事局主席、CEO陳宇紅及高管團(tuán)隊(duì)就共同加快建設(shè)大灣區(qū)綜合性國家科學(xué)中心先行啟動(dòng)區(qū),以AI+模型應(yīng)用及算力服務(wù)賦能光明科學(xué)城
    的頭像 發(fā)表于 08-02 11:40 ?641次閱讀

    智譜AI與OpenAI、谷歌等簽署AI安全承諾

    在近日舉辦的第二屆人工智能安全峰會(huì)上,智譜AI與來自北美、亞洲、歐洲和中東地區(qū)的15家頂尖人工智能公司共同簽署了一項(xiàng)重要協(xié)議——前沿人工智能安全承諾。此舉旨在確保人工智能開發(fā)的安全性和
    的頭像 發(fā)表于 05-23 14:17 ?402次閱讀

    英國AI安全研究所推出AI模型安全評(píng)估平臺(tái)

    據(jù)報(bào)道,英國人工智能安全研究院近日發(fā)布了名為“Inspect”的AI模型安全評(píng)估平臺(tái),此平臺(tái)采用開源技術(shù)且對全球AI工程師免費(fèi)開放,旨在提升模型性能與
    的頭像 發(fā)表于 05-13 15:20 ?346次閱讀

    risc-v多核芯片在AI方面的應(yīng)用

    應(yīng)用中的成本。 最后,RISC-V多核芯片不僅可以應(yīng)用于AI邊緣計(jì)算領(lǐng)域,還可以擴(kuò)展到其他領(lǐng)域,如數(shù)據(jù)中心、云計(jì)算、自動(dòng)駕駛、機(jī)器人等,為這些領(lǐng)域提供高效、靈活和安全的解決方案。 總的來說,RISC-V
    發(fā)表于 04-28 09:20

    AI安全基準(zhǔn)測試 v0.5: 聚焦通用聊天文本模型安全

    隨著AI技術(shù)的快速發(fā)展,相關(guān)安全問題也日益凸顯。僅過去數(shù)周內(nèi),便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應(yīng)對這一挑戰(zhàn),新推出的AI Safety基準(zhǔn)測試將成為模型開發(fā)者的有力工具,助力他們構(gòu)建更為穩(wěn)固的
    的頭像 發(fā)表于 04-19 11:12 ?357次閱讀

    AI邊緣盒子助力安全生產(chǎn)相關(guān)等場景

    隨著科技的迅猛發(fā)展和企業(yè)對安全生產(chǎn)管理的日益重視,以AI邊緣計(jì)算為核心的邊緣計(jì)算設(shè)備(內(nèi)置靈活可配的AI算法庫)已經(jīng)在安全生產(chǎn)等相關(guān)場景得到廣泛應(yīng)用并取得了顯著的成果。下面將為您介紹
    的頭像 發(fā)表于 03-28 15:30 ?681次閱讀
    <b class='flag-5'>AI</b>邊緣盒子助力<b class='flag-5'>安全</b>生產(chǎn)相關(guān)等場景

    防止AI大模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評(píng)測4

    (FileSystemEventHandler):# 這是個(gè)守護(hù)模型安全的“保鏢類”,它的任務(wù)就是保護(hù)咱們的AI模型。 def on_modified(self, event):# 如果有人對模型文件動(dòng)手腳
    發(fā)表于 03-19 11:18

    新火種AI|圍攻光明頂:Sora效應(yīng)下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領(lǐng)域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?584次閱讀

    達(dá)實(shí)智能正式簽約中國科學(xué)院大學(xué)深圳醫(yī)院(光明)新院項(xiàng)目

    近日,深圳達(dá)實(shí)智能股份有限公司(以下簡稱“公司”)與深圳市光明區(qū)建筑工務(wù)署就中國科學(xué)院大學(xué)深圳醫(yī)院(光明)新院項(xiàng)目有關(guān)事項(xiàng)協(xié)商一致,在深圳市光明區(qū)正式簽署了項(xiàng)目合同,合同金額為4,317.32萬元。
    的頭像 發(fā)表于 03-13 15:01 ?427次閱讀

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    能耗并提高數(shù)據(jù)安全性。本文將對 NanoEdge AI 的技術(shù)原理、應(yīng)用場景以及優(yōu)勢進(jìn)行綜述。 1、技術(shù)原理 NanoEdge AI 的核心技術(shù)包括邊緣計(jì)算、神經(jīng)網(wǎng)絡(luò)壓縮和低功耗硬件設(shè)計(jì)。邊緣計(jì)算
    發(fā)表于 03-12 08:09

    重磅!大灣區(qū)智能傳感新型產(chǎn)業(yè)社區(qū)首批配套項(xiàng)目在深圳光明集中開工

    1月9日上午,光明區(qū)舉行了大灣區(qū)智能傳感新型產(chǎn)業(yè)社區(qū)首批配套項(xiàng)目集中開工儀式。據(jù)了解,大灣區(qū)智能傳感新型產(chǎn)業(yè)社區(qū)是光明區(qū)積極響應(yīng)深圳市“工業(yè)上樓”發(fā)展趨勢要求,以產(chǎn)業(yè)空間為核心,引領(lǐng)片區(qū)產(chǎn)業(yè)轉(zhuǎn)型升級(jí)
    的頭像 發(fā)表于 01-11 08:35 ?178次閱讀

    AI算法在燃?xì)庹镜墓ぷ髟恚?b class='flag-5'>安全帽、抽煙、打電話檢測的具體應(yīng)用,如何利用AI提升安全水平

    AI算法在燃?xì)庹?b class='flag-5'>安全管理中的應(yīng)用,包括煙火檢測、安全帽識(shí)別、抽煙、打電話檢測等方面的工作原理。AI算法助力燃?xì)庹?b class='flag-5'>安全管理,煙火檢測更精準(zhǔn)!
    的頭像 發(fā)表于 12-26 21:25 ?585次閱讀