人工智能在過去的幾年中取得了長足的進(jìn)步。用人工智能技術(shù)創(chuàng)建的解決方案是無法想象的。但是,人工智能系統(tǒng)有可能發(fā)展到可以完全自主地在幾秒鐘內(nèi)做出復(fù)雜決策的地步。這種進(jìn)步的陰暗面是,AI技術(shù)將獲得完全的自主權(quán),超越人類的決定,并可能對(duì)人類造成傷害。
如果不檢查這項(xiàng)技術(shù),在人工智能系統(tǒng)變壞的電影中,如《終結(jié)者》、《 Wall-E,2001年:太空漫游》和《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》等電影中演示的場景可能成為現(xiàn)實(shí)。因此,調(diào)節(jié)人工智能技術(shù)的潛在無限能力變得必要。
為此,開發(fā)人員需要滿足一些特定的AI原則,以確保在AI系統(tǒng)的生命周期內(nèi)不會(huì)違反道德規(guī)范。這樣可以確保AI系統(tǒng)不會(huì)傷害任何個(gè)人。這些原則可以幫助降低安全風(fēng)險(xiǎn),提高用戶之間的信任度,并有助于通過AI解決方案更好地采用和取得成果。
在開發(fā)AI解決方案時(shí),開發(fā)人員需要遵循某些原則,以確保軟件的安全性不會(huì)受到損害,并且該軟件將一勞永逸。開發(fā)人員可以關(guān)注的一些原則包括:
開發(fā)人員需要遵循的道德AI原則
1、以人為本
在概念化AI解決方案時(shí),只有AI系統(tǒng)在整個(gè)生命周期中對(duì)個(gè)人、企業(yè)和整個(gè)人類都有利的情況下,開發(fā)人員才應(yīng)該繼續(xù)開發(fā)。開發(fā)AI解決方案,應(yīng)該以主要造福和改善人類生活,而不是達(dá)到破壞性的目的。
人工智能系統(tǒng)應(yīng)與人類價(jià)值觀保持一致,促進(jìn)人權(quán),尊重個(gè)人意見,提高生活水平,挽救生命,甚至保護(hù)環(huán)境。教育和醫(yī)療保健部門是兩個(gè)最重要的部門,可以從以人為本的AI技術(shù)中受益。人工智能解決方案可以幫助提高教育質(zhì)量,這將幫助學(xué)生找到更好的工作機(jī)會(huì),進(jìn)而幫助改善此類人的生活質(zhì)量。
同樣,在醫(yī)療保健行業(yè)中使用AI技術(shù)可以潛在地挽救生命。但是,人工智能技術(shù)的使用不應(yīng)僅限于這兩個(gè)領(lǐng)域,而可以在企業(yè)資源規(guī)劃、石油和天然氣運(yùn)營、娛樂和環(huán)境保護(hù)等其他領(lǐng)域得到利用。
2、風(fēng)險(xiǎn)警覺
創(chuàng)建AI系統(tǒng)時(shí)應(yīng)采用基于風(fēng)險(xiǎn)的方法。開發(fā)人員應(yīng)確定與特定AI系統(tǒng)相關(guān)的所有風(fēng)險(xiǎn)。并且,只有在風(fēng)險(xiǎn)很小或不存在的情況下,他們才應(yīng)著手開發(fā)AI系統(tǒng)。
例如,當(dāng)開發(fā)人員使用面部識(shí)別技術(shù)時(shí),他們應(yīng)該評(píng)估該技術(shù)可能出錯(cuò)的所有方面。他們應(yīng)確保面部識(shí)別技術(shù)不會(huì)傷害任何個(gè)人。例如,面部識(shí)別技術(shù)并不是萬無一失的,它會(huì)導(dǎo)致錯(cuò)誤的定罪。因此,開發(fā)人員在創(chuàng)建這樣的系統(tǒng)時(shí),應(yīng)確保該技術(shù)具有盡可能少的風(fēng)險(xiǎn)。所以,開發(fā)人員在使用AI技術(shù)時(shí)不應(yīng)對(duì)風(fēng)險(xiǎn)意識(shí),評(píng)估和管理視而不見。
3、可靠性
如上所述,人工智能系統(tǒng)應(yīng)盡可能減少與之相關(guān)的風(fēng)險(xiǎn)。開發(fā)人員應(yīng)致力于創(chuàng)建高度可靠的AI解決方案。解決方案應(yīng)在其整個(gè)生命周期內(nèi)按預(yù)期工作。它包括確保解決方案在每個(gè)階段都是高度準(zhǔn)確、可靠和可預(yù)測(cè)的。它們不應(yīng)給可能受到這些系統(tǒng)影響的用戶帶來風(fēng)險(xiǎn)。
因此,開發(fā)人員應(yīng)確保定期監(jiān)視和測(cè)試系統(tǒng),以檢查AI解決方案是否正常運(yùn)行。如果發(fā)現(xiàn)任何缺點(diǎn),則應(yīng)立即解決。最重要的是,開發(fā)人員必須在整個(gè)生命周期中確保AI系統(tǒng)的穩(wěn)定性和安全性。
4、問責(zé)制
無論自主和自力更生的人工智能技術(shù)如何發(fā)展,人工監(jiān)督和監(jiān)控仍然絕對(duì)必要。無論AI系統(tǒng)多么可靠或先進(jìn),都應(yīng)啟用人工監(jiān)督功能。負(fù)責(zé)開發(fā)各個(gè)階段的個(gè)人必須是可識(shí)別的,并且應(yīng)對(duì)AI系統(tǒng)導(dǎo)致的結(jié)果負(fù)責(zé)。必須建立確保責(zé)任和責(zé)任的機(jī)制。它包括監(jiān)視所有涉及的過程,從概念到開發(fā),再到部署到運(yùn)營階段。如果發(fā)現(xiàn)個(gè)人對(duì)AI系統(tǒng)的不正確使用負(fù)責(zé),則應(yīng)采取適當(dāng)?shù)拇胧?/p>
5、合規(guī)性
人工智能系統(tǒng)的設(shè)計(jì)應(yīng)足夠靈活,以適應(yīng)新的政府法規(guī),反之亦然。 AI系統(tǒng)的開發(fā)方式應(yīng)使其無需進(jìn)行許多更改即可符合新法規(guī)。同樣,政府應(yīng)以不嚴(yán)重影響AI系統(tǒng)的方式起草新的法律和法規(guī)。在創(chuàng)造新的AI技術(shù)的自由與政府的規(guī)則,法規(guī)和合規(guī)性之間需要保持平衡。這可以通過相關(guān)各方之間的相互理解,伙伴關(guān)系和溝通來實(shí)現(xiàn)。
此外,當(dāng)AI系統(tǒng)對(duì)個(gè)人、企業(yè)、社區(qū)或環(huán)境產(chǎn)生重大影響時(shí),應(yīng)制定相關(guān)規(guī)定,使人們可以質(zhì)疑相關(guān)AI系統(tǒng)的采用,可用性和結(jié)果。
6、隱私權(quán)
至少可以說,可用于開發(fā)AI系統(tǒng)的公共和私有數(shù)據(jù)量令人擔(dān)憂。開發(fā)人員在使用AI系統(tǒng)時(shí)必須確保尊重隱私和數(shù)據(jù)保護(hù)。它包括確保適當(dāng)?shù)毓芾砗凸芾鞟I系統(tǒng)在其生命周期中生成和使用的數(shù)據(jù)。開發(fā)人員必須確保保持?jǐn)?shù)據(jù)和信息的自主權(quán),以免被黑客或詐騙者濫用。因此,應(yīng)該有適當(dāng)?shù)臄?shù)據(jù)安全措施來保護(hù)用戶數(shù)據(jù)并確保隱私。
7、成本效益
開發(fā)的AI系統(tǒng)應(yīng)為企業(yè)和最終用戶負(fù)擔(dān)得起。開發(fā)人員應(yīng)確保AI系統(tǒng)價(jià)格合理,即使該技術(shù)是專有技術(shù)也可以使很多人受益。開發(fā)人員甚至可以免費(fèi)提供該技術(shù),或者在開源平臺(tái)上共享源代碼,以供其他用戶改進(jìn)和利用。 AI系統(tǒng)的維護(hù)成本也應(yīng)該是最低的。
近年來,關(guān)于AI的倫理學(xué)提出了一些問題。是的,在某些情況下,人工智能技術(shù)被濫用或自行做出可疑的決定。不僅是普通人,而且包括領(lǐng)導(dǎo)人和科學(xué)家,如斯蒂芬·霍金,比爾·蓋茨和埃隆·馬斯克,都對(duì)AI技術(shù)表示了擔(dān)憂。
因此,需要檢查AI系統(tǒng)。作為朝這個(gè)方向邁出的一步,白宮提出了自己的一套AI原則,需要遵循。這些措施包括鼓勵(lì)公眾參與,確??茖W(xué)完整性和信息質(zhì)量,透明度和許多其他原則。開發(fā)人員必須確保AI系統(tǒng)遵守白宮概述的道德和原則,并遵守上述規(guī)定,以確保其解決方案在道德上合理。
責(zé)任編輯:tzh
-
AI
+關(guān)注
關(guān)注
87文章
29849瀏覽量
268150 -
人工智能
+關(guān)注
關(guān)注
1791文章
46689瀏覽量
237177
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論