近日,由歐盟委員會任命的人工智能高級專家小組(AIHLEG)發(fā)布了 AI 開發(fā)和使用的道德草案。從到 2019 年 1 月 18 日為對外開放征求意見的期間,預(yù)計到了 2019 年 3 月,AI HLEG 將向歐盟委員會提交最終版本的指導(dǎo)方針,以及提出如何推進這項工作的建議,此外,歐盟委員會目前也正在向愿意分享相同價值觀的所有非歐盟國家開放合作。
該草案提出了具體的框架,第一章闡述 AI 必須遵守的基本權(quán)利和價值觀,以確保 AI 符合道德目的;第二章指出實現(xiàn)可信賴 AI 的指導(dǎo)方針,同時兼顧道德目的和技術(shù)穩(wěn)健性,并列出可信賴 AI 的要求,包括技術(shù)和非技術(shù)方法;第三章則提供了具體但非窮舉的可信賴 AI評估表。
其中,該草案指出,可信賴的 AI 有兩個組成要素:一是應(yīng)尊重基本權(quán)利,適用法規(guī)、核心原則和價值觀,以確?!暗赖履康摹保╡thical purpose);二是兼具技術(shù)魯棒性和可靠性,因為即使有良好的意圖,缺乏技術(shù)掌握也會造成無意的傷害。另外,AI 技術(shù)必須足夠穩(wěn)健及強大,以對抗攻擊,以及如果 AI 出現(xiàn)問題,應(yīng)該要有“應(yīng)急計劃”(fall-back plan),例如在 AI 系統(tǒng)失敗了,必須要求交還由人類接手。
可信賴 AI 的不可為基本原則包括不應(yīng)以任何方式傷害人類;AI 不應(yīng)限制人的自由,即人們不應(yīng)該被 AI 驅(qū)動的機器征服或強迫; AI 應(yīng)該公平使用,不得歧視或誣蔑;AI 應(yīng)透明地運作,即人類需要知道 AI 正在開發(fā)的目的,以及如何使用它;AI 應(yīng)該只為個人和整個社會的福祉而發(fā)展。
歐盟委員會在 2018 年 4 月發(fā)布歐洲人工智能方法(European approach on AI)后,成立了人工智能高級專家小組,由 52 名來自學(xué)術(shù)界、工業(yè)界和民間社會的獨立專家組成,此次的 AI 道德準(zhǔn)則草案第一版是由該高級專家小組制定。
-
AI
+關(guān)注
關(guān)注
87文章
28902瀏覽量
266275 -
人工智能
+關(guān)注
關(guān)注
1787文章
46067瀏覽量
235119
原文標(biāo)題:歐盟AI道德準(zhǔn)則草案出爐
文章出處:【微信號:robotmagazine,微信公眾號:機器人技術(shù)與應(yīng)用】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論