歐盟基本權(quán)利機構(gòu)(FRA)發(fā)布了一份關(guān)于人工智能的報告,深入探討了必須考慮的技術(shù)倫理問題。
聯(lián)邦鐵路局的這份報告題為《走向正確的未來》(Getting The Future Right),開篇就介紹了人工智能已經(jīng)讓生活變得更好的一些方法,比如幫助癌癥診斷,甚至預(yù)測入室盜竊可能發(fā)生在哪里。
“可能性似乎無窮無盡,”聯(lián)邦鐵蹄局局長邁克爾奧弗萊厄蒂在報告的前言中寫道?!暗谑褂萌斯ぶ悄軙r,我們?nèi)绾尾拍苋婢S護基本權(quán)利標準?”
為了回答這個問題,聯(lián)邦鐵路局采訪了100多名公共行政官員、私營公司員工和各種專家。
有證據(jù)表明,算法存在偏見,這可能導(dǎo)致自動化的社會問題,如種族檔案如果人工智能的全部潛力將為整個社會打開,這是一個需要回答的問題。
‘Flaherty說:
“人工智能并非絕對正確,它是由人制造的而人也會犯錯?!边@就是為什么人們需要意識到人工智能何時被使用,它是如何工作的,以及如何挑戰(zhàn)自動決策。歐盟需要澄清現(xiàn)有規(guī)則如何適用于人工智能。組織需要評估他們的技術(shù)如何在開發(fā)和使用人工智能的過程中干擾人們的權(quán)利。我們有機會塑造不僅尊重我們的人權(quán)和基本權(quán)利,而且保護和促進它們的人工智能。”
人工智能正以某種形式應(yīng)用于幾乎每一個行業(yè),如果不是現(xiàn)在,也會在不久的將來。
人工智能的偏見在某些行業(yè)比其他行業(yè)更危險。糖霜是一個明顯的例子,但在金融服務(wù)等領(lǐng)域,它可能意味著一個人得到了貸款或抵押貸款,而另一個人卻申請不到貸款。
如果沒有適當?shù)耐该鞫?,這些偏見可能會在沒有人知道這些決定背后的原因的情況下發(fā)生,這可能只是因為有人在不同的社區(qū)長大,每個自動決策都對人有非常真實的影響。
聯(lián)邦鐵路局呼吁歐盟:
確保人工智能尊重所有基本權(quán)利,人工智能可以影響許多權(quán)利,而不僅僅是隱私或數(shù)據(jù)保護。它還可能歧視或妨礙正義。未來任何人工智能立法都必須考慮到這一點,并制定有效的保障措施。
人們可以對人工智能的決策提出質(zhì)疑,人們需要知道何時使用人工智能,如何使用人工智能,以及如何以及在何處投訴。使用人工智能的組織需要能夠解釋他們的系統(tǒng)是如何做出決策的。
在使用人工智能減少負面影響之前和期間進行評估,私人和公共組織應(yīng)該對人工智能如何損害基本權(quán)利進行評估。
提供更多資料保護規(guī)則的指引,歐盟應(yīng)進一步澄清資料保護規(guī)則如何適用于人工智能。在使用人工智能時,自動化決策的含義以及人類審查的權(quán)利也需要更加明確。
評估人工智能是否歧視,對人工智能歧視的可能性及其影響的認識相對較低。這就要求提供更多的研究資金來研究人工智能潛在的歧視性影響,以便歐洲能夠防范它。
創(chuàng)建一個有效的監(jiān)督系統(tǒng),歐盟應(yīng)該投資一個更“一體化”的系統(tǒng),讓企業(yè)和公共行政部門在使用人工智能時負起責任。當局需要確保監(jiān)督機構(gòu)有足夠的資源和技能來完成這項工作。
近年來,歐盟加強了對谷歌等“大型科技”公司的審查,原因是它們擔心侵犯隱私的做法和濫用市場地位。上周,人工智能新聞報道,谷歌解雇了人工智能倫理研究負責人蒂姆尼特格布魯(Timnit Gepu),原因是她在電子郵件中批評了自己的雇主。
谷歌首席執(zhí)行官桑達爾皮查伊在一份備忘錄中寫道:“一名才華橫溢的杰出黑人女性領(lǐng)導(dǎo)人不幸離開谷歌,我們需要為此承擔責任。
“對我來說,讓我們的黑人、女性以及沒有得到充分代表的谷歌員工知道,我們重視你們,你們確實屬于谷歌,這非常重要。”
格布魯本周接受了BBC的采訪,她在采訪中稱谷歌和大型科技公司是“制度上的種族主義者”??紤]到這一點,聯(lián)邦鐵路局報告中的呼吁似乎尤為重要。
責任編輯:YYX
-
谷歌
+關(guān)注
關(guān)注
27文章
6080瀏覽量
104356 -
人工智能
+關(guān)注
關(guān)注
1787文章
46061瀏覽量
235000
發(fā)布評論請先 登錄
相關(guān)推薦
評論