許多行業(yè)正轉(zhuǎn)向機器學習等人工智能(AI)技術來審查大量數(shù)據(jù),這并不奇怪。無論是分析財務記錄,檢查一個人是否有資格獲得貸款或法律合同中的錯誤,還是確定一個人是否患有精神分裂癥;人工智能讓你得到了保障!然而,這完全是萬無一失的還是不偏不倚的?這種現(xiàn)代科技能像人類一樣容易產(chǎn)生偏見嗎?
偏差風險因業(yè)務、行業(yè)和組織而異。他們可以通過多種方式進入人工智能系統(tǒng)。例如,它可以被有意地通過隱形攻擊引入人工智能系統(tǒng),也可以被無意地引入到人工智能系統(tǒng)中,這樣就很難被人看到或發(fā)現(xiàn)。這也可能是由于人類輸入了反映他們有偏見思維的已經(jīng)有偏見的數(shù)據(jù),或者是由于數(shù)據(jù)采樣的偏見。當訓練數(shù)據(jù)中缺少某些類別時,我們也會出現(xiàn)長尾偏差。
很明顯,數(shù)據(jù)中的偏差會導致人工智能模型產(chǎn)生偏差,但更危險的是,模型實際上會放大偏差。例如,一個研究小組發(fā)現(xiàn)67%的做飯的人是女性,但該算法將84%的廚師標記為女性。深度學習(另一種人工智能技術)算法正越來越多地被用于做出影響生活的決定,比如招聘員工、刑事司法系統(tǒng)和健康診斷。在這些場景中,如果算法由于AI偏差而做出錯誤的決策,那么從長遠來看,結果將是毀滅性的。
例如,2016年,一家非盈利新聞機構Pro Publica公司對由人工智能COMPAS支持的風險評估軟件進行了批判性分析。COMPAS被用來預測一個囚犯或被指控的罪犯如果被釋放的話會犯下更多罪行的可能性。據(jù)觀察,黑人被告(錯誤率為45%)的假陽性率(標記為“高風險”,但沒有再次犯罪)幾乎是白人被告(錯誤率為24%)的兩倍。除此之外,由于種族、性別和種族的原因,人工智能工具還存在多個錯誤分類/錯誤標記/錯誤識別的例子。就像在同一年美女.AI該網(wǎng)站聘請人工智能機器人擔任選美比賽的評委,發(fā)現(xiàn)淺膚色的人比深色皮膚的人更具吸引力。
重要的是要揭示無意中的人工智能偏見,使技術工具與商業(yè)領域的多樣性、公平性和包容性政策和價值觀保持一致。根據(jù)普華永道2020年的人工智能預測,68%的組織仍然需要解決他們開發(fā)和部署的人工智能系統(tǒng)的公平性問題。
通常,機器學習、深度學習模型通常分為三個階段:訓練、驗證和測試。盡管在數(shù)據(jù)收集之前以及在深度學習過程的許多其他階段,偏見會潛移默化,但偏見在訓練階段會影響模型本身。一般來說,線性回歸、線性判別分析和logistic回歸等參數(shù)算法容易產(chǎn)生高偏差。隨著人工智能系統(tǒng)越來越依賴于深度學習和機器學習,由于它們的有用性,解決人工智能偏見可能會變得更加棘手。
雖然偏見正在加速解決,但關鍵的挑戰(zhàn)在于界定偏見本身。這是因為對一個開發(fā)人員或數(shù)據(jù)科學家來說聽起來有偏見的東西可能并不意味著對另一個的偏見。另一個問題是“公平”應該遵循什么準則——在人工智能模型中是否有任何技術方法來定義公平?另外,需要注意的是,不同的解釋會造成混亂,不能每次都滿意。此外,確定數(shù)據(jù)集中不同子組的錯誤率和準確度是至關重要的。接下來,數(shù)據(jù)科學家需要考慮社會背景。如果一個機器學習模型在刑事司法場景中完美地工作,它并不意味著它將適合于篩選求職者。因此社會背景很重要!
毫無疑問,選擇多樣化的數(shù)據(jù)可以減輕人工智能的偏見,通過為更多的數(shù)據(jù)接觸點和指標提供空間來迎合不同的優(yōu)先級和見解,這是不夠的。同時,特定群體的代理的存在,使得很難建立一個深刻的學習或任何其他人工智能模型,知道所有潛在的偏見來源。
最后,并非所有人工籌碼偏見都有負面影響。在這種情況下,可解釋人工智能(XAI)可以幫助辨別模型是使用好偏差還是壞偏差來做出決策。它還告訴我們在模型做出任何決策時哪些因素更重要。雖然它不會消除偏見,但它肯定能讓人類用戶理解、適當信任和有效管理人工智能系統(tǒng)。
編輯:hfy
-
人工智能
+關注
關注
1789文章
46654瀏覽量
237090 -
機器學習
+關注
關注
66文章
8350瀏覽量
132315
發(fā)布評論請先 登錄
相關推薦
評論