在好萊塢的電影中,有很多關(guān)于人工智能(AI)在未來(lái)世界發(fā)生的故事。可以肯定地說(shuō),這個(gè)未來(lái)不會(huì)很快到來(lái)——雖然人工智能具有很多功能和能力,但人類(lèi)的創(chuàng)造力和知識(shí)能力還有待匹配。這意味著做出的重大決策仍然掌握在人類(lèi)的手中。
在當(dāng)今世界,人工智能可以選擇求職面試的應(yīng)聘者,并決定誰(shuí)有資格獲得工作職位,并且可以為患者進(jìn)行診斷。而在這些情況下采用人工智能取代人類(lèi),在速度和效率方面取得了長(zhǎng)足的進(jìn)步。
甚至有人認(rèn)為,人工智能可以在未來(lái)幾年內(nèi)取代30%的勞動(dòng)力。但是,擁有強(qiáng)大的力量也會(huì)有巨大的責(zé)任。為了確保獲得最佳結(jié)果,需要開(kāi)發(fā)可以更公平分享這些好處的人工智能。
事實(shí)上,人類(lèi)可以與新興技術(shù)實(shí)現(xiàn)共生發(fā)展,雖然這意味著人工智能可以從人類(lèi)身上得到最好的結(jié)果,但它也可能導(dǎo)致最壞的結(jié)果,因?yàn)槿斯ぶ悄芤布{入了一些人們最糟糕的惡習(xí)。如果現(xiàn)在不采取必要的措施,無(wú)意識(shí)的偏見(jiàn)已經(jīng)是社會(huì)最大的挑戰(zhàn)之一,這可能會(huì)一直持續(xù),甚至成為根深蒂固的結(jié)構(gòu)性偏見(jiàn)。
數(shù)據(jù)可以告訴人們很多信息,但不會(huì)告訴一切。人們最不想看到的是可以評(píng)判自己的世界,不是關(guān)注的能力或潛力,而是留下的數(shù)據(jù)線(xiàn)索。很明顯,要想讓人工智能成為一支良好的力量,它需要針對(duì)其設(shè)定任務(wù)和公平性進(jìn)行優(yōu)化。
無(wú)意識(shí)的偏見(jiàn)是一個(gè)數(shù)據(jù)問(wèn)題
“垃圾輸入,垃圾輸出”這個(gè)短語(yǔ)在軟件開(kāi)發(fā)行業(yè)中是一個(gè)眾所周知的格言,并且有著充分的理由。盡管人工智能已經(jīng)變得如此復(fù)雜和強(qiáng)大,但它仍然是為執(zhí)行特定任務(wù)而設(shè)計(jì)和訓(xùn)練的一系列算法。人工智能完全依賴(lài)于為其發(fā)展提供的數(shù)據(jù)。
它只能分析所擁有的數(shù)據(jù),并試圖從中獲得最佳結(jié)果。在行業(yè)人士看來(lái),糟糕的決定實(shí)際上是從一組糟糕的數(shù)據(jù)中做出的最佳決策。不過(guò),這并沒(méi)有降低問(wèn)題的嚴(yán)重性。
像微軟公司的Tay chatter bot或Yandex公司的Alice虛擬助理這樣的案例實(shí)驗(yàn)很好地展示了當(dāng)自學(xué)習(xí)解決方案輸入錯(cuò)誤數(shù)據(jù)時(shí)會(huì)發(fā)生什么。在這兩種情況下,人們都期望公開(kāi)、持續(xù)的人際互動(dòng)將有助于解決方案發(fā)展出令人信服的個(gè)性。不幸的是,與一連串進(jìn)攻性的接觸創(chuàng)造了一種系統(tǒng),這種人工智能系統(tǒng)學(xué)會(huì)習(xí)慣性地攻擊。
然而,當(dāng)人工智能做出的決定開(kāi)始影響人們的生活時(shí),其后果可能會(huì)嚴(yán)重得多。在未來(lái)決策由數(shù)據(jù)驅(qū)動(dòng)的情況下,人們必須確保數(shù)據(jù)集中的少數(shù)群體不會(huì)被剝奪應(yīng)該獲得的權(quán)利。
例如一種面部識(shí)別算法,該算法只使用淺膚色模型的圖像進(jìn)行訓(xùn)練。當(dāng)人工智能算法遇到膚色較深的用戶(hù)時(shí),它可能會(huì)錯(cuò)誤識(shí)別,甚至根本無(wú)法識(shí)別他們。
如果這項(xiàng)人工智能面部識(shí)別技術(shù)成為招聘或薪酬體系的基礎(chǔ),想象一下會(huì)產(chǎn)生什么樣的影響。通過(guò)這種方式,某些群體可能處于不利地位,會(huì)有更糟糕的用戶(hù)體驗(yàn),甚至根本無(wú)法獲得服務(wù)。這種歧視可能不是故意的,但其影響同樣具有破壞性。
無(wú)意識(shí)的人工智能偏見(jiàn)從根本上來(lái)說(shuō)是一個(gè)數(shù)據(jù)問(wèn)題。如果沒(méi)有一個(gè)包含多樣、全面數(shù)據(jù)的大型數(shù)據(jù)庫(kù),未來(lái)的人工智能就有可能在沒(méi)有完整背景的情況下自動(dòng)創(chuàng)造出社會(huì)的贏家和輸家。因此,組織采購(gòu)最大和最廣泛的數(shù)據(jù)集至關(guān)重要。
當(dāng)然,他們還需要確保他們的人工智能解決方案能夠有效地使用所有這些數(shù)據(jù)。這意味著強(qiáng)大的數(shù)據(jù)管理工具和政策,確保數(shù)據(jù)被分類(lèi)、整合、簡(jiǎn)化,以供人工智能使用。如果企業(yè)缺乏完善的基礎(chǔ)設(shè)施和治理,那么收集和存儲(chǔ)所有這些數(shù)據(jù)是沒(méi)有意義的。
數(shù)據(jù)多樣性
解決方案并不像越來(lái)越多地收集數(shù)據(jù)那么簡(jiǎn)單。僅僅因?yàn)槠髽I(yè)要從比其他公司擁有更多的數(shù)據(jù)中提取數(shù)據(jù),并不意味著數(shù)據(jù)集的質(zhì)量更高,也不會(huì)產(chǎn)生更公平的結(jié)果。
例如,工程部門(mén)的人力資源部門(mén)可能有大量的歷史數(shù)據(jù)可供參考,但如果該部門(mén)歷史上一直由男性員工主導(dǎo),那么女性應(yīng)聘者可能很難被人工智能算法視為理想候選人。
要解決人工智能中的無(wú)意識(shí)偏見(jiàn),最好的辦法就是意識(shí)到這些。很多公司將人工智能視為輸入和輸出的黑盒解決方案,但要確保算法的公平性,就需要深入了解解決方案的工作原理及其與數(shù)據(jù)的交互方式。
在設(shè)計(jì)階段,企業(yè)需要清楚地了解想要避免的結(jié)果以及想要實(shí)現(xiàn)的結(jié)果。然后將該理由應(yīng)用于人工智能將訓(xùn)練的數(shù)據(jù)集,確保所有性別、社會(huì)和種族群體的公平代表性。
企業(yè)如何決定什么是“公平”這是一個(gè)更大、更微妙的話(huà)題,甚至可能解決人工智能中的偏見(jiàn)。道德標(biāo)準(zhǔn)因企業(yè)而異,因此企業(yè)領(lǐng)導(dǎo)及其員工應(yīng)制定一個(gè)他們能達(dá)成一致,并進(jìn)而影響其解決方案的道德框架。然而,透明度是關(guān)鍵——任何組織都不應(yīng)害怕向公眾或其員工解釋這些決定是如何達(dá)成的,或是如何實(shí)施的。
自上而下的方法并不是一個(gè)最好的方法。對(duì)一個(gè)人來(lái)說(shuō)公平的東西對(duì)另一個(gè)人來(lái)說(shuō)可能是有問(wèn)題的,或者看起來(lái)是錯(cuò)誤的。創(chuàng)建共識(shí)的一個(gè)好方法是建立一個(gè)多元化委員會(huì),由來(lái)自企業(yè)的利益相關(guān)者組成。而多元化委員會(huì)的決定可以轉(zhuǎn)化為人工智能解決方案和支持它的數(shù)據(jù)集。
限制偏見(jiàn)影響
每個(gè)人都會(huì)被無(wú)意識(shí)的偏見(jiàn)所困擾,人們可能很難承認(rèn)這一點(diǎn),甚至也沒(méi)有意識(shí)到這些偏見(jiàn)。要確保未來(lái)發(fā)展的人工智能中沒(méi)有這種偏見(jiàn),最好的方法是首先承認(rèn)這種偏見(jiàn)的存在。
然后,人們可以制定減少和限制偏見(jiàn)影響的策略,并確保不將其傳遞給人工智能技術(shù)。同樣,對(duì)于如何培養(yǎng)和發(fā)展人工智能,人們也應(yīng)該進(jìn)行培訓(xùn)和發(fā)展。
-
算法
+關(guān)注
關(guān)注
23文章
4592瀏覽量
92540 -
人工智能
+關(guān)注
關(guān)注
1791文章
46706瀏覽量
237221 -
面部識(shí)別
+關(guān)注
關(guān)注
1文章
375瀏覽量
26612
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論