隨著人工智能的迅速發(fā)展,在幫助人類解決各種問題的同時,在應(yīng)用過程中也出現(xiàn)越來越多此前從未考慮到的問題。
據(jù)報道,在中國天津舉行的世界經(jīng)濟論壇新領(lǐng)軍者年會上,人工智能和機器學(xué)習(xí)主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,兩三年前,極少有人會提出使用人工智能的道德問題。
但是,她說,道德問題現(xiàn)在“開始變得突出”。“這一方面是因為我們在歐洲有一般數(shù)據(jù)保護法案在關(guān)注隱私問題,另一方面是因為一些人工智能算法存在明顯的問題?!?/p>
偏見的認定:
機器人存在偏見?還是算法?
從理論上來說,機器人應(yīng)該是沒有偏見的。但是,近些年,有很多事情表明算法開始變得有偏見。
幾年前,谷歌因其圖像識別算法把非裔美國人識別為“大猩猩”而遭到了猛烈批評。今年初,有報道稱,谷歌還沒有解決這個問題,只是簡單地阻止其圖像識別軟件來識別大猩猩。
類似的問題在不斷地出現(xiàn),這也表明了尋找到解決問題的方法刻不容緩。
而解決偏見的方法,必須確保兩點:1.確保人工智能高速發(fā)展,為人類謀福利;2.同時解決人工智能在隱私、偏見、透明度和責(zé)任感等方面的道德問題。
中國科技行業(yè):
培養(yǎng)的科技人才可一定程度上填補空白
而在討論解決偏見的過程中,巴特菲爾德特別提到了中國科技行業(yè)。
她說,現(xiàn)在沒有足夠的人工智能工程師來滿足行業(yè)內(nèi)的需求。中國在努力培訓(xùn)更多的人工智能工程師和數(shù)據(jù)科學(xué)家,這可以在一定程度上填補科技行業(yè)的人才空白。
這足以見得,中國科技人才在未來解決人工智能偏見的這個全球性的課題上,發(fā)揮著重要作用。
-
機器人
+關(guān)注
關(guān)注
210文章
28103瀏覽量
205852 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237083
原文標題:人工智能應(yīng)用存在偏見?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論