隨著時間的推移,人類會產生偏見。我們不是天生的。但是,在世界各地的社區(qū),行業(yè)和社會環(huán)境中都存在性別,經濟,職業(yè)和種族偏見的例子。盡管有人領導著從根本上改變物理世界中這些現象的倡議,但它在數字世界中以新的方式持續(xù)存在和體現。
在科技界,從初創(chuàng)企業(yè)文化到融資回合到技術本身的各種偏見都彌漫著。具有變化潛力的創(chuàng)新不會獲得必要的資金,或者由于其創(chuàng)始人的人口組成或性別而被完全忽略。由于背景各異,正在篩選具有非傳統和課外經驗的人,使其有資格從事編碼工作,這些人正被排除在招聘流程之外。
現在,我擔心我們會在人工智能方面走類似的道路。市場上的AI技術開始顯示有意和無意的偏見-從按人口統計或背景將候選人簡歷分組的人才搜索技術到不敏感的自動填充搜索算法。它也適用于商業(yè)世界之外-從基于對某人的喜好和假設的辨別種族的社交平臺,到以性別和名字命名的AI助手都被標記為女性。事實是,除非建立在考慮包容性的基礎上,否則人工智能中的偏見就會發(fā)生。創(chuàng)建包容性AI的最關鍵步驟是認識到偏見如何影響技術的輸出以及它如何使“智能”產生的客觀性降低。
好消息是:建立一個平衡的數據集來克服這些偏差的AI平臺還為時不晚,AI可以在該平臺上學習并開發(fā)反映用戶多樣性的虛擬助手,這要求工程師負責任地將AI連接到各種受信任的數據源可提供相關答案,做出可負責任的決策并基于交付所需結果來獎勵AI。
從廣義上講,將性別角色添加到技術上可以永久性地體現性別角色。今天,我們看到女主持人(亞馬遜的Alexa,微軟的Cortana,蘋果的Siri)主要用于行政工作,購物和執(zhí)行家務。同時,男性演講助理(IBM的Watson,Salesforce的Einstein,三星的Bixby)正在被用于更宏大的業(yè)務戰(zhàn)略和復雜的,針對垂直領域的工作。
-
AI
+關注
關注
87文章
29824瀏覽量
268114 -
人工智能
+關注
關注
1790文章
46671瀏覽量
237112 -
數據集
+關注
關注
4文章
1200瀏覽量
24621
發(fā)布評論請先 登錄
相關推薦
評論