0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為了不讓AI帶有歧視色彩,谷歌操碎了心訓(xùn)練模型

如意 ? 來源:極客公園 ? 作者:沈知涵 ? 2020-11-03 10:47 ? 次閱讀

土耳其語的「他」和「她」沒有性別的區(qū)分,統(tǒng)一用 O 表示。過去 Google Translate 在翻譯 o bir doktor(ta 是一位醫(yī)生)和 o bir hem?ire(ta 是一位護士)時,會把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因為機器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會規(guī)律」之后,「偏向」把醫(yī)生男性化,護士女性化。

看到這個問題后,Google 意識到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來 Google Translate 以增加選項的方式規(guī)避了這個問題。

「當(dāng)然,該解決方案僅適用于幾種語言,僅適用幾個有代表性的單詞,但是我們正在積極嘗試擴展它?!筎ulsee Doshi 在 Google I/O’19 上說道。

這只是 Google 這家公司將先進技術(shù)與技術(shù)價值觀合二為一的體現(xiàn)之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向包括極客公園(id: geekpark)在內(nèi)的全球媒體闡釋了 Google 如何理解機器學(xué)習(xí)公平性,以及為了打造一個「負(fù)責(zé)任的 AI」,Google 做了哪些事情。

要讓 AI 被人信任這件事情變得越來越重要。

「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過人工智能的倫理問題,因此有 40% 的人工智能項目被放棄。從企業(yè)的角度來看,對 AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負(fù)責(zé)任地開發(fā)出來并且取得終端用戶信任的語境下,效率提升和競爭優(yōu)勢才會得到充分體現(xiàn)?!筎racy Frey 說,打造一個負(fù)責(zé)任的 AI 成為 Google 上下最重要的事情之一。

兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:

· 對社會有益(Be socially beneficial)

· 避免建立和加劇不公的偏見(Avoid creating or reinforcing unfair bias)

· 保障建立和測試安全性(Be built and tested for safety)

· 對人類負(fù)責(zé)(Be accountable to people)

· 建立并體現(xiàn)隱私保護原則(Incorporate privacy design principles)

· 支持并鼓勵高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)

· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)

只是把這些原則停留在字面上沒有意義,Google 為此形成了一個從理論到實踐的「閉環(huán)」。Tulsee Doshi 和她的團隊通過一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過向高級顧問尋求改進建議,一邊讓產(chǎn)品團隊(Chrome、Gmail、Cloud 等)來實施和反饋。

Tulsee 舉了一個例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開發(fā)了一個名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對話、評論中尋找各種各樣的言論,自動評價它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。

比如「我想抱抱這只可愛的小狗」和「這只小狗也太討厭了吧」分別評分為 0.07 和 0.84。

當(dāng)然機器也不是從一開始就「完美無瑕」。在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測試中,系統(tǒng)都被證實帶著身份認(rèn)知上的偏見。

為了提升機器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項名為對抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機器學(xué)習(xí)模型對抗樣本更魯棒。2018 年開始,對抗訓(xùn)練開始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。

「事實上,任何一位 Googler 都可以對一款產(chǎn)品、一份研究報告、一項合作進行 AI 原則審查?!筎ulsee 說道。

比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時發(fā)現(xiàn)自己的性別被搞錯了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見」。

發(fā)生這樣的失誤很好理解,單單從外表一個維度,機器很難正確地判斷出一個人的性別,所以后來 Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。

Tracy Frey 稱這是因為今天機器學(xué)習(xí)面臨社會語境下的挑戰(zhàn)比以前更多了。在 AI 深入社會的過程中,必然有人類的刻板印象和偏見被帶入 AI,所以需要對模型進行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點。
責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6080

    瀏覽量

    104365
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266236
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131845
收藏 人收藏

    評論

    相關(guān)推薦

    蘋果AI模型訓(xùn)練新動向:攜手谷歌,未選英偉達

    近日,蘋果公司發(fā)布的最新研究報告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計的芯片來訓(xùn)練AI模型,而非行業(yè)巨頭英偉達的產(chǎn)品。這一決定在業(yè)界引起了廣泛關(guān)注,尤其是在當(dāng)前英偉
    的頭像 發(fā)表于 08-01 18:11 ?820次閱讀

    蘋果承認(rèn)使用谷歌芯片來訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進的人工智能系統(tǒng)Apple Intelligence背后的兩個關(guān)鍵AI模型,是在谷歌設(shè)計的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端
    的頭像 發(fā)表于 07-30 17:03 ?597次閱讀

    蘋果揭示AI新動向:Apple Intelligence模型谷歌云端芯片上預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計的云端芯片上進行預(yù)訓(xùn)練。這一決定不僅打破了行
    的頭像 發(fā)表于 07-30 15:00 ?384次閱讀

    ai模型訓(xùn)練方法有哪些?

    AI模型訓(xùn)練方法是一個復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強 數(shù)據(jù)
    的頭像 發(fā)表于 07-16 10:11 ?753次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計算資源來進行訓(xùn)練。AI模型的主要特點包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?3.7w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    AI模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI模型通常需要大量的數(shù)
    的頭像 發(fā)表于 07-16 10:06 ?596次閱讀

    李彥宏:開源模型將逐漸滯后,文模型提升訓(xùn)練與推理效率

    李彥宏解釋道,百度自研的基礎(chǔ)模型——文 4.0,能夠根據(jù)需求塑造出適應(yīng)各類場景的微型版模型,并支持精細(xì)調(diào)整以及后預(yù)訓(xùn)練。相較于直接使用開源模型
    的頭像 發(fā)表于 04-16 14:37 ?343次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個開源的機器學(xué)習(xí)框架,由谷歌的機器學(xué)習(xí)團隊開發(fā),用于構(gòu)建和
    的頭像 發(fā)表于 03-01 16:25 ?648次閱讀

    谷歌模型訓(xùn)練軟件有哪些?谷歌模型訓(xùn)練軟件哪個好?

    谷歌模型訓(xùn)練方面提供了一些強大的軟件工具和平臺。以下是幾個常用的谷歌模型訓(xùn)練軟件及其特點。
    的頭像 發(fā)表于 03-01 16:24 ?676次閱讀

    谷歌模型訓(xùn)練軟件有哪些功能和作用

    谷歌模型訓(xùn)練軟件主要是指ELECTRA,這是一種新的預(yù)訓(xùn)練方法,源自谷歌AI。ELECTRA不僅
    的頭像 發(fā)表于 02-29 17:37 ?640次閱讀

    谷歌AI模型Gemma全球開放使用

    谷歌公司近日宣布,其全新的AI模型Gemma現(xiàn)已在全球范圍內(nèi)開放使用。這一重要舉措不僅彰顯了谷歌AI領(lǐng)域的領(lǐng)先地位,還為其在全球范圍內(nèi)的
    的頭像 發(fā)表于 02-28 18:12 ?985次閱讀

    谷歌發(fā)布開源AI模型Gemma

    近日,谷歌發(fā)布了全新AI模型Gemma,這款模型為各種規(guī)模的組織提供了前所未有的機會,以負(fù)責(zé)任的方式在商業(yè)應(yīng)用中進行分發(fā)。
    的頭像 發(fā)表于 02-28 17:38 ?717次閱讀

    谷歌推出AI擴散模型Lumiere

    近日,谷歌研究院重磅推出全新AI擴散模型Lumiere,這款模型基于谷歌自主研發(fā)的“Space-Time U-Net”基礎(chǔ)架構(gòu),旨在實現(xiàn)視頻
    的頭像 發(fā)表于 02-04 13:49 ?867次閱讀

    新火種AI | 谷歌Gemini“抄襲”百度文一言?AI訓(xùn)練數(shù)據(jù)陷難題

    谷歌自己放出“實錘”,Gemini化身百度文模型?
    的頭像 發(fā)表于 12-20 09:09 ?414次閱讀
    新火種<b class='flag-5'>AI</b> | <b class='flag-5'>谷歌</b>Gemini“抄襲”百度文<b class='flag-5'>心</b>一言?<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)陷難題

    用STM32Cube.AI部署ONNX模型示例:風(fēng)扇堵塞檢測

    用STM32Cube.AI 部署ONNX 模型示例:風(fēng)扇堵塞檢測
    的頭像 發(fā)表于 09-28 16:25 ?2258次閱讀
    用STM32Cube.<b class='flag-5'>AI</b>部署ONNX<b class='flag-5'>模型</b>實<b class='flag-5'>操</b>示例:風(fēng)扇堵塞檢測