0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI畫家化身“心靈捕手”,繪制具備情感特征的人物肖像

如意 ? 來源:雷鋒網(wǎng) ? 作者:雷鋒網(wǎng) ? 2020-07-05 09:17 ? 次閱讀

AI在藝術(shù)界表現(xiàn)出越來越驚人的“天賦”

我們知道用AI來繪畫、寫詩(shī)、作曲已經(jīng)不是新鮮事。但在藝術(shù)領(lǐng)域,AI在試圖模仿、甚至超越人類的過程中,始終存在一個(gè)難以逾越的瓶頸,就是人類與生而來的創(chuàng)造力。

這也是AI研發(fā)人員聚焦深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)著力攻克的難點(diǎn)之一。

近日,預(yù)印論文庫(kù)arXiv上發(fā)表了一項(xiàng)最新研究成果,論文中的AI畫家可以化身“心靈捕手”,通過對(duì)話式溝通感受人類的獨(dú)特品質(zhì)、個(gè)性和情緒,從而繪制具備內(nèi)在情感特征的人物肖像。

據(jù)了解,這位Empathic AI Painter,出自來自加拿大溫哥華西蒙弗雷澤大學(xué)(SFU)iViz實(shí)驗(yàn)室團(tuán)隊(duì)。此前,他們的AI畫家曾在國(guó)際神經(jīng)信息處理系統(tǒng)(NeurIPS)大會(huì)做了現(xiàn)場(chǎng)演示,吸引眾多用戶參與圍觀,還受到CTV國(guó)家新聞的專項(xiàng)報(bào)道。

那么這款“心靈捕手”AI畫家是如何進(jìn)行藝術(shù)創(chuàng)作的呢?

會(huì)聊天的AI畫家

據(jù)該團(tuán)隊(duì)介紹,AI畫家具備兩套創(chuàng)意系統(tǒng),一是對(duì)話式語(yǔ)音交互系統(tǒng),一是AI人像生成模型系統(tǒng),他們均通過3D虛擬人像來呈現(xiàn)。

Empathic AI Painter

與傳統(tǒng)繪制畫像不同,它不是一種靜態(tài)的“眼觀”模式,而是采取對(duì)話聊天的形式,捕捉內(nèi)在情緒完成藝術(shù)創(chuàng)作。

該團(tuán)隊(duì)教授史蒂夫·迪帕拉( DiPaola)表示,3D虛擬畫家的語(yǔ)音交互系統(tǒng)可以與用戶聊天,就某一事件采訪他們的感受,了解他們的性格,進(jìn)而通過AI人像生成模型,在繪畫過程中體現(xiàn)不同的情感特質(zhì)??偟膩碚f,AI畫家需要完成三項(xiàng)任務(wù):

感知用戶語(yǔ)言和行為

基于以上信息,判定人物性格和情感特質(zhì);

通過AI人像生成模型,在繪畫風(fēng)格、色彩、紋理上呈現(xiàn)不同的用戶特質(zhì);

在ECA方面,3D虛擬人像融合了NLP自然語(yǔ)言處理模型,在交談中通過面部情感、語(yǔ)言壓力、語(yǔ)義,感知人類的情感和對(duì)話,并作出相應(yīng)的反饋。另外,其內(nèi)置的共情建模,還可以通過手勢(shì)、言語(yǔ)、表情,對(duì)用戶情緒作出感知性反應(yīng)。自然、真誠(chéng)的對(duì)話表現(xiàn)可以讓人類更真實(shí)的表現(xiàn)自己。

在個(gè)人特質(zhì)評(píng)估方面,研究人員采用了“五大人格模型”(FFM)。它是由科斯塔和麥克雷在20世紀(jì)80年代提出的,被廣泛用于人格分析。模型提出了神經(jīng)質(zhì)(N)、外傾性(E)、經(jīng)驗(yàn)開放性(O)、宜人性(A)和認(rèn)真性(C)五大人格因素,并通過NEO人格調(diào)查表進(jìn)行測(cè)量。

在肖像渲染階段,利用mDD((ModifiedDeep Dream)模型在16萬張數(shù)據(jù)集上進(jìn)行深度訓(xùn)練,由ePainterly模塊完成的最終的風(fēng)格繪制。

17種不同類型的情感肖像

那么它的作畫效果如何呢?之前提到,AI畫家曾在NeurIPS 2019大會(huì)上做過現(xiàn)場(chǎng)展示,當(dāng)時(shí)有26位用戶參與,并完成的現(xiàn)場(chǎng)交互。實(shí)際上原、人格調(diào)查表有120多個(gè)問題,大約需要45分鐘才能完成。

但這里研究人員僅使用了每個(gè)維度的一個(gè)問題進(jìn)行了互動(dòng),用時(shí)不足5分鐘。以下是圍繞“會(huì)議感受”主題下的互動(dòng)問題:

最終結(jié)果顯示,84.72%的用戶語(yǔ)音被準(zhǔn)確識(shí)別,AI畫家完成呈現(xiàn)除了17中不同的個(gè)性類別,同時(shí)用戶也表示,該風(fēng)格表現(xiàn)出了其內(nèi)在的情感特征。(以下是部分作品)

目前這款3D虛擬畫家的繪畫作品以已在去全球展出,包括紐約市和惠特尼的現(xiàn)代藝術(shù)博物館(MoMA)。

DiPaola教授認(rèn)為,AI在激發(fā)藝術(shù)與高級(jí)計(jì)算機(jī)技術(shù)融合方面存在無限的潛力。他們所研發(fā)的AI系統(tǒng)只是藝術(shù)創(chuàng)新的第一步,之后他們還將在此系統(tǒng)上,探索基于詩(shī)歌、散文的藝術(shù)創(chuàng)作。

背后的技術(shù)原理

與傳統(tǒng)AI設(shè)計(jì)使用單一算法不同,DiPaola教授團(tuán)隊(duì)的AI系統(tǒng)融合多種不同的技術(shù)。我們先來看一下完成的AI系統(tǒng)的架構(gòu)組成,分為對(duì)話交互循環(huán)(Conversational Interaction Loop)和生成風(fēng)格化肖像(Generative Portrait stylization)兩大模塊組成,這兩個(gè)模塊之間由BIG-5人格模型鏈接,用于傳達(dá)個(gè)性化肖像的關(guān)鍵信息。

第一階段的對(duì)話交互循環(huán)功能是基于具有移情模塊的M-Path系統(tǒng)實(shí)現(xiàn)的。它可以呈現(xiàn)出3D虛擬人像的形式。在與人類的對(duì)話中,具備類似視頻會(huì)議的輸入輸出設(shè)置,能夠根據(jù)用戶的情感和語(yǔ)言屬性實(shí)時(shí)處理輸入,進(jìn)而產(chǎn)生言語(yǔ)或行為的移情輸出。具體來說,M-Path系統(tǒng)的運(yùn)行是基于三個(gè)不同模塊控制:

感知模塊:用于采集和處理參與者信息。當(dāng)用戶講話時(shí),此模塊通過麥克風(fēng)和攝像機(jī)收集音頻和視頻作為輸入信號(hào)。在視頻輸入源中,面部情感識(shí)別模塊采用的是OpenCV算法,用來識(shí)別不同面部表情所對(duì)應(yīng)的情緒類別。本次研究中將基本情緒分為6種,憤怒,厭惡,恐懼,喜悅,悲傷,驚奇和蔑視,這一分類是基于CK+數(shù)據(jù)集的深度學(xué)習(xí)訓(xùn)練而獲得。

另外,來自麥克風(fēng)的語(yǔ)音輸入首先會(huì)被傳送至文本模塊,進(jìn)行轉(zhuǎn)化轉(zhuǎn)換處理。該模塊采用的是Google的STT服務(wù)。

情緒分析組件使用從STT服務(wù)接收到的文本來評(píng)估文本的極性值(正-中性-負(fù)),然后通過SO-CAL情感分析器在NRC-Canada詞典上進(jìn)行了重新訓(xùn)練,最后將文本發(fā)送至決策組件生成對(duì)話響應(yīng)。整個(gè)處理過程會(huì)持續(xù)到對(duì)方發(fā)送語(yǔ)音結(jié)束為止。

行為控制器模塊:負(fù)責(zé)在對(duì)話循環(huán)中,生成同理心和具有目標(biāo)導(dǎo)向的語(yǔ)言/非語(yǔ)言響應(yīng)。 在收聽階段,3D虛擬人像會(huì)產(chǎn)生相應(yīng)的情感匹配和反向傳播行為。情感匹配是通過移情機(jī)制對(duì)用戶面部表情的選擇而實(shí)現(xiàn)的。而在交談中通過檢測(cè)到暫停觸發(fā)的點(diǎn)頭行為來創(chuàng)建反向傳播,這兩種行為的集合,最終生成了獲取情感的聆聽行為。

當(dāng)對(duì)話結(jié)束后,從STT引擎接收到的文本信息會(huì)與用戶的總體情感一起傳遞至對(duì)話管理器(Dialogue Manager),并最終發(fā)送到移情機(jī)制(e Empathy Mechanisms)組件。 DM的目標(biāo)是完成Big-5人格問卷識(shí)別的個(gè)性類別。 EM的目標(biāo)生成對(duì)應(yīng)類別的情感響應(yīng)。

行為管理模塊:用于創(chuàng)建自然的對(duì)話行為。M-Path在對(duì)話的所有狀態(tài)下連續(xù)生成非語(yǔ)言或非語(yǔ)言行為,如面部表情,身體姿勢(shì)、手勢(shì)及嘴唇移動(dòng)會(huì)與語(yǔ)音輸出同步完成,并作為行為標(biāo)記語(yǔ)言(Behavior Markup Language)消息發(fā)送到Smartbody角色動(dòng)畫平臺(tái)以顯示生成的行為。

第二階段生成風(fēng)格化肖像,這部分的處理分為三個(gè)步驟。首先主要是運(yùn)用AI工具對(duì)人像進(jìn)行預(yù)處理,包括圖像背景分割,調(diào)整人像的光和色彩的平衡。

然后將預(yù)處理的圖像輸入至mDD系統(tǒng)模型進(jìn)行深度訓(xùn)練,這里借用的是Google的Deep Dream模型,基于本次研究特性進(jìn)行了部分調(diào)整,因此在這里成為mDD(ModifiedDeep Dream)。它所使用的數(shù)據(jù)集收集了來自3000位藝術(shù)家的160,000張帶有標(biāo)簽和分類的畫作,總大小為67 GB。

最后,ePainterly系統(tǒng)結(jié)合Deep Style來處理人像表面紋理以及非真實(shí)感的渲染(NPR)技術(shù),例如粒子系統(tǒng),調(diào)色板操縱和筆觸引擎技術(shù)。這個(gè)不斷迭代的過程將完成最終的肖像風(fēng)格。其中ePainterly模塊是講點(diǎn)繪畫系統(tǒng)Painterly的擴(kuò)展。

這部分NPR渲染在很大程度上減少了mDD輸出圖像時(shí)產(chǎn)生的噪聲偽影。以下是各個(gè)階段的效果圖:

雖然AI畫家在捕捉人類情感,繪制風(fēng)格化肖像方面表現(xiàn)非常出色,但該研究團(tuán)隊(duì)認(rèn)為它還有很大的擴(kuò)展空間,并表示從情感評(píng)估模型、用戶個(gè)性分析和互動(dòng)場(chǎng)景三個(gè)方面對(duì)其進(jìn)行優(yōu)化。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29852

    瀏覽量

    268151
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    76

    文章

    4003

    瀏覽量

    81688
  • 3D打印
    +關(guān)注

    關(guān)注

    26

    文章

    3536

    瀏覽量

    108763
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    能力而受到廣泛關(guān)注。 1. 引言 情感分析在商業(yè)智能、客戶服務(wù)、社交媒體監(jiān)控等領(lǐng)域具有廣泛的應(yīng)用。傳統(tǒng)的情感分析方法依賴于手工特征提取和機(jī)器學(xué)習(xí)算法,但這些方法往往難以處理文本中的長(zhǎng)距離依賴關(guān)系。LSTM作為一種循環(huán)神經(jīng)網(wǎng)絡(luò)(
    的頭像 發(fā)表于 11-13 10:15 ?112次閱讀

    曠視AI開源新突破:上傳照片即可生成表情包視頻!

    為了展示其泛化性,MegActor甚至可以將VASA中的人物肖像和視頻組合生成,得到生動(dòng)的表情視頻。即使與阿里EMO的官方案例相比,MegActor也能生成近似的效果。
    的頭像 發(fā)表于 07-12 11:20 ?306次閱讀
    曠視<b class='flag-5'>AI</b>開源新突破:上傳照片即可生成表情包視頻!

    AI陪伴機(jī)器人市場(chǎng)需求快速增長(zhǎng),情感交互成重要布局方向

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)AI陪伴機(jī)器人是一種基于人工智能技術(shù)的智能機(jī)器人,它能夠與人類進(jìn)行交互,并提供陪伴和幫助。它們通過模擬人類的行為和思維過程,具備一定的智能和情感能力,能夠理解人類的語(yǔ)言
    的頭像 發(fā)表于 04-20 00:19 ?3373次閱讀

    谷歌推出多模態(tài)VLOGGER AI

    谷歌最新推出的VLOGGER AI技術(shù)引起了廣泛關(guān)注,這項(xiàng)創(chuàng)新的多模態(tài)模型能夠讓靜態(tài)肖像圖“活”起來并“說話”。用戶只需提供一張人物肖像照片和一段音頻內(nèi)容,VLOGGER AI就能讓圖
    的頭像 發(fā)表于 03-22 10:45 ?761次閱讀

    谷歌發(fā)布VLOGGER AI模型,實(shí)現(xiàn)肖像朗讀音頻內(nèi)容

    具體來說,VLOGGER AI 采用一種適應(yīng)虛擬肖像的多模態(tài) Diffusion 模型,通過 MENTOR 數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練,涵蓋了超80萬個(gè)人物肖像及超過2200小時(shí)的視頻數(shù)據(jù)。得益于此,VLOGGER 可以生成各種族、各年齡段
    的頭像 發(fā)表于 03-19 14:27 ?728次閱讀

    AI心靈之窗開啟,科技再掀革命

    重大升級(jí)。 這些突破,標(biāo)志著人類對(duì)大腦和AI的理解又邁出了重要一步。它們將對(duì)未來的科技發(fā)展產(chǎn)生深遠(yuǎn)的影響。 日本科學(xué)家首次從人腦活動(dòng)中生成心靈圖像 日本科學(xué)家利用AI技術(shù),首次從人腦活動(dòng)中生成
    的頭像 發(fā)表于 12-19 16:10 ?436次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>心靈</b>之窗開啟,科技再掀革命

    淺談情感語(yǔ)音識(shí)別:技術(shù)發(fā)展與未來趨勢(shì)

    一、引言 情感語(yǔ)音識(shí)別是一種新興的人工智能技術(shù),它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)人機(jī)之間的情感交互。本文將探討情感語(yǔ)音識(shí)別技術(shù)的發(fā)展歷程
    的頭像 發(fā)表于 11-30 11:06 ?677次閱讀

    情感語(yǔ)音識(shí)別:技術(shù)前沿與未來趨勢(shì)

    一、引言 情感語(yǔ)音識(shí)別是當(dāng)前人工智能領(lǐng)域的前沿技術(shù),它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)更加智能化和個(gè)性化的人機(jī)交互。本文將探討情感語(yǔ)音識(shí)別技術(shù)的最新進(jìn)展和未來趨勢(shì)。 二、
    的頭像 發(fā)表于 11-28 18:35 ?547次閱讀

    情感語(yǔ)音識(shí)別:技術(shù)發(fā)展與挑戰(zhàn)

    情感語(yǔ)音識(shí)別的早期研究主要集中在特征提取和情感詞典的構(gòu)建上。研究者們提出了許多不同的特征提取方法,如梅爾頻率倒譜系數(shù)(MFCC)、線性預(yù)測(cè)編碼(LPC)等,并嘗試使用
    的頭像 發(fā)表于 11-28 18:26 ?602次閱讀

    情感語(yǔ)音識(shí)別的現(xiàn)狀與未來趨勢(shì)

    情感語(yǔ)音識(shí)別是一種涉及多個(gè)學(xué)科領(lǐng)域的前沿技術(shù),包括心理學(xué)、語(yǔ)言學(xué)、計(jì)算機(jī)科學(xué)等。它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)更加智能化和個(gè)性化的人機(jī)交互。本文將探討情感語(yǔ)音識(shí)別的現(xiàn)狀與未來趨勢(shì)
    的頭像 發(fā)表于 11-28 17:22 ?725次閱讀

    情感語(yǔ)音識(shí)別:技術(shù)發(fā)展與未來趨勢(shì)

    一、引言 情感語(yǔ)音識(shí)別是近年來人工智能領(lǐng)域的研究熱點(diǎn),它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)更加智能化和個(gè)性化的人機(jī)交互。本文將探討情感語(yǔ)音識(shí)別技術(shù)的技術(shù)發(fā)展與未來趨勢(shì)。 二、
    的頭像 發(fā)表于 11-23 14:28 ?585次閱讀

    情感語(yǔ)音識(shí)別:現(xiàn)狀、挑戰(zhàn)與解決方案

    一、引言 情感語(yǔ)音識(shí)別是人工智能領(lǐng)域的前沿研究課題,它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)更加智能化和個(gè)性化的人機(jī)交互。然而,在實(shí)際應(yīng)用中,情感語(yǔ)音識(shí)別技術(shù)面臨著許多挑戰(zhàn)。本文將探討
    的頭像 發(fā)表于 11-23 11:30 ?778次閱讀

    情感語(yǔ)音識(shí)別:現(xiàn)狀、挑戰(zhàn)與未來趨勢(shì)

    一、引言 情感語(yǔ)音識(shí)別是近年來人工智能領(lǐng)域的研究熱點(diǎn),它通過分析人類語(yǔ)音中的情感信息,實(shí)現(xiàn)更加智能化和個(gè)性化的人機(jī)交互。然而,在實(shí)際應(yīng)用中,情感語(yǔ)音識(shí)別技術(shù)仍面臨著許多挑戰(zhàn)。本文將探討
    的頭像 發(fā)表于 11-22 11:31 ?765次閱讀

    情感語(yǔ)音識(shí)別的研究方法與實(shí)踐

    與預(yù)處理:首先需要采集包含情感變化的語(yǔ)音數(shù)據(jù)。通常采用專業(yè)的錄音設(shè)備進(jìn)行采集,并使用音頻編輯軟件進(jìn)行預(yù)處理,如噪聲消除、回聲消除等。 特征提?。簩?duì)預(yù)處理后的語(yǔ)音數(shù)據(jù)進(jìn)行特征提取,提取出與情感
    的頭像 發(fā)表于 11-16 16:26 ?801次閱讀

    情感語(yǔ)音識(shí)別技術(shù)的現(xiàn)狀與未來

    發(fā)展趨勢(shì)。 二、情感語(yǔ)音識(shí)別技術(shù)的現(xiàn)狀 語(yǔ)音信號(hào)處理技術(shù):情感語(yǔ)音識(shí)別技術(shù)需要提取和特征提取語(yǔ)音信號(hào)中的情感信息。目前,基于深度學(xué)習(xí)的語(yǔ)音信號(hào)處理技術(shù)已經(jīng)取得了顯著的進(jìn)展,如卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 11-15 16:36 ?626次閱讀