0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google最強(qiáng)模型BERT出爐

電子工程師 ? 來源:未知 ? 作者:工程師李察 ? 2018-10-27 10:37 ? 次閱讀

經(jīng)過近幾年的發(fā)展,深度學(xué)習(xí)給自然語言處理帶來了很多新的變化,包括 Word2Vec、ELMO、OpenAI GPT、Glove、Fasttext 等主流模型也在這一端時間內(nèi)涌現(xiàn)。直到最近 Google 發(fā)布的論文“ Pre-training of Deep Bidirectional Transformers for Language Understanding ”中提到的 BERT 模型又刷新了自然語言處理的 11 項(xiàng)記錄。

在不少人看來,BERT 對自然語言處理的研究具有里程碑式的意義,至少在復(fù)旦大學(xué)計算機(jī)科學(xué)技術(shù)學(xué)院副教授邱錫鵬看來:“證明了一個非常深的模型可以顯著提高 NLP 任務(wù)的準(zhǔn)確率,而這個模型可以從無標(biāo)記數(shù)據(jù)集中預(yù)訓(xùn)練得到?!?/p>

也正是因?yàn)槿绱?,深度學(xué)習(xí)的不可解釋性,在面對某個具體任務(wù)時進(jìn)行遷移學(xué)習(xí)是十分困難的,相對而言,基于知識圖譜的自然語言理解則是可解釋性的,更加類似于人類思考過程的技術(shù)。BERT 的出現(xiàn)或?qū)μ岣咧R圖譜質(zhì)量,并進(jìn)一步提高自然語言處理的質(zhì)量將非常有幫助。

于是,在以移動互聯(lián)網(wǎng)為基礎(chǔ)高速發(fā)展的背景之下,人們獲取信息并進(jìn)行傳播的渠道越來越豐富、數(shù)據(jù)量也越來越巨大,如何更好地進(jìn)行人機(jī)語言交互,讓機(jī)器既能聽懂又能學(xué)會遷移?如智能客服、對話機(jī)器人已作為主要落地方式被應(yīng)用于電商、游戲、金融等場景。

今年7月,思必馳北京研發(fā)院首先提出了啟發(fā)式對話系統(tǒng)的框架,通過話題路徑規(guī)劃和知識點(diǎn)推薦模型,實(shí)現(xiàn)信息傳播和目標(biāo)引導(dǎo),可以幫助企業(yè)快速構(gòu)建信息服務(wù)對話機(jī)器人,并能大幅提升關(guān)鍵信息的用戶觸達(dá)能力。

此外,自然語言處理還在搜索、推薦、翻譯等文本類場景上有著更為廣泛的落地,放在目前來看,如國外的 Facebook、微軟必應(yīng)等,國內(nèi)的阿里、今日頭條等不少門戶類公司都有自己相對完備的搜索、推薦系統(tǒng)。

現(xiàn)在,CSDN 就為大家提供了這樣一個機(jī)會,讓你能夠聆聽以上公司在自然語言處理方面的最新技術(shù)實(shí)踐,并有機(jī)會與它們的資深技術(shù)人員面對面交流。

2018 年 11 月 8-9 日,由中國 IT 社區(qū) CSDN 與硅谷 AI 社區(qū) AICamp 聯(lián)合出品的 2018 AI 開發(fā)者大會(AI NEXTCon)將于北京召開。

本次大會設(shè)有“自然語言處理技術(shù)專場”,我們很榮幸邀請到在研究和工業(yè)界都極富盛名的一線技術(shù)專家們:思必馳北京研發(fā)院院長、公司副總裁 初敏、Facebook語音識別科學(xué)家 Baiyang Liu、字節(jié)跳動高級技術(shù)總監(jiān)和杰出科學(xué)家 Xiaobing Liu、阿里巴巴智能服務(wù)事業(yè)部北京團(tuán)隊(duì)負(fù)責(zé)人 孫健、微軟(亞洲)互聯(lián)網(wǎng)工程院資深應(yīng)用科學(xué)研發(fā)總監(jiān)陳一寧。

下面重磅介紹自然語言處理技術(shù)專題的講師團(tuán)和他們的議題概要:

初敏:思必馳北京研發(fā)院院長、公司副總裁

演講主題:啟發(fā)式對話助力企業(yè)服務(wù)智能化

初敏博士畢業(yè)于中科院聲學(xué)所,主要研究方向覆蓋語音識別與合成、自然語言處理、機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘、大數(shù)據(jù)處理和計算等,在相關(guān)領(lǐng)域發(fā)表了近百篇學(xué)術(shù)論文并取得30多項(xiàng)國內(nèi)外專利。

2000年,初敏博士加入微軟亞洲研究院,從事科學(xué)研究近10年,創(chuàng)建并領(lǐng)導(dǎo)語音合成研究小組,研制出了第一個中英文雙語語音合成系統(tǒng)“木蘭”;2009年入職阿里云,承擔(dān)過各種大數(shù)據(jù)應(yīng)用項(xiàng)目。從2014開始,組建阿里iDST智能語音交互團(tuán)隊(duì),在短短兩年時間,完成語音交互全鏈路技術(shù)的研發(fā)和應(yīng)用落地,他們的技術(shù)在淘寶客服、支付寶客服、Yun OS、手機(jī)支付寶、手機(jī)淘寶、釘釘?shù)?a target="_blank">產(chǎn)品廣泛應(yīng)用;2017年加入思必馳,擔(dān)任思必馳公司副總裁,組建思必馳北京研發(fā)院并擔(dān)任院長,負(fù)責(zé)語音合成、自然語言處理等核心技術(shù)的研發(fā),以及智能語音交互技術(shù)在企業(yè)服務(wù)智能化等新場景的產(chǎn)品研發(fā)和業(yè)務(wù)拓展。

Baiyang Liu:Facebook語音識別科學(xué)家

演講議題:自然語言理解在Facebook的應(yīng)用與實(shí)踐

Baiyang Liu是Facebook語音識別研究科學(xué)家。自2015年初以來,他一直致力于建立眾多支持Facebook AI產(chǎn)品的話語理解和對話系統(tǒng)。在此之前,Baiyang是亞馬遜語音識別系統(tǒng)的早期機(jī)器學(xué)習(xí)工程師之一。他獲得計算機(jī)科學(xué)博士學(xué)位,主攻計算機(jī)視覺領(lǐng)域。

Xiaobing Liu:字節(jié)跳動高級技術(shù)總監(jiān)和杰出科學(xué)家

演講議題:大規(guī)模深度學(xué)習(xí)和序列模型的研究及應(yīng)用

Xiaobing Liu,自2014年起擔(dān)任Google Brain Staff軟件工程師和機(jī)器學(xué)習(xí)研究員。工作中,他專注于TensorFlow以及一些可以應(yīng)用深度學(xué)習(xí)來改進(jìn)Google產(chǎn)品的關(guān)鍵應(yīng)用,如Google Ads、Google Play推薦、Google翻譯、醫(yī)學(xué)大腦等。他的研究興趣從系統(tǒng)到應(yīng)用機(jī)器學(xué)習(xí)如ASR、機(jī)器翻譯、醫(yī)學(xué)HER建模、推薦建模。他的研究成果已成功應(yīng)用于雅虎、騰訊、Google的各類商業(yè)產(chǎn)品。他曾擔(dān)任2017年ACL計劃委員會和2017年AAAI會議主席,負(fù)責(zé)包括一些頂級會議的部分出版物。

孫 健:阿里巴巴智能服務(wù)事業(yè)部北京團(tuán)隊(duì)負(fù)責(zé)人

演講議題:關(guān)于人機(jī)對話交互的反思、實(shí)踐和未來展望

孫健,阿里巴巴智能服務(wù)事業(yè)部北京團(tuán)隊(duì)負(fù)責(zé)人。他主導(dǎo)的自然語言處理基礎(chǔ)平臺有力支撐和服務(wù)了淘寶搜索、阿里媽媽廣告等核心業(yè)務(wù),主導(dǎo)了阿里巴巴自然交互平臺(Natural User Interface, NUI)的設(shè)計開發(fā),NUI平臺廣泛應(yīng)用于天貓魔盒、互聯(lián)網(wǎng)汽車等各種設(shè)備中。目前他正帶領(lǐng)團(tuán)隊(duì)打造面向全行業(yè)的企業(yè)智能服務(wù)對話機(jī)器人(云小蜜),從而讓每一家企業(yè)/組織能夠及時響應(yīng)用戶的需求,與用戶進(jìn)行7*24的自然交互。

陳一寧:微軟(亞洲)互聯(lián)網(wǎng)工程院資深應(yīng)用科學(xué)研發(fā)總監(jiān)

演講議題:搜索中的自然語言先驗(yàn)知識

陳一寧是清華大學(xué)博士,主要研發(fā)方向涵蓋語音識別與合成、自然語言處理、人工智能、大數(shù)據(jù)等方向,并在相關(guān)領(lǐng)域發(fā)表多篇論文并取得多項(xiàng)專利。2004年,陳一寧博士加入微軟亞洲研究院,從事語音合成方面的研究。2009年加入阿里巴巴,負(fù)責(zé)多項(xiàng)算法工作,是神馬搜索的共同創(chuàng)始人,并曾負(fù)責(zé)iDST智能語音方向的商業(yè)化。2017年加入微軟互聯(lián)網(wǎng)工程院,從事自然語言處理相關(guān)的研發(fā)工作。

除了語音技術(shù)專題之外,我們還為大家準(zhǔn)備了“語音技術(shù)”、“機(jī)器學(xué)習(xí)工具”、“數(shù)據(jù)分析”、“機(jī)器學(xué)習(xí)”、“計算機(jī)視覺”、“知識圖譜”等技術(shù)專題,以及“智慧金融”、“智能駕駛”、“智慧醫(yī)療”等行業(yè)峰會。大會完整日程以及嘉賓議題請查看下方海報。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1754

    瀏覽量

    57380
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29815

    瀏覽量

    268110
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120891
收藏 人收藏

    評論

    相關(guān)推薦

    Google Gemma 2模型的部署和Fine-Tune演示

    Google 近期發(fā)布了最新開放模型 Gemma 2,目前與同等規(guī)模的開放模型相比,取得了明顯的優(yōu)勢,同時在安全可控性上得到了顯著的增強(qiáng)。
    的頭像 發(fā)表于 08-09 17:04 ?423次閱讀
    <b class='flag-5'>Google</b> Gemma 2<b class='flag-5'>模型</b>的部署和Fine-Tune演示

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強(qiáng)大、用途最廣泛的模型。這些模型
    的頭像 發(fā)表于 08-02 15:42 ?337次閱讀

    ai大模型和傳統(tǒng)ai的區(qū)別在哪?

    AI大模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以獲得更好的性能。相比之下,傳統(tǒng)AI模型往往使用較小的數(shù)據(jù)集進(jìn)行訓(xùn)練。例如,Goog
    的頭像 發(fā)表于 07-16 10:06 ?1085次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是一種基于自注意力機(jī)制的模型,廣泛應(yīng)用于NLP領(lǐng)域?;赥ransformer的LLM模型包括: a. BERT(Bidir
    的頭像 發(fā)表于 07-09 09:59 ?518次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer
    的頭像 發(fā)表于 07-02 11:41 ?1411次閱讀

    Google Calendar、Tasks和Keep應(yīng)用將整合Gemini模型

    在今日舉行的I/O 2024開發(fā)者大會上,谷歌公司帶來了一項(xiàng)令人興奮的新功能:在Google Calendar、Tasks和Keep應(yīng)用中整合了Gemini模型,為用戶帶來前所未有的AI體驗(yàn)。這一創(chuàng)新舉措將極大地豐富用戶在日程管理、任務(wù)追蹤和筆記記錄方面的功能。
    的頭像 發(fā)表于 05-15 11:24 ?552次閱讀

    谷歌Google Calendar、Tasks與Keep應(yīng)用中成功整合Gemini模型

    谷歌于今日發(fā)布的I/O 2024開發(fā)者大會新聞中展現(xiàn)了其在Google Calendar, Tasks以及Keep應(yīng)用中整合Gemini模型的最新進(jìn)展,為用戶呈現(xiàn)出更為智能化的使用體驗(yàn)。
    的頭像 發(fā)表于 05-15 11:10 ?310次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    模型架構(gòu)奠定基礎(chǔ)。然后,引介一些經(jīng)典的預(yù)訓(xùn)練模型,如BERT、GPT等。最后,解讀ChatGPT和LLaMA系列模型,幫助讀者初步感知大語言模型
    發(fā)表于 05-05 12:17

    海信發(fā)布電視行業(yè)最強(qiáng)中文大模型,開啟電視AI新時代

    3月15日,“海信視像 AI美好生活”全場景顯示新品發(fā)布會上,海信正式發(fā)布了自研星海大模型,這也是目前電視行業(yè)最強(qiáng)中文大模型。
    的頭像 發(fā)表于 03-18 14:24 ?338次閱讀

    全球最強(qiáng)模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內(nèi)的所有大型
    的頭像 發(fā)表于 03-05 09:58 ?606次閱讀

    谷歌發(fā)布最先進(jìn)的開放模型Gemma

    Google,我們致力于讓 AI 助力每個人。長期以來,我們對開放社區(qū)的創(chuàng)新貢獻(xiàn)了許多成果,如 Transformers、TensorFlow、BERT、T5、JAX、AlphaFold
    的頭像 發(fā)表于 02-23 10:12 ?558次閱讀
    谷歌發(fā)布最先進(jìn)的開放<b class='flag-5'>模型</b>Gemma

    谷歌發(fā)布全球最強(qiáng)開源大模型Gemma

    谷歌近日宣布,其全新開源大模型Gemma正式亮相。Gemma被譽(yù)為全球性能最強(qiáng)大、同時也是最輕量級的模型系列,分為2B(20億參數(shù))和7B(70億)兩種尺寸版本。令人矚目的是,即便是2B版本,也能夠在筆記本電腦上流暢運(yùn)行。
    的頭像 發(fā)表于 02-22 14:51 ?740次閱讀

    Google多模態(tài)大模型看后續(xù)大模型應(yīng)該具備哪些能力

    前段時間Google推出Gemini多模態(tài)大模型,展示了不凡的對話能力和多模態(tài)能力,其表現(xiàn)究竟如何呢?
    的頭像 發(fā)表于 12-28 11:19 ?1167次閱讀
    從<b class='flag-5'>Google</b>多模態(tài)大<b class='flag-5'>模型</b>看后續(xù)大<b class='flag-5'>模型</b>應(yīng)該具備哪些能力

    大語言模型背后的Transformer,與CNN和RNN有何不同

    Google)研究團(tuán)隊(duì)提出,主要用于處理自然語言。 2018年10月,Google發(fā)出一篇論文《BERT: Pre-training of Deep Bidirectional Transformers
    的頭像 發(fā)表于 12-25 08:36 ?3651次閱讀
    大語言<b class='flag-5'>模型</b>背后的Transformer,與CNN和RNN有何不同

    500篇論文!最全代碼大模型綜述

    經(jīng)典 Transformer 使用不可學(xué)習(xí)的余弦編碼,加在模型底層的詞向量輸入上。GPT、BERT將其改為可學(xué)習(xí)的絕對位置編碼,并沿用到了RoBERTa、BART、GPT-2、GPT-3等經(jīng)典模型
    的頭像 發(fā)表于 11-17 17:31 ?1233次閱讀