0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中譯語通展示格物多語言大模型技術(shù)和工業(yè)實踐

科訊視點 ? 來源:科訊視點 ? 作者:科訊視點 ? 2023-07-27 09:44 ? 次閱讀

2023年7月18日至20日,第二屆自然語言生成與智能寫作大會(NLGIW 2023)在新疆烏魯木齊召開。中譯語通科技股份有限公司(簡稱“中譯語通”)作為大會戰(zhàn)略合作伙伴,向與會嘉賓展示了公司格物大模型技術(shù)和工業(yè)實踐。會議還匯聚了騰訊AI Lab、百度等科技企業(yè),學(xué)術(shù)界和工業(yè)界的研究學(xué)者與從業(yè)人員,分享各自研究成果和實踐經(jīng)驗,推動了大模型和自然語言生成領(lǐng)域的技術(shù)創(chuàng)新與研究成果轉(zhuǎn)化。

中譯語通作為NLGIW戰(zhàn)略合作伙伴參會展示

本屆會議組織單位為中國中文信息學(xué)會自然語言生成與智能寫作專業(yè)委員會(籌),承辦單位為新疆師范大學(xué)。大會從特邀報告、講習(xí)班、青年學(xué)者論壇等各個環(huán)節(jié)圍繞自然語言生成與大模型展開,包括大語言模型、代碼大模型、多模態(tài)大模型的基本原理、高效訓(xùn)練和推理、有監(jiān)督微調(diào)、人類反饋學(xué)習(xí)、安全與倫理、大模型應(yīng)用等各個維度開展,為參與者提供一場關(guān)于大模型的盛宴。

wKgaomTBzASASKxiAAKx1DJtPGE81.jpeg

NLGIW專委主任委員

兼中譯語通2030人工智能研究院院長

趙鐵軍教授出席開幕式并致辭

會議邀請到了中科院自動化所宗成慶研究員、華為諾亞方舟實驗室劉群教授、哈爾濱工業(yè)大學(xué)秦兵教授三位知名專家做大會特邀報告。這些報告簡要回顧了生成式語言模型“前世”的基礎(chǔ)上,對大語言模型的“今生”做了簡要分析,系統(tǒng)性地介紹了知識增強的語言模型技術(shù)和研究進展,以及從大模型的安全角度出發(fā),探索了大模型安全性內(nèi)容生成的方法,包括研究大模型辨別是非能力,以及人類普世價值觀,社會文化價值觀及立場對齊上的內(nèi)容檢測與生成方法,探索AI社會協(xié)作式的價值觀對齊機制。

wKgZomTBzASAbEk_AALCQwLl1A820.jpeg

中譯語通2030人工智能研究院副院長陳自巖進行報告發(fā)言

在企業(yè)論壇環(huán)節(jié)中,中譯語通2030人工智能研究院副院長陳自巖博士受邀進行題為《格物多語言大模型技術(shù)和工業(yè)實踐》的發(fā)言,針對當前人工智能在工業(yè)實踐中面臨的多語言間語義割裂、從數(shù)據(jù)+需求到應(yīng)用的端到端的迫切需求、社交交互生成難以達到擬人化程度等挑戰(zhàn),闡述了中譯語通基于格物大模型解決這些難題的創(chuàng)新技術(shù)和成功實踐。

格物大模型是中譯語通于2022年11月發(fā)布的大模型體系,包括了多語言預(yù)訓(xùn)練模型、多語言機器翻譯超大模型、多模態(tài)預(yù)訓(xùn)練模型等。陳自巖博士還重點介紹了公司正在研發(fā)的新一代多語言生成式對話大模型,該模型以自有的近80億句對高質(zhì)量平行語料、100多個語種的PB級數(shù)據(jù)為基礎(chǔ),融合上下文理解、個性化、思維鏈等高達2000萬規(guī)模的高質(zhì)量業(yè)務(wù)化指令,并提出領(lǐng)域?qū)<覍R和社交對抗反饋的混合強化學(xué)習(xí)技術(shù),旨在打造時效性較高、千人千面的生成式大模型。

目前公司研發(fā)的生成式大模型已在多語言知識圖譜端到端生成、社交媒體行為生成、領(lǐng)域報告寫作等應(yīng)用場景實現(xiàn)了落地應(yīng)用,同時針對全球防務(wù)安全、科研數(shù)據(jù)分析、智慧城市和全球戰(zhàn)略數(shù)據(jù)研究等領(lǐng)域進行全方位技術(shù)革新。此外,陳自巖博士與騰訊、百度等企業(yè)專家圍繞大模型在應(yīng)用落地上的難點和應(yīng)對措施進行圓桌討論。

wKgaomTBzASAb597AARKR7ajA4w44.jpeg

中譯語通2030人工智能研究院副院長

陳自巖(左四)代表公司領(lǐng)獎

會議上,中國中文信息學(xué)會自然語言生成與智能寫作專委會為中譯語通等8家企業(yè)頒發(fā)感謝獎牌,表達各企業(yè)對本屆大會的特別支持。

wKgZomTBzAWAPoWqAAO_8ODKJN8263.png

會議現(xiàn)場

wKgZomTBzAaAf4DbAAMt4O-Td0Q02.jpeg

中譯語通現(xiàn)場展示多語種自然語言處理算法成果

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28919

    瀏覽量

    266294
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46072

    瀏覽量

    235167
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2146

    瀏覽量

    1995
收藏 人收藏

    評論

    相關(guān)推薦

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    實際應(yīng)用前需解決的挑戰(zhàn)。為提升大語言模型的性能,高級的提示詞技術(shù)可以促進大語言模型與環(huán)境進行動態(tài)交互,引導(dǎo)其生成和推理規(guī)劃。 檢索增強生成
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    至關(guān)重要。 在大語言模型應(yīng)用中,翻譯類評測任務(wù)主要聚焦于兩大核心要求:高質(zhì)量翻譯和多語言適應(yīng)性。高質(zhì)量翻譯作為跨文化和跨地域信息傳播的基礎(chǔ),對全球化背景下的商業(yè)活動、科研合作和多元文化交流具有至關(guān)重要
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》2.0

    《大語言模型“原理與工程實踐”》是關(guān)于大語言模型內(nèi)在機理和應(yīng)用實踐的一次深入探索。作者不僅深入討
    發(fā)表于 05-07 10:30

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識。首先,概述自然語言的基本表示,這是理解大語言模型
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    我也不打算把網(wǎng)上相關(guān)的信息在總結(jié)一下,這樣的話,工作量很大。 我主要看了-大語言模型基礎(chǔ)技術(shù)這節(jié) 大語言模型(Large Language
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐

    處理中預(yù)訓(xùn)練架構(gòu)Transformer,以及這些技術(shù)在現(xiàn)實世界中的如何應(yīng)用。通過具體案例的分析,作者展示了大語言模型在解決實際問題中的強大能力,同時也指出了當前
    發(fā)表于 04-30 15:35

    這個多語言包 怎么搜不到

    大家好,這個多語言包怎么搜不到 seven language lib 誰有離線包不 感謝分享,
    發(fā)表于 03-24 10:06

    名單公布!【書籍評測活動NO.31】大語言模型:原理與工程實踐

    方法多被保密,難以獲得實際操作的指導(dǎo)。為了填補這一空白,我們歷經(jīng)一年的實踐和探索,決定分享我們的經(jīng)驗和成果,旨在為大語言模型的初學(xué)者和實踐者提供快速入門和應(yīng)用的途徑。 為應(yīng)對
    發(fā)表于 03-18 15:49

    語言模型(LLMs)如何處理多語言輸入問題

    研究者們提出了一個框架來描述LLMs在處理多語言輸入時的內(nèi)部處理過程,并探討了模型中是否存在特定于語言的神經(jīng)元。
    發(fā)表于 03-07 14:44 ?419次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>(LLMs)如何處理<b class='flag-5'>多語言</b>輸入問題

    語言模型中的語言與知識:一種神秘的分離現(xiàn)象

    自然語言處理領(lǐng)域存在著一個非常有趣的現(xiàn)象:在多語言模型中,不同的語言之間似乎存在著一種隱含的對齊關(guān)系。
    發(fā)表于 02-20 14:53 ?372次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>中的<b class='flag-5'>語言</b>與知識:一種神秘的分離現(xiàn)象

    多語言開發(fā)的流程詳解

    現(xiàn)在不少應(yīng)用都是要求有多語言切換的, 使用QT開發(fā)上位機也同樣需要做多語言功能, 不過QT是自帶了多語言翻譯功能, 可以很方便的借助原生工具進行, 下面就簡單來看看多語言開發(fā)的流程!
    的頭像 發(fā)表于 11-30 09:08 ?903次閱讀

    S7-1500:設(shè)置CPU語言的步驟

    對于CPU上文本的多語言管理,必須使用CPU的多語言屬性來選擇項目中所需的語言。這是例如 ProDiag消息文本使用多種語言所必需的。
    的頭像 發(fā)表于 11-16 16:13 ?749次閱讀
    S7-1500:設(shè)置CPU<b class='flag-5'>語言</b>的步驟

    如何在TSMaster面板和工具箱中實現(xiàn)多語言切換

    TSMaster軟件平臺已經(jīng)提供了多語言的支持,對于軟件內(nèi)部用戶二次開發(fā)的模塊如Panel和工具箱模塊,TSMaster也提供了多語言的支持。這一特性讓基于TSMaster開發(fā)的工程只需要制作
    的頭像 發(fā)表于 11-11 08:21 ?702次閱讀
    如何在TSMaster面板和工具箱中實現(xiàn)<b class='flag-5'>多語言</b>切換

    基于LLaMA的多語言數(shù)學(xué)推理大模型

    MathOctopus在多語言數(shù)學(xué)推理任務(wù)中,表現(xiàn)出了強大的性能。MathOctopus-7B 可以將LLmMA2-7B在MGSM不同語言上的平均表現(xiàn)從22.6%提升到40.0%。更進一步,MathOctopus-13B也獲得了比ChatGPT更好的性能。
    發(fā)表于 11-08 10:37 ?380次閱讀
    基于LLaMA的<b class='flag-5'>多語言</b>數(shù)學(xué)推理大<b class='flag-5'>模型</b>