0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟下架最新大語言模型WizardLM-2,緣因“幻覺測(cè)試疏忽”

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-04-22 14:15 ? 次閱讀

Microsoft于本周正式推出并開放源代碼的新一代大規(guī)模語言模型WizardLM-2,據(jù)稱其性能已超越GPT-4及Mistral。然而,在模型上線后不久,微軟卻在未經(jīng)通知的情況下撤回了所有項(xiàng)目文檔與代碼,至今尚未恢復(fù)上線。

對(duì)此,微軟技術(shù)人員在X平臺(tái)發(fā)表聲明,表示因?qū)π履P桶l(fā)布流程不夠了解,且忽略了幻覺測(cè)試環(huán)節(jié),導(dǎo)致模型被緊急下線。目前,開發(fā)團(tuán)隊(duì)正在全力以赴進(jìn)行測(cè)試,預(yù)計(jì)完成后將盡快重新上線。

盡管模型已暫時(shí)下線,但根據(jù)微軟官方提供的模型介紹頁面信息,WizardLM-2 8x22B被譽(yù)為當(dāng)前最先進(jìn)的模型,超越了Claude 3 Opus&Sonnet以及GPT-4等競(jìng)爭(zhēng)對(duì)手,性能優(yōu)于規(guī)模比其大10倍的開源模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6516

    瀏覽量

    103603
  • 源代碼
    +關(guān)注

    關(guān)注

    96

    文章

    2942

    瀏覽量

    66444
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    TaD+RAG-緩解大模型幻覺”的組合新療法

    TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡(jiǎn)稱TaD),京東聯(lián)合清華大學(xué)針對(duì)大語言模型幻覺問題提出的一項(xiàng)技術(shù),成果收錄于IJCAI2024。 RAG:檢索增強(qiáng)生成技術(shù)
    的頭像 發(fā)表于 07-16 15:01 ?1708次閱讀
    TaD+RAG-緩解大<b class='flag-5'>模型</b>“<b class='flag-5'>幻覺</b>”的組合新療法

    阿里達(dá)摩院提出“知識(shí)鏈”框架,降低大模型幻覺

    近日,阿里巴巴達(dá)摩院(湖畔實(shí)驗(yàn)室)攜手新加坡南洋理工大學(xué)等研究機(jī)構(gòu),共同推出了大模型知識(shí)鏈(CoK)框架。該框架不僅可實(shí)時(shí)檢索異構(gòu)知識(shí)源,還能逐步糾正推理錯(cuò)誤,有效提高了大模型在回答知識(shí)型問題時(shí)的準(zhǔn)確率,并顯著降低了所謂的“幻覺
    的頭像 發(fā)表于 05-10 11:46 ?560次閱讀

    微軟開發(fā)新AI語言模型MAI-1,挑戰(zhàn)行業(yè)巨頭

    據(jù)最新消息,微軟正積極開發(fā)一款新型AI語言模型MAI-1,以提升在快速發(fā)展的AI市場(chǎng)中的競(jìng)爭(zhēng)力。
    的頭像 發(fā)表于 05-08 10:27 ?375次閱讀

    微軟準(zhǔn)備推出全新人工智能語言模型

    微軟近期傳出消息,正在秘密研發(fā)一款全新的人工智能語言模型,這款模型在規(guī)模上預(yù)計(jì)將具備與谷歌和OpenAI等業(yè)界巨頭相抗衡的實(shí)力。據(jù)悉,這款新模型
    的頭像 發(fā)表于 05-08 09:30 ?349次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    類任務(wù)上表現(xiàn)出色,甚至在零樣本條件也能取得良好效果。另一類則需要逐步推理才能完成的任務(wù),類似于人類的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語言模型在這類任務(wù)上并未出現(xiàn)質(zhì)的飛
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的評(píng)測(cè)

    計(jì)算和代碼糾錯(cuò)等。這些場(chǎng)景覆蓋日常生活和學(xué)習(xí)的多個(gè)方面,使得對(duì)話能力評(píng)測(cè)變得尤為復(fù)雜和關(guān)鍵。為了全面評(píng)估大語言模型在各種應(yīng)用場(chǎng)景的對(duì)話能力,研究人員和使用者需要一套綜合性的評(píng)測(cè)框架。該框架主要包括評(píng)測(cè)
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    向量可以隨著任務(wù)更新、調(diào)整。這類語言模型一般分為靜態(tài)詞向量語言模型(如Word2vec、GloVe)和動(dòng)態(tài)詞向量
    發(fā)表于 05-05 12:17

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個(gè)開源庫,用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大
    的頭像 發(fā)表于 04-28 10:36 ?393次閱讀

    Meta公司的Llama2語言模型4項(xiàng)測(cè)試通過率低,幻覺率高

    據(jù)了解,人工智能安全企業(yè) DeepKeep日前發(fā)表了一份評(píng)估報(bào)告。報(bào)告指出,Meta公司旗下LlamA 2大型語言模型在13個(gè)風(fēng)險(xiǎn)評(píng)估類別中的表現(xiàn)僅為4項(xiàng)合格。
    的頭像 發(fā)表于 04-18 14:45 ?371次閱讀

    利用知識(shí)圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動(dòng)的RAG系統(tǒng)(

    對(duì)于語言模型(LLM)幻覺,知識(shí)圖譜被證明優(yōu)于向量數(shù)據(jù)庫。知識(shí)圖譜提供更準(zhǔn)確、多樣化、有趣、邏輯和一致的信息,減少了LLM中出現(xiàn)幻覺的可能性。
    的頭像 發(fā)表于 02-22 14:13 ?943次閱讀
    利用知識(shí)圖譜與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動(dòng)的RAG系統(tǒng)(<b class='flag-5'>下</b>)

    微軟宣布推出一個(gè)27億參數(shù)的語言模型Phi-2

    Phi-2微軟 “小語言模型(SLM)” 系列中的最新版本。第一個(gè)版本是擁有 13 億參數(shù)的 Phi-1,針對(duì)基本的 Python 編碼任務(wù)進(jìn)行了微調(diào)。
    發(fā)表于 12-15 09:46 ?212次閱讀
    <b class='flag-5'>微軟</b>宣布推出一個(gè)27億參數(shù)的<b class='flag-5'>語言</b><b class='flag-5'>模型</b>Phi-<b class='flag-5'>2</b>

    LLM的幻覺問題最新綜述

    幻覺被描述為無意義或不忠實(shí)于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺又進(jìn)一步分為內(nèi)在幻覺和外在幻覺。在LLMs中,幻覺的范圍包含
    的頭像 發(fā)表于 11-22 17:40 ?897次閱讀
    LLM的<b class='flag-5'>幻覺</b>問題最新綜述

    幻覺降低30%!首個(gè)多模態(tài)大模型幻覺修正工作Woodpecker

    視覺幻覺是常見于多模態(tài)大語言模型 (Multimodal Large Language Models, MLLMs) 的一個(gè)典型問題,它指的是"模型輸出的描述與圖片內(nèi)容不相符"
    的頭像 發(fā)表于 10-30 11:05 ?361次閱讀
    <b class='flag-5'>幻覺</b>降低30%!首個(gè)多模態(tài)大<b class='flag-5'>模型</b><b class='flag-5'>幻覺</b>修正工作Woodpecker

    最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象

    這種“幻覺”現(xiàn)象可能是無意中產(chǎn)生的,它可以由多種因素導(dǎo)致,包括訓(xùn)練數(shù)據(jù)集中存在的偏見、模型不能獲取最新的信息,或是其在理解和生成準(zhǔn)確回應(yīng)時(shí)的固有限制。為了確保我們可以安全、有效地利用基礎(chǔ)模型,特別是在新聞、醫(yī)療和法律等需要事實(shí)準(zhǔn)
    的頭像 發(fā)表于 09-22 16:57 ?482次閱讀