0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蘋(píng)果發(fā)布300億參數(shù)MM1多模態(tài)大模型

CHANBAEK ? 來(lái)源:網(wǎng)絡(luò)整理 ? 2024-03-19 11:19 ? 次閱讀

近日,科技巨頭蘋(píng)果公司在一篇由多位專(zhuān)家共同撰寫(xiě)的論文中,正式公布了其最新的多模態(tài)大模型研究成果——MM1。這款具有高達(dá)300億參數(shù)的多模態(tài)模型系列,由密集模型和混合專(zhuān)家(MoE)變體組成,標(biāo)志著蘋(píng)果在人工智能領(lǐng)域的又一重大突破。

MM1多模態(tài)大模型不僅具備強(qiáng)大的圖像識(shí)別能力,還擁有出色的自然語(yǔ)言推理能力,使其能夠處理多種模態(tài)的數(shù)據(jù),從而為用戶(hù)提供更加全面、精準(zhǔn)的信息服務(wù)。這一特性使得MM1在人工智能領(lǐng)域具有廣泛的應(yīng)用前景,有望引領(lǐng)新一輪的技術(shù)革新。

盡管目前MM1的整體性能尚未完全超越谷歌的Gemini和OpenAI的GPT-4等業(yè)界領(lǐng)先的模型,但其在某些特定任務(wù)上已展現(xiàn)出不俗的表現(xiàn)。值得注意的是,MM1作為蘋(píng)果在AI領(lǐng)域的一次重大飛躍,已經(jīng)吸引了業(yè)界的廣泛關(guān)注。

此次MM1的發(fā)布,不僅展示了蘋(píng)果在人工智能領(lǐng)域的深厚實(shí)力,也體現(xiàn)了其持續(xù)推動(dòng)技術(shù)創(chuàng)新的決心。未來(lái),隨著蘋(píng)果在AI領(lǐng)域的不斷投入和研發(fā),我們有理由相信,MM1等更多優(yōu)秀的模型將不斷涌現(xiàn),為人工智能技術(shù)的發(fā)展注入新的活力。

總之,蘋(píng)果的MM1多模態(tài)大模型是其在人工智能領(lǐng)域的一次重要突破,有望為未來(lái)的技術(shù)創(chuàng)新和應(yīng)用發(fā)展帶來(lái)深遠(yuǎn)的影響。我們期待看到蘋(píng)果在AI領(lǐng)域的更多精彩表現(xiàn),共同推動(dòng)人工智能技術(shù)的繁榮與發(fā)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 蘋(píng)果
    +關(guān)注

    關(guān)注

    61

    文章

    24166

    瀏覽量

    194151
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46060

    瀏覽量

    234951
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48346
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    依圖模態(tài)模型伙伴CTO精研班圓滿(mǎn)舉辦

    模型在不同行業(yè)領(lǐng)域的應(yīng)用前景;7月19日, “依圖科技模態(tài)模型伙伴CTO精研班”在杭州圓滿(mǎn)舉辦,讓更多的伙伴們深度體驗(yàn)了依圖
    的頭像 發(fā)表于 07-23 15:16 ?294次閱讀

    商湯科技與海通證券攜手發(fā)布金融行業(yè)首個(gè)模態(tài)全棧式大模型

    商湯科技與海通證券聯(lián)合研發(fā)并發(fā)布了金融行業(yè)內(nèi)首個(gè)面向業(yè)務(wù)場(chǎng)景的模態(tài)全棧式大模型。雙方計(jì)劃將這一先進(jìn)技術(shù)應(yīng)用于智能問(wèn)答、合規(guī)風(fēng)控、代碼輔助
    的頭像 發(fā)表于 05-06 10:16 ?360次閱讀

    人大系初創(chuàng)公司智子引擎發(fā)布全新模態(tài)模型Awaker 1.0

    人大系初創(chuàng)公司智子引擎近日震撼發(fā)布了新一代模態(tài)模型Awaker 1.0,這一里程碑式的成果標(biāo)志著公司在通用人工智能(AGI)領(lǐng)域取得了重要突破。與前代ChatImg序列
    的頭像 發(fā)表于 05-06 09:59 ?467次閱讀

    商湯科技聯(lián)合海通證券發(fā)布業(yè)內(nèi)首個(gè)面向金融行業(yè)的模態(tài)全棧式大模型

    4月23日,商湯科技正式推出“日日新SenseNova 5.0”大模型體系,并與海通證券聯(lián)合發(fā)布業(yè)內(nèi)首個(gè)面向金融行業(yè)的模態(tài)全棧式大模型。
    的頭像 發(fā)表于 04-26 09:48 ?336次閱讀
    商湯科技聯(lián)合海通證券<b class='flag-5'>發(fā)布</b>業(yè)內(nèi)首個(gè)面向金融行業(yè)的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>全棧式大<b class='flag-5'>模型</b>

    商湯科技發(fā)布5.0模態(tài)模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo

    商湯科技發(fā)布5.0模態(tài)模型,綜合能力全面對(duì)標(biāo)GPT-4 Turbo 4月23日,商湯科技董事長(zhǎng)兼CEO徐立在2024商湯技術(shù)交流日上發(fā)布
    的頭像 發(fā)表于 04-24 16:49 ?968次閱讀

    李未可科技正式推出WAKE-AI模態(tài)AI大模型

    李未可科技模態(tài) AI 大模型正式發(fā)布,積極推進(jìn) AI 在終端的場(chǎng)景應(yīng)用 ? 4月18日,2024中國(guó)生成式AI大會(huì)上李未可科技正式發(fā)布為眼
    發(fā)表于 04-18 17:01 ?488次閱讀
    李未可科技正式推出WAKE-AI<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>

    螞蟻集團(tuán)推出20參數(shù)模態(tài)遙感基礎(chǔ)模型SkySense

    近日,螞蟻集團(tuán)聯(lián)合武漢大學(xué)宣布成功研發(fā)出20參數(shù)模態(tài)遙感基礎(chǔ)模型SkySense。這一創(chuàng)新模型
    的頭像 發(fā)表于 03-04 11:22 ?634次閱讀

    螞蟻推出20參數(shù)模態(tài)遙感模型SkySense

    據(jù)了解,負(fù)責(zé)開(kāi)發(fā)的百靈團(tuán)隊(duì)利用自身?yè)碛械?9遙感影像數(shù)據(jù)集進(jìn)行了預(yù)訓(xùn)練,從而生成了具有20.6參數(shù)的SkySense大模型。官方稱(chēng)其為全球范圍內(nèi)
    的頭像 發(fā)表于 02-28 15:53 ?500次閱讀

    機(jī)器人基于開(kāi)源的模態(tài)語(yǔ)言視覺(jué)大模型

    ByteDance Research 基于開(kāi)源的模態(tài)語(yǔ)言視覺(jué)大模型 OpenFlamingo 開(kāi)發(fā)了開(kāi)源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
    發(fā)表于 01-19 11:43 ?287次閱讀
    機(jī)器人基于開(kāi)源的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>語(yǔ)言視覺(jué)大<b class='flag-5'>模型</b>

    什么是模態(tài)模態(tài)的難題是什么?

    模態(tài)模型,通常大于100M~1B參數(shù)。具有較強(qiáng)的通用性,比如對(duì)圖片中任意物體進(jìn)行分割,或者生成任意內(nèi)容的圖片或聲音。極大降低了場(chǎng)景的定制成本。
    的頭像 發(fā)表于 01-17 10:03 ?3733次閱讀
    什么是<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>?<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的難題是什么?

    從Google模態(tài)模型看后續(xù)大模型應(yīng)該具備哪些能力

    前段時(shí)間Google推出Gemini模態(tài)模型,展示了不凡的對(duì)話(huà)能力和模態(tài)能力,其表現(xiàn)究竟如何呢?
    的頭像 發(fā)表于 12-28 11:19 ?1011次閱讀
    從Google<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>看后續(xù)大<b class='flag-5'>模型</b>應(yīng)該具備哪些能力

    模型+模態(tài)的3種實(shí)現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢(shì)是不支持其他模態(tài)(包括圖像、語(yǔ)音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)訓(xùn)練LLM的基礎(chǔ)上引入跨模態(tài)的信息,讓其變得更強(qiáng)大、更通用呢?本節(jié)將介紹“大
    的頭像 發(fā)表于 12-13 13:55 ?1351次閱讀
    大<b class='flag-5'>模型</b>+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的3種實(shí)現(xiàn)方法

    千億參數(shù)模態(tài)模型,“紫東太初”規(guī)模化應(yīng)用加速

    、文本、圖像等單模態(tài)模型研究和應(yīng)用的基礎(chǔ)上,向模態(tài)模型攻關(guān),并于2021年7月正式發(fā)布了全
    的頭像 發(fā)表于 12-08 00:09 ?1825次閱讀

    探究編輯模態(tài)大語(yǔ)言模型的可行性

    不同于單模態(tài)模型編輯,模態(tài)模型編輯需要考慮更多的模態(tài)信息。文章出發(fā)點(diǎn)依然從單
    發(fā)表于 11-09 14:53 ?399次閱讀
    探究編輯<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言<b class='flag-5'>模型</b>的可行性

    北大&amp;華為提出:模態(tài)基礎(chǔ)大模型的高效微調(diào)

    深度學(xué)習(xí)的大模型時(shí)代已經(jīng)來(lái)臨,越來(lái)越多的大規(guī)模預(yù)訓(xùn)練模型在文本、視覺(jué)和模態(tài)領(lǐng)域展示出杰出的生成和推理能力。然而大模型巨大的
    的頭像 發(fā)表于 11-08 16:20 ?557次閱讀
    北大&amp;華為提出:<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>基礎(chǔ)大<b class='flag-5'>模型</b>的高效微調(diào)