0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI推出更快更便宜的大語言模型GPT-4o

冬至配餃子 ? 來源:網(wǎng)絡(luò)整理 ? 作者:網(wǎng)絡(luò)整理 ? 2024-05-15 15:12 ? 次閱讀

美國人工智能公司OpenAI于14日凌晨正式推出了一個(gè)更快、更便宜的人工智能模型來支持其聊天機(jī)器人ChatGPT。

這是其已經(jīng)問世一年多的GPT-4模型的更新版本。該模型基于來自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長處理文本和音頻,并且支持50種語言。新模式將面向所有用戶,而不僅僅是付費(fèi)用戶。

根據(jù)OpenAI發(fā)布的新聞稿,GPT-4o的“o”代表“omni”,即“全能”之意。它可以在最快232毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,幾乎接近人類在交談中的響應(yīng)時(shí)間。

據(jù)介紹,GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4 Turbo的一半,視頻、音頻功能得到改善。

此外,SamAltman總結(jié)了OpenAI在5月13日的演示。Altman稱:其一,OpenAI使命的一個(gè)關(guān)鍵部分是,免費(fèi)向人們提供所有AI工具。其二,新版語音(和視頻)模式是自己使用過的最好的人與電腦交互。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46060

    瀏覽量

    234955
  • 聊天機(jī)器人
    +關(guān)注

    關(guān)注

    0

    文章

    325

    瀏覽量

    12255
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    988

    瀏覽量

    6252
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1517

    瀏覽量

    6917
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對(duì)話新紀(jì)元

    OpenAI近日宣布了一項(xiàng)令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗(yàn)到GPT-4o的語音模式,這一創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4
    的頭像 發(fā)表于 08-01 18:24 ?1026次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型
    的頭像 發(fā)表于 07-21 10:20 ?639次閱讀
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>推出</b> <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且<b class='flag-5'>更快</b> API KEY<b class='flag-5'>更便宜</b>

    OpenAI發(fā)布高性價(jià)比小型AI模型GPT-4o mini

    在人工智能領(lǐng)域持續(xù)創(chuàng)新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,一款旨在以親民價(jià)格提供強(qiáng)大功能的小型聊天機(jī)器人。這款產(chǎn)品的問世,標(biāo)志著OpenAI在推動(dòng)人工智
    的頭像 發(fā)表于 07-19 15:27 ?514次閱讀

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報(bào)道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機(jī)器人應(yīng)用領(lǐng)域方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:24 ?487次閱讀

    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開發(fā)教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的強(qiáng)大工具,可用于自然語言處理和多模態(tài)任務(wù)。在國內(nèi)直聯(lián)使用這些服務(wù)需要一些配置和技巧。本文將詳細(xì)介紹GPT-4o
    的頭像 發(fā)表于 06-08 00:33 ?3440次閱讀
    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT4o</b> API調(diào)用開發(fā)教程!

    開發(fā)者如何調(diào)用OpenAIGPT-4o API以及價(jià)格詳情指南

    ?目前,OpenAI模型GPT-4oGPT-4 Turbo的價(jià)格如下: GPT-4o 對(duì)比 GPT-
    的頭像 發(fā)表于 05-29 16:00 ?7682次閱讀
    開發(fā)者如何調(diào)用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4o</b> API以及價(jià)格詳情指南

    GPT-4o更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    5月14日,OpenAI發(fā)布了最新的多模態(tài)大模型GPT-4o,這一次的更新,更注重使用體驗(yàn)了?,F(xiàn)場展示的互動(dòng)效果包括:更快速的響應(yīng)對(duì)話交互,視頻識(shí)別環(huán)境情況,視頻指導(dǎo)做題,感知人的情緒
    的頭像 發(fā)表于 05-22 08:04 ?497次閱讀
    <b class='flag-5'>GPT-4o</b>更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提
    的頭像 發(fā)表于 05-17 11:48 ?538次閱讀

    OpenAI正式推出GPT-4o模型,支持實(shí)時(shí)音頻、視覺和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布了詳細(xì)演示,展示了兩部搭載GPT-4o的設(shè)備如何實(shí)現(xiàn)語音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?370次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。
    的頭像 發(fā)表于 05-15 09:23 ?310次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)當(dāng)?shù)貢r(shí)間5月13日,OpenAI舉行春季發(fā)布會(huì),宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4o
    的頭像 發(fā)表于 05-15 00:15 ?7680次閱讀

    OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價(jià)格不變

     此外,該模型還具備128K的上下文記憶能力,知識(shí)截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。
    的頭像 發(fā)表于 05-14 17:12 ?737次閱讀

    OpenAI推出全新大語言模型

    今日凌晨,科技界迎來了一次激動(dòng)人心的突破。OpenAI正式發(fā)布了全新的旗艦模型GPT-4o,這一模型展現(xiàn)了跨視頻、音頻、文本進(jìn)行實(shí)時(shí)推理的驚人能力。
    的頭像 發(fā)表于 05-14 11:53 ?519次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?356次閱讀

    OpenAI推出新款人工智能模型GPT-4o

    人工智能領(lǐng)域的領(lǐng)軍者OpenAI在最近的春季更新活動(dòng)中,重磅推出了全新升級(jí)的ChatGPT版本,它支持了GPT-4o這一強(qiáng)大的人工智能模型。這款新版本在功能上實(shí)現(xiàn)了重大突破,允許用戶通
    的頭像 發(fā)表于 05-14 10:52 ?455次閱讀