0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

河套IT TALK——TALK42:(原創(chuàng))視頻制作的人工智能時代要到來了,你準備好了嗎?

共熵服務中心 ? 來源:未知 ? 2023-02-14 11:30 ? 次閱讀

3c1c185a-ac17-11ed-bfe3-dac502259ad0.png

關聯(lián)回顧

原創(chuàng))全圖說圖像處理的發(fā)展歷史(下)

(原創(chuàng))全圖說ChatGPT的前世今生

(原創(chuàng))全圖說動畫技術的發(fā)展歷史(下)

一幅獲獎的畫在藝術界炸了鍋

近幾個月,關于圖像生成(Text To Image)的人工智能藝術創(chuàng)作,成為科技媒體的熱點話題。從DALL-E,到Stable Diffusion,再到Midjourney,我們能明顯看到深度學習在圖像生成方面肉眼可見的巨大進步。這些人工智能藝術創(chuàng)作工具在藝術界更是引發(fā)了不少插畫設計師和藝術家的職業(yè)焦慮。特別是去年9月份,當杰森·艾倫 (Jason Allen) 將他的“空間歌劇院”提交給科羅拉多州博覽會的美術比賽時,這幅華麗的印刷品立即大受歡迎,作品中多個人物的肖像,飄逸的長袍,凝視著明亮的遠方,復古風和星際風混搭的如此完美,且精細,立即征服了評委。在“數(shù)字處理攝影”類別中擊敗了其他 20 位藝術家,贏得了第一名藍色絲帶和 300 美元的獎金。

然后,艾倫告訴大家,這件藝術品是由人工智能工具Midjourney 創(chuàng)作的。這無疑在藝術界炸開了鍋。很多藝術家開始譴責艾倫用欺騙的手段獲得了獎項。甚至上綱上線,認為Midjourney這類Text to Image的生成工具,將徹底破壞人們的創(chuàng)造性,模糊藝術的邊界,甚至扼殺人類的藝術本身。

但吵歸吵,事情已經(jīng)發(fā)生,而且還有愈演愈烈的趨勢。最近,幾個文本到視頻(Text to Video)的工具悄然興起,讓生成對抗網(wǎng)絡( GAN ) 和擴散模型的機器學習技術突破了圖片生成的邊界,延展到了視頻生成領域。今天我們會介紹三款近期剛剛萌芽的文本到視頻的生成工具。這些工具或許當下看起來都還非常青澀,但也足夠驚艷。根據(jù)文本到圖像的發(fā)展速度,相信今年,最遲明年,這種技術就會成熟到爐火純青的程度,不信等著瞧:)

Gen-1

這個工具有五種使用模式:

風格化(Stylization):將任何圖像或提示的風格轉移到視頻的每一幀。

故事板(Storyboard):將模型變成完全風格化和動畫的渲染。

遮罩(Mask):隔離視頻中的主題并使用簡單的文本提示對其進行修改。

渲染(Render):通過應用輸入圖像或提示,將無紋理渲染變成逼真的輸出。

定制(Customization):通過自定義模型以獲得更高保真度的結果,釋放 Gen-1 的全部功能。

3cb53bd4-ac17-11ed-bfe3-dac502259ad0.png

Runway到底是何方神圣?在Runway的主頁上,我們看到他們的slogan是:“Everything you need to make anything you want.”(這里有你制作任何東西所需的一切)?!癕ake the impossible & Move Creativity Forward” (創(chuàng)造可能,推進創(chuàng)意)。他們的網(wǎng)站上,你能找到幾十種AI多媒體(圖像、聲音、視頻動畫)處理的小工具。Gen-1只是其諸多工具中的一個。

如果大家熟悉Stable Diffusion的話,就會明白,Stable Diffusion是由多家聯(lián)合發(fā)布的。Runway就是其中之一。

Stable Diffusion是一種潛在的擴散模型(LDM),深度生成神經(jīng)網(wǎng)絡,代碼和模型權重已經(jīng)開源,對外發(fā)布。Stable Diffusion 由 3 部分組成:變分自動編碼器(VAE)、U-Net和可選的文本編碼器。Stable Diffusion數(shù)據(jù)訓練采用的是Common Crawl數(shù)據(jù),其中包括 50 億個圖像-文本對。

3cdb9d56-ac17-11ed-bfe3-dac502259ad0.png

這次Runway發(fā)布的Gen-1,用到的還是Stable Diffusion的能力。

Runway是在2018年,由幾位在紐約大學Tisch藝術學院交互式電信項目(ITP)的研究員:克里斯托弗·巴倫蘇埃拉(Cristóbal Valenzuela)、亞歷杭德羅·馬塔馬拉(Alejandro Matamala )和阿納斯塔西斯·澤瑪尼迪斯(Anastasis Germanidis)成立的創(chuàng)業(yè)公司。

他們幾位癡迷于藝術與技術交集給藝術創(chuàng)作帶來的幫助。幾位年輕人堅信:利用計算機圖形學和機器學習的最新進展來突破創(chuàng)造力的極限,進而降低內容創(chuàng)作的障礙,必然會開啟新一波講故事的浪潮。

Google Dreamix

就人工智能的龍頭老大而言,我們不得不佩服Google。近期,Google也發(fā)布了一款Text to Video通用視頻編譯器Google Dreamix。這款工具提供三種工具模式:

  1. 對已有視頻的編輯:提供一個輸入視頻,再給出一段文字描述,并根據(jù)這段文字描述對圖像進行修訂。
  2. 提供一張圖片,再對這張圖片提供一段描述,然后生成一段視頻來來讓這個圖片動起來。

  3. 提供一系列圖片,然后再提供一段描述,根據(jù)輸入圖片的素材,產生一個視頻動畫符合描述的含義。

從技術上來說,對于視頻編輯,Dreamix 將源圖像加噪并將它們傳遞給視頻擴散模型,然后該模型根據(jù)文本提示從噪聲源圖像生成新圖像并將它們組合成視頻。因此,源圖像提供了一種草圖,可以捕捉例如動物的形狀或其運動,同時留出足夠的變化空間。

3cebc21c-ac17-11ed-bfe3-dac502259ad0.png

3d18b7c2-ac17-11ed-bfe3-dac502259ad0.png

Google在人工智能貢獻遠遠不是Dreamix這么簡單。這個世紀以來至少有幾件事兒,Google是功不可沒的:

  1. 2011年,谷歌人工智能研究部門Google AI和斯坦福大學教授吳恩達合作,成立了一個深度學習的團隊,取名非常大膽,叫:谷歌大腦(Google Brain),杰夫·迪恩(Jeff" Dean)是負責人。目的是將開放式機器學習研究與信息系統(tǒng)和大規(guī)模計算資源相結合。2015年,谷歌大腦搞出來一個TensorFlow。這是一個在Apache License 2.0下開源的用于機器學習和人工智能的免費開源軟件庫。采用于深度神經(jīng)網(wǎng)絡的訓練和推理。后續(xù)很多機器學習的初創(chuàng)公司都受益于TensorFlow。

  2. 針對TensorFlow,Google開發(fā)了新的硬件Tensor Processing Unit(TPU),這是一種專門為神經(jīng)網(wǎng)絡機器學習開發(fā)的AI加速器專用集成電路ASIC)。谷歌于 2015 年開始在內部使用 TPU,并于 2018 年將其提供給第三方使用,既作為其云基礎設施的一部分,也通過出售較小版本的芯片。TPU對待深度卷積神經(jīng)網(wǎng)絡的運算效率要高于GPU。當然我們要承認,由于TPU僅僅是為了TensorFlow的優(yōu)化,目前主流的人工智能圖像生成領域,硬件還是以GPU為主。2007年,隨著 Nvidia GeForce 8 系列的推出,以及隨后新的通用流處理單元,GPU 成為一種更通用的計算設備。GPU 上的通用計算開始真正進入機器學習領域,讓標準神經(jīng)網(wǎng)絡在GPU實施比CPU上的等效實施快 20 倍。正是因為這種邊際成本的變化,才激發(fā)了很多初創(chuàng)公司開始投身于人工智能的領域。

  3. Google工程師 亞歷山大·莫德文采夫(Alexander Mordvintsev )為2014年ImageNet大規(guī)模視覺識別挑戰(zhàn)賽(ILSVRC)開發(fā)了一個深度卷積計算機視覺程序DeepDream。這名字來源于電影《盜夢空間》。DeepDream使用卷積神經(jīng)網(wǎng)絡通過算法錯視來查找和增強圖像中的模式,從而在故意過度處理的圖像中創(chuàng)造出一種夢幻般的外觀,讓人聯(lián)想到迷幻體驗。2015年7月,程序發(fā)布后,被行業(yè)熱捧,也激發(fā)了很多藝術界的人士,意識到用機器學習充實藝術創(chuàng)作的巨大潛能。

  4. 2017年,Google Brain團隊又搞出來一個深度學習模型Transformer,采用自注意力機制,對輸入數(shù)據(jù)的每一部分的重要性進行差異加權。這個模型直接刺激了預訓練系統(tǒng)的發(fā)展。Transformer在自然語言處理和圖像處理都表現(xiàn)了非凡的優(yōu)勢。后來的OpenAI的GPT,就是基于Transformer的應用。

當然,除了Google之外,另外一家行業(yè)大佬Meta也沒有閑著。盡管操作了很久的元宇宙并未達到預期效果,Meta還是在圖像生成領域做了大膽的嘗試。

Make-a-Video

Meta AI是Meta平臺公司(原Facebook)的人工智能實驗室(FAIR)。最近Meta AI搞了一個工具,叫Make-a-Video。是一款通過深度學習的方式實現(xiàn)從文本到視頻。Make-a-Video支持三種用法:

1. 單純的Text to Video,人們可以使用盡可能詳盡的語言來描繪視頻的內容,以及選定對應視頻的風格(現(xiàn)實、超現(xiàn)實主義、風格化),然后來生成對應的視頻,比如:

泰迪熊在畫自畫像

3d319026-ac17-11ed-bfe3-dac502259ad0.gif

2. 從靜到動(From Static to Magic)

比如一艘大海航行船的圖像:

3dee03dc-ac17-11ed-bfe3-dac502259ad0.png

可以通過Make-a-Video生成一個動圖:

3e24a824-ac17-11ed-bfe3-dac502259ad0.gif

3. 為視頻添加額外的創(chuàng)意

可以根據(jù)原始視頻創(chuàng)建視頻的變體,比如下面這個多色的毛茸跳舞者

3e75be62-ac17-11ed-bfe3-dac502259ad0.gif

通過Make-a-Video可以生成多個變體:?

44f96108-ac17-11ed-bfe3-dac502259ad0.gif

4612d088-ac17-11ed-bfe3-dac502259ad0.gif

?從技術上來看,Meta這個工具首先可以分解完整的時間U-Net和注意力張量,并在空間和時間上進行近似。其次,設計了一個通過差值模型來實現(xiàn)時空管道來生成高分辨率和幀率的視頻。

46dfbed6-ac17-11ed-bfe3-dac502259ad0.png

幾年前的Image to Image

其實人工智能在藝術領域的介入從2015年左右就開始進入大眾的視野了。那個時候,主要的應用場景是通過神經(jīng)網(wǎng)絡和人工智能應用某些藝術效果來轉換已有的圖片。相信大家都有印象包括Prisma、Pikazo、Painnt、Lucid、Artisto、Style和DeepArt等一系列的App出現(xiàn)在應用市場上。這些App多半是將人工智能作為特效濾鏡的方式來運用,把一張普通的照片,轉換為梵高、莫奈、達利和畢加索等等一系列藝術畫風格的作品,當然,高級一些的,還會生成視頻。

之所以卡在這個時間點突然出現(xiàn),主要要歸功于伊恩·古德費洛(Ian Goodfellow)完成了一項人工智能神經(jīng)網(wǎng)絡的研究,發(fā)明了生成對抗網(wǎng)絡(Generative adversarial network,簡稱GAN)。這種技術可以讓經(jīng)過照片訓練的 GAN 可以生成新照片,這些照片至少在人類觀察者看來是真實的,具有許多現(xiàn)實特征。最初GAN是作為無監(jiān)督學習的生成模型形式提出來的,但事實證明,GAN也可以用于半監(jiān)督學習、全監(jiān)督學習、和強化學習。

47a1f24e-ac17-11ed-bfe3-dac502259ad0.jpg

隨著伊恩·古德費洛畢業(yè)加入Google后,他的同事就用他的GAN搞了一個DeepDream,這種奇幻的效果立即給AI藝術創(chuàng)作屆打了一針強心劑。緊接著,一堆的初創(chuàng)公司就如春筍般生長起來了。

開源在技術上迸發(fā)的力量

軟件開源,盡管現(xiàn)在已經(jīng)幾乎眾人皆知的開發(fā)模式,但其實從前麻省理工學院人工智能實驗室的研究員理查德·斯托曼(Richard Stallman)不滿閉源軟件的不便,進而在Dr. Dobb‘s軟件雜志上憤然發(fā)表《GNU宣言》(The GNU Manifesto),直到2005年,30年過去了,從自由軟件到開源,還一直都是小圈子的事情。

47b991d8-ac17-11ed-bfe3-dac502259ad0.png

2005年,萊納斯·托沃茲(Linus Torvalds)開發(fā)了Git,進而在2007年孵化出GitHub,才徹底改變了局面。GitHub的出現(xiàn),讓開源項目全球化協(xié)作和軟件版本管理變得無比便捷。

而正是因為用于機器學習和人工智能的免費開源軟件庫TensorFlow、OpenAI的GPT模型代碼和GPT-2和Google深度學習模型Transformer等等這些軟件能力被開源了,才會被世界上其他心中有藝術夢想的程序員所獲得,才會激發(fā)這個圖像生成產業(yè)的繁榮。

也正是這個原因,當看到OpenAI不再把自回歸語言模型GPT-3繼續(xù)開源之后,我心中開始對這家公司表示質疑,估計OpenAI會在短期盈利,但是很難走的長遠。

優(yōu)質的數(shù)據(jù)訓練是基礎

481a9730-ac17-11ed-bfe3-dac502259ad0.png2001年,美國法律學者和政治活動家、哈佛大學教授勞倫斯·萊西格(Lester Lawrence Lessig)拉著哈羅德·阿貝爾森和埃里克·埃爾德雷德在紅帽羅伯特·揚(Bob Young)的公共領域中心支持下,成立了一個非營利組織知識共享組織(Creative Commons ,簡稱CC ) 。鼓勵創(chuàng)作者采用“CC授權”,來推動知識和作品的共享和創(chuàng)新,積極促成學術資料、音樂、文學、電影和科學作品對大眾開放, 并向全球各國推廣。

483d92c6-ac17-11ed-bfe3-dac502259ad0.png

同年,由吉米·威爾士(Jimmy Wales)發(fā)起的多語言的免費在線百科全書維基百科啟動。內容許可遵守CC Attribution 和 Share-Alike 3.0。

48731acc-ac17-11ed-bfe3-dac502259ad0.png

2012年,亞馬遜Amazon Web Services開始通過Common Crawl基金會這個非營利組織負責抓取網(wǎng)絡并免費向公眾提供其檔案和數(shù)據(jù)集。致力于使互聯(lián)網(wǎng)信息訪問民主化的非營利組織。

沒有這些符合CC協(xié)議的優(yōu)質內容的大型平臺,GAN的機器學習,算法再好,也是無源之水。比如:也正是有了CC協(xié)議的這些優(yōu)質數(shù)據(jù)資源,類似LAION(德國的非營利組織)才能夠去調用這些數(shù)據(jù),專門訓練很多備受矚目的文本到圖像模型,包括Stable Diffusion和Imagen。

不可阻擋的藝術平民化

藝術圈的很多人都明白,藝術在當代社會的生存空間已經(jīng)被極大地壓縮了。圈內人流傳一種說法:藝術家不會忙死,不會焦慮死,但藝術家會被餓死。現(xiàn)在很多藝術創(chuàng)作工具都是商業(yè)化工具,購買軟件要花費高昂的成本,對于很多剛剛踏足藝術工作的新人來講,這些預支成本往往帶來巨大的生存壓力。

從最近圖像生成、視頻生成炒作熱度可以看出,藝術界的這種訴求非常強烈。今天介紹的幾個工具,應該都是深知藝術圈這種窘境和痛苦的。他們的使命就是讓所有人都能零起步低成本創(chuàng)作內容。他們也明白,解決這個問題的關鍵在于要擁抱機器學習的AI時代,他們堅信機器學習能讓藝術創(chuàng)作民主化,平等化,而不是被壟斷在大的廣告公司和特效公司手里。

藝術平民化的道路,其實從文藝復興后,一直都在不停地迭代,從印象派到抽象派到達達主義之后到波普藝術,都是在簡化藝術創(chuàng)作的難度和門檻上變得越來越容易,而AI讓這個進程又加速了,讓普通人不僅僅可以創(chuàng)作藝術,而且還能創(chuàng)作出藝術家才能創(chuàng)造的高品質的藝術作品,這無疑是一種變革。因為AI讓普通人站在了藝術界巨人的肩膀上。

寫在最后

我們經(jīng)常會為一個新的技術熱點出現(xiàn)而興奮,但每個熱點的背后,都不是憑空產生的。在到達引爆媒體的臨界點之前的蓄能階段,有很多的技術和平臺,都在孵化這個引爆點。如果用放大鏡去看,都有有軌跡可循的。我們會洞見到:生態(tài)界和教育界的配合,非營利機構和營利產業(yè)界的配合,某些行業(yè)領袖開放開源的胸懷。而往往每一環(huán)都是關鍵的助推力量,缺少任何一環(huán),技術的引爆點都可能會延遲數(shù)年,甚至數(shù)十年。但有一點是明確的:是金子,最后一定會發(fā)光,但天時地利人和是何時何地發(fā)光的關鍵。


原文標題:河套IT TALK——TALK42:(原創(chuàng))視頻制作的人工智能時代要到來了,你準備好了嗎?

文章出處:【微信公眾號:開源技術服務中心】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源技術
    +關注

    關注

    0

    文章

    389

    瀏覽量

    7882
  • OpenHarmony
    +關注

    關注

    25

    文章

    3548

    瀏覽量

    15743

原文標題:河套IT TALK——TALK42:(原創(chuàng))視頻制作的人工智能時代要到來了,你準備好了嗎?

文章出處:【微信號:開源技術服務中心,微信公眾號:共熵服務中心】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經(jīng)驗,擬按照要求準備相關體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    Python中的人工智能框架與實例

    人工智能(AI)領域,Python因其簡潔的語法、豐富的庫和強大的社區(qū)支持,成為了最受歡迎的編程語言之一。本文將詳細介紹Python中的人工智能框架,并通過具體實例展示如何使用這些框架來實現(xiàn)不同的人工智能應用。
    的頭像 發(fā)表于 07-15 14:54 ?681次閱讀

    Google開發(fā)專為視頻生成配樂的人工智能技術

    近日,科技巨頭Google旗下的人工智能研究實驗室DeepMind宣布了一項引人注目的技術突破——V2A技術(Video to Audio),這是一項專為視頻生成配樂的人工智能技術。這項技術的誕生,標志著
    的頭像 發(fā)表于 06-20 11:03 ?379次閱讀

    MINIWARE的品牌故事,了解多少?

    走進MINIWARE的世界,探索這個品牌的起源、發(fā)展歷程以及它對未來的美好愿景。準備好了嗎?讓我們開始這段精彩的旅程吧!變革創(chuàng)新MINIWARE的品牌發(fā)展,是一場
    的頭像 發(fā)表于 06-20 08:02 ?278次閱讀
    MINIWARE的品牌故事,<b class='flag-5'>你</b>了解多少?

    RISC-V Foundational Associate (RVFA) 官方認證,準備好了嗎?

    目前,開放指令集與開源芯片正在快速發(fā)展,面臨著不可錯過的發(fā)展機遇。物聯(lián)網(wǎng)、人工智能、云計算、5G的發(fā)展需要大量的高性能芯片和相關技術的支持,例如RISC-V這種低功耗、低成本、靈活可擴展、安全可靠
    的頭像 發(fā)表于 05-13 17:43 ?320次閱讀
    RISC-V Foundational Associate (RVFA) 官方認證,<b class='flag-5'>你</b><b class='flag-5'>準備好了嗎</b>?

    stm8外部時鐘未準備好是怎么回事?

    stm8外部時鐘未準備好是怎么回事仿真也一只卡在時鐘準備好這里,硬件沒有連接問題我用萬用表測試了程序就卡在這里的老是檢測不到外部時鐘準備好
    發(fā)表于 04-30 06:50

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎知識指引
    發(fā)表于 04-01 10:40

    NDI 6來了的設備準備好了嗎?

    MattLukens就向外界宣布了NDI6即將發(fā)布的好消息,而2024年,讓人期待已久支持HDR的NDI6終于要來了!更加值得期待的是千視也就在產品升級后,支持ND
    的頭像 發(fā)表于 03-05 08:09 ?776次閱讀
    NDI 6<b class='flag-5'>來了</b>!<b class='flag-5'>你</b>的設備<b class='flag-5'>準備好了嗎</b>?

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎建設與傳統(tǒng)產業(yè)升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入式人工智能
    發(fā)表于 02-26 10:17

    OpenAI發(fā)布人工智能文生視頻大模型Sora

    近日,人工智能領域的領軍企業(yè)OpenAI宣布推出其最新的人工智能文生視頻大模型——Sora。這款模型在繼承DALL-E 3卓越畫質和遵循指令能力的基礎上,實現(xiàn)了對真實物理世界的深度模擬,為視頻
    的頭像 發(fā)表于 02-20 13:54 ?715次閱讀

    基于TRIZ的可穿戴設備:未來已來,準備好了嗎?

    隨著科技的飛速發(fā)展,可穿戴設備已經(jīng)成為了我們生活中不可或缺的一部分。從智能手環(huán)、智能手表到虛擬現(xiàn)實眼鏡,這些設備不僅提供了便利的生活體驗,還為我們帶來了前所未有的娛樂方式。而在這個領域
    的頭像 發(fā)表于 12-29 14:52 ?333次閱讀
    基于TRIZ的可穿戴設備:未來已來,<b class='flag-5'>你</b><b class='flag-5'>準備好了嗎</b>?

    身邊的人工智能有哪些

    身邊的人工智能有哪些? 身邊的人工智能應用已經(jīng)滲透到了我們日常生活的方方面面。從智能手機中的語音助手到智能家居設備,人工智能正逐漸改變著我們
    的頭像 發(fā)表于 12-07 16:32 ?3019次閱讀

    Copilot Studio全面進駐的日常辦公軟件,準備好了嗎

    ,達到了企業(yè)級標準,在工作中提供更全面支持。? 在2023 Ignite大會上,我們正式揭曉了微軟Copilot的創(chuàng)新突破:將智能助手的體驗延伸至所有平臺,無論
    的頭像 發(fā)表于 12-04 08:15 ?1222次閱讀
    Copilot Studio全面進駐<b class='flag-5'>你</b>的日常辦公軟件,<b class='flag-5'>你</b><b class='flag-5'>準備好了嗎</b>?

    人工智能大模型、應用場景、應用部署教程超詳細資料

    豐富的選擇。 此次推出的人工智能模型主要包括:Adain 風格遷移模型、Conformer 模型、DeeplabV模型、Fastdepth 模型、LaneAF-ERFNet 模型、Lenet 模型
    發(fā)表于 11-13 14:49

    中國芯破風8676:高價背后的科技革命,準備好了嗎?

    行業(yè)芯事行業(yè)資訊
    北京中科同志科技股份有限公司
    發(fā)布于 :2023年10月31日 10:05:06