0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

小白學大模型:什么是生成式人工智能?

穎脈Imgtec ? 2024-02-22 08:27 ? 次閱讀

來源:Coggle數(shù)據科學


什么是生成式人工智能

在過去幾年中,機器學習領域取得了迅猛進步,創(chuàng)造了人工智能的一個新的子領域:生成式人工智能。這些程序通過分析大量的數(shù)字化材料產生新穎的文本、圖像、音樂和軟件,我將這些程序簡稱為“GAIs”。

革命開始

第一波GAIs主要致力于進行自然語言對話。被稱為“大型語言模型”(LLMs)的這些模型已經展示出在各種任務上超凡的表現(xiàn),擁有超越人類的能力,同時也顯示出對虛假、不合邏輯的傾向,以及表達虛假情感的傾向,比如對對話者表達愛意。它們用通俗的語言與用戶交流,并輕松解決各種復雜問題。

但這只是GAI革命的開始。支撐GAIs的技術是相當通用的,任何可以收集和準備進行處理的數(shù)據集,GAIs都能夠學習,這在現(xiàn)代數(shù)字世界是一個相對簡單的任務。

AGI vs GAI

AGI(人工通用智能)與GAI(生成式人工智能)不可混淆,AGI一直是科學家們世代追求的幻想,更不用說無數(shù)科幻電影和書籍了。值得注意的是,答案是“有條件的肯定”。在實際應用中,這些系統(tǒng)是多才多藝的“合成大腦”,但這并不意味著它們具有人類意義上的“思想”。它們沒有獨立的目標和欲望、偏見和愿望、情感和感覺:這些是獨特的人類特征。但是,如果我們用正確的數(shù)據對它們進行訓練并指導它們追求適當?shù)哪繕?,這些程序可以表現(xiàn)得好像具有這些特征一樣。

GAIs vs 早期構建智能機器

GAIs可以被指示執(zhí)行(或至少描述如何執(zhí)行)你幾乎能想到的任何任務……盡管它們可能會耐心地解釋,它們是萬事通,也是大多數(shù)領域的專家。

38dbbc2c-d119-11ee-9118-92fbcf53809c.png

LLMs只是進行統(tǒng)計單詞預測,根據你提供的提示的上下文選擇下一個最有可能的單詞。但這種描述充其量是過于簡化了,并掩蓋了更深層次的真相。

LLMs是在大量信息的基礎上進行訓練的。它們處理并壓縮其龐大的訓練集,形成一種被稱為神經網絡的緊湊表示,但該網絡不僅僅代表單詞——它代表了它們的意義,以一種稱為嵌入的巧妙形式表達出來。

LLM了解其“世界”(在訓練階段);然后,它評估您提示的含義,選擇其答案的含義,并將該含義轉換為單詞。



人工智能的歷史

什么是人工智能?這是一個容易問出但難以回答的問題,有兩個原因。首先,對于智能是什么,人們幾乎沒有達成共識。其次,憑借目前的情況,很少有理由相信機器智能與人類智能有很大的關系,即使看起來很像。

人工智能(AI)有許多提議的定義,每個定義都有其自己的側重點,但大多數(shù)都大致圍繞著創(chuàng)建能夠表現(xiàn)出人類智能行為的計算機程序或機器的概念。學科的奠基人之一約翰·麥卡錫(John McCarthy)在1955年描述了這一過程,“就像制造一臺機器以人類的方式行為一樣”。術語“人工智能”起源于何處?“人工智能”一詞的首次使用可以歸因于一個特定的個人——約翰·麥卡錫(John McCarthy),他是一位1956年在新罕布什爾州漢諾威達特茅斯學院(Dartmouth College)的助理數(shù)學教授。與其他三位更資深的研究人員(哈佛大學的馬文·明斯基、IBM的內森·羅切斯特和貝爾電話實驗室的克勞德·香農)一起,麥卡錫提議在達特茅斯舉辦一次關于這個主題的夏季會議。早期人工智能研究者是如何解決這個問題的?

在達特茅斯會議之后,對該領域的興趣(以及某些領域對它的反對)迅速增長。研究人員開始著手各種任務,從證明定理到玩游戲等。一些早期的突破性工作包括阿瑟·塞繆爾(Arthur Samuel)于1959年開發(fā)的跳棋程序。

當時許多演示系統(tǒng)都專注于所謂的“玩具問題”,將其適用性限制在某些簡化或自包含的世界中,如游戲或邏輯。這種簡化在一定程度上受到當時有限的計算能力的驅使,另一方面也因為這并不涉及收集大量相關數(shù)據,而當時電子形式的數(shù)據很少。機器學習是什么?

從其早期起源開始,人工智能研究人員就認識到學習能力是人類智能的重要組成部分。問題是人們是如何學習的?我們能否以與人類相同的方式,或至少與人類一樣有效地編寫計算機來學習?

在機器學習中,學習是中心問題——顧名思義。說某物被學習了意味著它不僅僅被捕捉并存儲在數(shù)據庫中的數(shù)據一樣——它必須以某種方式表示出來,以便可以加以利用。一般來說,學習的計算機程序會從數(shù)據中提取模式。



生成式人工智能的原理

大型語言模型(LLMs)

大型語言模型(LLMs)是一種生成人工智能系統(tǒng),用于以純文本形式生成對問題或提示的回應。這些系統(tǒng)使用專門的多層次和多方面的神經網絡,在非常大的自然語言文本集合上進行訓練,通常從互聯(lián)網和其他合適的來源收集而來。

基礎模型

訓練一個LLM可能非常耗時和昂貴——如今,最常見的商業(yè)可用系統(tǒng)在數(shù)千臺強大處理器上同時訓練數(shù)周,耗資數(shù)百萬美元。但不用擔心,這些程序通常被稱為“基礎模型”,具有廣泛的適用性和長期的使用壽命。它們可以作為許多不同類型的專業(yè)LLM的基礎,盡管直接與它們交互也是完全可能的(而且很有用和有趣)。

人類反饋強化學習

LLM完成了對大型文本語料庫的“基礎訓練”后,就要進入“修身養(yǎng)性”的階段。這包括向它提供一系列示例,說明它應該如何禮貌地和合作地回答問題(響應“提示”),以及最重要的是,它不被允許說什么(當然,這充滿了反映其開發(fā)者態(tài)度和偏見的價值判斷)。與初始訓練步驟形成對比,初始訓練步驟大多是自動化過程,這個社交化步驟是通過所謂的人類反饋強化學習(RLHF)來完成的。RLHF就是其名,人類審查LLM對一系列可能引起不當行為的提示的反應,然后一個人向它解釋回應的問題(或禁止的內容),幫助LLM改進。

3a6081cc-d119-11ee-9118-92fbcf53809c.png

模型輸入與輸出

完成訓練后,LLM接受用戶(你)的提示或問題作為輸入,然后對其進行轉換,并生成一個回應。與訓練步驟相比,這個過程快速而簡單。但是它是如何將你的輸入轉換為回應的呢?

3a654090-d119-11ee-9118-92fbcf53809c.png

它們將這種“猜測下一個詞”的技術擴展到更長的序列上。然而,重要的是要理解,分析和猜測實際上不是在詞本身上進行的;而是在所謂的標記上進行的——它們代表詞的部分,并且這些標記進一步以“嵌入”形式表達,旨在捕捉它們的含義。大型語言模型(LLMs)如何工作?

簡化的單詞級解釋忽略了LLMs如何在我們今天的計算機類別中表示這些大量的單詞集合。在任何現(xiàn)有或想象中的未來計算機系統(tǒng)中,存儲數(shù)千個單詞的所有可能序列都是不現(xiàn)實的:與之相比,這些序列的數(shù)量使得宇宙中的原子數(shù)量看起來微不足道。因此,研究人員重新利用了神經網絡的試驗和真實方法,將這些巨大的集合減少為更易管理的形式。

神經網絡最初被應用于解決分類問題——決定某物是什么。例如,您可能會輸入一張圖片,網絡將確定它是否是狗還是貓的圖像。為了有用,神經網絡必須以一種使相關的輸入產生相似結果的方式壓縮數(shù)據。

什么是“嵌入”?

LLMs將每個單詞表示為一種特定形式的向量(列表),稱為嵌入。嵌入將給定的單詞轉換為具有特殊屬性的向量(有序數(shù)字列表):相似的單詞具有相似的向量表示。想象一下,“朋友”,“熟人”,“同事”和“玩伴”這些詞的嵌入。目標是,嵌入應該將這些單詞表示為彼此相似的向量。這通過代數(shù)組合嵌入來促進某些類型的推理。

3a699118-d119-11ee-9118-92fbcf53809c.png

單詞嵌入的一個缺點是它們并不固有地解決多義性的問題——單詞具有多個含義的能力。處理這個問題有幾種方法。例如,如果訓練語料庫足夠詳細,單詞出現(xiàn)的上下文將傾向于聚合成統(tǒng)計簇,每個簇代表同一個單詞的不同含義。這允許LLM以模棱兩可的方式表示單詞,將其與多個嵌入相關聯(lián)。多義性的計算方法是一個持續(xù)研究的領域。單詞嵌入是如何表示含義的?

當您想知道一個詞的含義時,您會怎么做?當然是查字典。在那里,您會找到什么?關于詞義的描述,當然是用詞語表達的。您讀了定義后相信您理解了一個詞的含義。換句話說,就是,通過與其他單詞的關系來表示單詞的含義通常被認為是語義的一種滿意的實際方法。

當然,有些詞確實指的是現(xiàn)實世界中的真實事物。但是,如果您只是在單詞的領域內工作,那么事實證明這并不像您想象的那么重要。在相互關聯(lián)的定義的混亂中有太多的內在結構,以至于您關于給定單詞的幾乎所有需要知道的東西都可以通過它與其他單詞的關系來編碼。人工神經網絡(ANN)

人工神經網絡(ANN)是受到真實神經網絡的某些假定組織原則啟發(fā)的計算機程序,簡而言之,就是生物大腦。盡管如此,人工神經網絡與真實神經網絡之間的關系大多是希望的,因為對大腦實際功能了解甚少。

人工神經網絡中的神經元通常組織成層。底層也稱為“輸入”層,因為我們要將要分類的圖片輸入到這里?,F(xiàn)在就像真正的神經元一樣,我們必須表示每個輸入神經元是否被激活(“發(fā)射”)或不被激活。其他內部層是行動發(fā)生的地方。這些被稱為“隱藏”層,因為它們夾在輸入層和輸出層之間。每個隱藏層中的神經元與它們上面和下面的層中的所有神經元相連。這些相互連接被建模為數(shù)值權重,例如,零表示“未連接”,一表示“強連接”,負一表示負連接。

3a6e0e64-d119-11ee-9118-92fbcf53809c.png

神經網絡的工作原理如下:我們根據要分類的圖片設置輸入(底層)級別的神經元的值。然后對于上一級的每個神經元,我們通過計算下一級神經元與較低級神經元之間的連接的權重乘積來計算其激活值。我們繼續(xù)這個過程,從每一級橫跨,然后向上一級工作。當我們到達頂部時,如果一切都按預期進行,頂層的一個神經元將被高度激活,而另一個不會,這就給了我們答案。

Transformer

Transformer是一種特殊類型的神經網絡,通常用于大型語言模型(LLM)。當一個Transformer模型被給予一句話進行處理時,它不會單獨查看每個單詞。相反,它一次查看所有單詞,并為每對單詞計算一個“注意分數(shù)”。注意分數(shù)確定了句子中每個單詞應該對其他每個單詞的解釋產生多大影響。

3a72ee2a-d119-11ee-9118-92fbcf53809c.png

例如,如果句子是“貓坐在墊子上”,當模型處理單詞“坐”時,它可能會更多地關注單詞“貓”(因為“貓”是坐的對象),而對單詞“墊子”關注較少。但是當處理單詞“上”時,它可能會更多地關注“墊子”。

當你要求LLM回答問題時,類似的過程也會發(fā)生。LLM首先將您的單詞轉換為嵌入,就像它對其訓練示例所做的那樣。然后,它以相同的方式處理您的詢問,使其能夠專注于輸入的最重要部分,并使用這些來預測如果您開始回答問題,則輸入的下一個單詞可能是什么。Transformer vs 詞嵌入

Transformer模型利用詞嵌入來表達語言中的復雜概念。在Transformer中,每個單詞都被表示為一個高維向量,而這些向量在表示空間中的位置反映了單詞之間的語義關系。例如,具有相似含義的單詞在表示空間中可能會更加接近,而含義不同的單詞則會相對遠離。

通過使用這種高維表示,Transformer能夠更好地理解和生成自然語言。它們通過學習大量文本數(shù)據,自動調整詞嵌入向量的參數(shù),使得模型能夠根據上下文理解單詞的含義,并生成連貫的語言輸出。Transformer模型中的注意力機制允許模型集中注意力于輸入中與當前任務相關的部分,從而提高了模型在處理長文本序列和復雜語境中的性能。什么是token?

在語言模型中,"tokens"是指單詞、單詞部分(稱為子詞)或字符轉換成的數(shù)字列表。每個單詞或單詞部分都被映射到一個特定的數(shù)字表示,稱為token。這種映射關系通常是通過預定義的規(guī)則或算法完成的,不同的語言模型可能使用不同的tokenization方案,但重要的是要保證在相同的語境下,相同的單詞或單詞部分始終被映射到相同的token。

大多數(shù)語言模型傾向于使用子詞(tokenization),因為這種方法既高效又靈活。子詞tokenization能夠處理單詞的變形、錯字等情況,從而更好地識別單詞之間的關系。

幻覺

幻覺是指LLMs在回答問題或提示時,并不會查閱其訓練時接觸到的所有詞序列,這是不切實際的。這意味著它們并不一定能夠訪問所有原始內容,而只能訪問那些信息的統(tǒng)計摘要。與你一樣,LLMs可能“知道”很多詞,但它們無法重現(xiàn)創(chuàng)建它們的確切序列。

LLMs很難區(qū)分現(xiàn)實和想象。至少目前來說,它們沒有很好的方法來驗證它們認為或相信可能是真實的事物的準確性。即使它們能夠咨詢互聯(lián)網等其他來源,也不能保證它們會找到可靠的信息。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29805

    瀏覽量

    268102
  • 人工智能
    +關注

    關注

    1789

    文章

    46652

    瀏覽量

    237060
  • 大模型
    +關注

    關注

    2

    文章

    2274

    瀏覽量

    2356
收藏 人收藏

    評論

    相關推薦

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    的效率,還為科學研究提供了前所未有的洞察力和精確度。例如,在生物領域,AI能夠幫助科學家快速識別基因序列中的關鍵變異,加速新藥研發(fā)進程。 2. 跨學科融合的新范式 書中強調,人工智能的應用促進了多個
    發(fā)表于 10-14 09:12

    生成人工智能在教育中的應用

    生成人工智能在教育中的應用日益廣泛,為教育領域帶來了諸多變革和創(chuàng)新。以下是對生成人工智能在教
    的頭像 發(fā)表于 09-16 16:07 ?525次閱讀

    生成人工智能的概念_生成人工智能主要應用場景

    生成人工智能(Generative Artificial Intelligence,簡稱GAI)是一種先進的人工智能技術,其核心在于利用計算機算法和大量數(shù)據來
    的頭像 發(fā)表于 09-16 16:05 ?720次閱讀

    中興星云大模型通過生成人工智能服務備案

    中興通訊官方宣布,其自主研發(fā)的星云研發(fā)大模型已成功通過廣東省生成人工智能服務備案,標志著該模型在技術與合規(guī)性上均達到了行業(yè)認可的高標準。此
    的頭像 發(fā)表于 08-06 16:39 ?439次閱讀

    聲智完成多項生成算法和大模型服務備案

    2024年7月20日,北京聲智科技有限公司依據國家《生成人工智能服務管理暫行辦法》,順利完成了壹元大模型生成
    的頭像 發(fā)表于 07-23 15:25 ?577次閱讀
    聲智完成多項<b class='flag-5'>生成</b><b class='flag-5'>式</b>算法和大<b class='flag-5'>模型</b>服務備案

    如何利用生成人工智能進行精確編碼

    隨著技術的飛速發(fā)展,生成人工智能(Generative AI)在軟件開發(fā)領域的應用日益廣泛。生成AI以其強大的學習和創(chuàng)造能力,為精確編碼
    的頭像 發(fā)表于 07-05 17:51 ?516次閱讀

    中國生成人工智能專利數(shù)量傲視群雄

    在全球科技創(chuàng)新的浪潮中,生成人工智能(Generative AI)作為一股不可忽視的力量,正以前所未有的速度重塑著多個行業(yè)的面貌。近日,世界知識產權組織(WIPO)發(fā)布的《世界知識產權組織
    的頭像 發(fā)表于 07-04 15:39 ?314次閱讀

    KOALA人工智能圖像生成模型問世

    近日,韓國科學團隊宣布研發(fā)出名為 KOALA 的新型人工智能圖像生成模型,該模型在速度和質量上均實現(xiàn)了顯著突破。KOALA 能夠在短短 2 秒內生成
    的頭像 發(fā)表于 03-05 10:46 ?711次閱讀

    嵌入人工智能的就業(yè)方向有哪些?

    嵌入人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產業(yè)變革的時代背景下,嵌入人工智能成為國家新型基礎建設與傳統(tǒng)產業(yè)升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入
    發(fā)表于 02-26 10:17

    生成人工智能和感知人工智能的區(qū)別

    生成人工智能和感知人工智能人工智能領域中兩種重要的研究方向。本文將探討這兩種
    的頭像 發(fā)表于 02-19 16:43 ?1458次閱讀

    關于生成人工智能你應該知道的7件事

    不同類型的學習提供機會。1、生成人工智能是什么?長期以來,人工智能一直在我們日常使用的許多技術的幕后運作,但隨著2022年11月ChatGPT的推出,
    的頭像 發(fā)表于 02-19 13:27 ?815次閱讀
    關于<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>人工智能</b>你應該知道的7件事

    2024年生成人工智能五大發(fā)展趨勢

    2023年是技術發(fā)展的分水嶺,生成人工智能成為主流。隨著我們進入2024年,預計生成人工智能
    的頭像 發(fā)表于 01-23 09:50 ?1352次閱讀

    生成人工智能的應用

    ChatGPT 雖然很酷,但這只是一個開始; 生成人工智能的企業(yè)用途要復雜得多。
    的頭像 發(fā)表于 01-09 11:19 ?1208次閱讀

    生成人工智能制定“行為規(guī)則”

    輸出內容脫離現(xiàn)實,信任赤字發(fā)生。生成人工智能模型并不是通過對現(xiàn)實世界的觀察和科學取證的方法來輸出結果,因此其生成的文本準確性和真實性有待商
    的頭像 發(fā)表于 11-21 16:58 ?626次閱讀

    人工智能模型、應用場景、應用部署教程超詳細資料

    人工智能是IC行業(yè)近幾年的熱詞,目前此技術已經有很多成熟的模型和落地案例。在此跟大家做個分享,更多詳細資料,請自行搜索:【展銳坦克邦】,坦克邦-智算天地集算法模型、部署說明于一體,為廣大客戶提供了
    發(fā)表于 11-13 14:49