大約在 24 年前,Google 由兩名研究生創(chuàng)立,當(dāng)時(shí) Google 擁有一個(gè)產(chǎn)品,以及一個(gè)遠(yuǎn)大的使命:整合全球信息,供大眾使用,使人人受益。在那之后的幾十年里,我們一直在推進(jìn)我們的技術(shù)來實(shí)現(xiàn)這一使命。
我們所取得的進(jìn)步源于我們多年來對(duì)先進(jìn)技術(shù)的投入,從人工智能到為這一切提供動(dòng)力的技術(shù)基礎(chǔ)設(shè)施。每年一次,在我一年中最喜歡的一天:) 我們?cè)?Google I/O 與大家分享最新進(jìn)展。
今天,我談到了我們?nèi)绾翁岣呶覀兪姑膬蓚€(gè)基本方面——知識(shí)和計(jì)算的發(fā)展——來創(chuàng)造能夠提供幫助的產(chǎn)品。開發(fā)這些產(chǎn)品是令人興奮的;更令人興奮的是看到這些產(chǎn)品能夠幫助大家做些什么。
感謝所有幫助我們完成這項(xiàng)工作的人,尤其是 Google 的同事們。我們很感激有這次機(jī)會(huì)。
- Sundar
以下是 Sundar Pichai 在今天的 Google I/O 開發(fā)者大會(huì)開幕式上發(fā)表的主題演講全文。
大家好,歡迎大家!時(shí)隔三年,能再回到海岸線圓形劇場(chǎng)的感覺真好!我想對(duì)成千上萬(wàn)的開發(fā)者、合作伙伴和 Google 的同事們說:“很高興見到大家”,也想對(duì)在世界各地收看此次大會(huì)的數(shù)百萬(wàn)觀眾朋友們說,“很高興大家能來”。
去年,我們分享了在一些最具技術(shù)性挑戰(zhàn)的計(jì)算機(jī)科學(xué)領(lǐng)域中的新突破,以及這些突破如何能讓 Google 的產(chǎn)品在關(guān)鍵時(shí)刻發(fā)揮更大作用。我們做的這一切都是為了實(shí)現(xiàn) Google 永恒的使命:整合全球信息,供大眾使用,使人人受益。
我也迫不及待地想給大家展示 Google 是如何通過兩種關(guān)鍵方式來推進(jìn)這一使命的實(shí)現(xiàn):其一,深化我們對(duì)信息的理解,從而將信息轉(zhuǎn)化為知識(shí);其二,推動(dòng)計(jì)算機(jī)技術(shù)發(fā)展,不論大家身在何處,都能方便快捷地獲取信息和知識(shí)。
今天,大家將看到我們?cè)谏鲜鰞煞N方式上取得的進(jìn)展,以及這些進(jìn)展是怎樣確保 Google 的產(chǎn)品能夠惠及大眾。我先舉幾個(gè)簡(jiǎn)單的例子。在新冠疫情期間,Google 一直致力于提供準(zhǔn)確的信息,幫助大家保持健康。去年,有近 20 億次搜索是使用 Google Search 和 Google Maps 來尋找疫苗接種點(diǎn)的。
去年,Google 的洪水預(yù)測(cè)技術(shù)向在印度及孟加拉國(guó)的 2300 萬(wàn)人發(fā)送了洪水預(yù)警
我們還提升了 Google 的洪水預(yù)測(cè)技術(shù),能讓面臨自然災(zāi)害的人們平安無(wú)恙。在去年的季風(fēng)季,我們向在印度及孟加拉國(guó)的 2300 多萬(wàn)人發(fā)送了洪水預(yù)警。據(jù)我們估計(jì),這幫助了成千上萬(wàn)的人及時(shí)疏散。
Google 翻譯新增了 24 種語(yǔ)言
在世界各國(guó),Google 翻譯已經(jīng)成為了外來客與當(dāng)?shù)鼐用窕ハ鄿贤ǖ闹匾ぞ摺?/p>
通過機(jī)器學(xué)習(xí)技術(shù),我們給 Google 翻譯新增了包括蓋丘亞語(yǔ)在內(nèi)的新語(yǔ)種
實(shí)時(shí)翻譯的存在證實(shí)了知識(shí)和計(jì)算機(jī)技術(shù)能夠一起讓人們的生活更加美好?,F(xiàn)在,使用 Google 翻譯的人數(shù)之多,遠(yuǎn)超以往,但我們不能止步于此,還應(yīng)讓 Google 翻譯更加普及。現(xiàn)在還有很多語(yǔ)言在互聯(lián)網(wǎng)上出現(xiàn)得沒有那么頻繁,翻譯這些語(yǔ)言是一個(gè)技術(shù)難題,因?yàn)橛脕碛?xùn)練翻譯模型的文本通常是雙語(yǔ)文本,像是同一個(gè)短語(yǔ)的英語(yǔ)和西班牙語(yǔ)版本,但并非所有語(yǔ)言都有足量的公開雙語(yǔ)文本。
因此,隨著機(jī)器學(xué)習(xí)的進(jìn)步,我們開發(fā)了一種單語(yǔ)方式,能讓翻譯模型在從未見過某種新語(yǔ)言的直譯版本的情況下,直接去學(xué)習(xí)翻譯此新語(yǔ)言。通過與母語(yǔ)人士及當(dāng)?shù)貦C(jī)構(gòu)合作,我們發(fā)現(xiàn)用單語(yǔ)方式進(jìn)行的翻譯質(zhì)量達(dá)標(biāo),我們也將進(jìn)一步提升翻譯質(zhì)量。
我們?yōu)?Google 翻譯新增了24種新語(yǔ)言
今天,我很激動(dòng)地宣布,我們?yōu)?Google 翻譯新增了 24 種新語(yǔ)言,包括首批增加的美洲原住民語(yǔ)言。共計(jì)有 3 億多人在使用這 24 種語(yǔ)言,這樣的突破正在推動(dòng)我們獲取知識(shí)和使用電腦的方式發(fā)生根本性轉(zhuǎn)變。
Google Maps 新升級(jí)
許多關(guān)于我們這個(gè)世界的可知信息都超越了語(yǔ)言的范疇——它們存在于我們周圍的物理和地理空間中。超過 15 年來,Google Maps 一直致力于將這些信息以豐富且有用的形式呈現(xiàn)出來,以幫助用戶導(dǎo)航。AI 的進(jìn)步正在將這項(xiàng)工作推向新的高度,無(wú)論是將我們的覆蓋范圍擴(kuò)大到偏遠(yuǎn)地區(qū),還是重新設(shè)想如何以更直觀的方式探索世界。
AI 的進(jìn)步有助于繪制偏遠(yuǎn)和農(nóng)村地區(qū)的地圖
到目前為止,我們已在世界各地繪制了大約 16 億座建筑和超過 6000 萬(wàn)公里的道路。由于缺乏高質(zhì)量的圖像和清晰的建筑類型和地貌特征,以前一直難以繪制一些偏遠(yuǎn)地區(qū)和農(nóng)村地區(qū)的建筑和道路信息。為了解決這個(gè)問題,我們正在使用計(jì)算機(jī)視覺和神經(jīng)網(wǎng)絡(luò)技術(shù),從衛(wèi)星圖像中探測(cè)建筑物。自 2020 年 7 月以來,Google Maps 上的非洲建筑物數(shù)量增加了 5 倍,從 6000 萬(wàn)幢增加到了近 3 億幢。
今年,我們?cè)谟《群陀《饶嵛鱽喞L制的建筑物數(shù)量也增加了一倍。在全球范圍內(nèi),Google Maps 上超過 20% 的建筑物都已經(jīng)使用這些新技術(shù)進(jìn)行了探測(cè)。在此基礎(chǔ)上,我們還向公眾公開了非洲的建筑物數(shù)據(jù)集,聯(lián)合國(guó)和世界銀行等國(guó)際組織已經(jīng)在使用這些信息,以更好地了解當(dāng)?shù)厝丝诿芏?,并提供支持和緊急援助。
Google Maps 中的沉浸式視圖將航拍和街景圖像融合
我們也為 Google Maps 帶來了新的功能。利用 3D 繪圖和機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步,我們正在融合數(shù)十億張航拍和街景圖像,以創(chuàng)建一個(gè)新的高保真的地圖。我們將這些突破性的技術(shù)結(jié)合在一起,為用戶提供了一種沉浸式視圖的新體驗(yàn),使用戶能夠以前所未有的方式探索一個(gè)地方。
讓我們?nèi)惗乜纯窗?。假設(shè)用戶計(jì)劃和家人一起參觀威斯敏斯特。用戶現(xiàn)在可以直接從手機(jī)上的 Google Maps 獲得這種身臨其境的視野,還可以在景點(diǎn)周圍移動(dòng)......這就是威斯敏斯特大教堂。如果用戶想前往大本鐘,那么可以在地圖上看到去往大本鐘的道路交通是否擁堵,甚至可以看到天氣預(yù)報(bào)。如果還想在參觀期間吃點(diǎn)東西,用戶可以查看附近的餐廳,并且到餐廳的里面看看。
令人驚奇的是,這并不是有一架無(wú)人機(jī)在餐廳里飛行拍攝——這是我們使用神經(jīng)渲染技術(shù),僅通過圖像來創(chuàng)造的體驗(yàn)。Google Cloud Immersive Stream 讓這種體驗(yàn)可以在幾乎所有智能手機(jī)上運(yùn)行。這項(xiàng)功能將于今年晚些時(shí)候在 Google Maps 中針對(duì)全球部分城市推出。
Google Maps 的另一個(gè)重大升級(jí)是我們推出了環(huán)保路線。這項(xiàng)功能已于去年落地,它能夠?yàn)橛脩麸@示最節(jié)約油耗的路線,提供更加節(jié)約并且減少碳排放的選擇。環(huán)保路線已經(jīng)在美國(guó)和加拿大推出,用戶已經(jīng)按照這些路線行駛了約 860 億英里,減少了約 50 萬(wàn)公噸的碳排放,相當(dāng)于路面上減少了 10 萬(wàn)輛正在行駛的汽車。
環(huán)保路線將于今年晚些時(shí)候擴(kuò)展到歐洲
我很高興與大家分享,我們正在將這項(xiàng)功能擴(kuò)展到更多的地方,包括在今年晚些時(shí)候?qū)U(kuò)展到歐洲。在柏林地圖的示例中,用戶可以選擇僅慢三分鐘的路線,將油耗降低 18%。這些微小的決定將產(chǎn)生巨大的影響。隨著這項(xiàng)功能擴(kuò)展至歐洲及其他地區(qū),我們預(yù)計(jì)到今年年底可以節(jié)約的碳排放量將增加一倍。
我們同樣在 Google Flights 上增加了一個(gè)類似的功能。當(dāng)用戶搜索兩個(gè)城市之間的航班時(shí),我們也會(huì)向用戶顯示碳排放估值以及價(jià)格和時(shí)間表等其他信息,讓用戶輕松選擇更加環(huán)保的航班。Google Maps 和 Google Flights 中的這些環(huán)保功能是我們非常重要的目標(biāo),即讓 10 億人通過我們的產(chǎn)品做出更可持續(xù)的選擇,我們非常高興能夠看到這些進(jìn)展。
YouTube 新功能幫助用戶輕松訪問視頻內(nèi)容
除了 Google Maps 之外,視頻正在成為我們分享信息、互相交流和學(xué)習(xí)必不可少的載體。很多時(shí)候用戶在進(jìn)入 YouTube 后,是希望在 YouTube 中找到一個(gè)視頻中的特定片段,我們希望幫助用戶更快地獲取所需信息。
去年,我們推出了自動(dòng)生成的章節(jié),讓用戶可以更輕松地跳轉(zhuǎn)到最感興趣的部分。這對(duì)創(chuàng)作者來說也是很棒的功能,因?yàn)樗?jié)省了創(chuàng)作者制作章節(jié)的時(shí)間。我們現(xiàn)在正在應(yīng)用 DeepMind 的多模式技術(shù),這項(xiàng)技術(shù)可以同時(shí)使用文本、音頻和視頻,并以更高的準(zhǔn)確性和更快的速度自動(dòng)生成章節(jié)。有了這個(gè)功能,我們現(xiàn)在的目標(biāo)是將自動(dòng)生成章節(jié)的視頻數(shù)量增加 10 倍,從目前的 800 萬(wàn)到明年的 8000 萬(wàn)。
通常,了解視頻內(nèi)容的最快方法是閱讀它的腳本,所以我們也在使用語(yǔ)音識(shí)別模型來轉(zhuǎn)錄視頻?,F(xiàn)在所有 Android 和 iOS 的用戶都可以獲取視頻的腳本。
YouTube 上的自動(dòng)生成章節(jié)
接下來,我們將把 YouTube 上的自動(dòng)翻譯字幕應(yīng)用到移動(dòng)設(shè)備上。這意味著觀眾現(xiàn)在可以獲取 16 種自動(dòng)翻譯的視頻字幕,創(chuàng)作者也可以借此吸引全球觀眾。
正如我們使用 AI 來改進(jìn) YouTube 的功能一樣,我們也正在將 AI 構(gòu)建到 Workspace 系列產(chǎn)品中,以幫助人們提升工作效率。無(wú)論你是在小型企業(yè)還是大型機(jī)構(gòu)工作,可能都需要花費(fèi)大量時(shí)間閱讀文件。也許你現(xiàn)在就回想起了當(dāng)你有一份 25 頁(yè)的文件要閱讀,而會(huì)議將在 5 分鐘后開始的那種恐慌。
在 Google,每當(dāng)我收到一份長(zhǎng)的文件或電子郵件時(shí),我都會(huì)在頂部尋找“TL;DR”——“太長(zhǎng)未讀"的縮寫。這讓我們想到,如果更多的事情可以有“TL;DR”,生活不是會(huì)更好嗎?
這就是為什么我們?yōu)?Google Docs 引入了自動(dòng)總結(jié)功能。將我們其中一個(gè)機(jī)器學(xué)習(xí)模型應(yīng)用在文本總結(jié)功能中,Google Docs 將自動(dòng)解析單詞并提取出要點(diǎn)。
這標(biāo)志著自然語(yǔ)言處理的一個(gè)大飛躍??偨Y(jié)需要理解長(zhǎng)段落、壓縮信息并生成語(yǔ)言,而這些已經(jīng)超出過去最好的機(jī)器學(xué)習(xí)模型的能力。
而文檔只是一個(gè)開始。我們正努力將總結(jié)功能引入 Google Workspace 的其他產(chǎn)品。在接下來的幾個(gè)月里,Google Chat 將使用該功能,為聊天對(duì)話提供摘要,幫助用戶迅速加入群聊,或回顧重點(diǎn)信息。
在未來幾個(gè)月內(nèi),我們將在 Google Chat 中加入總結(jié)功能
而且我們正在努力將轉(zhuǎn)錄和總結(jié)功能引入 Google Meet。這樣,用戶可以快速補(bǔ)上重要會(huì)議中錯(cuò)過的部分。
改進(jìn) Google Meet 視頻
當(dāng)然,很多時(shí)候你真的非常希望有一個(gè)虛擬房間,可以讓你和別人待在一起。這就是為什么我們?cè)?Project Starline 的啟發(fā)下,繼續(xù)提高音頻和視頻質(zhì)量。我們?cè)谌ツ甑?I/O 大會(huì)上介紹了 Project Starline。我們一直在 Google 的各個(gè)辦公室進(jìn)行測(cè)試,尋求反饋并為未來改進(jìn)技術(shù)。在這個(gè)過程中,我們發(fā)現(xiàn)了一些可以立刻應(yīng)用于 Google Meet 的技術(shù)。
Project Starline 啟發(fā)了機(jī)器學(xué)習(xí)驅(qū)動(dòng)的圖像處理,可以自動(dòng)改善 Google Meet 的圖像質(zhì)量。而且這項(xiàng)技術(shù)適用于所有類型的設(shè)備,因此無(wú)論你在哪里,都能展現(xiàn)你的最佳形象。
機(jī)器學(xué)習(xí)驅(qū)動(dòng)的圖像處理,自動(dòng)提高了 Google Meet 的圖像質(zhì)量
我們還為 Google Meet 帶來了攝影棚規(guī)格的虛擬燈光。你可以調(diào)整燈光的位置和亮度,所以即使用戶身處黑暗的房間或坐在窗前仍然可以被清晰看到。我們正在測(cè)試這項(xiàng)功能,以確保人像更加真實(shí),這也是我們?cè)?Pixel 手機(jī)上的 Real Tone 和 Monk Scale 所做的工作的推進(jìn)。
這些只是使用 AI 改進(jìn)我們產(chǎn)品的其中一些方式:使產(chǎn)品更有幫助,更容易獲得,并為每個(gè)人提供創(chuàng)新的新功能。
今天在 I/O 大會(huì)上,Prabhakar Raghavan 分享了我們?nèi)绾螏椭藗兝?Google Search 以更直觀的方式找到有用的信息
通過計(jì)算使知識(shí)更易獲得
我們已經(jīng)談到了我們?nèi)绾瓮七M(jìn)知識(shí)的獲取作為我們使命的一部分:從更好的語(yǔ)言翻譯到改進(jìn)的跨圖像和視頻的搜索體驗(yàn),到使用地圖對(duì)世界進(jìn)行更豐富的探索。
現(xiàn)在我們致力于通過計(jì)算使這些知識(shí)更容易獲得。我們?cè)谟?jì)算方面所走過的旅程令人興奮。從桌面到網(wǎng)絡(luò)到移動(dòng)設(shè)備到可穿戴設(shè)備的每一次轉(zhuǎn)變,以及環(huán)境計(jì)算都使知識(shí)在我們的日常生活中更加有用。
盡管我們的設(shè)備很有幫助,但我們不得不相當(dāng)努力地去適應(yīng)它們。我一直認(rèn)為應(yīng)該由計(jì)算機(jī)來適應(yīng)人,而不是人來適應(yīng)計(jì)算機(jī)。我們將繼續(xù)追尋這方面的進(jìn)展。
這里是我們?nèi)绾卫?Google Assistant 使計(jì)算更加自然和直觀地呈現(xiàn)。
推出 LaMDA 2 和 AI Test Kitchen
我們研發(fā)的用于對(duì)話應(yīng)有的生成語(yǔ)言模型 LaMDA 的 Demo,以及 AI Test Kitchen
我們?cè)诶^續(xù)努力提升人工智能的對(duì)話能力。對(duì)話和自然語(yǔ)言處理都能讓人們以更簡(jiǎn)單的方式使用計(jì)算機(jī)。大型語(yǔ)言模型是實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵。
去年,我們發(fā)布了 LaMDA,這是一個(gè)用于對(duì)話應(yīng)用的生成語(yǔ)言模型,可就任何主題展開對(duì)話。今天,我們很高興能公開 LaMDA 2,Google 目前打造的最先進(jìn)的對(duì)話 AI。
目前,這些模型的實(shí)際應(yīng)用還處于初始階段,我們有責(zé)任去不斷完善它們。為了取得進(jìn)展,我們需要使用者體驗(yàn)技術(shù)并提供反饋。我們已經(jīng)向數(shù)千名愿意參與測(cè)試和了解其功能的 Google 同事們開放了 LaMDA,顯著提升了它的對(duì)話質(zhì)量,減少了不準(zhǔn)確或冒犯性的回復(fù)。
這就是我們要研發(fā) AI Test Kitchen 的原因,這是一種與更大范圍的用戶一起探索 AI 功能的新方式。AI Test Kitchen 有數(shù)種不同的體驗(yàn)方式,每種方式都旨在讓用戶了解自己在現(xiàn)實(shí)生活中如何使用 LaMDA。
第一個(gè) Demo 是“想象”,測(cè)試模型是否可以理解用戶提供的創(chuàng)意,生成富有想象力的相關(guān)描述。這些體驗(yàn)方式不是產(chǎn)品,只是讓我們和你能一起探索 LaMDA 能做什么。用戶界面非常簡(jiǎn)單。
假設(shè)你正在寫一個(gè)故事,需要一些靈感。也許你的角色之一正在探索深海,那么你可以問 LaMDA,在這種情境下會(huì)有什么感覺。在此,LaMDA 描繪了馬里亞納海溝里的一個(gè)場(chǎng)景,它甚至還可以即時(shí)生成后續(xù)問題。你可以讓 LaMDA 想象一下那里可能生活著什么樣的生物。需要強(qiáng)調(diào)的是,我們并沒有為一些特定話題,比如潛水艇或生物發(fā)光進(jìn)行手動(dòng)編程,而是 LaMDA 自己根據(jù)訓(xùn)練數(shù)據(jù)整合了這些概念。這就是為什么你幾乎可以詢問任何話題:土星環(huán),甚至是“由冰淇淋制成的星球”。
不跑題是語(yǔ)言模型的一大挑戰(zhàn)。在打造機(jī)器學(xué)習(xí)體驗(yàn)的過程中,我們希望它既足夠開放,讓人們能夠探索好奇心會(huì)把他們帶到哪里,又集中于話題本身。我們的第二個(gè) Demo 展示了 LaMDA 如何做到這一點(diǎn)。
在這個(gè) Demo 中,我們?cè)O(shè)置模型專注于與狗相關(guān)的主題。它首先生成了一個(gè)能開啟對(duì)話的問題:“你有沒有想過為什么狗這么喜歡玩撿東西?”如果你問一個(gè)后續(xù)問題,你會(huì)得到更細(xì)化的答案:狗覺得很有趣,這和狗的嗅覺和狩獵感有關(guān)。
用戶可以就任何方面展開后續(xù)對(duì)話。也許你對(duì)狗的嗅覺的工作原理感到好奇,并且想更深入地研究。那么,你也能得到專門的回復(fù)。無(wú)論你問什么,LaMDA 都會(huì)努力將對(duì)話限定在與狗相關(guān)的這一話題范圍內(nèi)。如果我開始問板球相關(guān)的問題,那么模型可能會(huì)以一種有趣的方式將對(duì)話帶回狗身上。
保持不離題是個(gè)很棘手的挑戰(zhàn),要想使用語(yǔ)言模型打造有用的應(yīng)用程序,這是很重要的一個(gè)研究領(lǐng)域。
AI Test Kitchen 的這些體驗(yàn)表明了語(yǔ)言模型有幫助我們進(jìn)行計(jì)劃、了解世界和完成很多其它事情的潛力。
當(dāng)然,在這些模型真正有用之前,還需要解決一些重大挑戰(zhàn)。雖然我們提高了安全性,但該模型仍可能生成不準(zhǔn)確、不適當(dāng)或冒犯性的回應(yīng)。這就是我們積極邀請(qǐng)用戶提供反饋的原因,這樣他們就可以反饋問題。
我們將按照 Google AI 的原則進(jìn)行所有工作。我們將不斷迭代 LaMDA,在未來幾個(gè)月逐步開放,并仔細(xì)、廣泛地評(píng)估利益相關(guān)者的反饋——從 AI 研究人員和社會(huì)科學(xué)家到人權(quán)專家。我們將把這些反饋整合到 LaMDA 的未來版本中,并隨時(shí)分享我們的發(fā)現(xiàn)。
將來,我們計(jì)劃在 AI Test Kitchen 中添加其它新興 AI 領(lǐng)域。你可以在 g.com/AITestKitchen 中了解更多。
讓 AI 語(yǔ)言模型更強(qiáng)大
LaMDA 2 擁有不可思議的對(duì)話能力。此外,為了探索自然語(yǔ)言處理和 AI 的其它方面,我們最近還公開了新模型 Pathways Language Model(PaLM)。這是我們迄今為止研發(fā)的最大規(guī)模的模型,基于 5400 億參數(shù)訓(xùn)練而成。
PaLM 在許多自然語(yǔ)言處理任務(wù)上都有著突破性的表現(xiàn),例如從文本生成代碼,回答數(shù)學(xué)問題,甚至解釋一個(gè)笑話。
PaLM 通過擴(kuò)大模型規(guī)模實(shí)現(xiàn)了這一點(diǎn)。當(dāng)我們將這種大規(guī)模模型與一種名為“思維提示鏈(chain-of- thought)”的新技術(shù)結(jié)合起來時(shí),結(jié)果是令人充滿希望的?!八季S提示鏈”讓模型可以將需要多步解決的問題轉(zhuǎn)化為一系列的中間步驟來處理。
讓我們以一個(gè)需要推理的數(shù)學(xué)問題為例。通常,我們?cè)谑褂媚P颓靶枰纫云渌鼏栴}和答案訓(xùn)練它,然后再提問。在這個(gè)例子里,問題是:五月有多少個(gè)小時(shí)?可以看到,模型并沒有給出正確的答案。
在“思維提示鏈”中,我們給模型輸入一對(duì)“問題—答案”,同時(shí)解釋了答案是如何得出的。這有點(diǎn)像你的老師一步一步地向你講解如何解題?,F(xiàn)在,如果我們?cè)賳柲P汀拔逶掠卸嗌賯€(gè)小時(shí)”或者其它相關(guān)問題,它能給出正確答案和解答過程。
“思維提示鏈”技術(shù)讓模型能更好地進(jìn)行推理,給出更準(zhǔn)確的答案
“思維提示鏈”大大提高了 PaLM 的準(zhǔn)確性,讓它在包括數(shù)學(xué)問題在內(nèi)的多個(gè)推理基準(zhǔn)測(cè)試(reasoning benchmarks)中達(dá)到了最頂級(jí)水平。我們?cè)诓桓淖兡P陀?xùn)練方式的情況下完成了這一切。
此外,功能強(qiáng)大的 PaLM 還能做到更多。例如,網(wǎng)絡(luò)上現(xiàn)在可能沒有足夠多的以你所使用的語(yǔ)言提供的信息。更令人沮喪的是,你所搜尋的答案可能就在某處,只是沒有以你看得懂的語(yǔ)言呈現(xiàn),而PaLM 提供了一種有望讓每個(gè)人都更容易獲得知識(shí)的新方法。
讓我展示一個(gè)示例,PaLM 可以用孟加拉語(yǔ)(一種有 2.5 億人使用的語(yǔ)言)回答問題,就像我們用孟加拉語(yǔ)的問題,以及孟加拉語(yǔ)和英語(yǔ)的答案訓(xùn)練了它一樣。
就是這樣,現(xiàn)在我們可以開始用孟加拉語(yǔ)提問:“孟加拉國(guó)的國(guó)歌是什么?” 順便說一句,答案是“Amar Sonar Bangla”——PaLM 也答對(duì)了。這并不令人驚訝,因?yàn)樵诿霞永Z(yǔ)資料中很顯然能找到相關(guān)答案。
你還可以嘗試一些不太可能以孟加拉語(yǔ)找到相關(guān)信息的問題,比如:“紐約流行的披薩配料是什么?”該模型再次以孟加拉語(yǔ)做出了正確回答。雖然它的回答到底有多“正確”,這一點(diǎn)很可能在紐約人之間引發(fā)辯論。
令人印象深刻的是,PaLM 從未見過孟加拉語(yǔ)和英語(yǔ)之間的對(duì)譯。我們也從未訓(xùn)練過它如何回答問題或翻譯!該模型自己將所有功能結(jié)合在一起,可以用孟加拉語(yǔ)正確回答問題。我們可以將這些技術(shù)擴(kuò)展到更多的語(yǔ)言和其他復(fù)雜的任務(wù)。
我們對(duì)語(yǔ)言模型的潛力非常樂觀。有朝一日,我們希望我們能以用戶說的任何語(yǔ)言回答更多問題,讓知識(shí)在 Google Search 和其它 Google 的工具中更容易被獲取。
推出全世界最大的開放機(jī)器學(xué)習(xí)中心
我們今天所分享的進(jìn)步之所以能成為現(xiàn)實(shí),離不開我們?cè)诨A(chǔ)設(shè)施方面的持續(xù)創(chuàng)新。我們最近還宣布了 Google 計(jì)劃向美國(guó)各地的數(shù)據(jù)中心和辦公室投資 95 億美元。
我們最先進(jìn)的數(shù)據(jù)中心之一位于俄克拉荷馬州的梅斯縣。我激動(dòng)地宣布:我們將為 Google Cloud 客戶推出全世界最大的開放機(jī)器學(xué)習(xí)中心。
我們最先進(jìn)的數(shù)據(jù)中心之一,位于美國(guó)俄克拉荷馬州梅斯縣
此機(jī)器學(xué)習(xí)中心擁有 8 個(gè) Cloud TPU v4 芯片,是 Google 定制,建在為 Google 最大的神經(jīng)模型提供支持的網(wǎng)絡(luò)基礎(chǔ)設(shè)施之上,能提供接近 9 x 10^18 FLOPS 的算力,可以為 Google 的客戶提供前所未有的運(yùn)行復(fù)雜模型和工作負(fù)荷的能力。我們希望這將推動(dòng)眾多領(lǐng)域的創(chuàng)新,從醫(yī)學(xué)、物流,到可持續(xù)性發(fā)展等等。
說到可持續(xù)發(fā)展,該機(jī)器學(xué)習(xí)中心已達(dá)到 90% 的無(wú)碳能源運(yùn)營(yíng)。這能幫助我們實(shí)現(xiàn)自己的目標(biāo),即到 2030 年時(shí),旗下所有的數(shù)據(jù)中心和園區(qū)實(shí)現(xiàn)全天候無(wú)碳運(yùn)營(yíng),我們要成為第一個(gè)做到這一點(diǎn)的大公司。
在投資數(shù)據(jù)中心的同時(shí),我們也在努力創(chuàng)新 Google 的移動(dòng)平臺(tái),這樣更多的數(shù)據(jù)處理就可以在本地設(shè)備上進(jìn)行。Google 定制的 Google Tensor 芯片是朝此方向邁進(jìn)的重要一步。Pixel 6 和 Pixel 6 Pro 旗艦手機(jī)已搭載 Google Tensor 處理器,讓你的手機(jī)直接擁有 AI 功能,包括我們所應(yīng)用的最好的語(yǔ)音識(shí)別技術(shù)。這也是向“讓設(shè)備更安全”這一目標(biāo)邁出的一大步。與 Android 的 Private Compute Core 結(jié)合后,這項(xiàng)技術(shù)可以直接在設(shè)備上運(yùn)行數(shù)據(jù)驅(qū)動(dòng)的功能,保護(hù)你的隱私。
不管是至關(guān)重要還是微不足道的時(shí)刻,每天都有人向我們的產(chǎn)品尋求幫助。讓這一點(diǎn)成為可能的關(guān)鍵就是在每一步都保護(hù)用戶的隱私信息。盡管技術(shù)正變得日益復(fù)雜,但我們的產(chǎn)品是安全的,從設(shè)計(jì)上保護(hù)隱私,讓用戶擁有控制權(quán),因此,在讓全世界更多人能安全上網(wǎng)這一點(diǎn)上,我們比其他人走得更遠(yuǎn)。
我們今天還分享了 Android 等平臺(tái)的更新,這些更新正通過智能手機(jī)和其他可連接設(shè)備,像電視、汽車、手表,向數(shù)十億人提供訪問、連接和信息。
我們還分享了最新的 Pixel 系列產(chǎn)品,包括Pixel 6a, Pixel Buds Pro, Google Pixel Watch, Pixel 7 和 Pixel 平板電腦,所有產(chǎn)品均融入了環(huán)境計(jì)算的設(shè)計(jì)。我們也很高興能通過一系列設(shè)備更好地為用戶提供幫助。
計(jì)算技術(shù)新前沿——增強(qiáng)現(xiàn)實(shí)技術(shù)
今天,我們討論了所有正在改變我們的技術(shù),它們改變了我們使用計(jì)算機(jī)的方式和獲取知識(shí)的方式。無(wú)論何時(shí)何地,只要有需求,我們都可以找到互聯(lián)互通、緊密協(xié)作的設(shè)備。而對(duì)話界面的加持更為完成任務(wù)提供便利。
展望未來,信息技術(shù)領(lǐng)域有了一個(gè)新戰(zhàn)線,它擁有推動(dòng)現(xiàn)有技術(shù)繼續(xù)發(fā)展的潛質(zhì),它就是增強(qiáng)現(xiàn)實(shí)技術(shù)(AR)。Google 在 AR 領(lǐng)域投入頗多:我們已將 AR 引用到許多產(chǎn)品當(dāng)中,包括Google Lens、多重搜索(multisearch)、場(chǎng)景探索(scene exploration)以及 Google Maps 的 Live Views 和沉浸式視圖功能。
AR 各項(xiàng)性能已應(yīng)用于手機(jī)終端,其神奇之處在于它可以在現(xiàn)實(shí)世界中為我們帶來最真實(shí)、自然的體驗(yàn),仿佛我們并非在使用科技。
最令人振奮的是 AR 的潛力,也就是它能使我們?nèi)リP(guān)注真實(shí)的世界、真實(shí)的生活。要知道,我們所生活的這個(gè)世界本就精彩無(wú)限!
我們基于現(xiàn)實(shí)世界進(jìn)行創(chuàng)作設(shè)計(jì),絕不脫離現(xiàn)實(shí),這一點(diǎn)至關(guān)重要。AR 恰恰是能夠幫助我們實(shí)現(xiàn)這種設(shè)計(jì)理念的新方法。
以語(yǔ)言為例,語(yǔ)言是人與人之間溝通的基礎(chǔ)。然而,如果對(duì)方講著另一種語(yǔ)言,或者會(huì)話的一方有聽覺障礙時(shí),溝通就變得困難重重。我們來看看當(dāng)我們將最新技術(shù)應(yīng)用在翻譯和語(yǔ)言轉(zhuǎn)錄中,并在早期測(cè)試原型中呈現(xiàn)出來時(shí),會(huì)出現(xiàn)什么效果。
如你所見,視頻中的人們能夠自然、順暢地與他人溝通,他們的臉上洋溢著喜悅。理解與被理解,那聯(lián)通的一刻正是我們?cè)谥R(shí)和計(jì)算機(jī)技術(shù)方面所關(guān)注的,是我們通過產(chǎn)品幫助人們實(shí)現(xiàn)的,也是我們每日奮斗追逐的目標(biāo)。
每一年,我們都在向我們的終極使命邁進(jìn),未來的路還很長(zhǎng)。Google 真切地為此感到振奮!我們抱以樂觀的態(tài)度,堅(jiān)信我們?nèi)〉玫耐黄茖⒁I(lǐng)我們完成使命。感謝所有與會(huì)開發(fā)者、合作伙伴和消費(fèi)者。我們期待與各位一起共筑未來。
原文標(biāo)題:Google I/O 2022: 促進(jìn)知識(shí)和計(jì)算機(jī)技術(shù)發(fā)展
文章出處:【微信公眾號(hào):谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
審核編輯:湯梓紅
-
Google
+關(guān)注
關(guān)注
5文章
1755瀏覽量
57386 -
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7385瀏覽量
87645 -
人工智能
+關(guān)注
關(guān)注
1791文章
46707瀏覽量
237221
原文標(biāo)題:Google I/O 2022: 促進(jìn)知識(shí)和計(jì)算機(jī)技術(shù)發(fā)展
文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論