企業(yè)號介紹

全部
  • 全部
  • 產(chǎn)品
  • 方案
  • 文章
  • 資料
  • 企業(yè)

穎脈Imgtec

Imagination為圖形、視覺和AI處理授權(quán)市場領(lǐng)先的處理器解決方案,基于其 IP的產(chǎn)品被全球數(shù)十億人用于他們的手機(jī)、汽車、住宅和工作。

375內(nèi)容數(shù) 29w+瀏覽量 8粉絲

動態(tài)

  • 發(fā)布了文章 2024-06-15 08:27

    科普:GPU和FPGA,有何異同

    來源:內(nèi)容由半導(dǎo)體行業(yè)觀察(ID:icbank)編譯自techspot,謝謝。圖形處理單元(GPU)和現(xiàn)場可編程門陣列(FPGA)是用于成像和其他繁重計算的三種主要處理器類型中的兩種。中央處理器(CPU)是第三種類型。讓我們深入了解GPU和FPGA之間的主要區(qū)別、它們的優(yōu)勢、常見用例以及何時選擇其中一種。什么是FPGA?FPGA(現(xiàn)場可編程門陣列)是一種具有
    528瀏覽量
  • 發(fā)布了文章 2024-06-14 08:27

    HMI界面設(shè)計如何提升智能駕駛的人機(jī)交互信任?

    隨著智能駕駛技術(shù)的不斷進(jìn)步,人們對于自動駕駛系統(tǒng)的信任成為了一個重要的議題。雖然技術(shù)取得了顯著進(jìn)展,但在用戶與系統(tǒng)之間建立信任方面仍存在一些關(guān)鍵問題。本文將闡述用戶不信任智能駕駛的因素,以及如何從HMI及用戶體驗原則角度提升信任度,讓我們的智駕產(chǎn)品使用率更高、獲得更多用戶的認(rèn)可!在智能駕駛中的信任問題1.技術(shù)可靠性智能駕駛系統(tǒng)的穩(wěn)定性和可靠性對用戶的信任至關(guān)
  • 發(fā)布了文章 2024-06-13 08:27

    算力基礎(chǔ)設(shè)施的風(fēng)險與挑戰(zhàn)

    編者按算力網(wǎng)絡(luò)有一個美好的愿景,就是希望算力和算網(wǎng),能像電力和電網(wǎng)一樣:算力可以標(biāo)準(zhǔn)化,有統(tǒng)一的計量單位。類似電力計量的千瓦時,或稱為度數(shù)。有很多算力中心生產(chǎn)算力,類似電廠生產(chǎn)電力。生產(chǎn)出來的算力,通過接入算網(wǎng),最終供應(yīng)給算力的客戶。類似電廠的電力,通過電網(wǎng)接入千家萬戶。算力“隨時隨地,無處不在”,算力客戶可以非常方便的隨時接入任何位置的算力,支撐自己的業(yè)務(wù)
  • 發(fā)布了文章 2024-06-12 08:27

    作為深度學(xué)習(xí)的代表,GPU是如何計算的?

    當(dāng)提到CPU(CentralProcessingUnit,中央處理器)時,就是機(jī)器的“大腦”,是計算機(jī)系統(tǒng)的核心部件,也是布局謀略、發(fā)號施令、控制行動的“總司令”。CPU的結(jié)構(gòu)主要包括運(yùn)算器(ALU,ArithmeticandLogicUnit)、控制單元(CU,ControlUnit)、寄存器(Register)、高速緩存器(Cache)和它們之間通訊的數(shù)
  • 發(fā)布了文章 2024-06-08 08:27

    一篇文章看懂:什么是PBR?

    學(xué)習(xí)建模的同學(xué)肯定會聽說過PBR,它就像“一鍵美顏”一樣,讓模型師的工作變得效率高且質(zhì)量更好。PBR全稱是PhysicallyBasedRendering,是一種以物理上精確的方式模擬光與材質(zhì)相互作用的渲染技術(shù)。它通過考慮材質(zhì)的物理特性(例如反射率、粗糙度和透明度)來創(chuàng)建更真實、更可信的圖形。由于其高度的易用性以及方便的工作流,可以在不同的軟件中渲染出相同的
    1.3k瀏覽量
  • 發(fā)布了文章 2024-06-07 08:27

    RISC-V現(xiàn)在發(fā)展得怎么樣了?

    Omdia的報告預(yù)計,到2030年,RISC-V架構(gòu)芯片的出貨量將達(dá)到170億,市場份額將占到25%,尤其在工業(yè)和汽車行業(yè)增長加快。這一預(yù)測也表明RISC-V架構(gòu)正迅速獲得市場認(rèn)可,也意味著它或?qū)⒋蚱崎L期以來由少數(shù)傳統(tǒng)架構(gòu)主導(dǎo)的市場格局。RISC-V的巨大市場潛力得益于以下幾方面:開源優(yōu)勢:RISC-V是一個開源的指令集架構(gòu),這意味著
    276瀏覽量
  • 發(fā)布了文章 2024-06-06 08:28

    如何從處理器和加速器內(nèi)核中榨取最大性能?

    利用緩存增強(qiáng)低成本、上一代或中端的SoC。一些設(shè)計團(tuán)隊在創(chuàng)建片上系統(tǒng)(SoC)設(shè)備時,有幸能夠使用最新和最先進(jìn)的技術(shù)節(jié)點,并且擁有相對不受限制的預(yù)算來從可信的第三方供應(yīng)商那里獲取知識產(chǎn)權(quán)(IP)模塊。然而,許多工程師并沒有這么幸運(yùn)。對于每一個“不惜一切代價”的項目,都有一千個“在有限預(yù)算下盡你所能”的對應(yīng)項目。一種從成
  • 發(fā)布了文章 2024-06-05 08:27

    通過強(qiáng)化學(xué)習(xí)策略進(jìn)行特征選擇

    來源:DeepHubIMBA特征選擇是構(gòu)建機(jī)器學(xué)習(xí)模型過程中的決定性步驟。為模型和我們想要完成的任務(wù)選擇好的特征,可以提高性能。如果我們處理的是高維數(shù)據(jù)集,那么選擇特征就顯得尤為重要。它使模型能夠更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強(qiáng)化學(xué)習(xí)策略的特征選擇。我們先討論強(qiáng)化學(xué)習(xí),尤其是馬爾可夫決策
  • 發(fā)布了文章 2024-06-04 08:27

    大語言模型(LLM)快速理解

    自2022年,ChatGPT發(fā)布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學(xué)習(xí)理解LLM的開始,先來整體理解一下大語言模型。一、發(fā)展歷史大語言模型的發(fā)展歷史可以追溯到早期的語言模型和機(jī)器翻譯系統(tǒng),但其真正的起點可以說是隨著深度學(xué)習(xí)技術(shù)的興起而開始。1.1統(tǒng)計語言模型在深度學(xué)習(xí)技術(shù)出現(xiàn)之前,語言模型主要基于傳統(tǒng)的統(tǒng)
    655瀏覽量
  • 發(fā)布了文章 2024-05-31 08:28

    淺談車機(jī)交互的現(xiàn)狀和未來

    車載信息娛樂系統(tǒng)的發(fā)展歷史并不長,走向智能化、網(wǎng)聯(lián)化只是過去十幾年間的事情??v觀其發(fā)展歷程,大致可以分為三個階段:初級階段(1910年至1990年代):1910年,愛立信創(chuàng)始人拉什·馬格拉斯·愛立信(LarsMagnusEricsson)在他的車內(nèi)安裝了一部電話,與其說為了滿足富豪車主需求,更像是推廣自家產(chǎn)品。1924年,雪佛蘭打造出世界上首款車載收音機(jī),標(biāo)

企業(yè)信息

認(rèn)證信息: 穎脈Imgtec

聯(lián)系人:暫無

聯(lián)系方式:
關(guān)注查看聯(lián)系方式

地址:暫無

公司介紹:暫無

查看詳情>