0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MATLAB學(xué)習(xí)筆記|卷積計(jì)算

冬至子 ? 來源:永恒的陀螺儀 ? 作者:大大圈 ? 2023-07-12 14:51 ? 次閱讀

**例2.4 **分別調(diào)用conv()函數(shù)和自己編寫程序計(jì)算f1(t)=cos(t)[u(t)-u(t-10)]和f2(t)=[exp(t)+exp(2t)][u(t)-u(t-10)]的卷積,比較兩種計(jì)算的結(jié)果。

T=0.1; %%%時(shí)間步長,這里可以理解為抽樣函數(shù),

對函數(shù)進(jìn)行抽樣,T越小函數(shù)越精細(xì)

t1=0:T:10; %%%時(shí)間序列,建立一個(gè)數(shù)組

f1=cos(t1); %%%信號(hào)f1

t2=t1;

f2=exp(t2)+exp(-2*t2);%%%信號(hào)f2

f=T*conv(f1,f2); %%%計(jì)算卷積,注意這里乘步長

k0=t1(1)+t2(1); %%%卷積輸出序列的起始

k3=length(f1)+length(f2)-2;

t=k0:T:(k0+T*k3); %%%卷積結(jié)果對應(yīng)的時(shí)間向subplot(3,1,1); %%%繪制信號(hào)f1,subplot函數(shù)的用法是一次可以繪制多個(gè)函數(shù)圖片。subplot(m,n,p),m是輸出圖片的行數(shù),n是輸出函數(shù)的列數(shù),p是該函數(shù)在第幾行出現(xiàn)

plot(t1,f1,'linewidth',2);

title('f1(t)');

subplot(3,1,2); %%%繪制信號(hào)f2

plot(t2,f2,'linewidth',2);

title('f2(t)');

subplot(3,1,3); %%%繪制卷積結(jié)果

plot(t,f,'linewidth',2);

title('convolution of f1(t)and f2(t)');

圖片

MATLAB輸出的卷積結(jié)果

用自己編寫函數(shù)的方法

for k=1:lf1+lf2-1

y(k)=0;                                        %%%y賦初始值

for ii=max(1,k-(lf2-1)):min(k,lf1)

    y(k)=y(k)+f1(ii)*f2(k-ii+1);      %%%信號(hào)相乘和求和

end

yzsappr(k)=T*y(k);                    %%%用乘和加運(yùn)算來近似積分運(yùn)算

end

自己編寫函數(shù)其實(shí)就是實(shí)現(xiàn)matlab中conv()函數(shù)。這個(gè)函數(shù)的功能類似于圖形法求函數(shù)卷積。拿多項(xiàng)式求卷積為例,假設(shè)p=[1,2,3],q=[1,1]。那么其實(shí)conv(p,q)的結(jié)果就是對應(yīng)的多項(xiàng)式乘積。

換個(gè)函數(shù)求卷積試試

按照書上的例題折騰完,換一個(gè)函數(shù)求一下卷積試一下。

圖片

隨便弄了個(gè)二次函數(shù)上去,小編學(xué)藝不精,還要繼續(xù)學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 信號(hào)處理器
    +關(guān)注

    關(guān)注

    1

    文章

    250

    瀏覽量

    25186
  • MATLAB仿真
    +關(guān)注

    關(guān)注

    4

    文章

    175

    瀏覽量

    19847
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FFT與DFT計(jì)算時(shí)間的比較及圓周卷積代替線性卷積的有效性實(shí)

    實(shí)現(xiàn)線性卷積的原理二 實(shí)驗(yàn)內(nèi)容及要求1.對N=2048或4096點(diǎn)的離散時(shí)間信號(hào)x(n),試用Matlab語言編程分別以DFT和FFT計(jì)算N個(gè)頻率樣值X(k), 比較兩者所用時(shí)間的大小。 2.對N/2點(diǎn)
    發(fā)表于 12-29 21:52

    MATLAB卷積編譯碼源代碼

    MATLAB卷積編譯碼源代碼
    發(fā)表于 04-10 20:38

    急求用matlab實(shí)現(xiàn)卷積的編程

    y(n) =x(n)* h(n)上式的運(yùn)算關(guān)系稱為卷積運(yùn)算,式中 代表兩個(gè)序列卷積運(yùn)算。兩個(gè)序列的卷積是一個(gè)序列與另一個(gè)序列反褶后逐次移位乘積之和,故稱為離散卷積,也稱兩序列的線性
    發(fā)表于 10-31 22:29

    畢業(yè)設(shè)計(jì)_分段卷積MATLAB仿真與DSP實(shí)現(xiàn)

    本帖最后由 mr.pengyongche 于 2013-4-30 03:12 編輯 畢業(yè)設(shè)計(jì)_分段卷積MATLAB仿真與DSP實(shí)現(xiàn)  常用的線性卷積方法要求兩個(gè)輸入序列的持續(xù)時(shí)間相同,但在實(shí)際
    發(fā)表于 12-25 13:43

    卷積神經(jīng)網(wǎng)絡(luò)—深度卷積網(wǎng)絡(luò):實(shí)例探究及學(xué)習(xí)總結(jié)

    《深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)—深度卷積網(wǎng)絡(luò):實(shí)例探究 學(xué)習(xí)總結(jié)
    發(fā)表于 05-22 17:15

    求大佬分享MatLab學(xué)習(xí)筆記

    求大佬分享MatLab學(xué)習(xí)筆記
    發(fā)表于 11-19 07:00

    Matlab/Simulink電路建模學(xué)習(xí)筆記

    本文為作者Matlab/Simulink電路建模學(xué)習(xí)筆記歡迎交流討論,喜歡的話點(diǎn)個(gè)贊吧1、打開Simulink并創(chuàng)建文件如圖點(diǎn)擊即可:2、選擇電路所需元件,連接電路選擇元器件主要有兩種方法:在庫
    發(fā)表于 12-31 07:32

    【連載】深度學(xué)習(xí)筆記9:卷積神經(jīng)網(wǎng)絡(luò)(CNN)入門

    ? ? ? 前面的八篇學(xué)習(xí)筆記,基本上都是圍繞著深度神經(jīng)網(wǎng)絡(luò)(DNN)和全連接網(wǎng)絡(luò)(FCN)在學(xué)習(xí)。從本篇開始,筆者將跟著大家一起學(xué)習(xí)和研究深度學(xué)習(xí)
    的頭像 發(fā)表于 10-08 12:56 ?2425次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值反向傳播機(jī)制和MATLAB的實(shí)現(xiàn)方法

    深度學(xué)習(xí)是多層神經(jīng)網(wǎng)絡(luò)運(yùn)用各種學(xué)習(xí)算法解決圖像、文本等相關(guān)問題的算法合集。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要算法,尤其擅長圖像處理領(lǐng)域。卷積神經(jīng)
    發(fā)表于 12-06 15:29 ?14次下載

    如何去理解CNN卷積層與池化層計(jì)算?

    概述 深度學(xué)習(xí)中CNN網(wǎng)絡(luò)是核心,對CNN網(wǎng)絡(luò)來說卷積層與池化層的計(jì)算至關(guān)重要,不同的步長、填充方式、卷積核大小、
    的頭像 發(fā)表于 04-06 15:13 ?2652次閱讀
    如何去理解CNN<b class='flag-5'>卷積</b>層與池化層<b class='flag-5'>計(jì)算</b>?

    MATLAB實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN的源代碼

    MATLAB實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN的源代碼
    發(fā)表于 04-21 10:15 ?16次下載

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)網(wǎng)絡(luò)模型,其特點(diǎn)是具有
    的頭像 發(fā)表于 08-21 16:50 ?1089次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)matlab代碼

    cnn卷積神經(jīng)網(wǎng)絡(luò)matlab代碼? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是深度學(xué)習(xí)中一種常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它是通過
    的頭像 發(fā)表于 08-21 17:15 ?1128次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計(jì)算過程和步驟

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算
    的頭像 發(fā)表于 07-03 09:36 ?239次閱讀

    深度學(xué)習(xí)中反卷積的原理和應(yīng)用

    在深度學(xué)習(xí)的廣闊領(lǐng)域中,反卷積(Deconvolution,也稱作Transposed Convolution)作為一種重要的圖像上采樣技術(shù),扮演著至關(guān)重要的角色。特別是在計(jì)算機(jī)視覺任務(wù)中,如圖
    的頭像 發(fā)表于 07-14 10:22 ?796次閱讀