0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何對圖片進行卷積計算

jf_78858299 ? 來源:算法與編程之美 ? 作者:編程之美 ? 2023-05-22 16:08 ? 次閱讀

**1 **問題

如何對圖片進行卷積計算?

**2 **方法

先導(dǎo)入torch和torch里的nn類,然后設(shè)置一個指定尺寸的隨機像素值的圖片,然后使用nn.conv2d函數(shù)進行卷積計算,然后建立全連接層,最后得到新的圖片的尺寸

步驟:

(1) 導(dǎo)入實驗所需要用到的包

from numpy import pad

import torch

from torch import nn

(2) 設(shè)置一個指定尺寸的圖片

x = torch.rand(128,3,28,28)

(3) 設(shè)置卷積

conv1 = nn.Conv2d(in_channels=3,\\

out_channels=16,kernel_size=3,\\

stride=1,padding=1)

(4) 建立全連接層然后對圖片進行卷積計算,然后對圖片進行拉伸,再將拉伸后的圖片交給全連接層,最后打印救過卷積計算的圖片的尺寸

fc = nn.Linear(in_features=322828,\\

out_features=10)

x = conv1(x) # [128,16,28,28]

x = torch.flatten(x,1) # [128,322828]

out = fc(x)

print(out.shape)

圖片

**3 **結(jié)語

這次實驗我們更加深入的了解了torch的有趣之處,通過對圖片進行卷積計算,設(shè)置卷積計算的通道,設(shè)置卷積核尺寸大小,設(shè)置步長,設(shè)置補充,最后進行拉伸,得到最后的圖片的尺寸,讓我對卷積有了進一步的了解,對卷積的使用以及深度學(xué)習(xí)的魅力有了進一步的了解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4237

    瀏覽量

    61967
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    94

    瀏覽量

    18466
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    794

    瀏覽量

    13010
收藏 人收藏

    評論

    相關(guān)推薦

    什么是卷積碼? 什么是卷積碼的約束長度?

    和復(fù)雜性相同的條件下,卷積碼的性能優(yōu)于分組碼。但卷積碼沒有分組碼那樣嚴(yán)密的數(shù)學(xué)結(jié)構(gòu)和數(shù)學(xué)分析手段,目前大多是通過計算進行好碼的搜索。什么是卷積
    發(fā)表于 05-30 16:06

    FFT與DFT計算時間的比較及圓周卷積代替線性卷積的有效性實

    實驗二 FFT與DFT計算時間的比較及圓周卷積代替線性卷積的有效性實驗:一 實驗?zāi)康?:掌握FFT基2時間(或基2頻率)抽選法,理解其提高減少乘法運算次數(shù)提高運算速度的原理。2:掌握FFT圓周
    發(fā)表于 12-29 21:52

    求函數(shù)計算序列線性卷積結(jié)果

    定義一個函數(shù)文件,功能是采用重疊相加法完成無限長序列與有限長序列的線性卷積,然后用該函數(shù)文件計算序列x[k]=2k+1,0≤k≤18與序列h[k]={1,2,3,4;k=0,1,2,3}的線性卷積結(jié)果。
    發(fā)表于 11-29 13:36

    怎樣進行卷積?

    怎樣才能對示波器的兩個通道進行實時的反卷積,通道是混沌信號,求大神
    發(fā)表于 01-05 19:36

    怎么將一副卷積后的圖片中的負(fù)像素值加絕對值

    在做邊緣檢測時 將圖片乘一個卷積矩陣 比如{1 2 1,0 0 0,-1 -2 -1} 然后這個圖片肯定會出現(xiàn)負(fù)的像素點,怎么對整幅圖像取絕對值 就是將其中負(fù)的像素點變?yōu)檎?/div>
    發(fā)表于 03-23 21:30

    CNN之卷積

    一組固定權(quán)重的神經(jīng)元)對局部輸入數(shù)據(jù)進行卷積計算。每計算完一個數(shù)據(jù)窗口內(nèi)的局部數(shù)據(jù)后,數(shù)據(jù)窗口不斷平移滑動,直到計算完所有數(shù)據(jù)。這個過程中,
    發(fā)表于 10-17 10:15

    計算卷積的方法有哪些

    Winograd,GEMM算法綜述(CNN中高效卷積實現(xiàn))(上)
    發(fā)表于 06-04 09:06

    sTm32可以做卷積核濾波圖片嗎?

    sTm32可以做卷積核濾波圖片
    發(fā)表于 09-21 07:17

    實驗一 連續(xù)時間系統(tǒng)卷積的數(shù)值計算

    通過程序設(shè)計來實現(xiàn)連續(xù)時間系統(tǒng)卷積計算,更深刻的理解卷積的意義。
    發(fā)表于 05-23 18:21 ?1次下載

    什么是卷積_卷積的意義

    取反使得h(i)以縱軸為中心翻轉(zhuǎn)180度,所以這種相乘后求和的計算法稱為卷積和,簡稱卷積。 另外,n是使h(-i)位移的量,不同的n對應(yīng)不同的卷積結(jié)果。如果
    發(fā)表于 11-28 17:54 ?16w次閱讀
    什么是<b class='flag-5'>卷積</b>_<b class='flag-5'>卷積</b>的意義

    五分鐘了解卷積神經(jīng)網(wǎng)絡(luò)

    卷積層中每個節(jié)點的輸入只是上一層神經(jīng)網(wǎng)絡(luò)的一小塊,通常由卷積核來實現(xiàn),卷積核是一個過濾器,可以想象成一個掃描窗口,扣到每張圖片上,然后根據(jù)設(shè)置好的大小步長等等掃描
    發(fā)表于 05-05 10:26 ?1840次閱讀
    五分鐘了解<b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)

    卷積網(wǎng)絡(luò)FCN進行圖像分割

    CNN能夠?qū)?b class='flag-5'>圖片進行分類,可是怎么樣才能識別圖片中特定部分的物體,在2015年之前還是一個世界難題。神經(jīng)網(wǎng)絡(luò)大神Jonathan Long發(fā)表了《Fully Convolutional
    發(fā)表于 09-26 17:22 ?579次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法原理

    卷積神經(jīng)網(wǎng)絡(luò)算法原理? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)(Deep Learning)的模型,它能夠自動地從圖片、音頻、文本等數(shù)據(jù)中提
    的頭像 發(fā)表于 08-21 16:49 ?1099次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建 卷積神經(jīng)網(wǎng)絡(luò)模型是一種深度學(xué)習(xí)算法。它已經(jīng)成為了計算機視覺和自然語言處理等各種領(lǐng)域的主流算法,具有很大的應(yīng)用前景。本篇文章將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)模型的搭建過程,為
    的頭像 發(fā)表于 08-21 17:11 ?835次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計算過程和步驟

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的計算過程和步驟
    的頭像 發(fā)表于 07-03 09:36 ?224次閱讀