0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個利用GT-SAM的緊耦合激光雷達慣導里程計的框架

工程師鄧生 ? 來源:古月居 ? 作者:月照銀海似蛟龍 ? 2022-09-14 10:11 ? 次閱讀

前言

LIO-SAM的全稱是:Tightly-coupled Lidar Inertial Odometry via Smoothing and Mapping

從全稱上可以看出,該算法是一個緊耦合的雷達慣導里程計(Tightly-coupled Lidar Inertial Odometry),借助的手段就是利用GT-SAM庫中的方法。

LIO-SAM 提出了一個利用GT-SAM的緊耦合激光雷達慣導里程計的框架。

實現(xiàn)了高精度、實時的移動機器人的軌跡估計和建圖。

其中點云運動畸變矯正的代碼在圖像投影的節(jié)點中

23c33d90-33ba-11ed-ba43-dac502259ad0.png

可以看到該節(jié)點 訂閱 3種消息:

原始點云數(shù)據(jù)

原始imu數(shù)據(jù)

imu預積分后預測的imu里程計數(shù)據(jù)其中完成的一個主要功能就是進行畸變矯正。

本篇博客將解讀其畸變矯正處理流程部分。

23d60f9c-33ba-11ed-ba43-dac502259ad0.png

畸變矯正

將點云投影到一個矩陣上,并保存每個點的信息,并在內(nèi)部進行畸變矯正

  void projectPointCloud()  {

    int cloudSize = laserCloudIn->points.size();    for (int i = 0; i < cloudSize; ++i)    {

遍歷整個點云

      PointType thisPoint;       thisPoint.x = laserCloudIn->points[i].x;      thisPoint.y = laserCloudIn->points[i].y;      thisPoint.z = laserCloudIn->points[i].z;      thisPoint.intensity = laserCloudIn->points[i].intensity;

取出對應的某個點

float range = pointDistance(thisPoint);

計算這個點距離lidar中心的距離

      if (range < lidarMinRange || range > lidarMaxRange)        continue;

距離太小或者太遠都認為是異常點

      int rowIdn = laserCloudIn->points[i].ring;      if (rowIdn < 0 || rowIdn >= N_SCAN)        continue;      if (rowIdn % downsampleRate != 0)        continue;

取出對應的在第幾根scan上


scan id 合理判斷


如果需要降采樣,就根據(jù)scan id 適當跳過

      float horizonAngle = atan2(thisPoint.x, thisPoint.y) * 180 / M_PI;       static float ang_res_x = 360.0/float(Horizon_SCAN);      int columnIdn = -round((horizonAngle-90.0)/ang_res_x) + Horizon_SCAN/2;      if (columnIdn >= Horizon_SCAN)        columnIdn -= Horizon_SCAN;      if (columnIdn < 0 || columnIdn >= Horizon_SCAN)        continue;

計算水平角

計算水平分辨率


計算水平線束id ,轉(zhuǎn)換到x負方向為起始,順時針為正方向,范圍[0-H]


對水平角做補償,因為雷達是順時針旋轉(zhuǎn),


對水平id進行檢查

      if (rangeMat.at(rowIdn, columnIdn) != FLT_MAX)        continue;

如果這個位置有填充了就跳過


點云不是完全的360度,可能會多一些

      thisPoint = deskewPoint(&thisPoint, laserCloudIn->points[i].time);

對點做運動補償

rangeMat.at(rowIdn, columnIdn) = range;

將這個點的距離數(shù)據(jù)保存進這個range矩陣種

int index = columnIdn + rowIdn * Horizon_SCAN;

算出點的索引

fullCloud->points[index] = thisPoint;

保存這個點的坐標

之后來看下運動補償?shù)煤瘮?shù)deskewPoint

  PointType deskewPoint(PointType *point, double relTime)  {

    if (deskewFlag == -1 || cloudInfo.imuAvailable == false)      return *point;

判斷是否可以進行運動補償,不能得話則之間返回原點


判斷依據(jù):

deskewFlag 是原始點云 沒有 time得標簽 則為-1

cloudInfo.imuAvailable 的原始imu里面的數(shù)據(jù)判斷

    double pointTime = timeScanCur + relTime;

relTime 是相對時間,加上起始時間就是絕對時間

    float rotXCur, rotYCur, rotZCur;    findRotation(pointTime, &rotXCur, &rotYCur, &rotZCur);

通過findRotation函數(shù) 計算當前點 相對起始點的相對旋轉(zhuǎn)

其內(nèi)部為:

  void findRotation(double pointTime, float *rotXCur, float *rotYCur, float *rotZCur)  {    *rotXCur = 0; *rotYCur = 0; *rotZCur = 0;

先將相對旋轉(zhuǎn)至0

    int imuPointerFront = 0;    while (imuPointerFront < imuPointerCur)    {      if (pointTime < imuTime[imuPointerFront])        break;      ++imuPointerFront;    }

找到距離該點云時間最近的 大于該點云時間的點

    if (pointTime > imuTime[imuPointerFront] || imuPointerFront == 0)    {      *rotXCur = imuRotX[imuPointerFront];      *rotYCur = imuRotY[imuPointerFront];      *rotZCur = imuRotZ[imuPointerFront];    }

如果時間戳不在兩個imu的旋轉(zhuǎn)之間,就直接賦值了

    } else {       int imuPointerBack = imuPointerFront - 1;      double ratioFront = (pointTime - imuTime[imuPointerBack]) / (imuTime[imuPointerFront] - imuTime[imuPointerBack]);      double ratioBack = (imuTime[imuPointerFront] - pointTime) / (imuTime[imuPointerFront] - imuTime[imuPointerBack]);      *rotXCur = imuRotX[imuPointerFront] * ratioFront + imuRotX[imuPointerBack] * ratioBack;      *rotYCur = imuRotY[imuPointerFront] * ratioFront + imuRotY[imuPointerBack] * ratioBack;      *rotZCur = imuRotZ[imuPointerFront] * ratioFront + imuRotZ[imuPointerBack] * ratioBack;    }

否則 作一個線性插值,得到相對旋轉(zhuǎn)


算兩個權(quán)重 進行 插值

    float posXCur, posYCur, posZCur;    findPosition(relTime, &posXCur, &posYCur, &posZCur);

這里沒有計算平移補償 如果運動不快的話

    if (firstPointFlag == true)    {      transStartInverse = (pcl::getTransformation(posXCur, posYCur, posZCur, rotXCur, rotYCur, rotZCur)).inverse();      firstPointFlag = false;    }

計算第一個點的相對位姿

    Eigen::Affine3f transFinal = pcl::getTransformation(posXCur, posYCur, posZCur, rotXCur, rotYCur, rotZCur);    Eigen::Affine3f transBt = transStartInverse * transFinal;

計算當前點和第一點的相對位姿

    newPoint.x = transBt(0,0) * point->x + transBt(0,1) * point->y + transBt(0,2) * point->z + transBt(0,3);    newPoint.y = transBt(1,0) * point->x + transBt(1,1) * point->y + transBt(1,2) * point->z + transBt(1,3);    newPoint.z = transBt(2,0) * point->x + transBt(2,1) * point->y + transBt(2,2) * point->z + transBt(2,3);    newPoint.intensity = point->intensity;    return newPoint;

就是R*p+t ,把點補償?shù)降谝粋€點對應的時刻的位姿

然后看提取出有效的點的信息 函數(shù)cloudExtraction

  void cloudExtraction()  {

    for (int i = 0; i < N_SCAN; ++i)    {

遍歷每一根scan

cloudInfo.startRingIndex[i] = count - 1 + 5;

這個scan可以計算曲率的起始點(計算曲率需要左右各五個點)

      for (int j = 0; j < Horizon_SCAN; ++j)      {

遍歷該 scan上的每 個點

        if (rangeMat.at(i,j) != FLT_MAX)//FLT_MAX就是最大的浮點數(shù)        {

判斷該點 是否 是一個 有效的點


rangeMat的每個點初始化為FLT_MAX ,如果點有效,則會賦值為 range

cloudInfo.pointColInd[count] = j;

點云信息里面 這個點對應著哪一個垂直線

cloudInfo.pointRange[count] = rangeMat.at(i,j);

點云信息里面 保存它的距離信息

 extractedCloud->push_back(fullCloud->points[j + i*Horizon_SCAN]);

他的3d坐標信息

cloudInfo.endRingIndex[i] = count -1 - 5;

這個scan可以計算曲率的終端

在上面處理完后


即可發(fā)布點云

  void publishClouds()  {    cloudInfo.header = cloudHeader;    cloudInfo.cloud_deskewed = publishCloud(&pubExtractedCloud, extractedCloud, cloudHeader.stamp, lidarFrame);    pubLaserCloudInfo.publish(cloudInfo);  }

最后將處理后的點云發(fā)布出去

result

23ec0fe0-33ba-11ed-ba43-dac502259ad0.png

23fb2ef8-33ba-11ed-ba43-dac502259ad0.png

240d608c-33ba-11ed-ba43-dac502259ad0.png





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2852

    瀏覽量

    107269
  • SAM
    SAM
    +關注

    關注

    0

    文章

    111

    瀏覽量

    33480
  • 激光雷達
    +關注

    關注

    967

    文章

    3921

    瀏覽量

    189442

原文標題:LIO-SAM點云預處理前端:畸變矯正

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    激光雷達的維護與故障排查技巧

    激光雷達(LiDAR,Light Detection and Ranging)是利用激光進行距離測量和目標識別的技術(shù)。它廣泛應用于無人駕駛汽車、地理信息系統(tǒng)(GIS)、環(huán)境監(jiān)測、航
    的頭像 發(fā)表于 10-27 11:04 ?358次閱讀

    激光雷達技術(shù)的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領域具有廣泛的應用前景。 二、深度學習技術(shù)的發(fā)展 深度學習是機器學習的分支,它通過模擬人腦的神經(jīng)網(wǎng)絡結(jié)構(gòu)來處理和分析數(shù)據(jù)。近年來,深度學習技術(shù)在圖像識別、語音
    的頭像 發(fā)表于 10-27 10:57 ?257次閱讀

    LIDAR激光雷達逆向建模能用到revit當中嗎

    LIDAR激光雷達逆向建模是利用激光雷達技術(shù)獲取物體表面數(shù)據(jù),然后通過計算機軟件進行建模的方法。在建筑行業(yè)中,這種方法可以用于建筑物的三維建模、結(jié)構(gòu)分析、施工模擬等。Revit是
    的頭像 發(fā)表于 08-29 17:23 ?401次閱讀

    光學雷達激光雷達的區(qū)別是什么

    光學雷達激光雷達是兩種不同的遙感技術(shù),它們在原理、應用、優(yōu)缺點等方面都存在定的差異。以下是對光學雷達激光雷達的比較: 定義和原理 光學
    的頭像 發(fā)表于 08-29 17:20 ?884次閱讀

    激光雷達點云數(shù)據(jù)包含哪些信息

    激光雷達(LiDAR)是利用激光技術(shù)進行距離測量的遙感技術(shù)。它通過發(fā)射激光脈沖并接收反射回來的光束,來測量物體與
    的頭像 發(fā)表于 08-29 17:18 ?655次閱讀

    文看懂激光雷達

    ? ? 文章大綱 城市 NOA 成競爭高地,政策助力高階智能駕駛加速落地 成本下探+智駕升級,2030年激光雷達市場規(guī)模有望超萬億 ? ????·城市 NOA面臨工況復雜問題,激光雷達為“優(yōu)選
    的頭像 發(fā)表于 06-27 08:42 ?534次閱讀
    <b class='flag-5'>一</b>文看懂<b class='flag-5'>激光雷達</b>

    一個激光雷達,需要哪些基本部件?

    激光雷達(LiDAR)是激光探測及測距系統(tǒng)的簡稱,目前廣泛應用在無人駕駛和掃地機器人等領域。這種廣泛的應用方面得益于激光雷達的性能提升,
    發(fā)表于 01-19 14:22 ?941次閱讀
    做<b class='flag-5'>一個</b><b class='flag-5'>激光雷達</b>,需要哪些基本部件?

    華為激光雷達參數(shù)怎么設置

    華為激光雷達種常用的傳感器技術(shù),可用于距離測量和感應。它的參數(shù)設置對于確保其性能和功能至關重要。在本文中,我們將詳細介紹華為激光雷達的參數(shù)設置以及其影響和應用。 首先,我們需要了解激光雷達
    的頭像 發(fā)表于 01-19 14:17 ?1602次閱讀

    禾賽科技激光雷達累計交付突破30萬臺 全球首個創(chuàng)下此里程碑的車載激光雷達公司

    今日,全球激光雷達領導者禾賽科技宣布,公司自成立以來激光雷達累計交付量突破30 萬臺,成為全球首個創(chuàng)下此里程碑的車載激光雷達公司。 ? 自 2022 年 7 月正式開啟前裝量產(chǎn)以來,禾
    的頭像 發(fā)表于 12-27 09:44 ?515次閱讀
    禾賽科技<b class='flag-5'>激光雷達</b>累計交付突破30萬臺 全球首個創(chuàng)下此<b class='flag-5'>里程</b>碑的車載<b class='flag-5'>激光雷達</b>公司

    什么是激光雷達?激光雷達的構(gòu)成與分類

    所謂雷達,就是用電磁波探測目標的電子設備。激光雷達(LightDetectionAndRanging,簡稱"LiDAR"),顧名思義就是以激光來探測目標的雷達
    的頭像 發(fā)表于 12-18 17:18 ?9291次閱讀
    什么是<b class='flag-5'>激光雷達</b>?<b class='flag-5'>激光雷達</b>的構(gòu)成與分類

    激光雷達測量技術(shù)與應用

    的原理和基本構(gòu)造 激光雷達利用激光的特性進行測量。激光種具有高頻率和單色性的電磁波,它可以被定向聚焦成
    的頭像 發(fā)表于 12-15 11:03 ?1063次閱讀

    單線激光雷達和多線激光雷達區(qū)別

    發(fā)射激光束,而多線激光雷達則同時發(fā)射多條激光束。單線激光雷達通常使用旋轉(zhuǎn)鏡和激光二極管的組合
    的頭像 發(fā)表于 12-07 15:48 ?4143次閱讀

    LIO-SAM框架是什么

    里程計(Tightly-coupled Lidar Inertial Odometry),借助的手段就是利用GT-SAM庫中的方法。 L
    的頭像 發(fā)表于 11-24 17:08 ?1123次閱讀
    LIO-<b class='flag-5'>SAM</b><b class='flag-5'>框架</b>是什么

    3d激光SLAMLIO-SAM框架介紹

    里程計(Tightly-coupled Lidar Inertial Odometry),借助的手段就是利用GT-SAM庫中的方法。 L
    的頭像 發(fā)表于 11-22 15:04 ?991次閱讀
    3d<b class='flag-5'>激光</b>SLAMLIO-<b class='flag-5'>SAM</b><b class='flag-5'>框架</b>介紹

    種在線激光雷達語義分割框架MemorySeg

    本文提出了種在線激光雷達語義分割框架MemorySeg,它利用三維潛在記憶來改進當前幀的預測。傳統(tǒng)的方法通常只使用單次掃描的環(huán)境信息來完成語義分割任務,而忽略了觀測的時間連續(xù)性所蘊含
    的頭像 發(fā)表于 11-21 10:48 ?532次閱讀
    <b class='flag-5'>一</b>種在線<b class='flag-5'>激光雷達</b>語義分割<b class='flag-5'>框架</b>MemorySeg