**Autonomous driving tech./*SLAM

[SLAM] SLAM 종류 및 특징

2wnswoo 2025. 2. 7. 13:02
  • Visual SLAM (V-SLAM): 카메라를 사용하여 환경을 인식하고 위치를 추정하는 방법입니다. 주로 2D 또는 3D 비디오 데이터를 활용합니다.
  • LiDAR SLAM: 레이저 스캐너인 LiDAR를 사용하여 환경을 스캔하고 위치를 추정하는 방식입니다. 주로 외부 환경에서 높은 정밀도로 사용됩니다.-
  • Indoor SLAM: 실내 환경에서 사용되는 SLAM 기법으로, 보통 제한된 공간에서의 위치 추정과 지도 생성을 목표로 합니다.
  • Outdoor SLAM: 외부 환경에서 작동하는 SLAM으로, 넓은 공간에서의 위치 추정과 지도 생성을 포함합니다.
  • RGB-D SLAM: RGB 카메라와 깊이 센서를 함께 사용하여 3D 정보를 얻고 위치를 추정하는 방법입니다.
  • Mono SLAM ( Monocular Simultaneous Localization and Mapping ) : 단일 카메라만을 사용하여 위치 추정과 지도 작성하는 방법입니다.
  • Multi-Sensor SLAM: 여러 센서를 통합하여 사용하는 SLAM으로, 카메라, LiDAR, IMU(관성 측정 장치) 등을 조합하여 더 정확한 위치 추정을 제공합니다.

--

🔥 Multi-Sensor SLAM이 필요한 이유

  1. 정확한 위치 추정(Localization)
    • GPS는 터널, 고층 빌딩 사이(도심)에서 신호가 약함 → LiDAR/카메라가 이를 보완
    • 카메라는 어두운 환경에서 약함 → LiDAR가 보완
    • IMU는 짧은 시간 동안 빠른 움직임을 추적 가능하지만, 장기적으로 드리프트 발생 → LiDAR/GPS가 보완
  2. 환경 변화에 대한 강인함
    • LiDAR는 거리 측정에 강하지만, 비·눈·안개에 취약
    • 카메라는 저렴하지만, 빛 조건(낮/밤)에 따라 성능이 달라짐
    • GPS는 위치를 알려주지만, 신호가 끊길 수 있음
    • IMU는 순간적인 움직임을 잘 감지하지만, 시간이 지나면 오차가 누적됨

여러 센서를 조합하면 이런 문제들을 보완하며 더 안정적인 SLAM을 구현할 수 있음!


🚗 Multi-Sensor SLAM 구조 예시

📌 자율주행 차량이 센서를 융합해 SLAM을 수행하는 과정

  1. LiDAR → 3D 포인트 클라우드를 생성하여 주변 환경을 정밀하게 스캔
  2. 카메라 (Visual SLAM) → 도로 표지판, 차선, 신호등 등 인식
  3. IMU (관성 센서) → 차량의 가속도 및 회전 정보 제공
  4. GPS/GNSS → 절대적인 위치 정보 제공
  5. Sensor Fusion (EKF, UKF, Graph SLAM 등) → 모든 센서 데이터를 통합하여 최적의 위치 추정

🚀 실제 자율주행 기업들의 Multi-Sensor SLAM 적용 예시

  • Tesla (카메라 + IMU + GPS 기반, LiDAR 없음)
    • 비주얼 SLAM(V-SLAM) 중심, 신경망(Neural Networks)으로 보정
  • Waymo (LiDAR + 카메라 + IMU + GPS)
    • LiDAR 중심 SLAM, HD 맵을 활용한 정밀한 위치 추정
  • Baidu Apollo (LiDAR + 카메라 + IMU + GPS)
    • 센서 융합 기반 SLAM, 다양한 환경에서도 안정적인 주행 가능

✅ 결론

자율주행차는 단일 SLAM이 아니라 Multi-Sensor SLAM을 사용한다고 보는 것이 정확합니다. 🚗💡
➡ 센서 하나만 사용하면 한계가 많기 때문에, 여러 센서를 조합해서 SLAM을 수행하는 것이 자율주행 기술의 핵심! 🎯

 

 

--

 

--

Q. RGB-D slam은 주로 실내에서 사용하나?

 

네, 맞아요! RGB-D SLAM은 주로 실내 환경에서 많이 사용됩니다.

 

🔹 RGB-D SLAM이 실내에서 많이 사용되는 이유

  1. 깊이(Depth) 정보 직접 측정 가능
    • 일반 모노SLAM(단안 카메라 기반)은 깊이를 추정해야 하지만, RGB-D 카메라는 깊이 정보를 직접 제공
    • 실내처럼 구조물이 많고 장애물이 가까운 환경에서 정밀한 3D 매핑이 가능
  2. LiDAR보다 저렴하고 가볍다
    • LiDAR 기반 SLAM보다 비용이 낮고 소형 기기(로봇, AR/VR)에 적합
    • 실내에서 자율주행하는 로봇청소기, 물류 로봇 등에 활용
  3. 실외에서는 한계가 있음
    • 대부분의 RGB-D 카메라는 적외선(IR) 기반 센서를 사용(예: Structured Light, Time-of-Flight)
    • 햇빛이 강한 실외에서는 적외선이 방해를 받아 깊이 측정 오류 발생
    • 보통 몇 미터 이내의 깊이만 측정 가능 → 장거리 환경(도로 주행)에서는 부적합

🚀 RGB-D SLAM 활용 사례 (실내 중심)

  • 로봇청소기 (예: iRobot Roomba)
  • 실내 자율주행 로봇 (예: Amazon Kiva 물류 로봇)
  • AR/VR 기기 (예: Microsoft HoloLens, Meta Quest)
  • 3D 공간 매핑 (예: Intel RealSense를 활용한 실내 3D 스캐닝)

결론

RGB-D SLAM은 실내에서 많이 사용되며, 실외에서는 성능이 제한됨
로봇, AR/VR, 실내 내비게이션 등에 적합한 기술 🚀
실외(자율주행차)에서는 LiDAR + 카메라 + IMU를 조합한 Multi-Sensor SLAM이 더 적합 🚗💡

'**Autonomous driving tech. > *SLAM' 카테고리의 다른 글

[SLAM] Position, Sensing, Path planning  (0) 2025.02.01
[SLAM] Image formation  (0) 2025.02.01
[SLAM] Introduction to SLAM  (0) 2024.12.18