김재호

자율주행 모빌리티를 위한 계산과학 기술(2) 본문

2025 co-week

자율주행 모빌리티를 위한 계산과학 기술(2)

Kimjaeho 2025. 7. 1. 22:54

아래의 내용은  인하대학교 김광기 교수님의 수업을 바탕으로  제작하였습니다.

PART I - Section A : Computational Methods for perception/estimation

Perception이란?

자율주행 시스템에서 Perception(인지)는 말 그대로 로봇이 센서 데이터를 해석하여 주변환경이나 자기 자신의 상태를 추론하는 과정을 의미한다.

🔍 로봇 인지의 정의

로봇은 다양한 센서(LiDAR, 카메랴, IMU 등)를 통해 세상과 접촉하고, 그 데이터를 해석해 "내가 어디에 있는지", "주변에 무엇이 있는지"를 인식하게 된다.

 

🧠 인지의 수학적 기반: Bayesian Inference

Perception은 단순 센서 처리에 그치지 않는다. 실제로는 베이즈 추론을 기반으로 한 확률적 계산이 핵심이다.

  • 센서 데이터(Evidence)를 기반으로
  • 다양한 가설(Hypotheses) 중
  • 가장 가능성 높은 환경 상태를 추론합니다.

이 과정은 자율주행 시스템의 지각 → 판단 → 제어 흐름 전체의 기반이 되며, 실시간으로 이루어져야 한다.

 

 

🧭 좌표계와 상대 위치: Relative Pose

자율주행에서 가장 많이 나오는 질문 중 하나는 "로봇은 지금 어디에 있는가?"이다.

이때 필요한 것이 상대 자세(Relative Pose) 다. 서로 다른 좌표계 간의 관계를 수학적으로 표현한 것이다.

예를 들어

  • {Camera} 기준에서 본 {Object}의 위치
  • {World} 기준에서 본 {Robot}의 자세
  • {Drone}이 본 {Target}의 상대 위치

이런 모든 정보는 Homogeneous Transformation Matrix 형태로 나타낼 수 있다.

🔁 상대 자세의 핵심

  • 좌표계 간 변환을 통해 센서 데이터를 통합
  • 로봇의 Pose Graph 생성 및 최적화에 활용

📊 Pose Graph: 로봇 위치의 그래프 표현

Pose Graph는 로봇이 이동한 경로와 위치를 그래프 구조로 표현한 것이다.

 

  • 노드(Vertices): 로봇의 위치 (Pose)
  • 간선(Edges): 위치 간의 상대 자세 (Relative Pose)

이 그래프는 SLAM, Visual Odometry 등의 핵심 자료구조로 쓰이며, 나중에 최적화를 통해 정밀 위치 추정을 수행한다.

 

🧪 센서 캘리브레이션과 융합

자율주행 시스템에서는 여러 센서 데이터를 정밀하게 정렬하고 통합하는 것이 중요하다.

📌 두 가지 캘리브레이션

  1. Intrinsic Calibration: 센서 내부 파라미터 보정 (예: 카메라 렌즈 왜곡)
  2. Extrinsic Calibration: 센서 간 상대 위치 보정 (예: LiDAR ↔ Camera)

보정 과정은 보통 Least Squares Optimization으로 수행되며, 수학적 최적화가 핵심이다.

 

🛰️ 위치 추정(Localization)까지의 연결

Perception으로부터 얻은 정보는 Localization(자기 위치 추정)으로 연결된다.

  • 칼만 필터(Kalman Filter), 파티클 필터
  • 비선형 Least Squares 기반 위치추정
  • VIO / LIO / LVIO 등의 다양한 방식 (시각관성, LiDAR 융합 등)

이 모든 과정은 수치 해석, 최적화, 확률론 기반 계산이 긴밀히 엮여 있다.

 

* 자율주행에서의 Perception & Estimation은 단순히 센서 데이터를 읽는 작업이 아니다. 

복잡한 수학적 구조와 알고리즘으로 이루어진 핵심 모듈이며, 그 자체가 하나의 거대한 계산과학 시스템이다.

 

To be continued in the next part