UNIST 주경돈 교수팀, 인공신경망 모델 개발

UNIST 연구팀이 개발한 카메라기반 자율주행 인공지능 모델과 기존 모델의 비교도. UNIST 제공
카메라 기반 자율주행차가 주변 환경을 더 정확하게 볼 수 있게 하는 인공지능(AI) 기술이 개발됐다. 그림에 원금감을 부여하는 기하학적 장치인 ‘소실점’을 활용한 기술이다.
울산과학기술원(UNIST) 인공지능대학원 주경돈 교수팀은 카메라를 통해 입력된 정보의 원근 왜곡 문제를 보완하는 인공지능 모델인 ‘VPOcc’를 개발했다고 15일 밝혔다.
연구팀에 따르면 자율주행차와 로봇의 인공지능은 카메라나 라이다 센서로 주변을 인식한다. 카메라는 라이다보다 저렴하고 가벼우며 색·형태 등 풍부한 정보를 제공하지만, 3차원 공간을 2차원 이미지로 표현하기 때문에 거리에 따른 크기 왜곡이 크다. 가까운 물체는 더 크게, 먼 물체는 더 작게 보이면서 멀리 있는 사물을 놓치거나 가까운 영역만 강조되는 오류가 생긴다.
이에 연구팀은 인공지능이 소실점을 기준으로 정보를 재구성하도록 설계해 이 문제를 해결했다. 소실점은 르네상스 시대 화가들이 정립한 원근감 부여 기법이다. 차선이나 철로 같이 평행한 선들이 멀리서는 맞닿은 것처럼 보이는 지점을 말한다.
사람이 화폭 위의 소실점을 보고 평면에서 깊이감을 느끼는 것처럼 개발된 인공지능 모델은 소실점을 기준으로 삼아 카메라 영상 속에서 깊이와 거리를 더 정확히 복원하게 된다.
이 모델은 크게 세 가지 모듈로 구성돼 있다. 소실점을 기준으로 영상을 보정해 원근 왜곡을 줄이는 모듈(VPZoomer), 멀고 가까운 영역에서 균형 잡힌 정보를 추출하는 모듈(VPCA), 원본과 보정 영상을 합쳐 서로의 약점을 보완하는 모듈(SVF)이다.
실험 결과 VPOcc은 여러 벤치마크에서 공간 이해 능력(mIoU)과 복원 능력(IoU) 모두 기존 모델을 뛰어넘었다. 특히 자율주행에 중요한 도로 환경에서 멀리 있는 객체를 선명하게 예측하고, 겹쳐 있는 객체를 더 정확히 구분했다.
이번 연구는 UNIST 김준수 연구원이 제1저자로 주도했고, UNIST 이준희 연구원과 미국 카네기멜론대학교 연구진이 참여했다.
연구 성과는 지난 3월 제31회 삼성휴먼테크논문대상에서 은상을 수상했고, 지능형 로봇 분야 권위 학회인 ‘IROS 2025’에 채택됐다. 올해 학회는 오는 19일부터 25일까지 중국 항저우에서 열린다.
연구 수행은 과학기술정보통신부와 한국연구재단의 지원을 받아 이뤄졌다.
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지