(좌측부터) 서울대학교 기계공학부 안성훈 교수(교신저자), 서울대학교 기계공학부 안세민 박사과정생(제1저자), 서울대학교 허준 박사과정생(공동저자), 서울대학교 김재훈 석사과정생(공동저자). (사진=서울대학교)
[뉴스토마토 임삼진 객원기자] "이제는 귀로 공간을 본다." 서울대학교 공과대학 기계공학부 안성훈 교수팀이 단 하나의 마이크만으로 사람이나 물체의 위치를 3차원으로 정밀하게 추정할 수 있는 청각 센서 기술을 세계 최초로 개발했습니다. 박쥐나 돌고래처럼 소리를 따라 공간을 인식하고, 음성만으로 로봇이 반응하는 시대가 점점 현실로 다가오고 있습니다.
지금까지 사람이나 사물의 위치를 소리로 파악하려면 다수의 마이크를 정교하게 배치해 소리가 도달하는 시간차(TDOA)를 분석하거나, 빔포밍(Beamforming) 같은 복잡한 알고리즘을 적용해야 했습니다. 하지만 이 기술은 센서 설치가 어렵고 비용도 많이 들며, 고소음 환경에서는 오작동 가능성도 큽니다.
서울대 안 교수팀은 이러한 한계를 뛰어넘어, 단 하나의 센서만으로 소리의 방향과 거리, 즉 3차원 위치를 추정하는 시스템을 개발했습니다. 이 기술의 핵심은 ‘메타구조 기반 회전 마이크 시스템’에 있습니다. 특정 방향의 소리만 선택적으로 증폭하고, 나머지는 상쇄시키는 위상 제어 원리를 이용해, 복잡한 환경 속에서도 정확히 소리의 위치를 잡아냅니다.
연구진은 이 기술을 ‘3DAR(3D Acoustic Ranging)’라고 명명했습니다. 기존의 센서가 사람의 음성 명령이나 비명, 기계 이상음 등을 단순히 감지하는 수준에 그쳤다면, 3DAR는 그 소리의 정확한 위치를 파악할 수 있어 산업, 구조, 방재, 로봇 분야에서 활용도가 매우 높다는 것이 연구팀의 설명입니다.
이 기술이 구현된 방식도 흥미롭습니다. 박쥐가 초음파를 발사한 뒤 반사되는 소리를 귀로 분석하듯, 연구진은 청각이 공간을 인식하는 방식에 착안해 공학적 위상 상쇄 메커니즘을 설계했습니다. 이 마이크는 회전하면서 특정 방향에서 오는 소리를 위상 보정해 증폭하고, 나머지 방향에서 오는 소리는 소거합니다. 이를 통해 단일 센서임에도 불구하고 입체적인 공간 정보를 파악할 수 있습니다.
안 교수팀은 한발 더 나아가 사람과 로봇, 로봇과 로봇 간의 소리 기반 이중 통신 시스템도 함께 개발했습니다. 사람은 가청 주파수로 로봇에 지시를 내리고, 로봇끼리는 비가청 주파수로 독립적으로 소통할 수 있는 구조입니다. 이중 채널 방식은 신호 간섭을 최소화하면서도, 고소음 환경이나 네트워크가 제한된 상황에서도 유기적인 로봇 협업을 가능하게 만듭니다.
연구팀이 개발한 3DAR(3D Acoustic Ranging). (사진=서울대학교)
이 기술은 국제 로봇·공학 학술지인 <Robotics and Computer-Integrated Manufacturing>에 게재되었습니다. 안 교수는 “벽이나 장애물에 막히는 기존의 전자기파 기반 통신과 달리, 소리는 좁은 틈만 있어도 전달된다”라며 “청각 기반 상호작용 기술은 향후 로봇의 사고 방식과 감각 체계를 근본적으로 바꿔놓을 것”이라고 강조했습니다.
실제로 연구진은 이 기술을 사족보행 로봇에 탑재해, 가스 누출음 탐지, 사람의 음성 인식, 긴급 상황 대응 시나리오 등을 시연했습니다. 마치 ‘눈을 감은 채 귀로 상황을 인지하는 로봇’이 작동하는 셈입니다.
기술의 활용 가능성은 무궁무진합니다. 스마트 팩토리에서는 작업자의 위치를 실시간으로 파악해 로봇과의 충돌을 막고, 제스처나 버튼 없이도 소리만으로 로봇을 조작할 수 있는 작업 환경을 구축할 수 있습니다. 또한 로봇끼리도 무선통신 없이 소리만으로 독립적이고 안전한 협업이 가능해집니다.
재난 구조 상황에서도 위력이 클 것으로 보입니다. 연기, 어둠, 파편으로 시야 확보가 어려운 상황에서 사람이 내는 구조 요청 음성을 탐지하고, 위치를 추정해 접근할 수 있는 로봇은 구조 현장의 판도를 바꿀 수 있습니다.
또한 이 기술은 24시간 무인화 공장의 모니터링에도 유용할 것으로 전망됩니다. 배관 누수, 기계 이상음, 작업자 사고음 등을 자동으로 감지하고 위치를 추정하면 즉각적인 대응이 가능하기 때문입니다. 아울러 단일 센서 기반의 저비용·소형 시스템 덕분에, 앞으로 무인화가 실현될 다른 산업 현장에도 쉽게 도입될 수 있는 범용성을 갖추고 있습니다.
논문의 제1저자인 안세민 박사과정생은 “기존에는 소리로 위치를 추정하려면 다수의 마이크가 필요했고, 고성능 계산이 뒤따라야 했다”라며 “이번 개발은 회전하는 단일 마이크만으로 3차원 위치 추정이 가능하다는 점에서, 음향 센싱 기술의 새로운 지평을 연 것”이라고 말했습니다.
기술은 실용성 면에서도 경쟁력이 있습니다. 저비용, 소형 구조를 기반으로 하고 있어 대규모 공장뿐 아니라 소형 로봇, 드론, IoT 기기 등에도 손쉽게 이식 가능합니다. 연구진은 향후 이 기술에 거대언어모델(LLM) 기반 인지 시스템을 접목해, 인간의 언어를 ‘듣고 이해하며 반응하는’ 휴머노이드 로봇으로 발전시킬 계획입니다.
서울대 안성훈 교수팀의 이번 연구는, 눈이 아닌 귀로 환경을 인식하고, 소리로 인간과 교감하며, 스스로 판단하는 로봇 시대의 개막을 예고하고 있습니다. 음향 기반 위치 추정 기술은 눈에 보이지 않는 공간 정보를 소리로 ‘가시화’한다는 점에서 기술적 의미가 큽니다. 복잡해지는 도시, 스마트한 기기, 자율적 움직임이 늘어나는 시대에 이 기술은 조용하지만 강력한 눈으로 진화하고 있습니다.
(좌측부터) 어쿠스틱 메타구조를 통한 위상 상쇄 매커니즘(Phase cancellation mechanism)의 구동 원리, 이를 통한 단일 센서의 지향성(빔포밍 성능) 향상, 회전을 통한 3차원 음향 탐지(3DAR). (사진=서울대학교)
임삼진 객원기자 isj2020@kosns.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 강영관 산업2부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지