“네이버의 기술 플랫폼 비전은 AI다. 인공지능(Artificial Inelligence)이 아닌 생활환경지능(Ambient Intelligence)이다.”
네이버가 기술 플랫폼으로서 방향과 비전을 밝혔다. 송창현 네이버 CTO가 개발자 행사 ‘데뷰 2018‘에서 밝힌 비전은 ‘생활환경지능’이다. 상황이나 환경을 인지해 필요한 정보를 사용자에게 자연스럽게 연결해주는 기술이다. ‘데뷰 2016’부터 밝혀온 생활환경지능에 대한 비전을 다시 한번 명확히 한 셈이다. 네이버는 특히 위치와 이동을 기반으로 한 생활환경지능 기술 연구에 중점을 두고 있다. 기술을 삶 속에 자연스럽게 스며들게 하기 위해 실제 공간과 서비스를 연결해주는 가장 핵심적인 기술이라고 보았기 때문이다. 이날 네이버는 자율주행을 위한 기술플랫폼 ‘xDM 플랫폼’ 등 위치와 이동 기반의 기술을 대거 공개했다. 또 개편된 기업용 네이버지도 API도 발표했다.
| 송창현 네이버 CTO
네이버는 10월11일 삼성동 코엑스 그랜드볼룸에서 자사의 연례 개발자 행사 ‘데뷰 2018’을 열었다. 올해로 11회째를 맞은 이번 행사에는 국내외 개발자 2700명이 참여했다. 이틀간 열리는 데뷰 2018에서는 실무 서비스 개발 노하우뿐만 아니라 검색, 음성인식 및 자연어 처리, 딥러닝 등 최신 기술을 공유하는 총 44개 세션이 진행된다. 이날 송창현 네이버 CTO는 ‘AI, 인공지능이 아니라 생활환경지능’이라는 주제로 기조연설에 나섰다. 송창현 CTO는 “기술은 일상의 ‘유익함’과 ‘즐거움’을 실현하기 위한 ‘도구’라며, 생활 속의 상황과 환경을 인지하고 이해해 필요한 정보나 액션을 적시에 자연스럽게 제공하는 생활환경지능 기술이 네이버가 추구하는 기술 전략의 핵심”이라고 밝혔다. 또 인공지능은 생활환경지능 구현을 위한 기술 중 일부라고 덧붙였다.
왜 생활환경지능일까
생활환경지능은 네이버가 2016년부터 강조해오던 개념이다. 사람과 정보를 연결하는 기기가 PC에서 모바일로 점점 작아지면서 기술이 삶에 녹아들고 있다는 점을 짚어, 사용자나 주변 상황을 인식해 원하는 서비스를 적재적소에 제공하는 기반 기술을 제공하겠다는 비전을 담고 있다. 기술을 사용자에게 더 긴밀하고 자연스럽게 연결해주는 게 목표다. 송 CTO는 검색을 예로 들며 과거에는 사용자가 입력한 ‘검색/질의(query)’에 대한 검색 결과를 나열해 보여줬다면, 최근에는 질의의 종류가 텍스트뿐만 아니라 음성, 이미지 등으로 다양해지고 있고 사용자의 위치나 이동 등 다양한 상황과 맥락을 포함하고 있다고 짚었다. 또 가까운 미래에는 질의 없이 맥락만으로 사용자의 의도를 파악해 적절한 행동으로까지 연결해주는 기술이 필요해질 것으로 전망했다.
네이버는 생활환경지능 구현을 위해 ▲사물, 상황, 공간·위치에 대한 인식과 이해 ▲적시에 답이나 추천, 액션을 제공하는 예측 ▲배우지 않아도 되는 자연스러운 사용자경험 기술들을 연구개발하고 있다고 밝혔다. 송 CTO는 AI 이미지 검색 기능 ‘스마트 렌즈’, AI 플랫폼 ‘클로바’, 키즈 웨어러블폰 ‘아키’, AI 추천 서비스 ‘에어스(AiRS)’ 등을 생활환경지능 기술의 결과물로 소개했다.
자율주행을 위한 ‘xDM 플랫폼’
네이버가 특히 집중하는 부분은 위치와 이동 기반의 생활환경지능 기술이다. 네이버랩스는 자율주행차, 인공지능, 로보틱스, 3D 지도 등을 주로 연구하고 있다. 데뷰 2018에서는 해당 연구개발의 구체적인 결과물로 xDM 플랫폼이 처음으로 공개됐다. xDM 플랫폼은 사람과 자율주행 머신을 위한 위치 및 이동 기반 기술 플랫폼으로, ‘eXtended Definition & Dimension Map Platform’의 약자다. 네이버랩스에서 연구 중인 지도 구축(맵핑), 측위, 내비게이션 기술과 고정밀 데이터를 통합했다. 즉 사람과 자율주행 머신이 길을 찾는 데 필요한 기술을 담고 있다.
| xDM 플랫폼 개념도
xDM은 대상에 따라 2가지 플랫폼으로 나뉜다. 사람의 위치 정보 인식과 실내외 길찾기 등을 위한 웨이파인딩 API 플랫폼 ‘xDM.w’와, 기계의 자율주행을 위한 오토노머스 모빌리티 플랫폼 ‘xDM.a’으로 구분된다. xDM.w는 실내외 측위와 이동 솔루션을 제공하는 도보 내비게이션 API, 위치 API, 증강현실(AR) 기술을 활용한 AR 내비게이션 API를 통합적으로 담고 있으며, xDM.a는 자율주행 로봇을 위한 어라운드(AROUND) 플랫폼과 자율주행차를 위한 하이브리드 HD맵 솔루션 등을 포함하고 있다.
xDM 플랫폼은 다양한 위치 기반 서비스와 모빌리티 연구에 활용될 수 있도록 API와 SDK 등 형태로 개발자들에게 지속해서 공개될 예정이다.
‘xDM 플랫폼’이 적용된 실제 서비스들
이날 기조연설에서는 실내에서 스마트폰 카메라로만 작동하는 AR 도보 내비게이션이 처음으로 소개됐다. 스마트폰 카메라로 코엑스 실내를 비추면 자동으로 공간을 인식하고 AR 가이드가 나타나는 식이다. 사이니지나 간판도 인식해 더욱 정교한 실내 길찾기 안내를 돕는다. 네이버랩스는 10일 인천공항공사와 업무협약을 체결하고 AR 내비게이션 서비스가 들어간 인천공항공사 공식 가이드 앱을 개발 중이다.
| 실내 공간 길찾기를 효율적으로 지원하는 ‘AR 내비게이션’
기조연설에서는 자율주행 가이드 로봇 ‘어라운드 지(AROUND G)’도 공개됐다. 자율주행 서비스 로봇의 대중화를 목표로 네이버랩스가 개발한 독자적인 솔루션 ‘어라운드 플랫폼’이 적용된 로봇이다. 저가의 센서와 낮은 프로세싱 파워만을 가지고도 정확도 높은 실내 자율주행을 구현할 수 있다는 점이 특징이다. 웨이파인딩 API와 AR 내비게이션이 적용해 쇼핑몰이나 공항처럼 현재 위치와 도착지까지 경로를 혼동하기 쉬운 대규모 실내 공간에서도 직관적인 길안내가 가능하다.
| 자율주행 가이드 로봇 ‘어라운드 지(AROUND G)’
이 밖에도 자율주행차랑용 HD맵 솔루션 ‘하이브리드 HD맵’과 3D AR HUD ‘어헤드’도 선보였다. 하이브리드 HD맵 솔루션은 고층건물이 많아 GPS 신호가 좋지 않은 음영지역에서도 끊김 없이 안정적이고 정확한 측위를 지원한다. 고화질 비행기에서 촬영한 항공사진 데이터와 이동형 매핑 시스템, 자율주행차량에 장착된 GPS 센서, IMU 센서(관성항법장치), CAN(차량정보) 데이터, LIDAR(레이저 센서) 신호, 카메라 영상 등의 정보들을 결합해 고정밀 HD맵을 효율적으로 생성한다. 어헤드는 기존 HUD와 달리 운전자의 초점에 맞춰 실제 도로와 디스플레이 시점이 동일하도록 자연스럽게 정보를 제공하는 3D 디스플레이 기술이 적용된 것이 특징이다.
| 3D AR HUD ‘어헤드’
네이버지도 ‘엔터프라이즈 API’와 ‘다이나믹 지도판’
기존 네이버지도 오픈 API는 ‘엔터프라이즈 API’로 확대 개편된다. 웹, 모바일 API 2가지만 제공되던 것에서 디렉션, 서치 플레이스 등 총 6개의 API가 추가된다. 이에 따라 개발사들은 지도를 불러오거나 위도 경도 등 좌표-주소 간 변환을 넘어 음식점이나 관광지 등 특정한 장소에 대한 POI(Point of Interest) 정보 검색, 해당 장소에 대한 길찾기 등 더욱 다양한 기능들을 구현할 수 있게 됐다. 향후에는 네이버 클라우드 플랫폼이 개발자센터를 대체해 지도 API를 공급할 예정이다.
기존 네이버지도 API는 하루 20만 쿼터를 넘으면 사용할 수 없었지만, 엔터프라이즈 API는 이용료를 지불하면 기본 제공량 이상 사용할 수 있다. 모바일 지도 로딩은 제한없이 무료로 쓸 수 있다. 엔터프라이즈 API는 11월13일 출시될 예정이다.
| 엔터프라이즈 API 이용 체계
네이버 지도에 새로운 기능도 업데이트된다. ‘다이나믹 지도판’은 화면에서 특정 장소에 대한 부가정보들을 한눈에 확인할 수 있는 기능이다. 네이버 예약과 연동해 자신이 예약한 장소와 관련된 정보도 지도 위에서 확인할 수 있다. ▲프로야구 경기장 ▲음식점, 미용실 등 네이버 예약 연동 장소 ▲호텔·펜션·리조트 등의 숙박 업체에 먼저 적용되며, 향후 적용 대상과 범위를 점차 늘려갈 계획이다.
spirittiger@bloter.net