[뉴스토마토 오세은 기자] 네이버가 다음 달 안전하고 윤리적인 AI 서비스 구축을 위한 ‘안전 프레임 워크(기본 구조)’ 공개를 예고하면서 그 기능과 역할에 관심이 모아집니다. 고도화된 AI가 종교·인종·성별 등에 대해 편향적인 답변을 내놓는 등 AI 활용 부작용 사례가 늘면서 네이버는, 향후 자사가 내놓을 AI 서비스에서 이슈가 될 만한 문제들을 사전에 차단할 수 있는 ‘방지턱’을 국내에서는 처음으로 선보일 전망입니다.
28일 업계에 따르면 네이버는 조만간 회사가 향후 내놓을 여러 AI 서비스에 대한 안전장치 개념인 ‘네이버 AI 세이프티 프레임 워크’를 공개합니다. 앞서 지난 21일 서울 AI 정상회의에서 이해진 네이버 글로벌투자책임자(GIO)는 “네이버는 다양성을 통해 연결이 더 큰 가치를 창출할 수 있도록 기술과 서비스를 실현해왔고, AI 윤리 준칙 발표에 이어 보다 구체화된 안전 실행 프레임워크인 ‘네이버 AI 세이프티 프레임워크’를 다음 달 공개할 예정”이라고 밝혔습니다.
‘안전 프레임 워크’는 안전성을 확보하고 편향된 답변을 도출하지 않는 네이버의 AI 서비스의 기본 틀이 될 것으로 보입니다. 네이버가 선제적으로 이같은 시스템을 구축하는 건, AI 기술 경쟁이 한껏 치달으면서 양방향 소통이 가능한 생성형 AI 모델이 속속 시장에 선을 보이는 가운데 부작용 사례 또한 잇따르고 있기 때문입니다. 특히 AI가 종교나 인종 등에 대한 편파적인 답을 내놓는 등의 윤리적 문제가 우선 해결과제로 떠올랐습니다.
2019년 6월 이해진 네이버 글로벌투자책임자(GIO)가 지난 18일 종로구 포시즌스호텔에서 열린 '한국사회학회·한국경영학회 공동 심포지엄'에서 '한국 인터넷 산업의 선구자에게 듣다: 네이버 창업과 성장의 경험'을 주제로 대담하고 있다. (사진=연합)
실제로 미국 더버지, 뉴욕타임스 등에 따르면 구글의 새로운 검색 기능 ‘AI 개요’에서는 잘못된 답변을 제시하는 사례가 지속적으로 발견되고 있습니다. 가령 ‘미국에 얼마나 많은 무슬림 대통령이 있었는가’ 질문하면, “버락 오바마는 미국 최초의 무슬림 대통령”이라고 잘못된 답변을 내놓기도 했습니다.
또 구글 생성형 AI 서비스 제미나이는 이미지 생성에서 아인슈타인을 흑인으로 그리는 오류를 일으켰고, 일론 머스크 테슬라 최고경영자(CEO)가 설립한 AI 스타트업 xAI의 AI 모델 그록은 “따라해서는 안 된다”는 전제를 달면서도 코카인 레시피를 사용자에게 알렸습니다.
이처럼 사회적으로 첨예한 이슈에 대해 편향적이거나 윤리적 규범에서 벗어난 답을 내놓는 게 생성형 AI 기술 고도화의 이면이기도 합니다. 네이버는 이 같은 오류 방지를 위해 안전하고 윤리적인 틀을 구축해야 한다고 강조해왔고, 그 일환이 ‘안전 프레임 워크’인 셈입니다.
네이버 관계자는 “안전 프레임 워크는 윤리 준칙에 기반해 AI 서비스를 외부에 출시할 때 어떤 것들을 점검해야 할지를 구체적으로 만든 틀”이라며 “AI 서비스가 출시되기 이전에 안전 프레임 워크라는 안전장치로 안전성을 확보한다는 의미”라고 말했습니다.
업계에서는 네이버가 국내 최초로 AI 안전성과 윤리적인 문제 등을 사전에 검열할 수 있는 시스템을 구축한 것 자체가 의미 있다고 보고 있습니다. 이 회사는 지난 1월 최수연 네이버 대표이사 직속으로 AI 안전성 연구 전담 조직인 ‘퓨처 AI 센터’를 신설했으며, 여기에는 연구 조직을 포함한 100여 명이 투입됐습니다.
경기 성남시 분당구 네이버 사옥 모습. (사진=뉴시스)
오세은 기자 ose@etomato.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 오승훈 산업1부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지