[뉴스토마토 신상민 기자] 미국과 EU에서 AI 규제 논의가 이어지고 있는 만큼 한국에서도 관련 법률이 발의되고 있는 상황입니다. AI 부작용에 대비하는 것만으로 충분치 않고, 국가 미래 경쟁력 확보 관점에서 산업적 진흥책을 고려하는 한편 글로벌 동향까지 아울러 살펴야 하는데요. 하지만 국내 AI법은 넘어야 할 산이 많습니다.
AI기본법은 2022년 발의 이후 21대 국회 종료를 앞두고 과학기술정보방송통신위원회 전체회의가 열릴 예정이었지만 개최가 무산됐습니다. 22대 국회가 시작되자 다시 AI 관련 법안이 발의돼 현재 6개에 달하는데 내용은 비슷합니다.
크게 지원과 규제 부분으로 나뉘어 있습니다. 지원 측면에서는 AI 관련 위원회, 연구소, 진흥협회, 정책 센터 등의 설립을 통해 산업 지원 및 전문인력 양성, 국제협력 추진 등의 내용이 담겼습니다. 반면 규제 측면에는 고위험영역(안전 및 기본권 보호에 영향을 미칠 우려가 있는 영역)에 활용되는 AI의 고지의무, 사업자 책무, 안전 확보 의무 등을 다뤘습니다.
(표=뉴스토마토)
AI 보는 눈 '제각각'
AI 관련 법안이 통과되기 위해서는 정부 부처의 의견도 적절히 수렴돼야 합니다. 하지만 각 주요 부처의 의견이 다르다 보니 논의 과정이 쉽지 않습니다.
개인정보보호위원회는 AI 서비스 제공자에 대한 안전장치 제공, 규정 중심에서 원칙 중심 규제 패러다임 전환, AI 리스크 기준으로 차등 규제 도입 등을 제시하고 있습니다. 과학기술정보통신부는 AI윤리기준 수립 및 자율 준수·점검 가이드라인을 마련했습니다. 최근 디지털 신질서 정립 방안을 발표해 보편적 가치, 주체 별 권리와 책임, 쟁점 해소를 위한 원칙을 규정하는 디지털 권리장전을 9월 중 마련할 계획입니다. 방송통신위원회는 AI 기술 확산에 따른 사회, 문화적 파급 효과에 대해 초점을 맞추고 있습니다.
산업통상자원부는 AI시대 신산업정책 위원회 출범을 하고 AI 자율제조 전략 1.0을 발표한 후 2030년까지 제조 생산성을 20% 높이겠다는 입장입니다. AI 자율제조 전략 1.0은 AI 자율제조 도입 확산, 핵심 역량 확보, 생태계 진흥 등의 내용을 담고 있습니다.
과학기술정보통신부 청사.(사진=과학기술정보통신부)
AI기술이 여러 분야에 영향을 미치는 만큼 각 계의 목소리도 다양하게 나오고 있습니다. 각자의 이해관계나 입장에 따라 진흥 혹은 규제에 초점을 맞추는 모습인데요. 뿐만 아니라 법안 제정 촉구 여부 자체에 대해서도 의견이 갈리고 있습니다.
법조계는 기술이 빠르게 변화하는 만큼 기본법이 빠르게 마련돼야 한다는 입장입니다. 고윤기 로펌고우 변호사는 "기본법을 만들어야 추가적인 스텝을 밟을 수 있기 때문에 빨리 돼야 한다"며 "규제의 경우 기존의 법 테두리에서도 강력하게 처벌이 가능하기 때문에 법의 사각이 있는 것 같지 않고 사각지대가 생기면 논의를 통해 추가 법안 등을 통해 사각지대를 줄이면 된다"고 말했습니다.
시민단체는 발의된 법안에 고위험인공지능이라는 표시 말고 처벌 규정이 없다는 부분을 지적했습니다. 오병일 진보네트워크센터 대표는 "고위험인공지능으로 규정을 한다는 건 위험하다는 건데 그 위험을 어떻게 완화할 것인지, 어떤 사고가 발생했을 때 그 원인을 추적하고 책임을 물을 것인지, 피해 받은 사람을 어떻게 구제해야 할 것인지에 대한 내용이 없다"고 지적했습니다.
"규제 초점시 산업 진흥 저해 우려"
학계에선 대체로 기본법을 산업 진흥의 토대로서 바라보는 시각이 우세합니다. 이성엽 고려대기술경영전문대학원 교수는 "보통 산업을 진흥한다고 할 때 정부가 예산을 투입하는 법적 근거가 있으면 용이하다"며 "정책을 효율적으로 추진하려면 이런 부분에서 컨트롤타워 같은 게 필요한데 이런 것들이 보통 기본법에 다 들어간다"고 밝혔습니다.
규제가 되레 불확실성을 줄여준다는 시각도 있는데요. 김명주 서울여대 정보보호학과 교수는 "규제가 많아지면 기업 입장에서는 부담스럽지만 한편으로는 규제가 없으면 불확실하다"며 "몇 년 동안 개발하고 준비를 했는데 법이 하나 생기면서 갑자기 다 정지가 되기도 하기 때문에 그런 면에서 법이 나오는 것이 바람직하다"고 주장했습니다.
다만 산업계는 현재는 너무 규제 측면에만 집중돼 있다는 입장입니다. IT업계 관계자는 "처음 관련 법안이 진흥과 규제가 비슷하게 균형을 이뤘다면 최근에는 규제에만 너무 집중돼 있는 느낌이다"며 "규제가 강화되면 산업 자체가 위축될 수 밖에 없다"고 말했습니다.
박윤규 과학기술정보통신부 제2차관이 인공지능 일상화 연속 현장간담회에서 참석자들과 기념촬영을 하고 있다.(사진=과학기술정보통신부)
산업·사회적인 충분한 협의 필요
현재 발의된 법안이 좀더 많은 논의를 거쳐 명확해지고 구체화돼야 한다는 조언도 나오는데요. 개발자에게 어떤 윤리적 측면을 요구할지, AI를 활용한 결과물에 대한 권리를 어떻게 부여할 것인지 등 명확하게 논의되지 않은 부분이 많다는 겁니다.
정정원 한림국제대학원대학교 겸임교수는 "그럴싸한 이름의 법 하나 나온다고 해서 해결이 될 것 같으면 이미 옛날에 해결이 다 됐을 것이다"며 "사회 전체를 놓고 볼 때 법이 하나 만들어지면 우리 사회 전체에 영향을 미치는데 각각의 산업이나 사회적으로 협의가 이뤄지지 않았을 때 AI산업 자체에 더 혼란을 야기하고 오히려 진흥을 저해 시킬 수 있는 부분이 생길 것"이라고 경고했습니다.
김명주 서울여대 정보보호학과 교수는 "기본법을 제정하는 데 있어서 좀 더 많은 부처와 기업, 그다음에 사회적인 부분에 논의가 필요한데 아직 논의가 충분히 이뤄지지 않다"며 "각 부처에서 법을 내놓고 있는데 이런 것 자체가 없으면 일단 토론이 안 되니까 이 과정 자체도 하나의 논의 과정이라고 생각한다"고 말했습니다.
결국 AI기본법은 크게는 진흥과 규제 사이의 균형, 글로벌 동향과 국내 실정 사이의 합의점 찾기가 필요한 상황인데요. 무엇보다 한국 실정에 맞는 한국형 AI 기본법이 무엇인지, 각 계가 공개된 장에서 모여 숙의하는 일이 시급해보입니다.
방송통신위원회가 정보통신정책연구원과 '인공지능서비스 이용자 보호 민관협의회' 첫 회의를 개최했다.(사진=방통위)
신상민 기자 lmez0810@etomato.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김나볏 테크지식산업부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지