[%%IMAGE1%%] 시민사회에서 최근 국회 법안심사소위 심의를 통과한 ‘인공지능법’에 대해 전면 재검토를 요구하는 목소리가 나왔다. 이들은 법안의 ‘선허용-후규제’ 원칙이 합리적인 규제도 방해해 도리어 국내 서비스의 국제 경쟁력을 떨어트릴 수 있다고 지적했다.

민주사회를 위한 변호사 모임(민변) 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 보건의료단체연합, 참여연대 등 5개 시민사회단체는 22일 오전 서울 종로구 참여연대에서 기자설명회를 열고 “인공지능법에 안전과 인권에 미치는 위험을 규제할 실질적인 내용은 없다”며 국회에 전면 재검토를 촉구했다. ‘인공지능법’은 지난달 14일 국회 과학기술정보방송통신위원회 정보통신방송법안심사소위원회에서 병합 심사된 7개의 인공지능 관련 법안을 말한다.

이들 단체는 국회가 ‘선허용-후규제’ 원칙을 기반으로 법안을 논의한다는 점을 우려했다. 특히 무엇이 ‘고위험 인공지능’인지 체계적으로 정리하지 못하고 있다는 점이다. 유럽연합(EU)의 경우 잠재의식에 영향을 미쳐 사람들의 행동을 왜곡하거나 조작하는 인공지능을 ‘용인할 수 없는 위험’으로 규정해 활용을 금지하고, 개인의 건강·안전·기본권에 악영향을 미칠 수 있는 인공지능은 ‘고위험’으로 규정해 사전 평가 등을 요구하는 인공지능 규제안을 마련해 검토 중이다.

관련 정책을 총괄하는 주무부처가 인공지능의 위험성 통제보다도 산업육성에 초점을 맞추는 과학기술정보통신부(과기정통부)라는 점도 시민사회의 우려를 키우는 지점이다. 희우 진보네트워크센터 활동가는 “챗봇 ‘이루다’ 논란 등에는 국가인권위원회나 개인정보보호위원회가 개입해 문제를 조율했지만, 지금처럼 과기정통부가 인공지능 관련 최상위 기관이 된다면 과연 이를 제대로 해결할 수 있을지 의문”이라고 했다.

허진민 참여연대 공익법센터 소장은 “고위험 인공지능에 대한 엄격한 조건을 부과하는 외국과는 달리 한국은 별다른 제재가 없다”며 “이런 인공지능 제품이나 서비스는 국제 경쟁력을 갖추기 어렵고 결국 오히려 산업육성을 방해하게 될 것”이라고 말했다. 미국에선 기업들이 연방거래위원회(FTC)에 매년 알고리즘 영향평가 결과를 제출해야하는 법안이 발의돼 있다. 유럽연합의 경우 고위험 인공지능 공급자에 품질관리 시스템 구축을 요구하고, 기존 안전규제 기관들이 인공지능 규제에 참여하는 등 엄격한 법적 의무를 지우는 것을 논의하고 있다.

고병찬 기자 kick@hani.co.kr