|
25일 박상철 서울대 법학전문대학원 교수는 서울 여의도 국회의원회관에서 열린 ‘국회 AI와 우리의 미래’ 포럼창립 세미나에서 발제자로 나서 해외의 AI 규제 동향을 설명하고 바람직한 AI 입법 방향을 제시했다.
챗GPT 등으로 대표되는 생성형 AI는 기존 머신러닝 AI 모델의 고도화 버전이다. 그는 이제 AI를 범용 기술로 인식해야 할 때라고 말했다. 최 교수는 “생성형 AI든 어떤 AI든 간에 모든 AI는 결국 현실의 데이터들을 특정 모델로 압축하는 것이다. AI를 통계적 추론과 구분해 법적으로 엄밀하게 정의하는 방식도 현재로선 없다”고 했다.
EU는 다음 달 1일 AI법 발효를 앞두고 있다. 위험 기반, 포괄적 규제의 일종인 이 법은 AI 개발사의 윤리와 책임, 관련 서비스의 안전성과 공정성 등 요소를 집중적으로 다룬다. 박 교수는 이러한 EU 방식은 자칫 산업 성장을 막는 과도한 규제로 작용할 수 있다고 우려했다.
국회에 계류 중인 한국의 AI기본법은 EU의 AI법과 차이가 난다. 22대 국회 들어 국민의힘의 정점식·안철수·김성진 의원, 더불어민주당의 조인철·민형배·권칠승 의원 등이 각각 AI 기본법을 발의했는데, 대부분 AI 발전과 신뢰 기반 조성을 균형 있게 다뤘다.
박 교수는 “AI에 대해 지나치게 규제하는 EU 같은 법이 우리나라에선 절대로 통과돼선 안된다. AI 개발을 선도하는 국가들 가운데 EU식 법을 따르는 곳은 존재하지 않는다”고 거듭 강조했다.
박 교수는 AI를 법으로 규제하기보다는 국가안보 관점에서 통제하는 미국식 접근법을 적극 참고해야 한다고 주장했다. 미국 정부가 지난해 10월 발표한 ‘AI 개발·사용에 관한 행정명령(E.O.) 14110’가 대표 사례다. 이 행정명령은 모델 크기가 100억 파라미터 이상의 고성능 AI 개발 시 연방정부에 보고해야 한다는 의무가 담겼다.
박 교수는 “미국은 중국이나 러시아가 AI 모델을 다운로드 받아 무기로 제작할 위험에 대해서도 고려하고 있다”면서 “AI 기술을 국가안보와 직결되는 일종의 공급망 문제로 인식하는 셈이다. 한국도 이러한 (미국의) 흐름에서 지나치게 벗어나 (AI소비국인) EU의 방식만 따라간다면 우리 안보에 좋지 않은 영향이 있을 수 있다”고 설명했다.
아울러 특정 부처가 중심이 돼 AI를 규제하면 이중규제가 될 수 있다고 우려하기도 했다. 박 교수는 “특히 민간영역에선 추상적 윤리 개념에 입각한 포괄 규제보다는 각 부처가 사례 유형별에 맞춤으로 대응하는 것이 필요하다”고 덧붙였다.