네이버는 17일 자체 기술 채널을 통해 AI 안전성 확보를 위한 내부 통제 시스템인 ‘네이버 ASF(AI Safety Framework)’를 발표했다. 이 시스템은 AI 개발과 제품화의 모든 단계에서 잠재적 위험을 진단하고 평가·관리할 수 있도록 설계됐다.
|
생성형 AI는 인류 역사상 ‘불’의 발견에 비견될 만큼 뛰어난 발명품으로 평가받지만, ‘환각 현상(할루시네이션)’ 문제가 나타나고 있다. 기술과 서비스의 고도화로 인해 더 큰 사회적 문제가 발생할 수 있다는 우려도 제기되고 있다.
구글의 사례가 대표적이다. 구글은 지난달 AI 검색 서비스 ‘AI 오버뷰(Overview)’를 공개한 이후 ‘황당 답변’으로 곤혹을 치렀다. 예를 들어, ‘사람이 하루에 몇 개의 돌을 먹어야 할까?’라는 질문에 “UC버클리 지질학자들에 따르면 하루에 최소 하나의 작은 돌을 먹어야 한다”는 답변이 나와 커다란 논란이 일었고, 결국 구글은 시스템을 수정하고 모니터링을 강화했다.
네이버는 이러한 사태를 미연에 방지하기 위해 ASF를 통해 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 다양한 방법으로 위험성을 관리하기로 했다. 안전 조치의 필요성이 높다고 판단되는 AI 시스템의 경우, 위험이 완화될 때까지 배포하지 않기로 했다.
네이버는 빅브라더 출현을 막기 위해 다양한 문화를 반영한 소버린(Sovereign) AI를 발전시키는 데 공을 들이고 있으며, 이를 위해 ASF에도 문화적 다양성을 반영할 계획이다. 최수연 네이버 대표는 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선할 계획”이라며 “다양한 지역의 문화와 가치를 반영하는 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것”이라고 밝혔다.