|
이 성명서에 실명을 올린 윌리엄 손더스 오픈AI 전 직원은 “최첨단 AI 시스템의 작동 방식과 배포와 관련한 위험에 대해 가장 많은 지식을 가진 사람들이 자유롭게 말할 수 없다”고 밝혔다. 손더스 외에도 오픈AI 전 직원 6명, 현 직원4명을 비롯해 딥마인드의 전·현직 직원은 각 1명이 이름을 올렸으며, 서명자 중 6명은 익명을 요구했다.
이들은 성명에서 “AI와 관련된 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다”며 “이는 인류의 멸망으로 이어질 수 있다”고 지적했다.
일부 사례로 오픈AI를 비롯한 여러 회사의 AI 프로그램이 투표와 관련한 잘못된 정보를 포함한 사진을 생성한 사례를 발견했다고 전했다.
이러한 AI와 관련한 위험 관리는 맞춤형 기업 지배구조 탓에 기업 내부에서 고발을 하는 등 변화를 일으키기는 어렵다고 밝혔다. 이들은 “AI 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다”고 주장했다.
또 AI 기업들이 과도한 기밀 유지 계약으로 관련 우려 제기나 비판을 막아서고 있다고도 비판했다. 이들은 “회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다”며 “일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다”고 강조했다.
이에 △회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지 △독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련 △위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.
아울러 저명한 AI 전문가들도 이 서한을 지지하고 나섰다고 WSJ은 전했다. AI 과학자 스튜어트 러셀, 초기 획기적인 연구로 ‘AI의 대부’로 불리는 요슈아 벤지오, 제프리 힌튼이 그 주인공이다. 힌튼은 AI 기술의 위험성에 대해 더 자유롭게 이야기하기 위해 작년 구글을 떠나기도 했다.
일부 AI 연구자들은 AI 기술이 통제 불능 상태가 돼 전염병이나 핵전쟁처럼 위험해질 수 있다고 보고 있으며, 이같이 우려의 강도는 낮더라도 AI에 대한 규제를 강화해야한다고 생각하는 전문가들도 많다고 WSJ은 전했다.
생성형 AI 시장을 주도하고 있는 오픈AI는 이 성명에 대한 답변에서 정부의 규제가 필요하다는 데 동의한다고 밝혔다. 오픈AI 대변인은 “우리는 가장 유능하고 안전한 AI 시스템을 제공해온 실적을 자랑스럽게 생각하며, 위험을 해결하기 위한 과학적 접근 방식을 믿는다”며 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 데 동의하며 전 세계 정부, 시민 사회 및 기타 커뮤니티와 계속 소통할 것”이라고 했다.