|
AI 무기가 잘못된 정보나 조작된 정보에 기반으로 공격을 하게 되면 치명적인 결과를 초래할 수 있다는 우려가 크기 때문이다. NYT는 AI는 인간보다 더 빠르게 ‘판단’을 내릴 수 있기 때문에 잘못된 결정에 따른 위험성이 더 크다고 지적했다. 다만 AI 무기의 이 같은 위험성을 실효성 있게 관리할 통제 체제는 아직 제대로 갖춰지지 않은 상태다.
미 국방부의 자문기구인 국방혁신위원회 위원장을 지낸 에릭 슈밋 전(前) 구글 최고경영자(CEO)는 “군사·안보에서 AI의 핵심 과제는 인간의 사고(속도)보다 더 빠른 공격을 어떻게 방어할 지다”며 “미사일은 너무 빨리 날아오기 때문에 자동화된 대응이 필요하다”며 군사 분야에서 AI의 유용성을 설명했다. 미국의 지대공 요격 미사일인 패트리어트나 이스라엘의 원격 조종 기관총에 AI가 적용된 이유다.
다만 슈밋은 “만약 (공격 경보가) 잘못된 신호라면 어떻게 될까”라며 지나치게 빠른 AI의 의사 결정 속도와 잘못된 정보로 인한 AI의 오판 위험성을 경고했다. 그는 “(방위산업) 업계는 AI에 관한 안전규칙을 논의하고 있다”고도 말했다. 다만 NYT는 AI 안전규칙이 오용을 완전히 막을 수 없다며 해킹 등으로 규칙을 무력화할 수 있다고 지적했다.
일론 머스크 테슬라 최고경영자(CEO)나 스티브 워즈니악 애플 창업자 등은 안전성이 확보되기 전까지 최첨단 AI 개발을 멈춰야 한다고 주장하고 있다. 다만 미 국방부는 이에 대해 회의적이다. 미국만 군용 AI 개발 경쟁에서 뒤처질 수 있다는 우려 때문이다. 존 셔먼 국방부 정보화책임관은 “우리가 AI 개발을 멈춰도 잠재적 적들은 개발을 멈추지 않을 것”이라며 “우리도 개발을 계속해야 한다”고 말했다.
NYT는 AI의 확산으로 새로운 군비 통제 방식이 논의될 것으로 전망했다. 다만 AI 개발을 원천적으로 통제하기 어려운 상황에선 AI 개발에 필요한 첨단 반도체 등에 대한 통제가 현실적인 방법이 될 수 있다고 전망했다.