서명을 주도한 곳은 미국의 비영리 단체인 ‘미래의 삶 연구소’로, 머스크뿐 아니라 ‘사피엔스’라는 책으로 국내에서도 인기를 누리는 유발 하라리 예루살렘 히브리대학교수도 동참했다 하죠.
오픈AI의 챗GPT로 대표되는 생성형AI가 허위 정보를 퍼트리거나 일자리를 급속하게 줄일 것이라는 이유를 들었다고 합니다. 지금 개발 속도를 줄이지 않으면 정부 개입이 불가피할 것으로 걱정한다고 합니다.
‘챗GPT와 싸우지 마라’
공감 가는 이야기입니다. 최근에 만난, 올거나이즈 신기빈 최고인공지능책임자나 ‘카피킬러’를 만든 무하유 신동호 대표는 ‘챗GPT와 싸우지 마라(Don‘t fight with Chat GPT)’고 하더군요.
오픈AI의 기술력은 상상 이상이기 때문입니다. 그래서 올거나이즈는 자사의 업무자동화툴 ‘알리(Alli)’에 챗GPT를 붙였고, 무하유는 챗GPT로 만든 문서의 신뢰성(사용성)평가를 추진하지만 겸손함을 유지한다고 합니다.
IT 개발자들은 AI의 등장은 웹의 등장이나 스마트폰의 등장보다 파괴력이 더 클 것으로 보고 있습니다.
|
오픈AI와 결별한 뒤 사업적 이유 때문
그런데, 정말 머스크가 AI가 불러올 윤리적이고 사회적인 위험 때문에 AI 개발을 멈춰 가자고 했을까요.
그렇지는 않다고 생각합니다. 오픈AI와 결별하면서 자신의 사업적 이해에 위협이 되고 있기 때문이 아닐까 합니다.
머스크는 오픈AI가 비영리재단 활동에 집중했을 때 초기 멤버로 투자했지만, 오픈AI가 기술 공개를 종료하고 폐쇄적인 유료 모델을 시작하기 전 결별한 것으로 전해집니다.
머스크는 전기차 테슬라 이후의 성장 모델로 로봇을 삼았는데, 이 로봇 비즈니스에는 반드시 AI가 필요하다고 하죠. 그런데 오픈AI가 너무 앞서 가서 붙잡으려는 것 같다는 게 전문가 설명입니다.
지난해 9월 30일(현지시간)열린 ‘테슬라 인공지능 데이 2022(Tesla AI Day 2022)’에선 테슬라의 AI 휴머노이드(Humanoid)인 옵티머스(Optimus)가 공개됐지만, 머스크 역시 “옵티머스를 개선하고 성능을 검증하기 위해 아직 할 일이 많다”고 인정했죠.
로봇 인터페이스에 자연어처리는 핵심
로봇을 개발하는데 생성형 AI 기술은 핵심이라고 합니다. 특히 자연어와 관련된 모델은요.
배주호 한국외대 글로벌비즈니스&테크놀로지학부 교수는 “로봇에 가장 추천하는 게 자연어다. 이를 테면 ‘바닥 좀 닦아줘!’라는 명령을 로봇에 하려면 인터페이스가 필요한데, 이게 챗GPT로 되니 테슬라 입장에선 긴장하지 않을 수 없었을 것”이라고 했습니다.
그는 “지난번 코인 사태를 보면 머스크가 단순히 윤리적인 문제로 (AI 개발을 잠시 멈추자고) 소셜 네트워크에 의견을 내진 않았을 것 같다. 너무 경쟁이 빨리 붙어 따라가기 어려우니 넋두리한게 아닌가”라고 했습니다.
머스크는 지난해 테슬라 차량 판매 때 당분간 ‘비트코인’을 받지 않겠다고 선언한 지 하루 만에 ‘도지코인’이 유망하다는 글을 올려, 암호화폐(코인)시장이 머스크 입에 놀아난다는 비판에 휩싸였습니다.
|
배 교수의 언급은 지난 30일 이성엽 한국데이터법정책학회장(고려대 교수)이 주최한 ‘생성모델 AI(인공지능)에 대한 이해’를 주제로 한 포럼에서 나왔죠.
그런데 이 포럼의 이름은 ‘AI윤리법제포럼’입니다.
성급한 법제화는 국내 기업 옥죄…가이드라인은 필수
AI가 기반기술이 되는 시대에 대비해 윤리적인 측면에서 법제화를 준비한다면 어떻게 해야 하는가를 다루고 있죠.
이날 포럼의 결론은 어땠을까요. 한마디로 생성형 AI, 초거대 언어모델(LLM·Large Language Model)분야는 승자 독식이 불가피하니 국내 기업들을 옥죄는 규제를 당장 만드는 건 위험하다는 것이었습니다.
오픈AI에 투자한 마이크로소프트(MS)가 매주 새로운 플러그인(plugin)과 서비스를 발표하며 자사 생태계로 모든 서비스들을 흡수하고 있는 것이나, 더는 오픈AI가 핵심 모델을 공개하지 않는 것을 보면, 네이버나 카카오, SK텔레콤(코난테크놀로지), KT, 삼성, LG 같은 국내 대기업들조차 따라가기 바쁘다는 말입니다.
섣불리 AI윤리에 대해 법을 만들면 이는 생성형AI가 만드는 결과에 필터링이 필요하다는 건데, 비용도 많이 들고 기술적으론 족쇄가 될 수도 있다고 합니다.
그렇다고 AI 개발에 윤리를 빼라는 건 아닙니다. 배 교수는 “가이드라인은 필요하다”고 했습니다.
그는 “분명히 윤리와 법에 대해 가이드라인이 있어야 한다”면서 “우리가 이 AI를 씀에 어떤 원칙으로 대해야 하는지, 교육이나 업무에 쓸 때 어떤 방식이어야 할지 같은 일상에서 활용할 수 있는 기준이 있어야 한다”고 했습니다.
맞는 말 같습니다. AI 기술 개발을 멈출 순 없지만, 챗GPT를 계기로 AI 대중화 시대가 예상보다 너무 빨리 다가오고 있기 때문입니다.
|