◇오픈AI-MS 연합, AI 반도체 개발로 깊어진 밀월
지난 15일 미국 시애틀에서 열린 마이크로소프트(MS)의 연례행사 ‘이그나이트’ 무대에 챗GPT 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 올랐다. 양사가 공동 개발한 AI 반도체 ‘애저 마이아 100’을 소개하기 위해서다. 그는 이날 “애저(MS 클라우드 플랫폼)의 AI 서비스는 이제 마이아를 통해 실리콘까지 최적화했다”며 “이를 통해 더 뛰어난 성능의 모델을 훈련시키고 해당 모델을 고객에게 더 저렴하게 제공할 수 있게 됐다”고 강조했다. 오픈AI와 MS 연합은 이로써 △뛰어난 AI 모델 △AI 개발 기본 인프라인 클라우드 △비용 효율화를 가능케 하는 AI 반도체까지 3박자를 갖추게 됐다. MS가 올해 초 오픈AI에 100억 달러를 투자하면서 양사는 연합체계를 구축했다. ‘GPT 모델’은 MS 애저에서만 독점 제공되는 중이다.
|
AI 반도체는 오픈AI-MS 연합의 ‘마지막 퍼즐’이었던 만큼 마이아 출시의 의미가 크다. 마이아를 통해 GPT 모델 구동에 들어가는 비용이 줄면, 더 많은 AI 개발사들이 GPT모델을 채택해 서비스를 개발하게 될 것으로 기대된다. 막대한 운영 비용은 AI 서비스 확산에 걸림돌이 되고 있다. 오픈AI 마저 비용 문제로 골머리를 앓고 있다. 반도체 연구회사인 세미애널리틱에 따르면 챗GPT를 운영하는 데 드는 비용은 하루 최대 70만 달러(약 9억 원)에 이른다.
MS도 비용 효율적인 AI 칩으로 개발사들의 마음을 붙잡아 애저 클라우드 점유율을 높이는 효과를 기대할 수 있게 됐다. 올 3분기 MS 애저는 전년 동기대비 29%의 성장률을 기록했다. 이는 글로벌 클라우드 빅3(AWS, MS 애저, 구글클라우드) 중 가장 큰 폭의 성장률이다. 이 같은 성과 역시 오픈AI와 손잡고 빠르게 초거대AI 서비스 개발을 지원한 덕이라는 평가가 많다.
챗GPT에 놀라 뒤늦게 자체 초거대AI 개발에 뛰어든 구글과 아마존도 클라우드 역량을 기반 삼아 추격 중이다. 구글은 지난 4월 자체 초거대AI 모델인 팜2와 챗봇 서비스 바드를 공개하며 AI 서비스 생태계 핵심 요소를 모두 갖추게 됐다. 구글은 구글클라우드와 자체 AI칩인 ‘TPU’를 보유하고 있다. 클라우드 1위 업체 아마존은 GPT-4보다 2배 큰 2조 파라미터(매개변수)를 가진 자체 초거대AI ‘올림푸스’를 개발 중인 것으로 알려졌다.
정혜동 한국전자기술연구원 융합지능기획단 부단장은 “빅테크 경쟁이 초거대AI 중심으로 바뀌면서 핵심 컴퓨팅 자원인 칩을 외부(엔비디아)에 의존할 게 아니라 자체 개발해야 한다는 인식이 강해지고 있다”며 “이를 통해 그래픽처리장치(GPU) 공급부족 및 고비용 구조 문제 해결하고, 자사 AI 모델에 최적화된 형태로 칩을 만들어 효율성을 끌어올리겠다는 전략”이라고 설명했다.
|
국내 IT 기업들도 AI모델부터 칩셋까지 최적화된 ‘AI 아키텍처’ 구현에 뛰어들었다. 네이버는 삼성전자, KT는 리벨리온, SK텔레콤은 사피온과 긴밀히 협력 중이다.
지난 8월 초거대AI 하이퍼클로바X를 출시한 네이버는 삼성전자와 AI 반도체까지 개발 중이다. “초거대AI 성능 향상은 처리할 데이터와 연산량의 기하급수적인 증가로 이어지지만, 기존 컴퓨팅 시스템으로는 성능과 효율 향상에 한계가 있어 새로운 AI 전용 반도체 솔루션의 필요성이 커졌다”는 설명이다. 양사는 약 1년간 공동 개발을 진행 중인데, 상용화가 임박한 것으로 전해진다. 네이버는 차세대 AI 반도체에 맞게 하이퍼클로바X의 불필요한 파라미터를 제거하거나 파라미터 간 가중치를 단순하게 조정하는 알고리즘 경량화도 진행할 예정이다.
최근 초거대 AI ‘믿음(Mi:dm)’을 출시한 KT는 KT 클라우드에 AI 반도체 설계(팹리스) 스타트업 리벨리온의 칩을 적용해 전력 효율을 6배 높이고 추론 비용은 50% 절감했다. 양사는 믿음 알고리즘과 리벨리온 칩을 최적화 작업도 진행 중이다. SK텔레콤은 자체 초거대AI 모델 ‘에이닷엑스 LLM’과 자회사인 SK브로드밴드의 클라우드, 사피온 AI칩 ‘X330’까지 이어지는 ‘AI 자강’라인을 구축했다. 이와 동시에 외부 AI 모델 개발사인 앤트로픽, 올거나이즈와도 협력한다.
박성현 리벨리온 대표는 “AI모델 학습·추론에 GPU를 쓰면 운영 비용이 상당히 높아지기 때문에 국내에서도 챗GPT처럼 대규모 서비스를 운영할 계획이라면 알고리즘부터 칩셋을 포함해 전용 인프라를 만드는 것이 더 효율적이라는 분위기가 확산하고 있다”고 전했다.
유회준 KAIST AI반도체대학원 교수는 모델 경량화와 AI 반도체가 ‘초거대AI 서비스 확산의 기틀’이 될 것으로 전망했다. 그는 “한 분야에 특화한 모델을 개발하고, 모델에 최적화된 AI 반도체까지 사용하면 AI 알고리즘이 고속으로 작동하고 전력소모도 줄어들 것”이라며 “이렇게 되면 AI 서비스 대중화가 앞당겨질 것”이라고 했다.