X

오픈AI, 챗GPT '거짓말' 없애는 개발 돌입?[궁금한AI]

함정선 기자I 2023.06.03 12:41:29

생성형AI 가장 큰 문제 중 하나인 '거짓 정보'
美서 변호사 챗GPT 판례로 재판서 문제 발생
오픈AI, 거짓 결론 줄이기 위한 개발…논문 발표

[이데일리 함정선 기자] 챗GPT와 같은 생성형 인공지능(AI) 서비스의 가장 큰 문제점 중 하나는 바로 ‘거짓말’입니다.

기억하시나요. AI 스피커와 같은 기존 AI 서비스들이 늘 “잘 모르겠어요”라고 답했던 것을 말이죠. 보유한 데이터가 없으면 모른다고 답하거나 아니면 웹 검색 결과를 보여줬던 기존 AI 서비스와 다르게 챗GPT와 같은 생성형 AI는 스스로 답을 만들어내며 문제가 발생합니다. 옳고 그름을 떠나 일단은 답을 만들어 제공하는 걸 중요하게 여기다 보니 잘못된 답변을 내놓는 일도 다반사이기 때문입니다.

최근에는 미국에서 한 변호사가 챗GPT를 이용해 재판을 준비했다가 문제가 생긴 사건이 화제가 되기도 했습니다.

사건은 한 남성이 항공사를 상대로 제기한 소송에서 발생했는데요. 해당 남성은 음식 운반용 카트에 부딪혀 부상을 입었다고 소송을 냈고, 항공사 측은 공소시효가 만료됐다고 주장하는 그런 사건입니다.

남성 측 변호사는 판례를 6건 찾아 재판에 나섰는데, 정작 해당 판례들이 존재하지 않거나 재판과 상관없는 사건들이었다는 게 재판 과정에서 밝혀진 거죠.

알고 보니 해당 판례는 챗GPT가 찾아준 것으로 밝혀졌습니다. 이 변호사는 고의로 재판부를 속이려 한 것은 아니라고 밝혔지만, 재판부는 해당 변호사에 대한 제재를 논의하기 위해 곧 청문회를 열 예정이라고 합니다.

챗GPT의 개발사인 오픈AI 측은 챗GPT 출시부터 샘 알트먼 CEO가 직접 나서 “챗GPT를 전적으로 믿지 마라”라고 말할 만큼 생성형 AI의 이 같은 문제에 대해 경고해왔습니다.

하지만 사실 이 같은 문제에 대한 고민이 큰 것으로 보입니다. 믿을 수 없는 서비스의 발전에도 한계가 있을 수밖에 없기 때문이겠죠. 이 때문에 오픈AI 측은 챗GPT가 명확하지 않은 정보를 가짜로 지어내는 일을 줄이기 위해 소프트웨어(SW)를 개선하는 연구를 진행하고 있는 것으로 알려졌습니다.

그것이 가능할까, 싶은데 오픈AI는 우선 이와 관련한 논문부터 발표했습니다. 오픈AI가 발표한 연구 논문에 따르면 엔지니어들은 AI 모델이 결론을 내는 시점에만 보상하는 대신, 답변을 내기 위한 과정에서 올바른 데이터를 출력하는 것에 보상하는 방법을 연구하고 있다고 합니다. 이런 시스템을 도입하면, AI가 인간과 같은 사고 절차를 반복하게 되고, 이 과정을 통해 더 나은 결론을 낼 수 있다는 거죠.

물론 오픈AI의 이 논문에 대해 의구심을 표하는 전문가들도 있습니다. 엔지니어들의 이 연구가 챗GPT에 통합되기 전에는 사실상 쓸모가 없다고 주장합니다. 오픈AI는 해당 연구를 진행하고 있기는 하지만 챗GPT 서비스에 적용할 수 있는지, 언제쯤 적용할지는 밝히지 않았습니다.

오픈AI의 개선책이 얼마나 효과가 있을지는 알 수 없지만, 중요한 업무에 챗GPT와 같은 AI에 전적으로 의존하거나 챗GPT나 빙챗과 같은 AI가 제공하는 정보를 전적으로 신뢰하는 것은 아직은 시기상조인 것으로 보입니다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지