ChatGPT 환상 현상과 심사임당

 최근 우리 사회는 ChatGPT 열풍이라고 할 수 있을적도 폭발적인 인기를 끌고 있습니다.




구글을 대체할 것이라 평가받으며 혁신의 아이콘으로 떠오른 AI(인공지능) 언어모델 '챗GPT'. 그러나 가끔 챗GPT는 이렇게 말도 안 되는 소리를 사실인 양 늘어놓는 경우가 발생합니다

26일 업계에 따르면 최근 인터넷에서 이같은 챗GPT의 황당한 답변을 모은 밈(meme)이 유행하고 있습니다. 


국내에서는 유튜버 침착맨(웹툰작가 이말년)의 'AI는 삼국지를 알까?' 영상을 중심으로 챗GPT의 창의적인 '헛소리'가 퍼지고 있는데요. 

해당 영상에서 챗GPT는 주유가 오나라의 통치자라는 잘못된 사실을 고집하며 침착맨과 기싸움을 하면서 웃기고 있습니다.



국내에서 가장 유명한 밈은 '세종대왕의 맥북프로 던짐 사건'입니다.

바로 위의 글인데요. 해당 사건에 대해 챗GPT는 "세종대왕이 새로 개발한 

훈민정음(한글)의 초고를 작성하던 중, 문서 작성 중단에 대한 담당자에게 분노해 

맥북프로와 함께 그를 방으로 던진 사건"이라고 자세하게 설명합니다.

조선시대에 있는 세종대왕이 맥북프로를 이용했을 리가 없음에도 챗GPT는 자신 있게 사실인양 말하고 있습니다.

또 다른 사례는 '역사적으로 꼽히는 비극적 사건 10개' 중 하나인 '대동여지도 연금술사들의 폭동(1392)' 이야기입니다.

 이용자가 "대동여지도 연금술사들의 폭동에 대해 자세히 알려줘"라고 물으니 챗GPT는 과세에 반발한 연금술사들이 태조의 성곽인 화성을 둘러싸고 일으킨 반란이라고 설명합니다. 

"거북선의 라이트닝 볼트 발사 매커니즘"을 물으면 6가지 단계로 설명해주거나, 

"1553년에 있었던 티라노사우루스 대탈출 사건"에 대해서도 역사적 배경과 그에 따른 영향까지 덧붙여서 사실인양 말합니다.



챗GPT가 말도 안 되는 소리를 진실처럼 이야기하는 이유는 '할루시네이션(환각)' 때문입니다.


 할루시네이션은 AI가 처음부터 잘못된 데이터로 학습하거나, 라벨링(분류)이 제대로 안 된 데이터로 학습해서 발생하는 문제로 알려져 있습니다.

40TB에 달하는 챗GPT가 학습한 데이터 중 한국어 데이터는 1%가 채 되지 않는 것으로 알려졌는데요. 이 때문에 챗GPT가 한국어로 된 질문을 하면 이상한 답변을 늘어놓는 경우가 많은 것도 부족한 학습량 때문으로 알려져 있습니다.

그런데 챗GPT는 왜 모르는 사실까지 아는척하며 거짓말을 할까요?.

이는 챗GPT가 '인간 피드백을 통한 강화 학습(RLHF, Reinforcement Learning from Human Feedback)'을 했기 때문입니다.

 RLHF는 AI가 내놓은 답변을 인간이 얼마나 선호하는지를 평가해 최대한 올바른 답변을

 하도록 유도하는 것입니다. 사실 여부보다는 대화를 이끌어가는 능력을 중시했다는 의미입니다. 

미 매사추세츠 공대(MIT) 테크놀로지 리뷰는 AI가 너무 신중하게 답변하도록 설정하면 아예 답변하지 않는 경우가 많이 발생해 오픈AI가 RLHF를 택할 수 밖에 없다고 설명합니다.

 이 때문에 챗GPT는 아예 답변하지 않기보다 어떤 내용이든 답변하는 방향으로 발전하게 되었습니다.

전문가들은 챗GPT의 헛소리가 밈이 된 이유를 '안도감' 때문이라고 설명했습니다. 

챗GPT 등 생성 AI의 급부상으로 러다이트 운동·알파고 쇼크와 같은 충격이 덮쳐오는 가운데,

 챗GPT를 희화화 두려움을 떨친다는 것입니다.


결국 이 AI가 내놓는 데이터를 최종 선택하는 것은 인간일 수밖에 없습니다.

댓글 쓰기

다음 이전