• 후원하기
  • 인쇄
  • 전송
  • 보관
  • 기사목록
  • 오탈자제보

[최규하의 공문(工文)산책⑥] “인간인 척 하지마! 쳇, GPT”

  •  

cnbnews 최규하기자 |  2023.07.19 09:44:12

최규하 국가과학기술인력개발원 석좌교수.

챗GPT가 인류 최고의 발명품이라고 샘 올트먼은 자찬했다. 사람들은 한번도 겪지 못한 그 특이한 챗봇의 능력에 놀라워했다. 그 놀라움은 그저 공상영화로 여겼던 ‘터미네이터’가 현실로 성큼 다가온 것 같은 착각까지 주었다. 기계가 의식이 없다고 어찌 말할 수 있느냐고 한 사람들도 많았는데, 이런저런 얘기들로 혼란스럽다. 그러나 슈퍼컴이 수학자를 대신할 수 없듯이 챗GPT가 인간의 지성을 결코 대신할 수는 없다. 그저 영리한 도구일 뿐이니까. <편집자주>




대화중심 인공지능 챗GPT

대화형 생성형 인공지능인 챗GPT의 열기는 참으로 뜨겁다. 일일이 검색하지 않고 직접 편집, 정리할 필요도 없이 질문 하나로 원하던 답변을 즉각 얻어낼 수 있어 모두가 열광한다. 챗GPT에서 챗이란 ‘채팅’의 줄임말이고 GPT는 ‘Generative Pre-trained Transformer’의 첫 글자를 딴 것으로 언어에 특화된 생성형 인공지능을 말한다. 현재 즐겨쓰는 GPT-3.5의 모델은 오픈AI사가 2022년 11월 30일 공개한 대화 전문 인공지능 챗봇이다.

2018년 GPT-1의 초기 버전을 출시한 후 2019년 GPT-2, 2020년 GPT-3, 2022년 GPT-3.5 또 2023년 GPT-4로 빠르게 업그레이드해 나가며 화제의 중심에 서버렸다. 방대한 지식을 미리 학습시킨(pre-trained) 후, 질문한 사람의 의도에 적합한 형태로 변환(transform), 물음에 대한 답변을 생성(generative)한 후 대화(chat)라는 상호작용을 통해 사람에게 전달해 주는 것이 바로 챗GPT이다. 한번도 겪어보지 못한 새로운 시대가 우리 앞에 전개된 것이다.

생성형 인공지능의 놀라운 성능

생성형 인공지능이란 텍스트, 이미지, 오디오 등의 기존 콘텐츠를 활용하여 유사한 콘텐츠를 새로 만들어내는 인공지능(AI) 기술로 정의하고 있다. 이용자의 특정한 요구에 맞추어 결과를 생성하는데, 그 성능이 경이롭다고 해야 할 것 같다. LG그룹이 개발한 엑사원 아틀리에는 300초 만에 최대 256개의 이미지를 만들 수 있고, 또 한 인공지능이 그린 그림이 글로벌 미술대회에서 1위를 차지할 정도이기 때문이다. 인공지능은 앞으로도 게임이나 마케팅 업무, 신약 개발, 글쓰기, 디자인, 창작 등에 걸쳐 그 활용범위는 크게 넓어져 갈 것인데, 특히 교육 현장에서는 디지털 프로메테우스의 불이라고 할 만큼 큰 충격으로 다가왔다. 생성형 인공지능의 시장에 대한 전망 역시 밝아 향후 매우 빠르게 성장해 나갈 것으로 예상된다.

이러한 생성형 인공지능인 GPT는 인간 뇌의 시냅스(신경세포인 뉴런 사이를 연결하는 접합부)에 대응되는 매개변수의 개수에 따라 성능이 달라진다. 매개변수의 수를 살펴보면 2018년에 출시될 당시 GPT-1의 경우 1억 17만 개였다. 그후 GPT-2는 15억 개, GPT-3는 1750억 개로 계속 늘어나 지금 GPT-4의 매개변수는 1조 개 규모로 예측하고 있다. 이는 인간 뇌의 시냅스의 1%에 달하는 수준이라는데, 만약 10조 개 이상이 되어버리면 그때 생성형 인공지능에 의해 우리 사회가 어떤 상황으로 변모되어 나갈지 예측하기 어렵다 한다.

8300만개 일자리 사라질 수도

생성형 인공지능이 우리 일상에 분명 긍정적인 신호로 다가오고 있지만 그에 못지않게 부정적 견해 역시 적지 않다. 교육적 관점으로는 학생들의 지적 역량 저하나 교사의 역할 축소 등이 우려되고 있으며, 또 사회적으로는 선동 영상이나 가짜 뉴스, 또는 특정 인물로 조작된 불온물, 보이스 피싱 등으로 혼란이 가중될 소지가 아주 높다는 것이다. 더구나 일자리의 경우 2027년까지 6900만 개 정도의 새로운 일자리가 만들어진다고 하지만 그보다 훨씬 더 많은 기존의 일자리 8300만 개가 사라지는 것으로 보고 있어 이 또한 매우 심각해 보인다.

AI 대부로 불리는 제프리 힌튼 교수가 “AI는 기후변화보다 인류에게 더 시급한 위협”이라 했고, 또 에릭 슈밋 전 구글 최고경영자는 월 스트리트 저널이 주최한 행사에서 “멀지않은 미래에 AI가 수많은 인간을 죽거나 다치게 할 수 있다. 정부가 나서서 이 기술이 악한 사람들에 의해 오용되지 않을 수 있는 방법을 찾아야 한다”고 경고한 바 있다. 일론 머스크도 ‘AI가 원자폭탄보다 위험할 수 있다’고 했다. 이처럼 많은 전문가들이 제기하고 있는 문제점으로 예상되는 심각성 때문에 유럽과 미국에서는 인공지능기술 개발 속도를 통제하기 위해 6개월간 연구개발을 중단할 것을 제안까지 하고 있다.

염려 접고 인간이 앞서가길

1998년 이후 세상의 모든 것을 바꾸어 버린 인터넷 기술, 2007년 전화기와 개인용 컴퓨터를 완전 대체해 버렸던 스마트 폰 출현 등 획기적인 기술이 등장할 때마다 그 기술에 대한 우려는 항상 제기되어 왔었다. 2020년에 출현, 또다시 세상을 흔들고 있는 챗GPT 역시 같은 과정을 거치고 있다고 본다. 그저 처음 보는 기술에 잠시 놀라고 있을 뿐이다. 인공지능이란 기술의 우수성 때문에 결국 우리 일상에서 광범위하게 사용될 것이다.

인공지능이 사람처럼 생각할 수 있는지를 판단하는 튜링테스트가 있다. 챗GPT-1, -2가 튜링테스트를 통과하지 못했다고 챗GPT 스스로 답해 주었다. 여러 전문가들의 우려처럼 앞으로 철저한 관리는 꼭 필요하다. ‘AI가 인간을 마스터 하기 전에 인간이 AI를 마스터 해야 한다’는 유발 하라리의 말처럼 우리 인간이 먼저 앞서가면 되는 거다. 문제점을 예측하며 대비하고 또 발생시 즉각 대응하면 될 터이니 지나친 우려는 하지 않아도 될 것 같다.

그러나 챗GPT에게 꼭 해 주고 싶은 말이 있다. “챗GPT야, 네가 아무리 튜링테스트를 통과하더라도 너는 아이(AI)에 불과해. 훗날 로봇의 몸체로 갈아입고 디지털 감옥을 탈출하더라도 인간인 척 하지는 마!” 쳇, GPT.

 


* 최규하 국가과학기술인력개발원 석좌교수, 전 한국전기연구원장, 전 건국대 부총장

배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너

 
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너
배너