IT, 컴퓨터

오픈AI 제이슨 권 "인간 앞서는 AI 곧 개발...준비 없이 내놓으면 큰 충격"

해암도 2024. 8. 12. 10:48

오픈AI 제이슨 권 최고전략책임자

 
지난 7일 미국 샌프란시스코 오픈AI 본사에서 만난 제이슨 권 오픈AI 최고전략책임자(CSO)가 본지와 인터뷰하던 중 웃고 있다. 그는 “범용인공지능(AGI)이 나타났을 때 결과가 어떨진 아무도 모른다”며 “AI는 규제받아야 하고, 안전을 위한 대비책을 마련할 것”이라고 했다. /오로라 특파원
 

전 세계 산업의 패러다임을 뒤바꾸고 있는 인공지능(AI) 혁명은 2022년 11월 미국 오픈AI의 챗GPT 출현으로 본격 시작됐다. 오픈AI는 지난 5월엔 공상과학(SF) 영화에서처럼 인간과 실시간 대화하며 감정까지 포착할 수 있는 생성형 AI 모델 ‘GPT-4o(포오)’를 공개하며 세상을 또 한 번 놀라게 했다. AI가 인간을 지배하는 시대가 올 것이라는 공포도 커졌다. 세계에서 가장 앞선 AI 기술을 보유한 오픈AI에서 출시 시기 등 미래 전략과 AI를 둘러싼 윤리적·법적 문제를 총괄하는 최고전략책임자(CSO)가 한국계 미국인 제이슨 권이다. 기술 개발을 제외하고 AI 관련 글로벌 표준을 만들고 있다.

 

지난 7일 미국 샌프란시스코 오픈AI 본사에서 만난 권 CSO는 “범용 인공지능(AGI·인간 이상의 지능을 갖춘 AI)의 핵심 기술 개발 시점은 모두의 생각보다 빠를 수 있다”고 했다. 현재 AGI의 출현을 3~5년 이후로 보는 의견이 많은데, 이보다 빠를 것이라는 전망을 내놓은 것이다. 하지만 그는 “우리가 모든 것을 할 수 있는 AI를 하루아침에 갑자기 내놓진 않을 것”이라며 “그렇게 되면 모든 걸 붕괴시킬 것이기 때문”이라고 했다. 범용 AI 기술 개발은 이미 상당한 수준으로 진행됐으나, 부작용을 우려해 속도 조절을 하고 있다는 의미다. 권 CSO의 국내 언론 인터뷰는 이번이 처음이다.

 

-AGI 출현이 멀지 않았다는 뜻인가?

“우리는 이 기술이 곧 실현될 것으로 가정하고, 이를 적절하게 관리할 수 있는 방법을 찾고 있다. 다만 기술이 나왔다고 바로 제품으로 나오는 것은 아니다. 인류가 전기를 발명한 다음 날 조명·가전 제품이 한 번에 나오지 않은 것처럼 말이다. 핵심 기술이 제품으로 나와, 사회에 적용되는 데는 오랜 시간이 걸릴 수 있다.”

 

“AI 사업 수익, 안전 연구에 재투자”

-다음 모델인 GPT5의 기술력이 AGI에 근접했다는 추측도 나오는데.

“(웃으며) 공개하는 시점에 더 많은 얘기를 나눌 수 있을 것이라고 생각한다.”

오픈AI의 차세대 AI 모델인 GPT5의 출시 시기와 성능에 대한 거듭된 질문에도 권 CSO는 명확히 답변하지 않았다. 당초 올 10월에 예정된 오픈AI 개발자대회에서 공개될 것으로 전망됐지만, 테크 업계에선 출시 시기가 내년으로 미뤄질 가능성이 큰 것으로 보고 있다.

-오픈AI는 AGI가 어떤 면에서 가장 위험할 것이라 보나?

“이른바 ‘재앙적 위험’이라 부를 수 있는 것은 크게 네 가지 영역이다. 극단적 설득 능력과 사이버 공격, 핵무기·화학·생물 무기 지원, 마지막으로 AI 모델의 자율성이다.”

그가 말한 AI의 극단적 설득 능력은 AI가 다양한 데이터를 활용해 어떤 사안에 대해 인간이 맹신하도록 하는 것이다. AI 모델의 자율성은 AI가 스스로 학습 데이터를 생성해서 학습하며 발전하는 것을 말한다. 권 CSO는 화학·생물 무기 지원과 관련해선 “생물학적으로 위험이 있는 작업을 수행하려는 시도가 있으면, 사용자가 누구인지를 파악해서 관리한다. 지금까지 AI가 구글 같은 검색 엔진보다 더 위험하지는 않은 것 같다”며 “다만 AI가 세상에 없던 지식을 만들어내고, 인간의 통제를 넘어서는 상황이 가장 위험하다”고 말했다.

지난 5월 세계적 투자 회사 블랙록 주최 행사에서 권 CSO와 샘 올트먼이 블랙록의 브라운슈타인(가운데) 알라딘 엔지니어링 총괄과 기념 촬영을 한 모습. /랜스 브라운슈타인 링크트인 캡처
 

-하지만 오픈AI는 AI 통제를 담당하는 팀(수퍼얼라인먼트팀)을 해체하지 않았나.

“큰 오해다. 수퍼얼라인먼트팀이 수행하던 ‘정렬 작업’은 여전히 수행되고 있다. 소속 팀원들을 적절하게 재배치했을 뿐이다. 내부적으로 이용자의 위험한 요청을 거부하는 안전 기술과 AI 모델을 활용해 사이버 공격 등 나쁜 행위를 하는 이용자를 모니터링하는 기술 등을 개발하고 있다.”

‘정렬(alignment) 작업’은 AI 시스템이 인간의 의도된 목표나 윤리적 원칙에 따라 움직이도록 조종하고 제어하는 기술을 말한다.

 

“우리가 AI 통제팀 해체? 큰 오해”

-AI 기업들이 최근 수익성을 중요시하면서 안전성을 등한시한다는 비판이 나온다.

“그렇지는 않다. 수익화와 안전은 결코 배치되는 개념이 아니다. 사업을 성공시키고, 그 수익을 다시 안전 연구에 재투자하는 게 건강한 구조다. 자동차 산업도 차를 팔아 번 돈을 연구에 투자하고, 결국 차의 안전성이 발전하지 않았나. 우리가 돈을 벌 수 없다면, 지금 하고 있는 수많은 안전 관련 연구는 결코 존재하지 못할 것이다.”

-인간이 AGI의 위협에 대처할 수 있을까?

“AGI가 세상에 어떤 결과를 초래할지 아는 사람은 아무도 없다. 다만 기업은 준비를 해야 한다. 사회심리적으로, 경제적으로 어떤 충격이 미칠지, 관련법은 어떻게 제정해야 할지, 기업이 세계 정부와는 어떻게 협력할지 예측하고 판단하는데 유용한 정보를 제공하는 게 나의 역할이다. AI는 규제되어야 한다는 게 우리의 일관된 입장이고, 이에 변화는 없다.”

-최근 오픈AI는 학생들의 AI 부정 사용을 탐지하는 기술을 개발하고도 공개하지 않는다는 비판을 받았다.

“그 기술은 여전히 실험 중이고, 완벽하지 않다. 기본적으로 우리는 기술을 사용했다고 사람들이 부당하게 비난받는 세상보다는, 기술로 여럿이 도움을 받는 세상을 만들고 싶다. AI를 부정하게 사용한다면, 거기에도 다양한 맥락이 존재할 것이다. 단순히 AI 사용 여부만 확인하는 검열 기술로는 선생님들이 잘못된 판단을 내릴 가능성이 크다. 우리는 사람들에게 완벽하지 않은 기술을 제공하면서 ‘안심하라’고 할 수는 없다.”

권 CSO는 12일 서울에서 서울대 주최로 열리는 ‘서울 AI 정책 콘퍼런스 2024′에 기조연설자로 나서 첨단 AI의 안전을 주제로 임용 서울대 로스쿨 부교수와 대담한다. 그는 세계 주요국의 AI 정책 수립에 조언을 하기도 한다.

 

“한국 인재, 네트워킹의 힘 키워야”

-최근 올트먼 CEO는 AI를 미국이 주도해야 한다고 했는데.

“미국만이 AI 기술을 가져야 한다는 뜻은 아니다. AI를 테러에 사용하는 독재국가 보단 ‘민주적AI’를 실현하는 것이 중요하다는 의미다. 현실적으로 많은 AI 회사와 인재들이 미국 실리콘밸리에 있다. 미국은 AI의 사용과 확산에 모범을 보여야 할 책임이 있다. 동맹국, 특히 한국도 AI와 관련해 좋은 선례를 만드는 국가로서 중요한 역할을 할 것이라 생각한다.”

-한국의 AI 인재들에게 주고 싶은 조언은?

“한국의 AI 능력은 이미 뛰어나다. 오픈AI에도 최고 수준의 연구원 중 한국계가 여럿이다. 다만 한국계 인재가 간과하는 부분이 네트워킹의 힘이라 생각한다. 나 또한 지극히 내성적인 성격이다. 그럼에도 실리콘밸리에선 사람을 끝없이 만나고, 소통하고, 기회를 잡으며 이 자리까지 왔다. 이곳에선 그저 뛰어나고 성실하다고 성공이 보장되진 않는다. 겸손을 미덕으로 생각하는 한국인들이 생각보다 진취적인 모습을 더 많이 보이면 좋겠다고 생각한다.”

 

☞제이슨 권은 누구

네 살 때 기계공학을 전공한 아버지를 따라 미국 아이오와주로 이민 온 한국계 미국인이다. 조지타운대에서 외교학을 전공하고, 버클리대에서 법학박사 학위를 취득했다. 첫 사회생활은 소프트웨어 엔지니어였다. 대학 전공과 무관하게 어릴 적 아버지한테 선물 받은 컴퓨터를 갖고 놀며 프로그래밍 실력을 쌓았다고 한다. 변호사 자격증을 딴 후 2011년 법무법인에 재직할 때 스물다섯 살의 샘 올트먼 오픈 AI 창업자를 만났다. 이후 올트먼이 이끌던 벤처 창업 지원 기관에 근무했고, 2021년 오픈AI에 합류했다. 지난해 오픈AI에서 벌어진 ‘올트먼 축출 사건’ 때 올트먼을 지지했다.