IT, 컴퓨터

AI가 무서운 진짜 이유

해암도 2023. 5. 6. 04:38

[오늘과 내일/김용석]

인간의 상식을 무너뜨리는 AI
‘안전한 AI’에 관심 기울여야

 

                                        김용석 산업1부장 yong@donga.com

 
 

사람처럼 말하고, 글 쓰고, 그림 그리는 생성형 인공지능(AI)이 등장한 이후 AI의 위험성을 경고하는 목소리가 이어지고 있다.

이른바 ‘AI 경계론’에서 가장 무서운 지점은 AI가 정확히 얼마나 무서운 것인지 알기 어렵다는 점이다. 일반인은 물론 상당수 전문가도 마찬가지다. AI를 훈련시키려면 막대한 데이터와 컴퓨팅 파워가 필요하다. 큰 비용이 드는 일이다. 극소수 빅테크를 제외한 나머지는 사실 AI 위험성 실체에 가까이 접근하기조차 어렵다.

따라서 누구보다 AI를 잘 아는 제프리 힌턴 토론토대 교수가 내놓는 경고야말로 공포를 극대화하는, 호러영화 하이라이트와 같다. 힌턴 교수는 신경망을 통한 기계학습(딥 러닝)을 고안해 현재의 AI를 가능케 한 인물이다. 챗GPT를 개발한 오픈AI 최고 과학자 일리야 수츠케버가 그의 수제자다.

 

그는 AI 위험성을 알리겠다면서 구글에 사표를 냈다. 이후 뉴욕타임스와의 인터뷰에서 AI와 로봇 기술을 활용한 킬러 로봇 가능성을 언급하며 “핵무기와 달리 AI는 비밀리에 연구하면 밖에서 알아낼 방법이 없다. AI 악용 시도를 막기 어려울 것”이라고 경고했다.

전문가들 경고에서 주목할 점은 우리 삶이 의존하고 있는 상식의 붕괴를, AI가 가져올 수 있다고 짚은 부분이다. 자연어 처리(NLP) 분야 세계적 권위자인 최예진 미 워싱턴대 교수는 최근 TED 강연에서 AI가 변호사 시험에 합격할 정도로 뛰어난 지적 능력을 가지고 있으면서도 상식 측면에서는 ‘충격적으로 멍청하다’는 사실을 지적했다.

AI의 몰상식은 상식을 벗어나는 비극을 낳을 수 있다. 닉 보스트롬 옥스퍼드대 교수는 종이 클립 생산을 극대화하기 위해 만들어진 AI 사례를 든다. AI는 목적 달성을 위해 ‘비상식적이게도’ 인간 생명을 희생시킬 수 있다는 것이다. 빅테크들은 ‘인간을 해치지 말 것’이라는 명령을 학습시킴으로써 이를 해결할 수 있다고 믿는다. 하지만 최 교수는 상식적인 인간이 상상할 수 없는 수많은 비상식적 수단(세상의 모든 나무를 몰살시키거나 하는)을 모두 막아낼 수는 없을 것이라고 설명한다.

  •  


더 나아가 인간 상식의 형성 과정을 AI가 지배할 가능성도 있다. 이스라엘 역사학자인 유발 하라리는 인권과 같은 상식적인 개념은 우리 DNA에 새겨진 것이 아니라 오랜 기간 인간이 이야기를 통해 쌓아 올리고 있는 문화적 인공물이라고 본다. 상식 기반을 구성하는 종교, 경제야말로 인간의 스토리텔링이 만들어낸 최고의 발명품이라는 것이다.

AI는 이미 인간과 사회적 관계를 맺고 이야기를 공유하는 데 인간 이상의 능력을 갖췄음을 보여주고 있다. AI가 만들어낸 이야기와 사진에 인간은 공감하고 생각을 바꾼다. 하라리는 이코노미스트 기고문에서 AI가 글 또는 조작된 이미지를 통해 낙태, 기후변화, 러시아의 우크라이나 침공에 대한 이야기를 하게 될 때 인류 문명의 종말이 시작될 것이라고 경고했다.

AI의 위협은 기후위기와 닮아 있다. 일반 개인은 사태 악화에 크게 기여한 적도 없고, 악화 징후를 인식하기도 어렵다. 하지만 누구든 기후위기를 피할 수 없다. 따라서 필연적으로 우리가 맞이하게 될 AI 시대의 위험에 대한 대응은 공동체의 관심사가 돼야 한다. 윤리적인 AI, 지속 가능한 AI를 갖기 위한 관심과 토론을 게을리한다면 최 교수가 경고한 것처럼 우리는 앞으로 극소수 빅테크의 자비에만 의존하게 될 수도 있다.

 
 

김용석 산업1부장 yong@donga.com    입력 2023-05-05