노동자 연대

전체 기사
노동자연대 단체
노동자연대TV

긴 글
인공지능(AI)이 인간을 대신할까?

이 글은 노동자연대TV의 온라인 토론회에서 최무영 교수가 발표한 내용을 글로 옮긴 것이다. 독자들의 이해를 돕기 위해 영상의 일부 장면을 첨부했다. 전체 영상은 여기에서 볼 수 있다.

방금 소개받은 최무영입니다. 서울대학교 물리천문학부에 재직했다가 작년에 퇴임해서 지금은 명예교수로 있습니다. 서울대학교 이론물리학연구소에는 아직 책임연구원으로 있습니다.

제가 전공이 물리학이고 이론물리학 중에서 복잡계이긴 합니다만, 사실 인공지능 전문가라고 할 수는 없다는 것을 미리 말씀드리겠습니다.

물리학자의 관점에서 인공지능을 조금 더 위에서 내려다보는 의미에서 말씀을 드리겠고 전문적이고 기술적인 문제는 제가 하나하나 말씀드리지는 않겠습니다.

혹시 인공지능 하면 조금 낯선 분이 계실까봐 먼저 알파고 얘기를 잠깐만 하겠습니다.

알파고, 기계의 승리?

알파고가 우리나라에 큰 충격을 줬는데요. 다 기억하시겠습니다만, 이세돌 기사와 알파고가 이른바 인간과 기계의 싸움을 벌였는데요. 결과는 다 아시죠? 알파고가 승리했고 세계 바둑 랭킹 1위가 돼 버렸습니다. 그걸 보면서 우리가 기계의 승리라고 얘기를 많이 했죠.

그런데 굉장히 놀랍다고 생각했지만 사실 따지고 보면 기계라는 건 원래 인간보다 월등하지 않습니까? 공작 기계나 자동차나 계산기 다 그렇죠. 우리가 아무리 삽으로 열심히 파 봤자 포크레인을 당할 수가 없죠. 아무리 빨리 뛰는 사람도 자동차보다 빠를 수는 없는 거고 아무리 암산을 잘 해도 계산기보다 빠를 수 없습니다. 그러니까 사실 이상한 게 아니죠. 기계가 이런 특정한 기능에서는 인간보다 잘 하는 건 사실 놀랄 일은 아닙니다.

단지 바둑은 뭔가 신비로운 인간만의 영역이라고 그동안 생각해 왔던 거죠. 그래서 바둑에는 무슨 기운이니 기풍이니 심지어 무슨 입신의 경지 이런 말도 있었죠. 이건 기계가 감히 넘볼 수 없는 거라고 생각을 했던 겁니다.

또 이 기계라는 건 대개 물질 문명의 소산이고 보통 우리가 이걸 ‘서양적’이라고 생각하는 반면 바둑은 동양, 즉 한국이나 중국, 일본만 잘 하니까 알파고가 이세돌 기사를 이긴 것을 ‘서양의 승리’라고 보는 사람도 있을지 모르겠습니다.

베터리지의 법칙 ⓒ노동자연대TV

위의 그림을 보시면 제가 이런 의견들에 물음표를 했는데요. 베터리지의 법칙이라는 것이 있습니다. 우리가 어떤 제목에 의문 부호, 물음표를 붙여 썼을 때 그것이 과연 참이겠느냐 거짓이겠느냐 하는 거죠.

예를 들면 신문 기사의 제목에 물음표를 붙인 기사가 흔히 나옵니다. 그럴 때 기사를 읽어 보면 물음표의 답이 ‘네’인가요 ‘아닌가’인가요? 대부분 경우에는 답이 ‘아니오’였을 거입니다.

우리가 그걸 베터리지의 법칙 혹은 힌클리프의 규칙이라고 하는데요. 이런 질문도 할 수가 있죠. 베터리지의 법칙은 과연 참이냐. 이건 상당히 난감합니다. 그렇다고 해도 문제가 되고 아니라고 해도 문제가 됩니다. 양쪽 다 문제가 되는데, 한번 생각해 보십시오.

거짓말쟁이의 역설이라고 하는 아주 굉장히 유명한 논리 문제인데요.

원래 얘기로 돌아오면, 우선 제가 볼 때 이세돌 9단이 알파고한테 지는 바람에 바둑에 관한 신비주의가 좀 약화된 것 같습니다.

또, 프로 기사나 프로 운동 선수가 어렸을 때부터 지옥 훈련을 받는다고 들었는데 이게 직업이 된다는 건 굉장히 이상하다고 생각합니다. 저는 바둑이나 운동은 놀이가 돼야 된다고 생각하는데요. 놀이가 아니고 직업이 되는 것은 인간성과 기본적인 삶에 여러 가지 문제를 낳을 수 있다고 생각합니다.

셋째, 이게 사실은 사람과 기계의 싸움이 아니라 엄밀하게 말하면 사람과 사람이 싸운 거죠. 바둑 기술자하고 전산 기술자가 싸워서 전산 기술자가 이겼다고 생각할 수가 있는 겁니다. 사람끼리 싸운 거지 사람과 기계가 싸운 건 아니죠. 오해하지 않으면 좋겠다고 생각합니다.

바둑도 사실 기본적으로 연산입니다. 계산하는 건데, 원리를 생각하면 사실 영상 인식보다 훨씬 쉬운 문제죠. 요새 휴대전화나 컴퓨터 같은 기계가 얼굴을 인식하지 않습니까? 얼굴뿐 아니라 영상 인식을 많이 하는데 바둑이 그보다는 쉬운 문제입니다. 원리적으로는 순전히 단순한 계산 문제이기 때문이죠.

그런데 원리적으로는 쉽지만 현실적으로는 굉장히 어렵습니다. 이른바 복잡계이기 때문에 그렇습니다. 이건 지능하고 비유할 수 있을 것 같습니다. 조금 이따가 다시 말씀을 드리죠.

지능이란 무엇인가?

우리가 인공지능을 얘기하려고 하는 거니까 먼저 지능이라는 게 과연 무엇인지 잠깐 생각해 보겠습니다. 보통 지능이라고 하면 뭔가 창조적인 능력, 독창적으로 뭔가 추상화할 수가 있는 능력이라고 흔히 생각합니다.

그런데 기계가 과연 지능을 갖고 있는지 어떻게 알 수 있을까요? 유명한 기준이 하나 있습니다. 튜링 검사라고 하는데 튜링은 사람 이름입니다. 컴퓨터의 기본 논리를 만든 사람이죠. 튜링 검사는 우리가 어떤 질문을 던졌을 때 기계가 답하는 것을 듣고 그 답이 기계의 답인지 인간의 답인지 구분할 수 없으면 그것을 우리가 인공지능이라고 부르자는 것이 핵심 내용입니다.

그런데 이에 대한 유명한 반론이 있습니다. 기계적 번역이라는 문제인데요. 중국어 방이라는 유명한 얘기가 있습니다. 어떤 방에 갇혀 있는 사람이 중국어를 전혀 모르지만 완벽한 표를 가지고 있다고 가정해 보자는 것입니다. 우리말이 어떤 중국어에 해당하는지 완벽하게 담고 있는 표를 갖고 있다면 바깥에서 한 우리말을 듣고 그 사람은 중국어로 바꿔 답할 수 있을 겁니다. 그러면 밖에서는 ‘이 사람이 중국어를 아는가 보다’ 하고 생각하지 않겠습니까? 그러니까 중국어를 아는 사람과 중국어를 모르지만 그냥 기계적으로 표에 따라서 답하는 사람을 구분할 수 없을 거라는 얘기죠. 따라서 튜링 검사에 문제가 있다는 얘기입니다.

잔 설(J. Searle)이라는 사람이 처음에 제기한 반론인데 사실 여기에 대한 반론도 있고 재반론, 재재반론이 있어서 계속 답이 안 나오는 문제입니다.

왜냐하면 단순히 표를 갖고 기계적으로 답하는 것과 정말로 이해하는 것이 다른지 판단하는 게 쉬운 문제는 아니기 때문입니다.

사실 인간도 태어나서 수많은 학습을 한 다음에 지능을 갖게 된다고 생각하죠. 갓난아이가 지능이 있을지는 모르겠습니다만, 하여튼 우리가 이해한다는 게 무엇인가 하는 게 쉬운 문제가 아닙니다. 중국어 방 문제에서는 방 안에 있는 사람이 중국어를 전혀 이해 못 한다고 가정했지만, 이해한다는 게 과연 무엇인가 하는 게 쉬운 문제가 아니라는 것이죠.

시청자 분들 중에 대학교 들어가실 때 수능을 보신 분이 있을지 모르겠는데 사실 학생들 중에는 전혀 이해를 못 하면서 기계적으로 암기해서 답을 쓰는 경우도 많습니다. 그렇게 보면 이해라는 게 과연 무엇인가 하는 게 쉬운 문제가 아니라는 걸 알 수 있죠.

약인공지능과 강인공지능

그럼 인공지능이라고 하는 건 과연 뭘까요. 인공지능은 영어로는 Artificial Intelligence, 줄여서 보통 AI 라고 하죠. 그런데 우리가 인공지능을 보통 두 가지로 구분합니다. 하나는 약弱인공지능(Week AI)이고, 하나는 강强인공지능(Strong AI) 두 가지로 나누는데요. 약인공지능이라는 건 어떤 특정한 문제를 해결하는 데, 마치 지능이 있는 것처럼 거동하는 걸 말합니다. 영상 인식이나 음성 인식 같은 것이죠.

강인공지능이라는 건 인간 같은 겁니다. 지각과 인식 능력이 있고 가장 중요한 건 자의식이 있는 것을 말하죠. 스스로 생각할 수 있는 자아를 가지고 있는 그런 지능이 정말 인간 같은 거죠.

그런데 현재 인류가 가지고 있는 인공지능은 모조리 다 약인공지능, 약한 인공지능입니다. 아직은 인간 같은 게 전혀 아니죠.

여기서 한 걸음 더 나아가서 초超인공지능(Super AI)이라는 말을 하기도 합니다. 이건 인간을 정말 초월해서 말하자면 하느님처럼 되는 그런 인공지능을 말하는데, 그냥 환상이고 현재로선 전혀 가능성이 없죠.

현재 방식으로는 강한 인공지능은 아직 존재하지 않습니다. 그러니까 공상과학 영화에서 보듯이 인공지능이 반란을 일으켜서 인간을 타도하고 지배하는 세계는 오지 않습니다. 적어도 현재 방식으로는 말이죠. 현재 인공지능은 전부 다 약인공지능이기 때문에 자의식이 전혀 없습니다.

그럼 지능이라는 게 뭐냐? 지능의 핵심은 떠오름이라고 하는 건데요. 영어로는 이머전스Emergence, 한자어로는 창발創發이라고 흔히 쓰죠. 구성원이 매우 많고 그 구성원들이 서로 묘하게 상호작용을 하기 때문에 구성원 하나하나에는 없던 성질이 전체 집단의 성질로써 생겨나는 것을 떠오름이라고 하는데요.

지능이라고 하는 건 그런 거예요. 우리 두뇌에 지능이 있지만 두뇌의 구성원 하나하나를 아무리 살펴봐도 거기엔 지능이라는 건 절대로 없습니다. 많은 구성원 전체가 모여 있을 때만 지능이 생겨날 수 있는 거예요. 그걸 좀 강조하겠습니다.

두뇌라고 하는 건 기본적으로 신경그물얼개라고 얘기하는데, 신경세포, 영어로는 뉴런Neuron이 아주 많이 모여서 서로 얽혀 있는 겁니다. 인간의 두뇌에는 신경 세포가 대략 1000억 개 가까이 있다고 알려져 있습니다.

아무튼 이 두뇌는 보통 우리가 생각하는 컴퓨터하고 굉장히 다르다는 사실이 중요합니다.

먼저 우리가 기억이라고 하는 건 어떤 정보를 저장하고 있는 것인데 컴퓨터도 정보를 저장할 수가 있죠. 하드디스크를 통해서요. 그런데 하드디스크의 어느 한 부분에 약간 상처가 나면 그 쪽에 저장돼 있는 정보가 다 사라져서 회복할 수 없게 됩니다.

그런데 우리 두뇌에서는 어느 한 부분에 문제가 생겨서 떼어내도 거기에 저장돼 있는 특정한 정보가 갑자기 사라지는 일은 생기지 않습니다. 실제로 뇌 수술을 하면서 일부 두뇌를 떼어내기도 하지만 그런 일은 전혀 안 생깁니다. 사라지는 기억이 없어요. 왜냐하면 두뇌가 기억을 저장할 때는 어느 특정한 영역, 부분 하나하나에 특정한 기억 하나하나가 저장되는 게 아니라 각각의 기억이 전체 두뇌에 퍼져서 저장되기 때문입니다. 따라서 일부가 없어져도 문제가 없는 거죠.

그러니까 우리의 두뇌에서 정보를 저장하거나 뭔가 의식하고 생각하고 이런 건 모조리 다 두뇌 전체, 1000억 개 정도의 신경세포들의 집단 전체가 한꺼번에 만들어 주는 성질, 이른바 떠오름의 성질이지 신경세포 하나하나의 성질이 아니라는 걸 강조하겠습니다.

기존의 컴퓨터는 굉장히 복잡해 보이지만 어느 한 부분에 조금이라도 고장 나면 전체가 다 고장 납니다. 그렇지만 우리 두뇌는 어느 한 부분이 조금 고장 나서 떼어 버려도 작동에 문제가 없거든요. 그 차이가 굉장히 커서 본원적인 차이가 있는 것인데요.

그 차이를 영어로는 Complex와 Complicate라고 구분해 씁니다. 우리말 번역이 조금 마땅치 않아서 제가 complex는 ‘복잡’이라고 번역했고, complicate는 ‘번잡’이라고 번역했습니다. 우리 두뇌는 복잡한 거고 컴퓨터는 번잡한 겁니다. 둘이 의미가 굉장히 다릅니다.

인공지능의 작동 원리

알파고라든가 요새 각광을 받고 있는 챗GPT는 어떨까요? 기존의 컴퓨터와는 상당히 다르게 만들어서 우리 두뇌를 조금 흉내를 내긴 한 겁니다. 번잡하지 않고 조금 복잡하도록 구성한 거죠. 완벽하지는 않지만 어느 정도는 말이죠.

우리 두뇌, 생물학적인 두뇌는 자연적인 신경그물얼개입니다. 그리고 인공 신경그물얼개는 우리 두뇌를 인공적으로 흉내 낸 겁니다. 전자 회로를 써서 말이죠. 알파고라든가 챗GPT 같은 인공지능은 다 그런 인공 신경그물얼개를 만들어서 두뇌 비슷하게 만든 겁니다. 물론 본원적인 차이가 굉장히 커서 두뇌 쫓아가려면 아직 멀었죠.

그 차이를 간단히 말씀드리면, 우리 두뇌는 아까 말씀드렸듯이 1000억 개에 가까운 신경 세포들이 얽혀 있는 것입니다. 그런데 인공 신경그물얼개는 회로의 소자를 신경 세포 하나 하나처럼 만들었습니다. 완벽하게는 아니고 훨씬 더 간단하게 만든 겁니다. 훨씬 간단하지만 하여튼 그런 것들을 뭐 많게는 수만 개 혹은 수십만 개 만들어 놓은 거죠.

자연 신경그물얼개와 인공 신경그물얼개 ⓒ노동자연대TV

하지만 생물학적인 신경그물과 인공 신경그물 모형이라는 건 비슷하게 만들었지만 사실은 굉장히 다르다는 걸 강조하겠습니다.

인공 신경그물얼개는 사실 회로를 구성한 것이기 때문에 말이 신경세포이지 실제 신경세포와는 너무 다릅니다. 훨씬 더 간단하고 실제 신경세포에 비하면 사실 아무것도 아닌 거죠. 회로 소자끼리 연결돼 있는 걸 시냅스라고 부르겠는데, 그 연결에 전류가 얼마만에 흐르느냐 하는 것으로 정보를 저장하기도 하고 학습을 하기도 하고 작동합니다.

반면 우리 두뇌에 있는 신경세포, 생물학적인 신경세포는 그 신경세포들 사이에 전위차가 플러스가 됐다가 마이너스가 됐다가 할 수가 있는데 각 신경 세포끼리 얼마의 시간차로 플러스가 되는가 하는 것들을 기반으로 작동하기 때문에 훨씬 복잡하고 작동 방법이 상당히 차이가 있습니다.

하여튼 인공 신경세포들의 그물얼개라고 하는 건 자연적인 두뇌를 흉내 내긴 했지만 아직 갈 길이 훨씬 먼 초보적인 흉내라고 말할 수가 있겠습니다.

자연 신경그물얼개와 인공 신경그물얼개의 작동 방식 차이 ⓒ노동자연대TV

위의 그림에서 생물학적인 신경그물얼개라고 하는 건 그 아래 식으로 표현이 되고 바로 옆의 그림처럼 시간에 따라 변하는 전압차로 정보를 저장하고 처리합니다. 인위적인 신경그물얼개, 인공적으로 회로를 구성한 것들은 이것과는 굉장히 다르게 작동합니다. 자세한 말씀은 안 드리겠습니다만 방식이 상당히 다르고 정말로 우리 두뇌를 흉내 내려면 아직 멀었다는 것을 말씀드리겠습니다. 현재로서는 말이죠.

지금 있는 인공 신경그물얼개는 전부 약한 인공지능이고 진정한 의미의 지능은 아닙니다. 어떤 특정한 기능을 마치 지능이 있는 것처럼 수행하는 거죠. 다시 말해 알파고는 바둑은 기막히게 잘 두지만 바둑 외엔 아무것도 할 줄 아는 게 없습니다. 그런 식으로 어떤 특정한 기능만 수행하는 거죠.

특정한 기능을 수행하긴 하지만, 전자회로에 감춰진 켜Hidden Layer들이 있어서 기존의 컴퓨터와는 달리 입력된 신호를 적절하게 처리한다고 말씀드릴 수가 있겠습니다.

인공지능 회로의 감춰진 켜 hidden layer ⓒ노동자연대TV

예를 들면 위의 그림 같은 거죠. 숫자 3이나 1을 필기체로 쓰면 모양이 다 다르지만 인간이 보면 금방 3이나 1이라는 것을 알죠. 그런데 기계가 이런 것들을 인식하는 건 쉽지 않은 거죠. 전통적인 컴퓨터로는 이걸 인식하는 게 굉장히 어려운데 인공지능은 약한 지능이긴 하지만 우리가 훈련을 시켜주면 이런 것들을 하나로 잘 묶어내 인식하는 걸 상당히 성공적으로 수행합니다.

인공지능의 문자인식 기능 ⓒ노동자연대TV

문자 인식은 위의 그림에서 빨간 표시와 파란 십자 표를 어떻게 구분할 것인가 하는 문제인데요. 적절하게 구분하는 선을 딱 찾아내는 것이 바로 인공지능 기계가 하는 일입니다. 사실은 별 게 아니죠. 이걸 어떻게 찾아낼 것인가 하는 건 조금 전문적인 거라서 시간상 생략하겠습니다.

여러 가지 식을 적절하게 써서 맞출 수가 있는데, 문제는 이걸 아주 정확히 맞추려면 아주 많은 변수를 써야 한다는 겁니다. 그러나 엄청나게 많은 변수를 모두 쓴다는 건 현실적으로 불가능하죠. 그래서 표현을 잘 하는 것과 효율은 서로 모순되는 목표가 됩니다. 어느 하나를 좋게 하려고 하면 다른 건 좀 나쁘게 되기 십상이죠. 그래서 항상 어려운 문제이고요.

알파고는 컴퓨터의 중앙연산처리장치CPU를 1920개와 CPU보다 훨씬 더 큰 그래픽처리장치GPU 280개를 함께 쓴 겁니다. 그것도 성능이 무지무지하게 좋은 걸 쓴 것이기 때문에 실제로는 아주 좋은 컴퓨터 2천 개 이상을 한꺼번에 쓴 거죠. 그래서 엄청나게 계산을 빨리 할 수가 있는 거죠. 그래서 알파고가 인공지능이 아니라 고속계산기 아니었는가 하는 의심도 있었는데요. 꼭 그렇진 않고 학습을 했기 때문에 단순한 컴퓨터는 아니고 정말로 인공지능이라고 말할 수는 있습니다.

보통 기계학습, 머신러닝이라고 하는데요. 기존의 컴퓨터라는 건 우리가 프로그램을 짜서 코드를 주면 시키는 대로만 작동하는데, 인공지능이라고 하는 건 학습·훈련을 시켜서 우리가 코드를 주지 않아도 실현할 수가 있습니다. 영상 인식이나 음성 인식, 번역, 자율주행, 스팸 거르개(필터) 같은 것들이 다 기계학습을 통해서 자동으로 되는 거죠. 이게 바로 가장 약한 의미의 인공지능입니다.

학습에는 몇 가지 종류가 있는데 지도학습이니 자율학습이니 강화학습이니 하는 게 있지만 오늘은 생략하겠고요. 하나만 말씀드리겠습니다. 심층학습이라는 말 많이 들어보셨을 텐데 딥러닝이라고 하죠.

제가 이걸 왜 말씀드리느냐 하면, 심층학습이라고 하면 뭔가 대단한 걸로 들리지 않습니까?

그런데 전혀 그런 뜻이 아니고 아까 보여 드린 것처럼 인공 신경그물얼개에는 감춰진 켜들이 여러 개가 있거든요. 그런 감춰진 켜들이 여러 개 있는 것을 깊은 신경그물얼개라고 부릅니다. 입력과 출력만 있는 게 아니라 입력, 출력 사이에 감춰져 있는 켜들이 많고 그 안에서 서로 정보가 왔다 갔다 하면서 처리한다는 뜻입니다. 그걸 심층학습이라고 부르는 거죠. 그러니까, 사실 심층학습이라는 게 별로 대단한 뜻은 아닌 거죠. 거기에 절대로 겁 먹지 마십시오.

동물인식 ⓒ노동자연대TV

예를 들어서 위의 그림을 보시면 동물들이 있지 않습니까? 표범의 머리가 있고 영양 같은 동물의 전체 몸도 있고요. 좀 멀리 본 그림도 있고 아주 멀리 본 그림도 있죠. 동물이 아닌 다른 것들, 꽃이라든가 나무들도 있고요. 자동차라든가 인위적인 것들도 있어요.

이런 것들을 무작위로 20밀리초 동안, 그러니까 100분의 2초 동안 보여 주고 그 다음에 30밀리초, 80밀리초 동안에는 이걸 뒤섞어서 엉망으로 해서 보여 준 다음에 알아맞히는 훈련을 시키는 겁니다. 여기 동물이 있었는지 없었는지 알아맞혀라 하는 거죠.

아래 그림은 이걸 사람과 기계가 각각 한 것을 비교한 겁니다. 빨간 것이 기계가 한 거고 파란 점선이 인간이 한 건데, 둘이 굉장히 비슷하죠. 때로는 기계가 더 좋고 어떤 건 또 인간이 조금 더 좋은 경우도 있는데, 이건 사실 10년 전 얘기고 현재에 와서는 기계가 거의 대부분 인간보다 더 잘 인식합니다.

인공지능과 인간의 인식률 비교 ⓒ노동자연대TV

이런 걸 더 빨리 인식하니 기계가 인간보다 낫다거나 기계가 인간을 이겼다고 생각하실지 모르겠지만 이 인공지능 역시 영상 인식밖에 못 합니다. 다른 건 못 하는 거죠. 그러니까 어떤 특정한 기능만 하게 만든 겁니다.

그런데 물리학자 입장에선 가장 흥미로운 건 이런 인공 신경그물얼개가 어떻게 작동할 수가 있는가 하는 점입니다. 사실 이렇게 작동을 잘 하는 게 굉장히 이상합니다.

예를 들어 언어를 보죠. 우리가 말을 인식할 때 대개 문단 하나에 1000개 정도의 자모(자음+모음)가 있다고 가정하고 자모의 종류가 스물 다섯 가지라고 가정하죠. 알파벳이 스물 네 개이고 빈 칸이 있을 수 있으니까 모두 스물 다섯 개라고 볼 수가 있잖아요?

따라서 한 문단에는 스물 다섯 가지 자모가 들어갈 자리가 1000개 있으니까 자모를 조합하는 경우의 수는 25의 1000제곱이 됩니다. 25를 1000번 곱한 거죠. 엄청난 수입니다. 우리가 읽을 수가 없을 만큼 엄청난 수인데 이렇게 가지수가 어마어마하게 많은데 실제 인공 신경그물얼개는 변수가 많아 봤자 원래 100만 개 정도였습니다. 요즘에도 아무리 많아 봤자 한 1000억 개 정도입니다. 1000억 개도 엄청나게 많지만 25의 1000제곱에 비하면 없는 거나 마찬가지입니다.

그런데 불과 1000억 개의 변수를 조정해서 이렇게 언어 작업을 잘 하는 게 굉장히 이상한 것이거든요. 가능성이 엄청나게 많은데 그 중에 몇 개 안 되는 걸 갖고 비교적 잘 수행한다는 게 좀 이상하죠.

상당히 수수께끼 같은 얘긴데, 그래서 이런 유명한 말이 있습니다. “이렇게 깊은 배움(deep learning)이 어떻게 이렇게 저렴한가(cheap)?” 하는 농담이 있는데요. 영어로 ‘값이 싸다’는 뜻의 cheap은 ‘적다’는 뜻이기도 하죠. 매우 적은 수의 맺음 변수로도 작동한다는 얘기입니다. 이 수수께끼는 사실 아직도 잘 이해가 안 가는 얘깁니다.

물리학자가 이 연구를 많이 했는데요. 인공 신경그물얼개가 어마어마하게 많은 가능성 중에 극히 일부만 수행할 수 있지만, 그것만 갖고도 비교적 잘 작동하는 원리를 연구한 겁니다.

핵심적으로 되틀맞춤 이론이라고 하는 굉장히 유명한 물리학의 이론 체계가 있는데 굉장히 어려운 얘기입니다. 다만 물이 어떻게 얼음이 되는가 혹은 물이 어떻게 수증기가 되는가 하는 문제와 본원적으로는 같은 문제라고 할 수가 있겠습니다. 복잡계 관점에선 같은 문제라고 할 수가 있고 복잡성이 굉장히 중요한 구실을 한다는 것만 말씀드리겠습니다. 이건 물리학자들의 얘기인데, 실질적으로 인공지능을 만드는 공학자들은 이런 생각을 전혀 안 하죠. 저는 그게 참 문제라고 생각합니다.

기계학습은 인공지능이 어떤 일을 사람보다 정확하게 수행하도록 할 수 있는데요. 문제는 가끔이지만 어처구니 없는 실수를 할 수 있다는 것입니다. 좀 전에 말씀드린 내용대로 실제 가능한 경우의 수는 엄청나게 많은데 그 중에 일부만 가정하고 수행하는 것이기 때문이죠. 그래서 정말로 이상한 잘못을 할 가능성이 언제나 존재합니다.

훈련시킨 학습 자료와 다른 새로운 문제를 주면 잘 못하는 경우도 굉장히 많습니다. 또 훈련을 너무 시키면 오히려 나빠집니다. 그래서 어떤 최적화 훈련 지점이 있어야 되는데 그걸 우리가 잘 알 수 없죠.

사실 이 문제는 인간도 비슷하긴 하죠. 학생들이 수능을 볼 때 기존 유형만 열심히 연습하면 그건 지독하게 잘 풀겠지만 다른 유형이 나오면 잘 못 풀게 되는 그런 거랑 사실 비슷하다고 할 수 있겠습니다.

잠재적 위험이 있다는 얘기인데요. 마이크로소프트의 인공지능 챗봇 ‘테이’라는 게 있었는데 나오자마자 며칠 안 돼서 욕만 죽어라 하고 인종차별 하고 그래서 바로 퇴출돼 버린 일이 있습니다. 구글에서 나온 인공지능 포토앱도 있었는데 마천루도 금방 인식하고 날개만 보고도 비행기라고 인식을 잘 했습니다. 그런데 문제는 흑인 사진을 보여 주자 고릴라로 인식해서 결국 퇴출됐습니다. 상당히 문제가 있는 거죠.

챗GPT

ⓒhttps://www.tooltester.com/en/blog/chatgpt-statistics

위의 그림은 그동안 나왔던 온라인 서비스들에서 사용자가 100만 명에 도달할 때까지 걸린 시간들을 비교한 것입니다. 넷플릭스는 3.5년 걸렸습니다. 에어비앤비는 2.5년 걸렸고 트위터는 2년, 페이스북은 10달, 인스타그램은 불과 75일 걸렸습니다. 그런데 챗GPT는 100만 명이 사용할 때까지 불과 5일 걸렸습니다. 지금 벌써 몇 달이 지났으니 사용자 수는 수천만 명에서 수억 명이 되지 않았을까 생각됩니다.

심지어 우리나라에서 챗GPT가 쓴 책도 나왔죠. 챗GPT가 쓴 최초의 책이고 번역은 파파고 AI가 했고 표지 일러스트레이션도 셔터스톡 AI가 해서 단 7일 만에 책이 완성됐다고 합니다. 보통 책 같으면 아무리 빨라도 한 세 달은 걸릴 텐데 말이죠. 실제로 교보문고에서 팔고 있습니다.

챗GPT의 이름에서 챗Chat이라건 잡담, 대화를 얘기하는 거죠. GPT는 약자인데 G는 생성이라는 뜻의 Generative의 약자이고 P는 미리 훈련을 시켰다는 뜻의 영어 Pre-trained의 약자입니다. T는 신경그물얼개를 만들 때 회로를 구성하는 한 가지 방식인 Transformer의 약자입니다. 심층학습(딥러닝) 모형에 많이 쓰는 방식인데 이 방식이 여러 가지 장점이 있어서 요새 번역기 같은 것들에서도 대개 이 방식을 씁니다.

GPT에는 몇 단계가 있습니다. 발전 단계를 뜻하는 것이고요. 지금 나와 있는 게 3.5라고 얘기하지만 사실 3이죠. 언젠가 GPT 4가 나온다고 하는데 그건 아마 조금 더 성능이 좋아질 거라고 예상합니다.

제가 살펴보니까 말뭉치, 즉 단어나 문장 같은 것들을 수천억 개를 훈련시켰고 문서를 무려 5조 개를 사용해 훈련시킨 겁니다. 엄청난 거죠. 지도학습, 강화학습 등을 시켜서 미리 훈련시킨 것인데, 사실은 이 훈련을 시킬 때 인간의 노동력을 엄청나게 쓴 겁니다.

챗GPT는 미국에서 만든 거지만, 미국이 아니라 노동력이 싼 데서 이 훈련을 시켰습니다. 아프리카를 주로 이용한 거죠. 그 노동력에 지불한 비용이 3조 7000억 원이라고 하더라고요. 엄청난 액수죠.

이 때 맺음변수(매개변수, Parameter)를 무려 1750억 개를 썼는데, 맺음변수 공간이 1750억 차원이니까 엄청난 공간에서 조정한 건 맞습니다. 앞으로 100조 개를 쓴다고 하니까 참 끔찍하긴 합니다. 그래봤자 실제 가능한 경우의 수에 비하면 거의 0이나 마찬가지이지만 말이죠.

연산처리장치도 엄청난데 A100이라고 하는 GPU를 1만 개를 썼는데, 특별하게 설계해서 그 속도가 무려 312테라플롭(TF)입니다. 1초당 312조 번의 연산을 하는 거에요. 어마어마한 GPU죠. 이거 한 개가 1만 달러, 1천만 원이 넘는다고 합니다. 그걸 1만 개를 썼고 마이크로소프트 사는 이걸 검색엔진 빙Bing에 넣는다고 하는데 그러면 28만 5000개의 CPU를 또 붙이는 것이니 참 대단하죠. 그래서 에너지, 전력을 엄청나게 소비합니다. 유지비만 하루에 100만 달러가 들어간다고 합니다. 끔찍하죠.

챗GPT는 언어에 기반한 인공지능이므로 대화나 글짓기가 굉장히 우수합니다. 그래서 어떤 전형성이 있으면 잘 작동한다고 합니다. 간단한 코딩이나, 법에 대한 얘기를 한다든가 기사를 쓴다거나 광고 디자인 같은 건 굉장히 잘 합니다. 그러나 언어와 관계없는 것들은 잘 작동하지 않습니다. 전형성이 없는 것들, 특히 수식 연산은 형편없습니다. 조그마한 계산기보다도 훨씬 못하죠.

또, 질문을 통해서 학습했기 때문에 답이 질문에 의존합니다. 조금 전에 말씀드린 챗GPT가 쓴 책도 기본적으로 인간이 기획하고 질문을 한 겁니다. 이 책은 일반적인 자기계발서인데 읽어본 사람의 평론을 보면 새로운 내용은 전혀 없다고 합니다. 여러 사항을 종합해서 정리해서 ‘모범 답안’을 만들었다는 게 딱 맞는 평가인 것 같습니다. 새로운 내용은 없고 기존에 알려진 것들을 잘 종합해서 정리했다는 것이죠. 그것이 챗GPT가 잘 하는 겁니다.

노엄 촘스키라고 하는 유명한 언어 학자는 챗GPT가 ‘첨단 기술을 이용한 표절이다’라고 했는데요. 상당히 일리있는 말이죠. 실제로 챗GPT가 나온 다음에 표절 작품이 넘쳐나기 시작한 것은 잘 알려져 있습니다. 그래서 챗GPT가 한 작업인지 아닌지 판별하는 탐지기도 생겨났죠. 여러 개가 생겨났는데 그 중 하나가 ‘챗GPT 제로’라고 하는 겁니다. 결국 어떻게 될까요? 저는 창과 방패의 소모적 싸움이 될 거라고 생각합니다. 정말 소모적이고 한심한 싸움이라고 생각되지 않습니까?

더 큰 문제는 틀린 정보도 그럴듯하게, 놀랍게도 인용 문헌까지 조작해서 답을 한다는 것입니다. 한국의 대통령이 누구냐고 물어보면 문재인이라고 대답한다는 거 다 아시죠? 이게 2021년까지만 훈련시켰기 때문에 그런 것은 이해는 가는데 정말 황당한 건 다시 반문을 하면 챗GPT가 잘못 얘기했다고 답하고는 (질문에 따라서 다르지만) 현재 대통령이 김부겸이라고 대답하는 경우도 있습니다. 아마 당시에 김부겸이 총리였기 때문에 그런 거 아닌가 싶습니다만, 문제는 그걸 아주 그럴듯하게 얘기해서 거짓말 제조기가 되기도 쉽습니다.

요새 SNS를 보면 가짜뉴스라든가 혐오 선동이 난무하는 거 아시죠? SNS가 제대로 된 정보의 소통구가 아니라 왜곡된 정보나 가짜 정보의 소통 창구가 돼 버렸는데 챗GPT도 이렇게 될 건 명백하다고 봅니다. 더 황당한 건 챗GPT는 자기가 모르는 것도 막 우기기도 하고 끔찍한 대화로 이뤄지는 사례가 속출한다는 것이죠. 이걸 전문용어로 환각hallucination이라고 하는데요. 문제가 심각해서 MS Bing에서는 대화를 하루에 50번, 한 번에 대화 교환을 5개로 제한했죠. 대화 교환을 너무 오래 많이 하면 챗GPT가 엉뚱한 얘기를 하고 가끔은 끔찍한 얘기도 해서 상당히 문제가 됐습니다.

챗GPT는 사실 자료를 이용해 학습한 건데, 대규모로 자료를 ‘생성’하는 인공지능의 문제점이 뭐냐 하면 나중에는 인간이 만든 자료보다 인공지능이 만든 자료가 더 많아져서 그걸 갖고 학습을 하게 된다는 것입니다. 자기가 만든 걸로 자기가 학습하면 결국 그 안에 갇히게 되죠. 되돌이가 되고 갇히게 돼 버려서 결국 성능이 크게 저하된다는 연구 결과 논문 보고가 있습니다.

이런 학습 자료로 오염되면 지식 생태계가 파괴되겠죠. 심지어 동영상 편집이 편리하기 때문에 거짓과 혐오가 난무하게 될 게 너무나 명백하고요.

자료 수집도 참 문제인데요. 개인정보를 마구 가져가서 사생활 침해는 물론이거니와 통제의 수단으로 갈 수도 있는 거죠. 어떤 권력기관, 폭력 기관이 이용하게 되면 말입니다.

지적재산권이라든가 생산자의 의사는 전혀 물어보지 않고 자기 마음대로 정보를 가공하니까 상당히 문제의 소지가 큽니다.

더 문제는 사실 챗GPT가 주로 영어로 된 자료로 학습하고 생성하기 때문에 힘 없는 나라의 말은 무시되는 거죠. 말뿐 아니라 문화라고 하는 건 다양성이 굉장히 중요한 건데 다양성이 훼손되고 획일화될 수 있는 겁니다. 그러면 영어를 쓰는 미국 같은 나라들의 관점으로 모든 게 다 통일돼 버려서 왜곡과 편견이 생기기 쉬운 거죠. 이건 복잡계 관점에서 보면 복잡성의 훼손이라서 상당히 치명적인 문제가 될 거라고 생각합니다.

결론

인공지능은 지금까지 보다시피 불평등을 심화할 위험성이 굉장히 큽니다. 탈숙련화를 유도해서 숙련노동자가 불필요하게 되는 곳도 생기거든요. 이미 그런 게 많이 있죠.

단순 노동과 저임금이 늘고 심지어 노동 강도가 강화됩니다. 1차 산업혁명, 2차 산업혁명, 3차 산업혁명이라고 얘기하는데 산업혁명을 되풀이할수록 노동강도가 오히려 강화된다는 연구 결과가 있습니다. 기계가 대신해 주니까 사람은 좀 쉬면서 편해지는 게 아니라 노동강도가 오히려 강화되는 경향이 뚜렷하다고 합니다.

인공지능이 1~2차 산업혁명에 비해서 훨씬 문제가 되는 게, 인공지능이 머리 역할을 하고 인간이 팔다리 역할만 하게 될 가능성도 크다고 생각이 됩니다. 참 이게 걱정되는 현실이죠.

저는 그렇게 되면 제일 먼저 없어지게 될 직업이 아마 판사, 의사, 교수일 수도 있을 거라고 생각합니다. 인공지능이 훨씬 더 잘 할 거거든요. 반대로 절대로 안 없어질 직업이 미용사하고 정원사라고 생각합니다. 인공지능이 아무리 발달해도 절대로 없앨 수 없는 것이 정원사, 미용사이고 인간은 아마 앞으로 다 정원사하고 미용사만 해야 되는 거 아니냐 그런 농담이 있죠.

안전성에도 본원적으로 취약성이 있습니다. 오류가 나올 수 있고 굉장히 위험한 결론을 낼 수도 있죠. 아까 환각이라는 문제에 관해 얘기했습니다만, 사실 의료나 보안, 법률 같은 데 인공지능을 활용하는 것은 굉장히 위험할 수 있죠.

21세기가 이른바 ‘탈진실 사회’라고 하죠. 가짜 뉴스니 뭐니 이런 게 판을 치고 진실이라는 건 중요하지 않다는 생각이 유행하니까 참 걱정인데, 인공지능은 이것을 굉장히 부추길 거라고 생각됩니다.

따라서 사실 확인 능력이 반드시 필요한데요. 챗GPT에게서 새로운 정보를 얻을 생각을 하시면 절대로 안 됩니다. 굉장히 위험하거든요. 우리가 이미 알고 있는 정보를 잘 정리해 주는 것, 아마 그것이 가장 현재로서는 챗GPT가 잘 하는 기능이라고 저는 생각합니다.

우리가 사실 확인 능력을 갖추려면 인공지능을 믿으면 안 되고 비판적 사고를 해야 합니다. 그럴 수 있으려면 정보가 어떻게 생산되고 그것이 어떻게 처리되는가 하는 체계를 어느 정도 이해해야 하죠.

또 우리가 인공지능이 어떻게 작동하는지 이해할 필요가 있는데, 문제는 우리가 인공지능 챗GPT가 어떻게 작동하고 왜 이런 답을 줬느냐 하는 걸 설명할 수 있는 방법이 없다는 사실입니다.

물론 최근에는 ‘설명 가능 인공지능 Explainable AI’ 이라는 게 생겨서 연구 중이기는 합니다만, 아까 말씀드렸듯이 효율에 있어서 서로 모순되는 문제가 있기 때문에 어려운 문제입니다.

이게 군사적 목적으로 가면 더 위험할 수가 있고 독점이라든가 자본이라든가 신자유주의가 결국 문제가 되는 거죠. 막대한 비용과 자원을 독점하게 될 거고 사실은 환경 파괴와 기후변화 피해를 가져옵니다. 챗GPT가 소모하는 에너지가 엄청나기 때문이죠. 그 피해는 거의 대부분 빈곤층에게 전가되죠.

인공지능이 ‘부유한 자의 장난감’이 될 것이냐 아니면 ‘가난한 자의 필요’를 충족해 줄 것이냐 하는 말이 있는데요. 이 문제의 답은 명백해 보이죠. 그런데 부유한 자의 장난감은 단순한 장난감이 아니라 불평등과 양극화를 훨씬 더 극심하게 만드는 것이기도 합니다.

이런 인공지능이 활성화되면 인공지능을 마음대로 쓸 수 있는 부유층과 거기에 접근할 수 없는 빈곤층의 격차가 훨씬 더 벌어지는 거죠.

아래 그림은 굉장히 유명한 그림인데 인공지능을 굉장히 무서워하는 분이 있죠. 인간은 뭔가 낯선 존재에 대한 두려움이 있는데요. 이 두려움이 얼마나 낯서냐 하는 정도와 항상 비례하지는 않습니다. ‘기괴한 골짜기’라는 표현을 쓰는데 가로축은 인간과 비슷한 정도이고요. 세로축이 얼마나 우리가 좋게 느끼느냐 하는 겁니다. 그런데 인간과 유사점이 별로 없으면 좋고 나쁘고가 없죠. 0입니다.

기괴한 골짜기 ⓒ노동자연대TV

인간과 조금 비슷해지면 우리가 좋게 느껴요. 동물 봉제 인형이라든가 로봇 같으면 우리가 친근하게 느끼죠. 그런데 인간과 너무 비슷해지면 굉장히 불쾌해집니다. 대표적인 게 인간의 시신이라든가 좀비 같은 것이죠. 물론 인간과 100퍼센트 같으면 그건 인간이죠. 그건 당연히 호감이 있겠지만 얼마나 인간이랑 비슷하느냐는 것이 호감도에 비례하지 않고 처음에는 늘다가 갑자기 줄어드는 지점이 생깁니다. 그리고 진짜 인간이 되면 다시 괜찮아지는데 그 사이에 호감이 급격히 떨어지는 구간을 기괴한 골짜기라고 부릅니다.

인공지능이 인간이랑 매우 비슷해지게 되면 정말 굉장히 무서워질 겁니다. 현재로선 물론 봉제 인형 정도밖에 안 되긴 하지만 말이죠.

결론은 낯섬을 극복해야 하는 건데요. 이것만 말씀드리죠. 지능이라고 하는 건 사실 복잡계이기 때문에 기계가 인간처럼 될까 봐 걱정할 필요는 없습니다. 그게 아니라 인간이 기계처럼 되는 걸 걱정해야 됩니다. 핵심은 이거죠.

그래서 인간의 계급 분화가 걱정되는 겁니다. 우리가 인공지능을 도구로 이용할 것이냐 인공지능의 도구로 전락할 것이냐 하는 문제요. 계급 분화가 일어나면 아주 극소수는 인공지능을 도구로 이용하겠지만 대다수는 인공지능의 도구로 전락할 것입니다. 그런 노동자를 영어로 프레카리아트라고 하고 저는 우리말로 ‘땜빵 노동자’라고 번역해 봤는데요.

인공지능이 일자리를 차지할 것이라는 얘기가 있지만, 윗사람 입장에서는 내가 죽어라 일할 필요 없이 그냥 인공지능이 다 해주니까 띵가띵가 놀고먹으면 된다는 얘기이고요. 아래쪽 사람은 인공지능이 내 직업을 아예 빼앗아 가니 나는 굶어 죽게 생겼다 하는 것이죠.

모든 기술에는 순기능과 역기능이 있다는 게 굉장히 중요하지만 인공지능도 마찬가지입니다. 다만 인공지능에서는 역기능 문제가 너무 안 알려져 있고 지금으로서는 아직 모르는 게 많고 알 수가 없다는 사실을 인식하고 고려할 필요가 있다고 저는 생각합니다.

잘 들어주셔서 고맙습니다.


질의응답

인공지능이 답을 얻는 방식과 인간이 생각하는 방식 사이에 근본적인 차이가 있을 것 같은데요. 챗GPT가 로스쿨이나 의사자격시험에 합격한 것은 어떻게 봐야 하나요? 또 강한 인공지능, 자아를 가진 인공지능은 불가능한 것인가요? 인공지능이 발전하면 이번 실리콘밸리뱅크(SVB) 파산 같은 일을 막을 수 있다는 칼럼을 봤는데요. 데이터 학습량이 엄청난 초거대 AI가 나오면 정말 인간처럼 종합적 추론이 가능해 지나요?

먼저 강한 인공지능이 가능한가 하는 질문에 대해서는 ‘아무도 모른다’가 답입니다.

물론 저는 현재의 방식으로는 불가능하다고 봅니다. 그렇지만 사실 몇 십 년 전에는 현재 정도의 인공지능도 나올 수 있을 거라고 생각을 못했으니까 앞으로 한참 더 지나서 어떤 새로운 방식이 만들어지면 혹시 가능할지 모르겠습니다.

인간이 학습하는 방식과 인공지능이 학습하고 정보를 처리하는 방식이 본원적으로 다른가 하는 질문도 사실은 답하기가 굉장히 어려워요. 왜냐하면 인간이 어떤 식으로 학습하는지를 사실 정확히 알지 못합니다. 인공지능이 인간을 흉내 낸 건 맞지만 얼마나 비슷하게 만든 건지는 사실 우리가 판단하기가 쉽지 않습니다.

아까 말씀드렸듯이 인공지능 회로의 신경 소자라고 하는 건 실제 인간의 신경세포와는 굉장히 다릅니다. 너무 큰 차이가 있어서 도저히 같다고 볼 수 없지만, 그럼에도 불구하고 어떤 특정한 기능은 꽤 잘 처리하죠. 그걸 보면 간단하게 만들었음에도 불구하고 가장 핵심적인 건 인공적으로 만들었다고 주장할 수도 있겠죠.

그것이 어느 정도인가 하는 건 지금 현재로선 도저히 알 수가 없기 때문에 죄송하지만 시원한 답은 제가 드릴 수 없네요. 안타깝긴 합니다만 현재 상황이 그렇습니다.

정말로 인공지능이 사람의 일자리를 차지할까요? 교육 부문에서도 인공지능에 관한 논의가 활발한데요. 정부가 AI 보조교사를 도입하려 하는 것에 대해 어떻게 봐야 할까요? 일각에서는 교사들이 AI 보조교사를 잘 활용하면 증강 지능을 갖추게 된다고 하기도 하는데요.

제가 아까 말씀 드렸지만 교육이 단순한 지식 전달이라고 하면 그건 인공지능이 분명히 잘 할 수 있습니다. 특별히 그런 기능을 갖고 있는 약인공지능을 만들 수 있으니까요. 사람이 아무리 잘 알아도 지식을 잊어버리기도 하는 반면, 인공지능은 훨씬 더 많은 정보를 저장할 수 있죠.

그런데, 문제는 교육이 단순한 지식 전달이 아니라 뭔가 그 이상이 있다고 하면 인공지능이 할 수 없는 게 당연히 있다고 생각합니다. AI 보조교사라는 것도 좀 우려가 되는데, 교사가 AI를 도구로 이용해서 필요할 때 예를 들어서 백과사전처럼 정보를 찾아서 이용하는 건 굉장히 도움이 될 수가 있겠지만, 그걸 뒤집어서 거꾸로 교사가 AI의 도구가 돼 버리면 그건 상당히 안 좋은 암울한 미래가 될 거라 생각합니다.

양면성이 다 있지만 중요한 건 우리가 AI의 도구가 될 것이 아니라 AI를 도구로 잘 이용해서 삶의 질을 높이는 방향으로 나아가야 한다는 것이고 그러려면 잘 생각해야 합니다. 그런 문제는 AI를 만드는 전문 기술자들한테 맡길 게 절대 아니고 우리 전 인류, 전체 사회 구성원이 함께 논의해야 되는 그런 문제라고 생각합니다.

챗GPT에 관해 부정확성이나 편향성을 제기하는 목소리도 있는데요. 챗GPT를 활용한 챗봇 서비스가 여기저기서 도입되고 있는데 사회적 문제가 발생하지는 않을까요? 또 현재 인공지능 기술을 육성해야 한다면서 ‘우선 허용, 사후 규제’ 내용이 담긴 인공지능법이 추진중인데 위험하지 않을까요?

제가 항상 강조하는데 원래 모든 일에 정답이란 건 없습니다. 인공지능뿐만 아니라 모든 일에 하나만 딱 정답이고 나머지는 다 틀렸다 하는 일은 일반적으로 없습니다. 여러 가지 가능한 답이 있는 거고 그 답 중에 어떤 것은 좀 더 적절하고 어떤 건 좀 덜 적절할 수는 있죠. 하지만 하나만 정답이고 나머진 다 틀린 경우는 거의 없습니다.

제가 말씀드리는 것도 하나의 의견이고 정답은 아니라는 걸 먼저 말씀드리겠습니다.

다만 지금 지적하신 건 상당히 우려되는 현실입니다. 챗GPT는 사실 인공지능 기술 자체가 갑자기 획기적으로 바뀐 건 아닙니다. 어마어마한 계산 능력을 갖추게 하려고 GPU를 1만 개나 쓰고 어마어마한 훈련을 시킨 건데요. 인간이 인간에게 너무 힘든 작업을 시켰고, 쉽게 말하면 돈이 엄청나게 들어간 거죠. 어마어마한 돈을 가진 사람이 만든 겁니다.

그런데 챗GPT가 정말 놀라운 점은 아무나 쓸 수 있게 만든 것입니다. 이건 정말 뭐랄까요. 판도라의 상자를 연 건데 돌이킬 수 없을 겁니다. 수억 명이 여기 달라붙어서 뭔가 할 텐데 어떻게 막겠습니까? 그것은 아까 말씀 드렸듯이 에너지를 어마어마하게 소모하는 것이기도 하고 다시 닫을 수 없는데 이것이 어떻게 나아갈 것인지는 알기 어렵죠. 잘못하면 그야말로 디스토피아로 나아갈지도 모르죠.

혹시 어쩌면 유토피아에 가깝게 해줄지도 모르겠지만 양쪽의 길이 다 열려 있는 겁니다. 그래서 일단 육성하고 규제는 나중에 하자는 건 굉장히 위험하다고 생각합니다. 나중에 정말 치명적인 문제가 생겨서 규제하려고 하면 이미 늦을 수 있으니까요.

그래서 저는 상당히 조심해야 하고 정말 온전한 전체를 보면서 총체적으로 생각해야 한다고 생각합니다. 공학, 자연과학만 생각할 것이 아니라 당연히 사회과학(사회 현상이 어떻게 될 건가), 인문학(인간이 어떻게 될 건가)를 다 전체적으로 봐서 결정할 문제라고 생각합니다.

정부와 기업들이 AI에 투자를 많이 하는 이유가 뭘까요? 산업의 미래가 AI에 달려있다는 얘기도 있는데 AI가 정말로 그런 효과를 낼 수 있나요?

제가 그 기업의 소유주가 아니라 모르겠습니다만, 사실 뻔하지 않겠습니까? 돈이죠, 뭐. 이윤 추구입니다. 그건 명백하다고 생각합니다. 자본주의 체제에서는 사실 그럴 수밖에 없죠. 사실 인류가 인공지능을 잘만 이용하면 [인공지능이] 분명히 편한 도구가 될 수 있는데, 자본주의 체제에서는 그렇게 제대로 된 길을 가는 게 사실상 불가능하다고 저는 생각합니다. 안타깝지만 솔직히 말해 그렇습니다.

이세돌과 알파고의 대결에 대해 인간이 인간을 이긴 것이라는 설명이 와 닿았습니다. 그런데 이처럼 과장된 AI 신화가 너무 많은데요. 왜 그런 걸까요?

양면성이 있다고 생각합니다. 아까 발표에서 기괴한 골짜기에 관해 말씀드렸는데, 한편으로는 사람들에게 널리 퍼뜨려서 많이 이용하게 하는 것이 결국 돈으로 돌아오게 되니까 그런 것이고요. 또 여기에 뭔가 상당히 신비롭고 알 수 없는 듯한 인상을 줘서 사람들로 하여금 궁극적으로는 이걸 숭배하게 하려는 것이라고 봅니다. 그런 두 측면을 잘 나타낸 것이 기괴한 골짜기 얘기의 의미인데요. 사실 기업 이윤을 추구하는 쪽의 생각이라고 하는 게 그 두 측면을 다 갖고 있다고 생각합니다. 사회를 어떻게 끌고 갈 것인가 하는 그런 데에서 말이죠.

따라서 AI에 대해서 절대 두려워할 것도 아니지만 그렇다고 또 AI를 너무 무시할 것도 아닙니다. 이게 엄청난 영향을 줄 건 분명합니다.

그리고 AI의 전문적인 기술 같은 것을 알아야 하는 건 아니지만, 과연 본질이 무엇인가 하는 것에 대한 인식은 분명히 갖고 있어야 합니다. 그래야 우리 문명이 나아가야 할 방향에 대해서 주장도 할 수 있을 거고요. 적극적으로 나서서 극소수가 자기 마음대로 끌고가는 걸 막아야 되지 않을까 그런 생각을 합니다.

현대 사회에서는 인공지능이 발전하면서 대기업과 강대국의 정보 독점, 환경 파괴, 군사무기 첨단화로 이어지고 있는데요. 인공지능이 평등사회로 가는 데에서 순기능을 할 수도 있을까요? 이를 위한 선결조건이 뭘까요?

원리적으로는 인공지능이 순기능을 할 수도 분명히 있죠. 예를 들어서 우리나라나 미국, 유럽, 아프리카 등 어디에서나 아무런 문턱이 없이 완전히 개방돼서 누구나 쓸 수 있게 적절한 교육도 시켜주면, 그래서 누구나 인공지능을 편리한 도구로 쓸 수 있다고 하면 인공지능이 분명히 그런 순기능을 할 수 있겠죠.

다만 설사 그렇게 되더라도 한 가지 약간 걱정되는 것은 있습니다. 휴대전화나 SNS, 인터넷 이런 것들이 많이 보급되면 의견 개진이 자유로워지면서 민주주의에 큰 도움이 될 거라고 기대했는데 현실은 완전히 반대이지 않습니까. 그래서 챗GPT 같은 경우 누구나 쓸 수 있게 하더라도 과연 순기능만 있을 것인가 하는 의문은 듭니다. 오히려 지금 현재 SNS 떠도는 온갖 혐오와 거짓과 그런 걸로 도배될 가능성이 더 크지 않을까 하는 게 우려됩니다.

정말 모든 게 다 잘 되더라도 또다른 역기능이 있을 수 있는데요. 자동차가 굉장히 편하지 않습니까? 멀리 걸어가려면 엄청나게 힘들 텐데 자동차로는 금방 가니까 굉장히 편한데 그래서 모두 자동차만 타고 다니면 어떤 일이 생깁니까?

대기오염 문제를 떠나서 보더라도 운동을 하나도 안 하면 결국은 건강을 해치게 되죠. 성인병이 생기지 않습니까? 고혈압에 동맥경화, 당뇨 다 생기는 거죠. 몸이 너무 편하다 보면 몸에 병이 생기는 건데 모든 걸 인공지능에게 시키면 두뇌, 머리가 너무 편해지겠죠. 그러면 어떻게 될까요. 두뇌에 병이 생길 거라고 생각합니다. 두뇌의 병이 뭘까요? 한 마디로 말하면 바보가 되지 않겠습니까? 바보. 머리를 안 쓰게 되는 거죠. 몸을 안 쓰면 몸이 퇴화되는 것처럼 머리를 안 쓰면 엄청 바보가 될 거라고 봅니다.

요즘은 전화번호가 휴대전화에 다 저장되니까 전화번호 아무것도 못 외우지 않습니까? 가장 가까운 사람 전화번호도 외우지 못하죠. 그냥 재미있는 비유인데요.

하여튼 모든 문제는 순기능만 있는 게 아니라 역기능이 항상 있게 마련이고, 순기능은 굉장히 강하고 역기능은 약해 보이니까 무시하기 쉽지만 순기능은 딱 하나로 정해지지만 역기능은 굉장히 넓게 퍼져 있거든요. 이걸 다 합치면 순기능보다 더 클 수도 있습니다. 그런데 인공지능은 종래의 다른 것들과 다른 굉장히 특별한 것이기 때문에, 인간을 닮게 만든 것이므로 어쩌면 역기능이 훨씬 더 클 수도 있다는 거죠. 그걸 아직 아무도 모른다는 점을 고려해야 한다고 생각합니다.

인공지능이 아직 취약하다고 말씀하셨는데 의사, 판사, 교수 같은 직업이 사라질 수 있다는 게 잘 이해가 안 갑니다. 좀더 자세히 설명해 주십시오.

인공지능이 여러 가지를 잘 하지만 영상 인식이나 음성 인식이나 아니면 분류하는 일 같은 것은 인간보다 훨씬 잘 합니다. 따라서 인공지능이 법을 적용해 판결을 내린다든가 의사처럼 진단한다든가 이런 걸 굉장히 잘 할 수 있다는 얘기이고요. 따라서 의사나 판사 같은 게 없어질 수 있지 않느냐 그렇게 말씀드린 겁니다.

다만 아까 말씀드렸듯이 인공지능은 이상한 실수를 합니다. 인간 같으면 도저히 하지 않을 이상한 실수를 해서 영상 인식 같은 경우 인간 같으면 금방 알 수도 있는 걸 인공지능은 굉장히 잘못 인식하는 경우가 드물지만 있습니다. 인공지능이 의사나 판사의 일을 대체한다면 굉장히 치명적일 수 있는 거죠.

농담으로, 인간 판사나 의사는 그런 잘못 안 하느냐 하고 물어보면 사실 많이 합니다. 치명적인 잘못도 하죠. 다 아시지 않습니까? 판사가 얼마나 엉터리로 판결하는지. 의사도 오진율이 생각보다 훨씬 높습니다. 그것까지 감안하면 인공지능이 영 엉뚱한 실수를 하더라도 어쩌면 의사의 오진이나 판사의 황당한 판결보다는 더 나을 수도 있지 않을까. 전 그렇게 생각합니다.


발제자의 정리

지금까지 드린 말씀인데 한 마디만 더 하자면, 자연과학이나 물리학 같은 건 전문가들만 알고 일반인들은 모르는 게 당연한 거고 전문가들이 알아서 다 할 거라고 생각하기 쉬운데요.

물론 구체적으로 어떤 연구를 해서 구체적으로 어떻게 발전시킬 것인가 하는 건 전문가들이 해야 될 일이지만 그 방향, 어떤 방향으로 발전을 할 것인가, 어떤 방향으로 나아갈 것인가 하는 것은 사실은 인류 전체가 생각해서 결정해야 하는 문제입니다. 특히 인공지능 같은 건 말할 것도 없죠.

그런 데에서는 사실 우리 모두 참여할 수 있어야 하고 참여할 생각을 해야 됩니다. 적극적으로 의견을 개진하고 공론화를 위해서 노력하고, 예를 들어서 이상한 법을 발의한다고 하면 그걸 막고 여론을 조성하고 필요할 땐 나가서 싸우고 이럴 필요가 있다는 거죠.

현재 우리가 어쩔 수 없이 자본주의 사회에서 살고 있는데, 저는 자본주의의 한계가 사실 명확하다고 생각합니다. 안타깝지만 그렇습니다.

지금까지 잘 들어주셔서 감사드립니다.