AI가 위험한가? 인간이 위험한가? (이석한 교수/성균관대 AI대학원)

 

안녕하세요, 인터뷰를 통해 전문가의 관점을 쉬우면서도 구체적으로 끄집어내는 고우성의 잇터뷰입니다.
2016년 바둑을 정복했던 알파고의 충격보다 누구나 자연스럽게 대화하면서 AI를 체험해 볼 수 있는 ChatGPT의 파급력이 훨씬 더 엄청난 것임을 절실히 느끼고 있는 요즈음입니다.
이번 고우성의 잇터뷰에서는 40년 넘게 AI를 연구하고 있는 현 성균관대 AI대학원의 이석한 교수님을 모시고 AI와 인간의 미래에 대한 관점을 살펴보겠습니다.
제가 가장 궁금했던 점은 현재의 AI가 계속 발전하여 인식, 요약, 변환을 수행하는 단계에 이른 뒤 더욱 도약하여 창조적이 될 수 있느냐는 것이었습니다.

 

진행자 : 고우성 PD/토크아이티 (wsko@talkit.tv, https://talkit.tv/)
게스트 : 이석한 교수/성균관대 AI대학원

 


 

1. 창조적 AI

 

이석한 : ‘사람이 AI보다 낫다’고 하는 것은 ‘우리는 아직도 창조할 수 있다’, ‘창의적이고 새로운 것을 AI보다 훨씬 더 잘 만들 수 있다’는 의미입니다.
그러면 AI가 창조적일 수 있을까요? 제 생각에는 AI가 창조적일 수 있다고 봅니다. 사람보다 더 창조적일 수도 있는 거죠.
왜 이렇게 생각하냐면 창조라는 게 뭐냐, 창조는 우리의 경험을 바탕으로 경험과 경험을 서로 연결하면서 이루어집니다. 연결하는 과정에서 ‘현실적으로 가능한가’는 둘째치고 imagination으로 경험을 연결하면서 과학적 지식을 토대로 가능한 여부를 따지면 비로소 ‘창조’가 되는 것입니다.
그런 과정에서 그러면 이 과정에서 ‘경험을 연결한다’와 관련하여 ‘과연 경험을 연결하는 것이 가능할 것인가?’, ‘이게 어떠한 과학적 의미를 갖는가?’를 따지는 것은 어떻게 보면 추론, Reasoning이라 할 수 있습니다. AI 시스템이 아직 거기까지는 올라가지를 못했거든요.
그런데 이 추론, Reasoning의 수준으로 올라가 경험을 연결할 수 있다면 AI가 창작 능력을 갖출 수 있게 됩니다. 이렇게 되면 AI는 수많은 경험을 연결하면서 imagination을 할 수 있는데 과학적인 추론 기능까지 합쳐지면서 사람보다 더 창조적인 것이 될 수도 있죠.
고우성 : 언제쯤 그것이 실제로 구현되리라고 예측하십니까?
이석한 : 제 생각에는 30년 이내.
고우성 : 아, 30년 이내요!

 

창조적 AI가 새로운 방법이나 방향을 제시할 때, 인간이 얼마나 이것을 슬기롭게 받아들일 수 있느냐가 새로운 화두로 떠오를 것 같습니다.

 
 

2. 인간의 프레임에서 벗어나기

 

이석한 : 바둑을 플레이하면 요즘은 다 아시겠지만 알파고 같은 여러 개의 시스템이 다음의 블루 스팟(blue spot)은 어디고, 왜 이게 블루 스팟(blue spot)인지 그걸 다 해석해 주잖아요. 그다음에 Alternative 한 것이 무엇인지 등에 대해 모두 해석해 줍니다. 이렇게 다 해석해 주는데 이제 한 가지 재미있는 것이 있습니다. 해설자가 해설하는 걸 들어보면 재미있어요.
지금 두 사람이 싸우고 있습니다. 지금 싸움이 치열한데 AI는 ‘이거 포기하면 이길 것 같다. 이제 포기하고 이쪽으로 가자.’고 합니다. 근데 해설자는 뭐라고 얘기하냐 하면 “사람은 절대 그럴 수 없다.” 이렇게 말합니다. 하하.
*블루 스팟(blue spot) : 바둑에서 인공지능이 추천하는 가장 좋은 다음 한 수. 인공지능이 승률이 가장 높은 수를 파란색, 그다음으로 높은 수를 초록색, 그다음으로 높은 수들을 주황색 계열로 표시하는 것에서 나온 말.

 

고우성 : 하하.
이석한 : 왜냐하면 두 사람이 이제 격렬한 전투에 임해 있기 때문에 플레이를 포기할 생각을 할 수는 없다는 거죠. 그게 어떻게 보면 사람의 프레임 이슈인데, 사람이 어떤 프레임에 갇혀 있으면 그 프레임에서 벗어나기가 매우 어렵죠.
그런데 AI는 프레임하고는 상관없이 전반적으로 보면서 조언을 해주는 거죠.
“이것은 포기하고 이리로 가라”
어떻게 보면 이런 것 같아요. 바둑은 굉장히 제한된 분야이기 때문에 AI가 틀리는 경우도 있지만 대부분 AI의 Advice가 맞다고 다 인정하잖아요. 그런데 일반 사회에서 예를 들면 AI가 어떤 Advice를 했을 때 ‘사람이 인정할 수 있느냐? 없느냐?’는 것이 관건이 됩니다.
AI를 따르라는 게 아니라 ‘사람도 약점이 있다’는 것이 제 생각입니다. 프레임에 갇혀있으면 그것이 진실인 줄만 알고 다른 것을 보질 못하는 우리 사고방식의 약점이 있거든요.
고우성 : 그렇죠.
이석한 : 그건 인간이라면 당연합니다. 그럴 때 AI의 Advice를 하나의 중요한 Advice로 인식하여 시야도 넓히고 프레임도 깨는 그런 겸손함이 조금 필요하지 않나 하는 생각이 듭니다.

 

이 교수님이 언급한 ‘인간의 프레임’은 인류 역사가 시작되면서부터 인간의 욕구, 본능과 함께 형성된 것인데, 이 교수님은 이런 인간 DNA에 내재하여 있는 프레임의 부정적인 속성들에서 벗어나, AI의 합리성을 잘 활용하는 것이 인간의 미래를 결정지을 것 같다고 예측하셨습니다.

 
 

3. 인간의 미래를 결정지을 AI

 

이석한 : AI가 진짜 창조적이고 굉장히 파워풀해지게 되면, AI가 잘 발전된 나라의 경우 그걸 가지고 경제나 다른 모든 부분에서 굉장히 Efficient 하게 됩니다. 모든 부분에서 발전이 빠르게 됩니다. 하지만 AI가 없는 나라는 느려지게 됩니다.
이런 불균형을 어떻게 할 것인지에 대한 이슈가 있는데, 이런 면에서 사실은 우리가 조금 더 겸허해질 필요가 있습니다.
과거의 역사를 보면 거의 전쟁의 역사였죠. 그런데 이 전쟁이라는 게 뭐냐면 결국 한 집단과 다른 집단의 트러블입니다. 그것을 한 집단이 자기의 우세를 내세워서 다른 집단을 착취하는 거잖아요?
그런데 지금 우리가 당면하고 있는 것은 ‘서로 협력하지 않으면 지구는 존재할 수 있느냐?’는 문제입니다. 예전에는 스케일이 작았지만 이제는 인류의 어떤 존재, 존속 가능성과 연결되는 거죠.
어떤 그룹이나 특정 집단의 이익을 위해서 하나의 도구로 사용한다면 하면 제가 볼 때는 존속하기 어렵습니다.
고우성 : 디스토피아가 되는 거죠.
이석한 : 그러니까요. 우리가 지금 겸허하게 이 모든 것을 받아들이면서 이제는 서로 돕고 협력하면서 합리적으로 문제를 서로 해결해야 합니다. 이것이 본인의 최선이 아니더라도 전 세계적으로 이렇게 해야만 앞으로 잘 나갈 수 있다고 한다면 이것을 받아들이는 것이 필요합니다. 그런 것들이 잘 진행이 될 수 있도록 AI가 Advice를 줄 때 그것을 잘 받아들이고 행할 수 있으면 좋은데…모르겠어요. 하하.
인간이 그게 가능한지. 그건 좀.

 

이 교수님이 말미에 “모르겠어요. 인간이 가능할지.”라고 말씀을 흐리셨는데 왜 그러셨을까요?
지구를 몇십번이나 멸망시킬 수 있는 원자폭탄을 가진 미국, 소련, 중국 등 핵보유국들이 지금까지 어떻게 행동해 왔는지를 반추해보면, 원자폭탄과는 다른 차원으로 위험한 창조적 AI를 과연 인간들이 두려움과 독점욕에서 벗어나 합리적으로 운영, 통제할 수 있을까요?

 
 

4. 공포의 균형 vs 이성의 균형

 

이석한 : 예를 들면 원폭을 만들면서 사람들이 ‘와, 이거 지금 문제다’라는 것을 이제 합리적으로 느끼고 있다는 것입니다. 그런데 원폭을 없애는 게 아니고 서로 많이 가지고 있음으로써 균형을 맞추고 있죠.
고우성 : ‘공포의 균형(Balance of Terror)’이죠.
이석한 : ‘공포의 균형(Balance of Terror)’입니다. 하지만 AI는 ‘공포의 균형(Balance of Terror)’으로 하지 말고 진짜 합리적인 균형으로 전 세계가 이것을 잘 활용하면 좋겠다는 생각이 듭니다.
그러니까 ‘우리가 지금 어떤 변곡점에 있지 않은가’를 생각할 필요가 있습니다. 사람이 지성과 합리성을 개발해왔잖아요. 그리고 또 안에는 Instinct가 있고요.
지성과 본능이 인간을 구성하는데, 지속적인 Conflict로 갈 것인지 아니면 새로운 방향을 모색하고 우리가 AI나 다른 어떤 도움을 받아 최대한 인간이 생존할 때까지 합리적인 사회, 세계적인 사회를 만들 수 있을까요? 이에 대해 지금이 상당히 중요한 때가 아닌가 싶습니다.
고우성 : 네, 원래 인간이 가진 프레임이 있잖아요. 인간의 역사에서 전쟁이 계속 일어나는 것도 그런 프레임이 있기 때문에 계속 일어나는 건데요.
이석한 : 맞습니다.
고우성 : 사람들의 프레임을 AI가 좋은 방향으로 개선하거나 뭔가 할 수 있다면 인간한테는 좋을 것 같고요.
이석한 : 경험이라는 것을 이렇게 감정과 연결하는 것은 그 개인의 프레임에 달린 것이지 그게 진실은 아니거든요. 인류 미래를 위해서 좋은 방향이 있음에도 불구하고 프레임에 빠져서 그걸 볼 수가 없는 것은 문제입니다.
예를 들어 AI가 ‘야, 그러면 이것보다 이게 좋다’고 했을 때 그것을 사람들이 받아들일 수 있을까요?
한 나라만이 아니고 여러 나라가 다 같이 이에 대해 음미하고 중요성을 판단해서 이렇게 할 수 있느냐. 그게 인간의 미래를 결정하지 않을까.

 


 

영상으로 시청하기!

 


 
 

이석한 교수님은 70대 중반인 지금까지도 액티브하게 AI 연구를 하면서 학생들을 지도하고 계시는데, 그 비결이 궁금하신 분들은 아랫글을 확인해 주세요!
 
 
(클릭)70대 중반까지 머리쓰는 일을 하고 싶다면? (이석한 교수/성균관대 AI대학원)

 


 
 

◼ 콘텐츠 & 웨비나 문의 : marketing@talkit.tv, 02-565-0012
Copyright ⓒ 토크아이티 All rights reserved. 무단 전재 및 재배포 금지.