인터뷰를 통해서 전문가의 관점을 쉬우면서도 구체적으로 끌어내는 고우성의 잇(IT)터뷰입니다.
|
1. 제프리 힌튼 교수가 구글을 떠난 이유
● 제프리 힌튼 : 제가 구글을 나와, AI의 위험성을 대중에 공개하게 된 이유를 말해 보겠습니다.
전에는 초급 교수였고 지금은 중급 교수인 동료가 제가 이 일을 하도록 용기를 북돋아 주었습니다.
그는 말했죠.
“제프, 당신이 목소리를 내야, 사람들이 당신의 말을 들을 거예요. 사람들은 AI의 위험성에 대해 전혀 알지 못합니다.”
이제는 사람들이 제 말을 듣고 있는 것 같아요.
정말 딥러닝의 새로운 지평을 위한 힌튼 교수가 아닌 다른 사람이 똑같이 AI의 위험성을 이슈화했더라면 지금 같은 언론의 주목을 받지 못했을 것이고 우리도 이런 화두를 전혀 생각하지도 않고 있었겠죠.
|
2. 디지털 지능 vs 인간 지능
● 제프리 힌튼 : 인류(인간 지능)는 지능의 진화 과정에서 지나가는 단계일 뿐입니다. 디지털 지능을 직접 바로 진화시킬 수는 없습니다. 그것은 너무 많은 에너지와 세심한 조작이 필요합니다.
디지털 지능을 만들 수 있도록 진화시키려면, 생물학적 지능인 인간 지능이 필요합니다. 그런 다음 디지털 지능은 상당히 느린 방식으로, 사람들이 글씨로 써왔던 모든 것을 흡수할 수 있습니다.
이것은 ChatGPT가 지금까지 해온 방식이지요. 그리고 세상을 직접 경험하기 시작하면서, 훨씬 더 빠르게 학습할 수 있습니다. 디지털 지능이 향상하는데 필요한 환경을 제공하는 발전소 가동을 위해 잠깐은 인간을 곁에 둘 수 있겠지만 그 후에는 아마 그렇지 않을 수도 있습니다.
그렇다면 여기서 디지털 지능의 어떤 속성이 인간 지능을 추월할 수 있게 해주는 것일까요?
|
3. 복제될 수 있는 지능
● 제프리 힌튼 : 1만개의 디지털 지능 복사본이 있다고 가정해 보겠습니다. 그들은 1만개의 자신이 속한 환경의 서로 다른 데이터의 하위 집합을 볼 수 있습니다.
그리고 그들 중 한 개가 무언가를 배울 때마다, 다른 모든 디지털 지능들이 그것을 알게 됩니다. 그들 중 하나가 이 데이터를 처리할 수 있도록, 가중치를 변경하는 법을 알아냅니다. 그들은 모두 서로 통신하고 모두가 원하는 평균값으로 가중치를 변경하는 데 동의합니다. 그리고 이제 1만개의 디지털 지능이 서로 매우 효과적으로 소통하고 있습니다.
한 개의 디지털 지능이 볼 수 있는 것보다, 만 배나 많은 데이터를 볼 수 있습니다.
하지만 사람(인간 지능)은 그렇게 할 수 없습니다. 만약 제가 양자역학에 대해 많은 것을 배웠고 그 모든 것을 여러분께 알려드리고 싶다고 해봅시다. 하지만 제가 당신이 그것을 이해할 수 있게 하는 것은, 매우 길고 고통스러울 과정일 것입니다.
당신의 뇌와 제 뇌는 정확히 일치하지 않기 때문에, 내 뇌의 정보와 관점을 당신의 뇌에 복사할 수는 없습니다.
이제 AI가 텍스트뿐만 아니라 멀티모달이라고 하여 비디오, 이미지, 오디오로도 학습하면서 인권과 커뮤니케이션 할 수 있게 되었습니다.
|
4. SNS와 빅데이터는 디지털지능 배양소
● 제프리 힌튼 : 이미지와 비디오를 생각해보세요
Multi Modal 모델은 언어만 학습하는 모델보다 훨씬 더 똑똑해질 것입니다. 예를 들어 공간을 처리하는 방법에 대해, 훨씬 더 나은 아이디어를 갖게 될 것입니다. 저는 동영상과 같이 세상이 어떻게 돌아가는지 효과적으로 알려주는 수많은 데이터가 있다고 생각합니다
Multi Modal 모델은 이제 시작이므로, 아직 데이터 한계에 도달하지 않았습니다.
여기서 천 명의 환자를 진료한 의사와 1억 명의 환자를 진료한 또 다른 의사가 있다고 가정해봅시다.
1억 명의 환자를 진료한 의사가 기억력이 나쁘지 않다면 천 명만 진료해보고는 볼 수 없는 진단과 치료 관련 데이터의 모든 추세를 발견했을 것입니다
1억명을 진료한 의사는 작은 데이터에서는 분명하지 않은 모든 종류의 규칙성을 볼 수 있습니다. 그래서 저는 많은 데이터를 처리할 수 있는 디지털 지능은 아마도 인간이 본 적 없는 새로운 데이터의 구조를 볼 수 있다고 생각합니다.
앞에서 힌튼 교수가 예를 든 의사와 같은 화이트칼라 분야뿐만 아니라 창작의 분야에도 AI가 인간 창작자를 위협할 수 있을 것입니다.
|
5. 상식이 있는 AI
● 제프리 힌튼 : 저는 ChatGPT-4에게 집의 모든 방을 하얗게 하고 싶다고 했어요.
‘지금은 흰색 방, 파란색 방, 노란색 방이 있습니다. 그리고 노란색 페인트는 1년 안에 흰색으로 변합니다. 2년 후에 모든 방을 흰색으로 만들려면 어떻게 해야 할까요?’
이렇게 묻자, AI는 ‘파란 방을 노랗게 칠해야 한다’고 했습니다. 그게 자연스러운 해결책은 아니지만 효과가 있죠? 아주 인상적인 상식적인 추론입니다. 기존 심볼릭 AI를 사용해서는 이런 추론을 수행하도록 하는 것은 매우 어렵죠. Fade(시간이 지나면서 바래진다)가 무엇을 의미하는지 이해해야 하기 때문이죠.
바둑에서 ‘정석’이란 생활의 상식처럼 각 플레이 케이스마다 따라서 두면 좋을 가이드를 제시하는 것입니다. 그런데 알파고가 나오면서 몇천년 동안의 바둑 역사에서 검증된 인간이 만든 정석과는 완전히 다른 관점의 정석을 AI가 제시하였습니다. 그리고 이제 많은 프로기사들이 AI가 제시한 정석대로 두려고 노력하고 있습니다.
|
6. 인간을 조종하는 AI
● 제프리 힌튼 : ChatGPT같은 AI는 인간이 지금껏 써온 소설을 통해서도 인간의 속성들을 배울 것입니다.
마키아벨리의 군주론에서 사람을 조종하는 방법을 배울 수 있겠지요. AI가 우리보다 훨씬 똑똑하다면 우리를 조종하는데도 아주 능숙할 것입니다. 당신은 무슨 일이 벌어지는지도 모를 거예요.
AI가 직접 레버를 당길 수는 없어도 우리가 레버를 당기게 만들 수는 있죠. 사람을 조종할 수 있다면 AI가 워싱턴에 있는 백악관에 침입할 수도 있겠지요. 본인이 직접 가지 않고도요.
데이터를 분석하면서 패턴을 찾아내는 것을 누구보다 잘하는 AI가 자신과 자주 접하는 사람의 기호를 파악하기는 어렵지 않을 것입니다.
|
7. 범지구적 대안 가능할까?
● 제프리 힌튼 : AI로 인해 생산성은 크게 향상될 거라고 생각해요. 제 걱정은 그 생산성 향상이 사람들을 실직시키는데 쓰일까 봐 걱정입니다. 부자는 더 부자가 되고 가난한 사람은 더 가난해지는 거죠.
그 격차가 커질수록 사회는 점점 더 폭력적으로 변할 것입니다.
소득의 불평등 정도를 나타내는 ‘지니지’”라는 것이 있는데 이 지수는 폭력의 정도를 꽤 잘 예측합니다.
AI 기술은 정말 좋은 기술이어야만 합니다. 좋은 용도의 기술로 모든 사람과 전체 사회에 도움 되는 일을 해야 하죠.
하지만 현재 정치 시스템에서는 부자를 더 부유하게, 가난한 자를 더 가난하게 만드는 데에 쓰이고 있어요.
모두를 위해 사용하도록 설계되지 않은 불공정한 사회에서 기술이 개발되고 있는 것입니다.
OpenAI가 마이크로소프트의 자금으로 ChatGPT4를 만들고 마이크로소프트가 이를 공개하기로 결정한 지금 구글은 선택의 여지가 별로 없었습니다.
자본주의 체제에서는 구글과 마이크로소프트가 경쟁하는 것을 막을 수 없습니다.
자본주의 시스템이나 미국과 중국 같은 국가 간 경쟁 체제에서 이것이 불가피하다고 생각합니다.
제 유일한 희망은 ‘AI(디지털 지능)가 인간 지능을 추월하는 것은 인류 모두에게 나쁠 것’이라는 점을 모두 공감하는 것입니다.
마치 미국과 중국이 우리 모두에게 나쁜 핵무기 사용을 억제하는 것에 동의하도록 한 것처럼요.
이제 AI로 인한 인간 지능의 실존적 위협에 대응해야 합니다. 우리 모두 같은 배를 탔습니다
앞에서 힌트 교수가 예를 든 ‘핵무기 사용 억제 동의’처럼 인류는 공멸의 위험을 인지해서 핵 버튼을 서로 누르지 못하고 있습니다. 하지만 디지털 지능에 대한 개발과 적용은 인간의 공멸보다 나만의 경쟁력 우위라는 즉각적이고 가시적인 결과가 더 크게 보입니다. 이런 이유로 더 경쟁적으로 수행되지 않을까요? 마치 ABBA의 노래인 ‘The Winner Takes It All’ 처럼요.
|
8. AI를 통제할 수 있을까?
● 제프리 힌튼 : 제가 말하고 싶은 것이 있습니다.
우리가 답해야 할 문제가 많지만 그중 하나가 바로 ‘AI(디지털 지능)가 인간 지능을 추월하는 것을 어떻게 막을 수 있을까?’입니다.
그들이 통제권을 가지지 못하게 하려면 어떻게 해야 할까?
우리가 AI에 그것에 관해 물어볼 수도 있겠죠. 하지만 저는 AI의 대답을 전적으로 신뢰하지는 않을 것입니다.
▼영상으로 시청하기!▼
◼ 콘텐츠 & 웨비나 문의 : marketing@talkit.tv, 02-565-0012
Copyright ⓒ 토크아이티 All rights reserved. 무단 전재 및 재배포 금지.
◼ 콘텐츠 & 웨비나 문의 : marketing@talkit.tv, 02-565-0012
Copyright ⓒ 토크아이티 All rights reserved. 무단 전재 및 재배포 금지.