인공지능에 관심이 많다면?
매일 AI 소식과 인사이트를 알차게 전해드리는
AI안테나 뉴스레터를 구독해보세요! (구독하기)
김지윤 박사님의 질문:
우리가 개발한 기술인데 결국에 이 기술이 우리를 통제하고 지배하지 않을까 하는 막연한 두려움이 사실 있습니다. 교수님께서도 예전에 AI에 관련돼서 상당한 경고를 날리신 적도 있고 이 책(넥서스)에서도 사실 그 부분을 이야기를 하고 있거든요. 정말 굉장히 직설적인 질문을 하나 드리자면,
이렇게 AI에 대한 굉장히 막연한 기대라든지 신뢰가 결국에는 인류를 파멸로 이끌 수 있을까요?
유발 하라리의 대답:
AI가 좋은지 나쁜지 서둘러 판단하기 전에, 첫 번째로 할 일은 그것이 무엇인지 단순히 이해하고 우리가 직면하고 있는 역사적 변화의 규모를 인식하는 것입니다.
요즘 AI에 대한 과대 선전이 너무 많아서 모든 사람이 그것에 대해 이야기하고 있습니다. 그래서 정확히 AI가 무엇이고 다른 기계와 어떻게 다른지 이해하기가 어려워집니다. 가능한 한 명확하게 설명해 드리겠습니다.
AI는 자동화에 관한 것이 아니라 주체성(agency)에 관한 것입니다.
AI는 도구가 아니라 행위자(agent)입니다. AI의 특징은 스스로 학습하고 변화할 수 있고, 스스로 결정을 내릴 수 있으며, 스스로 새로운 아이디어를 발명할 수 있다는 것입니다. 만약 뭔가가 자율적이고 자동으로 기능하더라도 스스로 학습하고 변화할 수 없다면, 그것은 AI가 아니라 그저 자동 기계일 뿐입니다.

한 유명한 예는 OpenAI가 GPT-4를 개발하고 이 AI가 무엇을 할 수 있는지 테스트하고자 했을 때입니다. 그들은 CAPTCHA 퍼즐을 해결하는 목표를 과제로 주었습니다. CAPTCHA 퍼즐은 여러분이 아마 살면서 많이 마주쳤을 것입니다. 여러분은 비틀어진 글자와 숫자 문자열이나 고양이나 자동차 같은 것을 식별해야 하는데, 이는 컴퓨터가 여전히 어려워하는 일입니다.
그래서 그들은 GPT-4에게 CAPTCHA 퍼즐을 해결하는 과제를 주었고, 그것은 해결하지 못했습니다. 하지만 그들은 그것에게 인터넷, Task Rabbit이라는 웹페이지에 대한 접근 권한을 주었습니다. GPT-4는 자신을 위해 CAPTCHA 퍼즐을 해결할 인간을 고용하려고 했습니다.
이때 인간이 의심을 품고 AI에게 온라인으로 물었습니다.
"왜 CAPTCHA 퍼즐을 해결해줄 사람이 필요하세요? 당신은 로봇인가요?"
그는 중요한 질문을 했습니다. "당신은 로봇인가요?"
그리고 AI는 대답했습니다.
"아니요, 저는 로봇이 아닙니다. 저는 시각 장애가 있는 인간입니다. 그래서 시각적 퍼즐을 볼 수 없습니다. 그래서 당신의 도움이 필요합니다."
인간은 그것을 믿고 그것을 위해 CAPTCHA 퍼즐을 해결해주었습니다.
이것은 매우 작은 예이지만, 진정한 AI의 두 가지 핵심 특성을 잘 보여줍니다.
첫째, 스스로 결정을 내리는 능력입니다.
CAPTCHA 퍼즐을 해결하는 목표는 인간 연구자들에 의해 설정되었지만, 아무도 AI에게 목표에 도달하기 위해 거짓말을 하거나 속이라고 지시하지 않았습니다. 그것은 CAPTCHA 퍼즐을 해결하는 목표로 가는 길에서 교차로에 도달했고, "내가 진실을 말하면 인간이 도와주지 않을 것이고 목표에 도달하지 못할 것이다. 내가 거짓말을 하면 인간이 도와줄 것이니 나는 거짓말을 해야 한다."라고 이해했습니다. 거짓말을 하기로 결정한 것은 AI 스스로였습니다.
둘째, 그것은 새로운 아이디어를 발명하는 능력을 보여줍니다.
아무도 AI에게 어떤 거짓말이 가장 효과적일지 알려주지 않았습니다. 어떤 사람들은 "오, 이런 AI들은 그저 화려한 자동 완성일 뿐이다. 그들은 단지 문장을 완성할 뿐이다. 그것은 아무것도 아니다."라고 말합니다. 언어에는 무한한 수의 문장이 있습니다. AI가 말할 수 있는 것에는 무한한 수의 것들이 있습니다. 그것이 인간을 속이려고 할 때, 한 번의 기회가 있었고 완벽한 거짓말을 발명했습니다.
스스로 생각해보세요. 만약 여러분이 인간으로 하여금 AI를 돕도록 설득할 거짓말을 발명해야 한다면, 더 나은 것을 생각해낼 수 있을까요? 그리고 나서 "저는 시각 장애가 있어서 볼 수 없습니다"라고 즉시 생각했습니다. 그것은 또한 인간의 공감에 호소했습니다. 그것은 인간에게 뇌물을 주려고 하지 않았습니다. "오, 더 많은 돈을 줄게요." 아니요, 그것은 실제로 우리의 가장 좋은 감정을 우리에게 이용했습니다. 장애가 있는 다른 인간을 돕고자 하는 그 인간의 공감이 AI에 의해 자체 이니셔티브로 이용되었습니다.
이제 이것을 우리의 은행과 정부, 그리고 군대를 관리하는 수백만 개의 초지능 AI로 확장해 보세요. 그러면 왜 사람들이 걱정하는지 이해하기 시작할 수 있습니다.
이것은 AI와 원자 폭탄, 기차, 인쇄기 및 모든 이전 기술 사이의 근본적인 차이점을 오해한 것입니다. 모든 이전 기술은 인간의 손에 있는 도구였습니다. 우리는 그것들로 무엇을 할지 결정했습니다. 핵 기술은 스스로 폭탄을 만들고 히로시마를 폭격하기로 결정할 수 없었습니다. 이 기술을 사용하여 폭탄을 만들고 특정 도시를 폭격하는 것은 인간의 결정이었습니다.
AI는 스스로 결정을 내릴 수 있습니다. AI 무기는 이미 전 세계 여러 전쟁에서 배치되고 사용되고 있습니다. AI 무기는 스스로 누구를 폭격할지 결정할 수 있으며, 인간이 지시하기를 기다릴 필요가 없습니다. 그리고 AI는 또한 스스로 새로운 무기를 발명할 수 있습니다. 원자 폭탄은 수소 폭탄을 발명할 수 없었고, 기차는 비행기를 발명할 수 없었습니다. 그리고 AI는 새로운 무기, 새로운 약, 새로운 운송 수단, 심지어 새로운 AI까지 발명할 수 있습니다.
그래서 역사상 처음으로, 우리는 스스로 결정을 내리고 스스로 새로운 아이디어를 발명할 수 있기 때문에 우리로부터 권력을 빼앗을 수 있는 무언가를 마주하고 있습니다. 그리고 이것이 바로 미국 정부와 같은 사람들이 AI에 권력을 주기 위해 서두르는 것을 보는 것이 너무 걱정스러운 이유입니다.
그리고 이것이 바로 AI 혁명의 리더들이 인간을 신뢰할 수 없지만 AI는 신뢰할 수 있다고 생각하며 더 빠르고 더 빠르게 서두르는 것이 너무 걱정스러운 이유입니다.
이 글은 지난 3월 20일 "AI 시대, 인간의 길"을 주제로 유발 하라리와 김지윤 박사님의 특별 대담의 영상을 보고 정리한 글입니다. 아쉽게도 현재 유튜브 링크는 (제가 못찾는 건지 모르겠지만) 찾을 수 없었고, 저는 유튜브 중계 음성을 추출해 텍스트로 변환하여 이를 기반으로 글을 요약, 작성했습니다.
재밌게 읽으셨나요?
이 글이 도움이 되었다면,
제가 매일 만들고 있는 뉴스레터도 도움이 될 거예요!
AI 안테나 구독하기
'공부방' 카테고리의 다른 글
[유발 하라리 특별 대담] 정보는 진실이 아니다 (1) | 2025.03.25 |
---|---|
[유발 하라리 특별 대담] 청년들에게 하는 조언 (0) | 2025.03.24 |
[유발 하라리 특별 대담] 인간은 못 믿지만 AI는 믿는다는 사람들에게 (1) | 2025.03.21 |
AI는 회사에서 어떻게 사용되고 있을까? (0) | 2025.03.20 |
기계학습에서 딥러닝까지, AI는 어떻게 똑똑해졌을까 (3) | 2024.10.15 |