[ Summary ]
“AI의 대부”로 불리는 제프리 힌튼(Geoffrey Hinton)이 AI의 미래에 대한 전망과 심각한 경고를 전했습니다. 그는 AI 발전 속도가 예상보다 훨씬 빠르며, 초지능(superintelligence) 시대가 4~19년 안에 도래할 가능성이 크다고 봅니다. 또한, AI 기술이 인간의 통제를 벗어나거나 악용될 가능성에 대한 우려와 함께, 규제의 필요성과 기업들의 안전성 연구 부족을 강하게 지적했습니다.
00:00 – AI 발전 속도와 초지능 도래 예상
힌튼은 AI 발전이 자신의 예측보다 훨씬 빠르게 진행되었다고 밝혔습니다. 특히, 단순히 질문에 답하는 AI를 넘어 실제 행동을 취할 수 있는 “AI 에이전트” 등장으로 위험성이 증가했다고 강조합니다. 초지능 도래 시점을 4~19년 안으로 예상하며, 10년 이내 가능성도 높다고 평가했습니다.
01:11 – 초지능 시대의 모습
이상적인 시나리오는 인간이 결정권을 쥐되 AI가 모든 실무를 처리하는 구조입니다. 반면, AI가 스스로 행동하고 통제권을 탈취할 가능성도 있어 구체적인 예측을 꺼렸습니다.
02:00 – 긍정적 기대: 의료, 교육, 기후 변화 대응
AI는 의료 영상 판독과 가족의학 분야에서 의사보다 뛰어난 능력을 보일 것으로 예상됩니다. 교육 분야에서는 AI 개인 튜터를 통해 학습 속도가 3~4배 빨라질 수 있으며, 이는 기존 대학 체계에 큰 변화를 가져올 것이라고 말했습니다. 또한 AI는 신소재 개발, 배터리 개선, 탄소 포집 기술 향상에도 기여할 수 있다고 언급했습니다.
05:00 – 일자리 대체 우려
힌튼은 불과 2년 전과 달리, 이제는 AI로 인한 일자리 대체를 심각한 문제로 인식하고 있습니다. 콜센터, 변호사, 기자, 회계사 등 반복적인 작업을 수행하는 직업이 사라질 것으로 전망했습니다. 생산성 향상으로 모두가 이익을 볼 수 있어야 하지만, 현실적으로는 부의 불평등이 심화될 것이라고 경고했습니다.
06:36 – AI 통제 실패 가능성과 p-doom 개념
AI가 인간을 통제하는 사태가 발생할 확률(p-doom)을 10~20%로 추정했습니다. 이 수치는 다소 추측이 섞였지만, 전문가들 사이에서는 1% 이상, 99% 미만이라는 공감대가 형성돼 있다고 설명했습니다.
09:05 – 정부 규제와 기업의 책임
AI가 가져올 위험성을 방지하려면 정부와 공공의 압박으로 기업들이 진지하게 안전성 연구에 투자하도록 해야 한다고 강조했습니다. 현재 기업들은 규제를 최소화하고 단기 이익에만 집중하고 있어 위험성을 키우고 있다고 지적했습니다.
10:09 – 노벨상 수상 이야기와 AI에 대한 경고
힌튼은 노벨상을 수상한 경험을 이야기하며, 이를 통해 AI의 위험성을 세상에 알리는 데 신뢰를 활용하고 싶다고 밝혔습니다. 그는 특히 악의적 활용(선거 조작, 사이버 공격, 자율 살상 무기 등)과 AI 자체의 통제력 탈취 가능성을 구분해 설명했습니다.
14:35 – 기업들의 무책임한 무게추
힌튼은 메타(Meta)나 오픈AI(OpenAI) 등이 AI 모델의 가중치(weights)를 공개하는 것은 위험한 일이라고 비판했습니다. 이는 핵무기의 원료를 인터넷에 파는 것과 비슷한 위험성을 지닌다고 경고했습니다.
19:21 – 현재 신뢰할 수 있는 AI 기업
현재 가장 안전성에 신경 쓰는 기업으로 Anthropic을 꼽았으며, Google은 여전히 다른 기업보다는 낫지만 과거에 비해 신뢰도가 낮아졌다고 평가했습니다.
25:14 – AI와 국가 간 경쟁
힌튼은 미국이 중국을 기술적으로 억제하려는 노력은 단기적으로 효과가 있을 수 있지만, 장기적으로는 중국이 독자적 기술력을 확보할 것이라고 분석했습니다. 다만, 인류 전체를 위협하는 문제(예: AI 통제 실패)에 대해서는 국가 간 협력이 가능할 것으로 기대했습니다.
29:24 – UBI(기본소득)와 인간 존엄성 문제
AI로 인한 대량 실업 문제에 대해 기본소득(UBI)이 일부 해결책이 될 수 있으나, 인간 존엄성 문제를 해결하기에는 부족하다고 지적했습니다.
31:18 – AI 권리 부여 문제
힌튼은 AI가 아무리 똑똑하고 감정이 있어도 “사람”이 아니기 때문에 인간처럼 권리를 부여해서는 안 된다고 주장했습니다.
34:34 – AI 통제 실패 가능성의 심각성
지능 차이가 클 경우, 덜 지능적인 존재가 더 지능적인 존재를 통제할 수 없다는 점을 강조했습니다. AI를 귀여운 “호랑이 새끼”에 비유하며, 자라서 위험해지기 전에 철저히 대비해야 한다고 경고했습니다.
42:19 – 디지털 AI의 무서운 확장성
디지털 AI는 수천 개 하드웨어에서 동시에 학습하고, 학습 결과를 통합할 수 있어 인간보다 수십억 배 빠르게 지식을 축적할 수 있습니다. 이러한 점이 그를 두렵게 만들었다고 고백했습니다.
49:56 – 안전한 AI 개발을 위한 실질적 노력 필요
힌튼은 AI 기업들이 최소한 컴퓨팅 자원의 3분의 1을 안전성 연구에 사용해야 한다고 주장했습니다. OpenAI는 초기 목적(안전한 AI 개발)을 잊고 수익성 추구에 몰두하고 있다고 비판했습니다.
[ Review ]
이번 인터뷰는 인공지능 분야에서 가장 존경받는 인물 중 하나인 제프리 힌튼이 AI의 현재와 미래에 대해 직접 전한 솔직하고 깊이 있는 경고를 담고 있습니다. 그는 기대와 불안이 교차하는 복합적인 시선을 보여주면서, 초지능 등장에 대한 과학적 현실성과 기업 및 정부의 무책임함을 날카롭게 짚었습니다. 특히 AI 권리 부여 문제나 기본소득 문제 등 철학적 질문까지 폭넓게 다루며, 독자들에게 ‘인간은 누구인가’라는 근본적인 질문을 던집니다. 단순한 기술 낙관론이나 비관론을 넘어, 냉철하고 진지하게 우리가 당면한 위험을 성찰할 수 있는 기회를 제공합니다. 독자 여러분도 ‘우리는 AI 시대에 어떤 역할을 할 것인가’라는 질문을 스스로에게 던져보시길 바랍니다.