|

[특집 ‘특이점’] 3. 특이점은 언제 오는가?(회의론자들이 경고하는 현실)

특집 ‘특이점’ 3편 — 특이점은 언제 오는가? (하)

물리적 장벽과 환상의 붕괴 — 회의론자들이 경고하는 현실

월드 모델의 부재 · 에너지 한계 · 모델 붕괴 · 복잡성 브레이크


지난 2편에서는 AI의 눈부신 발전 속도와 거대한 자본이 이끌어 갈 ‘기술적 낙관론’의 유토피아적 비전을 살펴보았습니다. 끝없이 똑똑해지는 기계가 인류의 모든 문제를 해결해 줄 것이라는 기대감은 그 어느 때보다 높습니다. 하지만 과연 이 거침없는 질주는 아무런 제동 장치 없이 영원히 뻗어 나갈 수 있을까요? 이번 3편에서는 이 뜨거운 열기에 찬물을 끼얹는 ‘기술적 회의론’ 의 시각을 집중적으로 다루어 보겠습니다. 세계적인 석학들과 하드웨어 전문가들은 현재의 AI 발전이 근본적인 결함을 안고 있으며, 특이점은 결코 낙관론자들이 말하는 것처럼 호락호락하게 오지 않을 것이라고 경고합니다.


1부 · 이론적 배경

회의론자들이 바라보는 AI 세상 — 근본적인 한계들

기술적 회의론의 중심에는 현재 AI 열풍을 주도하는 거대 언어 모델(LLM)의 본질적 한계에 대한 지적이 자리하고 있습니다.

‘월드 모델’의 부재: 튜링상 수상자이자 AI 분야의 거장인 얀 르쿤(Yann LeCun)은 현재의 LLM이 텍스트의 다음 단어를 확률적으로 예측하는 자기회귀(Autoregressive) 방식에 불과하며, 물리적 현실 세계의 인과관계를 이해하는 ‘월드 모델(World Model)’ 이 없다고 비판합니다. 2023년 파리 Viva Tech 컨퍼런스에서 그는 당시의 AI 시스템들이 개(dog)의 지능에도 미치지 못한다고 일침을 가했습니다. 텍스트만으로 훈련된 AI는 인간이 시각·촉각·운동을 통해 체득하는 세계에 대한 이해를 갖출 수 없다는 것입니다. 이러한 신념은 이후에도 이어져, 르쿤은 2025년 메타를 떠나 월드 모델 연구에 특화된 스타트업 AMI Labs를 창업하기에 이릅니다.

출처 정리: ‘통계적 앵무새(Stochastic Parrot)’라는 표현은 언어학자 노암 촘스키(Noam Chomsky)가 아닌, 워싱턴대 언어학 교수 에밀리 벤더(Emily M. Bender)가 2021년 논문 “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” 에서 처음 만든 개념입니다. 촘스키 역시 통계적 언어 모델에 비판적인 입장을 오랫동안 견지해 왔으나, 두 인물의 주장은 서로 다른 맥락에서 이해해야 합니다.

선형적 발전을 위한 지수적 자원: Ai2(앨런 AI 연구소) 연구과학자이자 카네기멜론대(CMU) 조교수인 팀 데트머스(Tim Dettmers)는 컴퓨팅이 철저히 ‘물리적 현실’에 종속되어 있음을 강조합니다. GPU 성능 향상은 이미 물리적 한계에 다가서고 있으며, 의미 있는 스케일링이 가능한 시간은 길어야 1~2년 남았다고 그는 분석합니다. 그의 결론은 선명합니다. “AGI는, 일반적으로 이해되는 방식으로는, 일어나지 않을 것이다. 왜냐하면 그것은 연산의 물리적 제약과 선형적 진보를 위한 지수적 비용, 그리고 우리가 이미 마주치고 있는 근본적인 한계들을 무시하기 때문이다.” 초지능이란 물리적 현실을 도외시한 철학적 사고실험에 가깝다는 것이 그의 주장입니다.

복잡성 브레이크: 마이크로소프트 공동 창업자였던 故 폴 앨런(Paul Allen)은 2011년 MIT Technology Review에 기고한 글에서 ‘복잡성 브레이크(Complexity Brake)’ 를 주장했습니다. 과학이 지능을 이해하는 데 진전을 이룰수록 추가적인 진전을 이루기는 더욱 어려워진다는 논리입니다. 자연계를 깊이 이해할수록 더 많은 전문 지식이 요구되고, 이론은 점점 더 복잡한 방식으로 확장될 수밖에 없습니다. 기하급수적으로 컴퓨팅 파워를 늘리더라도, 실제 지능의 향상은 선형적으로만 따라온다는 것입니다. 2018년에 세상을 떠난 그의 이 논지는 오늘날에도 회의론자들이 가장 자주 인용하는 핵심 논거입니다.

‘더 나은 챗봇’ 이상이 아니다: MIT 로봇공학 명예교수이자 iRobot 창업자인 로드니 브룩스(Rodney Brooks)는 LLM이 인과적 세계 모델 없이 언어를 통계적으로 처리할 뿐이며, 이것이 아무리 발전해도 AGI로 이어지는 경로가 아니라는 입장을 견지해 왔습니다. 그는 AI에 대해 반감을 품고 있는 것이 아닙니다. 오히려 수십 년 이상 실제로 AI를 구현해 온 실천가로서, 우리가 LLM의 유창한 언어 구사를 지나치게 ‘이해’로 해석하고 있다는 데 경계를 보내는 것입니다.

S자 곡선의 정체기: 기술 예측 전문가 시어도어 모디스(Theodore Modis)와 조나단 휴브너(Jonathan Huebner)는 기술 발전이 영원한 지수 함수를 그리는 것이 아니라, 성장이 둔화되며 수평으로 수렴하는 S자 곡선(Logistic Curve) 을 따른다고 분석합니다. 낙관론자들이 그리는 무한 상승 곡선은 역사적 기술 발전 패턴과 배치된다는 것입니다.


2부 · 결코 오지 않을 특이점의 타임라인

회의론자들이 말하는 ‘특이점 없는 미래’

낙관론자들이 2029년 AGI 도달과 2045년 특이점을 기정사실화하는 반면, 회의론자들은 특이점 자체가 허상이거나 아득히 먼 미래의 일일 뿐이라고 단언합니다.

팀 데트머스는 현재의 트랜스포머 아키텍처와 GPU 조합으로는 AGI가 실현될 수 없으며, ‘재귀적 자가 개선’이라는 개념 역시 물리적 연산의 한계를 간과한 것이라고 일축합니다. 지능이 무한정 스스로를 개선할 수 있다는 생각은, 에너지와 물질이라는 현실의 제약을 ‘아이디어 공간’에서만 다룬 결과라는 것입니다. 로드니 브룩스는 기술에는 항상 긴 꼬리(long tail)의 예외 상황들이 존재하며, 이것을 해결하는 과정 자체가 또 다른 난제라는 점을 강조합니다. “AI 시스템이 배치되는 방식을 신중하게 제한하지 않으면, 수십 년에 걸쳐 발견되고 수정해야 하는 특수 사례들의 긴 꼬리가 항상 존재한다”는 것이 그의 경고입니다. 그리고 모디스와 휴브너가 분석하는 S자 곡선에 따르면, 지금 우리가 목격하는 AI 성능의 급격한 상승 자체가 이미 S자의 가파른 중간 구간에 해당하며, 멀지 않아 성장이 완만해지는 정체기에 접어들 것입니다.


3부 · 실질적으로 체감될 장벽들

이론을 넘어 — 우리가 직면하게 될 네 가지 구체적 장벽

이론적인 한계를 넘어, 당장 앞으로 우리가 현실에서 피부로 겪게 될 거대한 장벽들을 살펴봅시다.

① 에너지 고갈과 인프라의 한계

AI 지능은 곧 에너지입니다. 일론 머스크는 2024년 Bosch Connected World 컨퍼런스에서 AI 연산 규모가 기하급수적으로 커지는 동안 전력 생산은 선형적으로만 증가한다며, 전력망 병목과 전력용 변압기(Transformer) 부족 사태 를 가장 큰 제약으로 지목했습니다. “트랜스포머(AI)를 돌리기 위해 변압기(Transformer)가 필요하다”는 씁쓸한 농담도 남겼습니다. 데이터센터 한 곳이 중형 도시의 전력을 소비하는 상황에서, 무한한 AI 확장은 지구의 물리적 자원 한계에 부딪혀 강제로 멈춰 설 수밖에 없습니다.

맥락 참고: 일론 머스크는 AGI 실현의 강력한 낙관론자입니다. 그가 전력망과 변압기 부족을 지목한 것은 “특이점은 불가능하다”는 주장이 아니라, “이 병목을 반드시 해결해야 한다”는 업계 경고에 가깝습니다. 회의론자들은 이 병목이 구조적으로 극복 불가능하다고 보는 반면, 낙관론자들은 충분한 투자와 기술 혁신으로 돌파할 수 있다고 봅니다. 동일한 ‘현실’을 두고 두 진영의 해석이 극명하게 갈리는 지점입니다.

② 모델 붕괴(Model Collapse)와 데이터 오염

AI가 무한히 스스로를 발전시킬 것이라는 ‘재귀적 자가 개선’의 가장 큰 적은 바로 ‘재귀의 저주(Curse of Recursion)’ 입니다. 인터넷상에 양질의 인간 생성 데이터가 고갈되면, 미래의 AI 모델들은 다른 AI가 만들어 낸 합성 데이터를 학습하게 됩니다. 이 과정이 반복되면 모델은 다양성을 잃고, 원래 데이터 분포의 희귀한 경우들을 잊어버리며, 오류가 누적되는 ‘모델 붕괴’ 현상에 직면합니다. 자신이 배출한 쓰레기 데이터에 스스로 갇히게 되는 이 구조적 문제는, 재귀적 자가 개선의 꿈을 근본에서 흔들 수 있습니다.

③ 경제적 거품(Bubble)의 위험

데이터센터와 GPU 구매에 천문학적인 비용(CAPEX)이 투입되고 있지만, 이를 회수할 실질적인 비즈니스 모델(ROI)은 아직 충분히 확립되지 않았습니다. 전문가들은 1999~2001년 닷컴 버블 당시 수많은 기업이 파산했던 것처럼, 현재의 AI 투자 열풍 역시 역사적인 규모의 거품을 형성할 수 있다고 경고합니다. 거품이 터지면 무한한 기술 성장을 외치던 낙관론도 함께 위축될 수밖에 없습니다.

④ 로보틱스의 물리적 장벽 — 모라벡의 역설

로봇이 인간의 모든 육체노동을 즉각 대체할 것이라는 기대도 현실의 장벽에 부딪힙니다. 소프트웨어 텍스트를 학습하는 것과 달리, 물리적 현실 세계의 데이터를 수집하고 학습시키는 것은 경제적으로도 기술적으로도 극도로 복잡합니다. ‘모라벡의 역설(Moravec’s Paradox)’ 이 보여주듯, 최첨단 AI가 수학 난제를 풀면서도 어린아이가 직관적으로 해내는 물건 집기나 낯선 환경 탐색은 여전히 어려워하는 것이 현실입니다. 공장의 반복 노동 외의 실생활 로봇 자동화는 낙관론자들의 예측보다 훨씬 더디게 진행될 가능성이 높습니다.


4부 · 회의론의 결론

특이점은 ‘기술적 신앙’에 가까울지도 모른다

기술적 회의론자들이 바라보는 인공지능의 미래는 마법 같은 ‘특이점’이 아닙니다. AI는 훌륭한 생산성 도구이자 강력한 챗봇으로 남을지언정, 다음의 구조적 결함으로 인해 결코 인간을 아득히 초월하는 ‘신’이 될 수는 없다는 것이 그들의 결론입니다.

현재의 LLM은 텍스트 통계를 처리할 뿐 세계를 이해하지 못하고, 이 한계를 극복할 연산 자원은 물리적으로 무한하지 않으며, 스스로 생성한 합성 데이터로 학습을 이어가면 모델 자체가 붕괴합니다. 그리고 기술 발전은 역사적으로 S자 곡선을 따르지, 무한 지수 함수를 따르지 않습니다. 팀 데트머스의 표현을 빌리자면, AGI에 대한 예측이 지속되는 것은 “그것이 근거가 충분해서가 아니라, 엄격한 사고보다 믿음에 보상을 주는 반향실(echo chamber)에서 그것이 매력적인 서사로 기능하기 때문”입니다.

물론 이 경고가 항상 옳았던 것은 아닙니다. 1950년대부터 AI 연구자들은 수십 년 주기로 ‘지금의 한계는 곧 극복될 것’이라 믿었고, 실제로 많은 한계가 극복되었습니다. 회의론자들의 예측 역시 빗나간 사례가 적지 않습니다. 문제는 이번이 정말 ‘구조적 한계’인지, 아니면 ‘다음 세대가 넘어설 일시적 장벽’인지를 우리가 현재 시점에서 정확히 판별하기 어렵다는 데 있습니다.


결론: 장벽은 실재한다 — 그러나 장벽이 곧 종착점일까?

회의론자들이 지적하는 장벽들은 단순한 비관론이 아닙니다. 이것들은 현재 기술 패러다임이 실제로 직면한 구조적 도전들입니다.

그러나 동시에 이런 질문도 떠오릅니다. 낙관론자들이 그토록 신뢰하는 ‘기하급수적 발전’이란, 단지 현재의 트랜스포머와 GPU 조합에만 한정된 이야기일까요? 아니면 지금 우리가 보지 못하는 전혀 다른 방식으로, 이 장벽들 자체가 허물어질 수 있을까요?

LLM의 한계를 넘어서려는 새로운 AI 아키텍처들, 에너지 문제를 근본부터 뒤흔들 수 있는 기술들, 그리고 AI 자신이 이 연구에 기여하는 피드백 루프 — 이것들은 단순히 공상이 아니라 지금 이 순간에도 연구실 어딘가에서 조용히 실험되고 있습니다. 회의론자들이 그리는 ‘특이점 없는 미래’는 반드시 도래할 미래인가, 아니면 극복 가능한 예측인가. 이 질문에 대한 답은, 어쩌면 아직 나오지 않은 기술들 속에 숨어 있을지도 모릅니다.


다음 편 예고 — 4편

회의론자들이 지목한 장벽들은 정말 특이점을 영원히 가로막을 수 있을까요? 다음 4편에서는 시각을 바꾸어 이 장벽들이 어떻게, 어떤 기술로 허물어질 수 있는가 를 탐색합니다. LLM의 본질적 한계를 넘어서기 위해 연구되고 있는 ‘월드 모델’과 새로운 AI 아키텍처들, 에너지 문제를 근본적으로 재정의할 수 있는 지열 발전·우주 태양광·초전도 소재의 가능성, 그리고 카르다쇼프 척도(Kardashev Scale)로 바라본 ‘지구와 태양계의 에너지를 온전히 활용하는 문명’의 개념까지 — 특이점의 방아쇠를 당길 수 있는 또 다른 경로들을 함께 살펴보겠습니다.


Similar Posts