본문으로 건너뛰기
0
r/jeffnews HN 약 7분

AI 회의론자가 말하는 재귀적 자기개선의 가능성

ai-ml

요약

AI 회의론자가 재귀적 자기개선이 왜 무시할 수 없는지를 4단계 논증으로 설명하는 에세이. LLM이 AGI가 되지 못하더라도 다른 AI 패러다임의 연구를 가속할 수 있다는 점이 핵심 통찰이며, 6가지 미해결 질문을 통해 불확실성을 솔직하게 인정함.

기사 전체 정리

AI 회의론자가 재귀적 자기개선(recursive self-improvement)의 가능성을 인정하면서도, 왜 여전히 회의적인지를 4단계 논증으로 풀어낸 에세이임.

I. 기본 논증: AI → AI 연구 가속 → 지능 폭발?

  • 핵심 논리는 단순함: AI가 코드를 잘 짬 → ML 연구에 도움이 되는 작업이 있음 → AI가 AI 연구에 투입됨 → 더 나은 AI가 더 많은 연구를 도움 → 지능 폭발
  • 1번(AI가 코드를 잘 짠다)과 2번(그 중 일부가 ML 연구에 유용하다)은 반박 불가능한 사실로 봄. Andrej Karpathy가 언급한 "반복적 최적화(iterative optimization)" 작업이 대표적 사례임
  • 3번(AI가 AI 연구에 활용되어 진보를 가속한다)도 거의 확실하다고 판단함
  • 문제는 4번: 재귀적 자기개선이 시작되더라도, 그것이 얼마나 멀리, 얼마나 빠르게 갈 수 있는지는 전혀 알 수 없음

ℹ️참고

단기 vs 장기 단기적으로 재귀적 자기개선은 이미 시작된 것이나 다름없음. 현재 수준의 모델만으로도 프로그래밍 방식 일부가 바뀌고 있고, 데이터센터 용량이 수년 내 2배로 늘어나면 더 긴 컨텍스트 윈도우에서의 운용이 가능해짐. 하지만 장기적 궤적은 완전히 다른 문제임.

II. 현재 패러다임으로 AGI에 도달할 수 있는가?

  • AGI 자체는 원리적으로 가능함 — 인간이 곧 AGI의 존재 증명이기 때문
  • 하지만 인간 뉴런과 인공 뉴런은 근본적으로 다름. Mike X Cohen 박사의 분석에 따르면, 둘을 같은 이름으로 부르는 것 자체가 모욕적일 정도로 상이함
  • 이 사실은 양쪽 모두의 근거가 될 수 있음:
    • 종말론자(doomer) 측: LLM이 인간과 공통점이 거의 없는데도 이 정도까지 왔다는 건, 인간의 작동 원리를 이해하지 않고도 AGI를 "조립(kludge)"할 수 있다는 뜻일 수 있음
    • 부정론자(denier) 측: 현재 AI 시스템이 유일하게 알려진 AGI(인간)와 완전히 다르다는 건, 근본적으로 잘못된 방향이라는 뜻일 수 있음. AI는 입출력이 단순하고 보상 신호가 명확한 과제(체스, 수학, 코딩)에서만 잘 작동하며, 훈련 분포 밖으로 일반화하지 못함
  • 저자는 부정론자 쪽에 기울어 있음. 하지만 여기서 끝이 아님

III. 핵심 통찰: LLM이 AGI가 못 되더라도, 다른 패러다임의 연구를 가속할 수 있음

  • 이것이 이 에세이의 가장 중요한 논점임
  • Gary Marcus는 LLM이 상징적 논리(symbolic logic), 세계 모델(world model), 형식적 추론이 없어서 AGI에 도달할 수 없다고 주장함. 그가 선호하는 대안은 뉴로심볼릭 AI(neurosymbolic AI)
  • Marcus가 옳다고 가정해도, LLM이 다른 AI 패러다임의 연구 속도를 높일 수 있다는 점은 변하지 않음
    • AI 연구는 손실 함수(loss function)로 최적화할 수 있는 분야이고, LLM은 수학과 코딩에 특히 강함
    • 뉴로심볼릭 AI 연구자가 LLM 어시스턴트를 활용해 연구를 가속하는 시나리오는 충분히 현실적임
  • 즉, LLM 코딩이 AGI 개발의 원인이 될 수 있음 — LLM 자체가 AGI가 되지 않더라도, 올바른 패러다임을 발견하는 시간을 단축시킬 수 있기 때문
  • 모든 AI 연구자가 LLM 어시스턴트로 연구를 가속할 수 있고, AGI에 도달하려면 누군가 테크 트리에서 올바른 경로를 찾기만 하면 됨

중요

회의론자의 지능 폭발 논거 LLM 코더가 AI 연구를 가속할 수 있다면, AI 타임라인은 단축되어야 함. AGI가 현재 테크 트리 어딘가에 있고, 현재의 기술적·컴퓨팅 한계를 넘지 않고 발견 가능하다면, LLM 자체가 AGI가 되느냐는 사실상 중요하지 않음.

IV. 답할 수 없는 6가지 질문

저자는 이 시나리오의 실현 여부를 판단하기 극히 어렵게 만드는 미해결 질문 6가지를 제시함:

  1. 컴퓨팅 한계: 인간 수준의 알고리즘이 시뮬레이션하기에 너무 복잡해서 막대한 컴퓨팅 증가가 필요하면? 스케일링 법칙은 로그 축에서는 무섭게 보이지만, 일반 축에서는 훨씬 약함
  2. 스케일링 법칙의 멱법칙 분포: 일정한 속도로 개선하려면 지수적 자원 증가가 필요함. 재귀적 자기개선이 이 비용 증가를 앞지르지 못하면 자연히 소멸됨
  3. 모라벡의 역설(Moravec's Paradox): 컴퓨터는 30년 전부터 체스에서 인간을 이겼지만, 눈 위 운전 같은 인지 과제는 아직 대체 못 함. 이 불균형(jaggedness)이 영원히 계속되면?
  4. 지능의 이론적 상한선: 라마누잔과 보통 사람의 지능 차이는 크지만, 라마누잔이 가능한 한계치라면? 지능이 우리가 생각하는 것만큼 무한히 확장 가능하지 않을 수 있음
  5. 동적 장기 기억의 트레이드오프: 장기 기억이나 지속적 학습이 단기 기억(작업 기억) 악화라는 본질적 트레이드오프를 수반하면? 인간의 작업 기억 용량이 3~5개 객체로 제한되는 것이 관련 있을 수 있음
  6. AGI가 현재 테크 트리에 없으면?: 인간이 유일하게 가능한 AGI 시스템이거나, 인간 유전학과 신경과학을 완전히 이해해야만 AGI/ASI에 접근할 수 있다면?

저자의 결론

  • 여전히 AGI 회의론자임. LLM 브랜치에서 AGI가 나올 것이라고 보지 않음
  • 인간은 개별적으로도 복잡하고, 과학·제도 같은 사회적 기술(social technologies) 위에서 발전해왔기에 단순히 이기기 어려움
  • "AI as Normal Technology" 논문의 예측(AI가 전기·인터넷처럼 점진적으로 확산)이 AI 2027의 예측보다 더 가까울 것으로 봄
  • 다만 솔직하게 인정함: 이것이 자신이 믿고 싶은 이야기에 대한 사후 합리화일 수 있다고
  • 향후 5년은 몰라도, 10년, 20년, 50년 뒤에 대해서는 아무도 모름. 유일하게 진실한 답은 "모른다"뿐임

핵심 포인트

  • AI가 코드를 작성하고 ML 연구에 활용되는 재귀적 루프는 이미 시작되었으나, 그 범위와 속도는 알 수 없음
  • 인간 뉴런과 인공 뉴런의 근본적 차이가 AGI 낙관론과 비관론 모두의 근거가 될 수 있음
  • LLM이 AGI가 못 되더라도 뉴로심볼릭 AI 등 다른 패러다임의 연구를 가속할 수 있다는 것이 핵심 논점
  • 스케일링 법칙의 멱법칙 분포, 모라벡의 역설, 지능의 상한선 등 6가지 미해결 질문이 시나리오의 실현 여부를 판단하기 어렵게 만듦

인사이트

LLM 자체의 AGI 도달 여부보다, LLM이 다른 AI 패러다임 연구를 가속하여 간접적으로 AGI에 기여할 가능성이 더 중요한 변수일 수 있음.

댓글

댓글

댓글을 불러오는 중...

ai-ml

ARC-AGI-3 등장: AI가 진짜 AGI인지 측정하는 새 벤치마크 나왔다

ARC Prize 팀이 ARC-AGI-3를 공개했는데, 기존 정적 퍼즐 풀기가 아니라 AI가 새로운 환경을 탐색하고 즉석에서 목표를 파악하는 '적응형 추론' 능력을 측정함. 인간 수준으로 게임을 클리어하면 100점인데, 아직 AI와 인간 사이에 격차가 있는 한 AGI가 아니라는 기준을 제시하는 거임.

ai-ml

구글 TurboQuant: AI 모델 압축의 판도를 바꾸는 기술 등장 (ICLR 2026)

구글 리서치가 AI 모델의 핵심 병목인 키-값 캐시(KV Cache) 문제를 해결하는 압축 알고리즘 TurboQuant를 공개했음. 학습 없이 KV 캐시를 3비트까지 줄이면서도 모델 정확도 손실 제로, H100 GPU에서 최대 8배 속도 향상이라는 미친 성능을 보여줌. PolarQuant, QJL과 함께 ICLR 2026에서 발표 예정.

ai-ml

Claude Code한테 내 옛날 연구 코드 맡겨봤는데 하루만에 54% 성능 향상시킴 ㄷㄷ

Karpathy의 Autoresearch 방법론에서 영감 받아서, 저자가 자기 옛날 연구 코드(eCLIP)를 Claude Code한테 던져주고 빨래/장보기 하러 갔음. 돌아왔더니 42번 실험 돌리고 Mean Rank를 344→157로 54% 줄여놨다는 레전드 썰. 근데 버그 하나 고친 게 모든 아키텍처 개선 합친 것보다 효과가 컸다는 게 포인트 ㅋㅋ

ai-ml

Claude Code 치트시트 레전드 정리본 떴다 - 이거 하나면 끝

Claude Code의 모든 슬래시 커맨드, 단축키, 고급 기능을 한 페이지에 때려박은 치트시트임. /btw 같은 숨겨진 꿀기능부터 Git Worktree, Voice Mode까지 ㄹㅇ 알차게 담겨있어서 북마크 필수각.

ai-ml

딥러닝용 미친 사양 컴퓨터 'Tinybox' - 최대 1 엑사플롭 지원에 가격은 100억?

tinygrad 팀이 만든 딥러닝 전용 컴퓨터 'Tinybox'가 이제 실제로 판매 중임. red($12,000)부터 green($65,000), 그리고 2027년 출시 예정인 초고사양 'exabox'(~$10M)까지 라인업 구성. 근데 exabox 스펙이 진짜 레전드 수준ㅋㅋ