본문으로 건너뛰기
0
r/jeffnews HN 약 5분

"스왑은 RAM의 2배" 규칙은 대체 어디서 온 걸까

backend

요약

1990년대 SunOS의 노오버커밋 정책, fork/exec의 메모리 더블링, HDD 스왑 단편화 회피라는 세 가지 조건이 만든 경험칙이 '스왑 = RAM × 2'의 기원이다. 현대 리눅스의 오버커밋과 SSD 환경에서는 더 이상 유효하지 않다.

기사 전체 정리

"스왑은 RAM의 2배로 잡아라" — 이 규칙은 대체 어디서 온 걸까?

  • 이 규칙의 뿌리는 1990년대 SunOS 시절로 거슬러 올라감. 당시 SunOS는 메모리 오버커밋을 전혀 하지 않았음. malloc이 성공하면 커널이 해당 바이트에 대해 스왑이든 RAM이든 반드시 제공하겠다고 "약속"하는 구조였음
  • 여기서 "커밋(committed)"과 "사용(used)"의 구분이 핵심임. 커밋된 메모리는 커널이 약속한 양이고, 사용된 메모리는 프로세스가 실제로 쓴 양. 사용은 항상 커밋의 부분집합임

fork/exec가 만든 2배 공식

  • 당시 워크로드는 실제 사용량 대비 약 50% 더 많은 메모리를 커밋하는 게 일반적이었음. 비싼 RAM을 아끼려면 "커밋은 됐지만 안 쓰는" 메모리를 스왑에 떠넘기는 게 합리적이었고, 그래서 스왑은 RAM의 약 50% 정도면 충분했음
  • 근데 여기에 fork/exec가 등장함. 유닉스에서 새 프로세스를 띄우려면 먼저 fork로 현재 프로세스를 통째로 복제한 다음 exec로 새 프로그램을 올림. 문제는 fork 순간에 커널이 자식 프로세스에 대해서도 동일한 양의 메모리를 커밋해야 한다는 것
  • copy-on-write 덕분에 실제로 쓰이진 않지만, "약속은 약속"이라 커널이 부모+자식 모두의 커밋을 감당할 수 있어야 했음. 즉 최악의 경우(fork 직후)를 대비하면 RAM + 스왑이 정상 상태 커밋 메모리의 2배여야 함
  • 정상 상태 커밋 메모리가 RAM의 약 150%이므로, 총 메모리(RAM + 스왑)는 RAM의 3배가 필요함. 간단한 산술로 스왑 ≈ RAM × 2가 나옴

스왑 단편화라는 또 다른 이유

  • HDD 시대에는 시크 타임이 있었기 때문에 스왑 영역에 연속된(contiguous) 빈 블록을 확보하는 게 중요했음. 스왑의 절반만 채워야 항상 연속 블록을 찾을 수 있다는 경험칙이 있었음
  • 최대 부하 시 물리 RAM만큼의 데이터가 스왑에 올라간다고 가정하고, 연속 할당을 위해 스왑의 절반은 비워둬야 하니까 → 스왑 = RAM × 2. 세 가지 경험칙이 하나로 합쳐진 결과임

현대에는 의미 없는 규칙

  • 현대 리눅스는 오버커밋을 지원함. 커널이 할당 시점에 약속하지 않고, 실제로 메모리가 부족해지면 OOM Killer를 소환하는 방식. fork의 2배 문제 자체가 사라진 거임
  • 당시에는 8MB RAM에 320MB HDD면 스왑 16MB가 디스크의 1/20에 불과했는데, 지금은 32GB RAM에 256GB SSD라면 스왑이 디스크의 1/4을 차지하게 됨. 비율 자체가 말이 안 됨
  • JVM 같은 현대 런타임은 GC 돌 때 힙 전체를 주기적으로 훑기 때문에, 예전처럼 "커밋만 하고 안 쓰는 페이지"가 조용히 스왑에 누워있는 시나리오도 잘 안 맞음

ℹ️참고

> 2배 규칙은 기술적 제약이 아니라, "잘 모르겠으면 일단 이렇게 하면 크게 안 망한다"는 경험칙이었음. 1.5배는 어중간하고 1배는 "이미 RAM이 있는데 왜?"라는 심리적 저항이 있어서, 소통하기 쉬운 2배가 살아남은 것

  • 결론적으로 이 규칙은 SunOS의 노오버커밋 정책 + fork의 메모리 더블링 + HDD 스왑 단편화 회피라는 세 가지 시대적 조건이 만든 산물이고, 거기에 "2배는 외우기 쉽잖아"라는 인간 심리가 더해진 거임

핵심 포인트

  • SunOS는 메모리 오버커밋을 하지 않아 fork 시 자식 프로세스에 동일한 메모리를 커밋해야 했음
  • 정상 상태 커밋 메모리(RAM의 150%)의 2배를 확보하려면 스왑이 RAM의 2배 필요
  • HDD의 스왑 단편화 방지를 위해 절반은 비워둬야 해서 2배가 된 것도 한 원인
  • 현대 리눅스는 오버커밋 지원으로 이 규칙이 무의미함
  • 2배라는 숫자 자체가 소통하기 쉬운 심리적 요인도 작용

인사이트

기술적 근거가 사라진 뒤에도 관성으로 살아남는 규칙들이 있다. 왜 그 규칙이 생겼는지 원리를 알면 현재 환경에 맞게 판단할 수 있다.

댓글

댓글

댓글을 불러오는 중...

backend

Redis 8.0 출시 — I/O 스레딩 갈아엎고 처리량 3배, 2.1M ops/sec 달성

Redis 8.0이 I/O 스레딩 모델을 완전히 재설계해서 16코어 기준 2.1M ops/sec를 달성함 (7.4 대비 3배). Hash field expiration, Vector search HNSW, Client-side caching v2, Redis Functions 2.0 async 실행 등 굵직한 기능이 추가되고, jemalloc 통합으로 메모리 fragmentation도 25% 줄어듦.

backend

Coalton 0.2 프리뷰: 커링을 버리고, 키워드 인자와 실수 대수적 수를 품다

Common Lisp 안에 사는 정적 타입 함수형 언어 Coalton이 0.2에서 Haskell 스타일 커링을 버리고 고정 인자 함수로 전환. 키워드 인자, 다중 반환값, 컬렉션 리터럴, 짧은 람다, scoped 타입 변수, 실수 대수적 수(RealAlgebraic) 등 대규모 변경.

backend

5만 달러짜리 수작업 포렌식 감사를 결정론적 Python 엔진으로 대체한 사례

이혼 소송에서 공동 계좌 내 별도 재산을 증명하는 포렌식 회계 작업을 자동화한 Exit Protocol. LIBR(최저 중간 잔액 규칙)을 상태 머신으로 구현하고, Spatial-Grid OCR로 은행 PDF를 처리하며, Daubert 기준 충족을 위해 AI를 의도적으로 배제한 결정론적 파이프라인임.

backend

Sandia 국립연구소의 LAPIS: 희소 행렬 연산을 위한 MLIR 기반 컴파일러 프레임워크

Sandia 국립연구소에서 MLIR 위에 구축한 LAPIS 컴파일러 프레임워크 발표. Kokkos 방언으로 다양한 아키텍처 지원하며 희소 선형대수 연산을 GPU에서 효율적으로 최적화

backend

Cloudflare, API 한 번으로 웹사이트 전체를 크롤링하는 /crawl 엔드포인트 오픈 베타 출시

Cloudflare Browser Rendering에 /crawl 엔드포인트가 오픈 베타로 추가됨. 시작 URL 하나로 전체 사이트를 크롤링하고 HTML, Markdown, JSON으로 반환하며, robots.txt를 준수하는 비동기 크롤링 API.