본문으로 건너뛰기
0
r/jeffnews HN 약 5분

RX – JSON을 대체하는 랜덤 액세스 데이터 포맷

backend

요약

대용량 JSON을 전체 파싱 없이 원하는 값만 직접 읽을 수 있는 새 텍스트 포맷 RX가 공개됨. 92MB 배포 매니페스트 기준 조회 속도가 JSON 대비 23,000배 빠르고, 파일 크기도 5.1MB로 대폭 줄어드는 성능을 보여줌.

기사 전체 정리

RX – JSON을 대체하는 랜덤 액세스 데이터 포맷

  • JSON의 고질적인 문제인 "전체 파싱" 없이 원하는 값만 바로 읽을 수 있는 새 포맷 RX가 공개됨
  • creationix가 만든 오픈소스 프로젝트로, "no-SQL SQLite"처럼 비정형 데이터에 데이터베이스 수준의 랜덤 액세스를 제공하는 게 컨셉임

성능 벤치마크 (92MB 배포 매니페스트, 라우트 키 35,000개 기준)

JSON RX
파일 크기 92 MB 5.1 MB
라우트 1개 조회 69 ms (전체 파싱) 0.003 ms (~16번 인덱스 이동)
힙 할당 횟수 2,598,384 ~10
  • 조회 속도 차이가 무려 23,000배 수준임. 단순 벤치마크가 아니라 실제 프로덕션 데이터 기준이라 더 설득력 있음

어떻게 동작하나

  • 인코딩 시 중복 값을 자동으로 제거(포인터 방식으로 재사용), 오브젝트 스키마 공유, 문자열 prefix 압축, 정렬 인덱스 추가가 자동으로 이뤄짐
  • 인코딩된 버퍼를 그대로 쿼리 — 별도 파싱 단계 없이 버퍼를 직접 읽음
  • 배열 접근은 O(1), 오브젝트 키 조회는 O(log n)
  • 반환값은 읽기 전용 Proxy 형태라 기존 JS 코드에서 거의 그대로 쓸 수 있음
    • Object.keys(), for...of, .map(), .filter(), 구조분해, JSON.stringify() 모두 지원

사용 예시

import { stringify } from "@creationix/rx";
const rx = stringify({ users: ["alice", "bob"], version: 3 });

import { parse } from "@creationix/rx";
const data = parse(rx) as any;
data.users[0] // "alice" — 파싱 없이 버퍼 직접 읽기
data.version  // 3
JSON.stringify(data) // 그대로 동작
  • 문자열 기반은 stringify/parse, 바이너리(Uint8Array) 기반은 encode/open 사용
  • CLI 툴도 제공되고, rx.run에서 브라우저로 바로 인스펙트 가능함

잘 맞는 케이스 vs 맞지 않는 케이스

이럴 때 쓰기 좋음

  • 빌드/배포 아티팩트, 라우트 테이블처럼 한 번 쓰고 드문드문 읽는 대용량 JSON
  • 브라우저, 엣지 런타임, 워커 프로세스에 임베드하는 데이터셋
  • 전체 문서 파싱이 병목인 워크플로우

이럴 때는 적합하지 않음

  • JSON 파싱이 이미 빠를 만큼 작은 문서
  • 사람이 직접 편집하는 설정 파일
  • 자주 쓰거나 변경이 많은 데이터 (그냥 DB 써야 함)
  • gzip/zstd 압축 전송 크기를 최소화해야 하는 경우
  • 테이블 구조면 SQLite, 고정 스키마면 Protobuf가 더 적합

포맷 구조

  • 텍스트 인코딩이라 바이너리처럼 툴을 타지 않고, copy-paste나 문자열 삽입이 가능함
  • 값은 오른쪽에서 왼쪽으로 읽는 구조: [body][tag][b64 varint]
  • 태그 종류: + 정수, * 소수, , 문자열, ' ref/리터럴, : 오브젝트, ; 배열, ^ 포인터, . 체인, # 인덱스

정리

  • JSON이 너무 크고 느리지만, SQLite나 Protobuf처럼 구조를 강제하고 싶지는 않은 그 사이 어딘가를 정확히 겨냥한 포맷임
  • 대규모 빌드/배포 파이프라인에서 매니페스트나 라우트 테이블을 다루는 팀이라면 한번쯤 검토해볼 만함
  • MIT 라이선스, npm 패키지 @creationix/rx로 바로 설치 가능

핵심 포인트

  • 92MB JSON → 5.1MB RX, 라우트 조회 69ms → 0.003ms (실제 프로덕션 데이터 벤치마크)
  • 인코딩된 버퍼를 파싱 없이 직접 읽음 — 배열 O(1), 오브젝트 키 O(log n) 접근
  • 반환값이 읽기 전용 Proxy라 기존 JS 코드(map/filter/JSON.stringify 등)에서 거의 그대로 동작
  • 텍스트 인코딩이라 copy-paste 가능, 바이너리 툴 불필요
  • 빌드/배포 아티팩트처럼 한 번 쓰고 드문드문 읽는 대용량 JSON에 최적화된 포맷

인사이트

JSON이 너무 크고 느리지만 SQLite나 Protobuf처럼 스키마를 강제하기 싫은 틈새를 정확히 겨냥한 포맷. 대규모 배포 파이프라인이나 엣지 런타임에서 라우트 테이블 같은 읽기 전용 대용량 데이터를 다루는 팀에게 실용적인 선택지가 될 수 있음. 다만 쓰기가 잦거나 소규모 데이터엔 오히려 오버엔지니어링.

댓글

댓글

댓글을 불러오는 중...

backend

Redis 8.0 출시 — I/O 스레딩 갈아엎고 처리량 3배, 2.1M ops/sec 달성

Redis 8.0이 I/O 스레딩 모델을 완전히 재설계해서 16코어 기준 2.1M ops/sec를 달성함 (7.4 대비 3배). Hash field expiration, Vector search HNSW, Client-side caching v2, Redis Functions 2.0 async 실행 등 굵직한 기능이 추가되고, jemalloc 통합으로 메모리 fragmentation도 25% 줄어듦.

backend

Go 1.26의 타입 생성(Type Construction)과 순환 감지(Cycle Detection) 개선

Go 1.26에서 타입 체커의 타입 생성 알고리즘을 개선해 재귀 타입과 배열 크기 계산 시 발생하던 순환 감지 문제를 체계적으로 해결했다. 불완전한 값이 다운스트림으로 퍼지기 전에 업스트림에서 차단하는 새로운 접근법으로 여러 컴파일러 패닉을 수정.

backend

Cloudflare Gen 13 서버: 캐시를 코어로 바꿔 성능 2배 달성한 이야기

Cloudflare가 AMD Turin 9965(192코어) 기반 Gen 13 서버를 배포함. 코어당 L3 캐시가 6배 줄어 레거시 NGINX 스택(FL1)으로는 레이턴시 50% 악화가 불가피했으나, Rust로 전면 재작성한 FL2로 전환해 Gen 12 대비 처리량 2배, 성능/와트 50% 개선을 달성함.

backend

칩셋 레이턴시를 측정해봤더니 — 쓸모는 없지만 재밌는 실험

Vulkan GPU 벤치마크로 여러 세대 마더보드 칩셋의 PCIe 레이턴시를 측정한 실험. CPU 직결 대비 칩셋 경유 시 수백 ns 레이턴시가 추가되며, 의외로 2012년 Skylake Z170이 가장 낮은 추가 레이턴시를 보임.

backend

ForgeKV — Rust로 만든 멀티코어 Redis 대체제

Rust로 만든 Redis 드롭인 대체제. 64-샤드 잠금 아키텍처로 멀티코어 스케일링 지원. 2코어 환경에서 Redis 7 대비 41% 빠른 SET 처리량(158K ops/s). 고동시성에서는 약점 있음. Source-available 라이선스.