---
title: "인텔, 소프트뱅크와 차세대 DRAM 판에 다시 들어오나"
published: 2026-05-11T23:31:26.000Z
canonical: https://jeff.news/article/2604
---
# 인텔, 소프트뱅크와 차세대 DRAM 판에 다시 들어오나

인텔이 소프트뱅크 자회사 SAIMEMORY와 Z-Angle Memory를 개발하며 차세대 DRAM 경쟁에 다시 발을 들였다. 목표는 HBM보다 큰 용량, 낮은 전력, 더 싼 비용이고, AI 서버 확장 병목인 메모리 문제를 정면으로 겨냥한다.

## 인텔이 DRAM 얘기로 다시 돌아옴

- 인텔이 소프트뱅크 자회사 SAIMEMORY와 Z-Angle Memory, 줄여서 ZAM을 개발한다고 발표함
  - 발표일은 2월 2일이고, 운영은 2026년 1분기에 시작됨
  - 프로토타입은 2027년, 본격 출시는 2030년이 목표임
  - 역할은 인텔이 기술과 혁신 지원을 맡고, SAIMEMORY가 개발과 상용화를 주도하는 구조임

- 이름의 Z는 진짜로 Z축을 뜻함
  - EE Times Japan이 소프트뱅크 관계자를 인용한 내용에 따르면, ZAM은 구조를 수직으로 쌓는 방식을 검토 중임
  - 소프트뱅크는 2027 회계연도 프로토타입 완료까지 약 30억 엔을 투자할 계획임

- 이게 재밌는 이유는 인텔이 원래 DRAM의 초창기 강자였기 때문임
  - 인텔은 1970년에 세계 최초로 상업적으로 성공한 DRAM을 내놨고, 한때 세계 시장의 거의 90%를 잡았던 회사임
  - 하지만 손실이 커지면서 1985년에 메모리 사업에서 철수했음
  - 그러니까 이번 움직임은 그냥 새 사업 진출이 아니라, 아주 오래전에 떠난 전장으로 돌아오는 그림에 가까움

## 목표는 HBM의 병목을 찌르는 것

- SAIMEMORY가 만들려는 건 현재 HBM 표준을 넘어서는 적층 DRAM 아키텍처임
  - 목표는 메모리 용량 증가
  - 전력 소비 감소
  - 패키징 역량 개선
  - 결국 AI 시스템 확장에 걸리는 메모리 병목을 줄이는 쪽임

- 기사에 따르면 ZAM은 HBM 대비 꽤 공격적인 숫자를 내세움
  - 니케이는 HBM 대비 2-3배 용량을 목표로 한다고 전함
  - 전력 소비는 최대 절반까지 줄이는 방향임
  - 비용은 HBM과 비슷하거나 더 낮게 가져가려는 구상임

> [!IMPORTANT]
> 제시된 목표만 보면 꽤 세다. 고급 메모리 기준으로 칩당 최대 512GB급 용량, 전력 40-50% 절감, 양산 비용은 HBM의 약 60% 수준이 언급된다.

- Wallstreet.cn 쪽 보도는 더 구체적인 구현 방향도 언급함
  - 여러 DRAM 칩을 수직으로 쌓음
  - 인텔의 EMIB 브리지 기술로 인터커넥트를 최적화함
  - 현재 고급 솔루션 대비 메모리 용량을 두 배로 키우는 방향을 노림

## 핵심 기반은 NGDB라는 차세대 DRAM 본딩 기술

- 인텔의 기술적 기반에는 Sandia National Laboratories와의 오랜 협업이 있음
  - Sandia는 1월 업데이트에서 인텔의 Next-Generation DRAM Bonding, 즉 NGDB 기술을 설명함
  - 이 기술은 HBM과 일반 DDR DRAM 사이에 존재하는 성능과 용량의 트레이드오프를 줄이려는 접근임

- 현재 HBM은 대역폭을 얻는 대신 다른 영역에서 비용을 치르는 경우가 많음
  - 대표적으로 용량 확장과 전력 효율 문제가 있음
  - NGDB는 HBM과 기존 DDR DRAM 사이의 간극을 줄이면서 에너지 효율을 크게 높이는 쪽을 겨냥함

- 테스트 조립체 구조도 꽤 직접적임
  - 인텔은 평가용 NGDB DRAM 테스트 조립체 4개를 준비함
  - 각 유닛은 베이스 레이어 위에 DRAM 레이어 8개를 수직으로 쌓은 구조임
  - 초기 프로토타입은 조립 방식이 메모리 용량 제약을 넘을 수 있음을 검증했고, 최신 프로토타입은 새 적층 기술로 완전히 동작하는 DRAM을 보여줬다고 함

## 왜 지금 이 카드가 중요한가

- AI 인프라에서는 연산 칩만 빨라져도 충분하지 않음
  - 모델이 커질수록 메모리 용량, 대역폭, 전력, 패키징이 같이 병목이 됨
  - 특히 중소형 AI 서버나 엣지 컴퓨팅에서는 전력과 비용이 훨씬 민감함

- 인텔 입장에서도 이건 단순 연구 과제가 아니라 성장 전략에 가까움
  - CPU 시장 압박
  - 파운드리 손실
  - AI 칩 성능 경쟁에서의 지연
  - 이런 상황에서 AI 메모리 흐름에 올라탈 수 있다면 회사의 성장 서사를 다시 짤 수 있음

- 물론 2030년 양산 목표라 당장 판이 뒤집히는 건 아님
  - 메모리 양산은 공정, 수율, 패키징, 고객 검증까지 넘어야 할 산이 많음
  - 그래도 인텔의 패키징 기술과 소프트뱅크의 상용화 드라이브가 붙었다는 점에서 그냥 실험실 뉴스로만 보기엔 아까움

---

## 기술 맥락

- 이 기사에서 핵심 선택은 “더 빠른 연산 칩”이 아니라 “메모리 적층과 본딩”으로 AI 병목을 풀려는 거예요. 대형 AI 시스템은 계산만 문제가 아니라, 데이터를 얼마나 많이, 얼마나 적은 전력으로, 얼마나 가까운 거리에서 공급하느냐가 성능을 크게 좌우하거든요.

- HBM은 이미 AI 가속기에서 중요한 역할을 하지만, 용량과 비용의 압박이 커요. ZAM과 NGDB가 노리는 지점은 이 트레이드오프예요. HBM처럼 대역폭을 챙기면서도 더 큰 용량과 낮은 전력을 가져가겠다는 그림이에요.

- 구현 방향도 포인트가 있어요. 기사에서는 베이스 레이어 위에 8개 DRAM 레이어를 쌓은 테스트 조립체와, 인텔 EMIB를 활용한 인터커넥트 최적화가 언급돼요. 단순히 칩을 많이 붙이는 게 아니라, 쌓은 메모리를 어떻게 연결하고 제조 가능한 형태로 만들지가 핵심이에요.

- 일정은 꽤 길게 봐야 해요. 2026년 시작, 2027년 프로토타입, 2030년 양산 목표라서 당장 서버 견적에 들어갈 기술은 아니에요. 그래도 AI 인프라의 다음 병목이 메모리라는 점을 감안하면, 이런 투자가 어디로 향하는지는 계속 볼 만해요.

## 핵심 포인트

- 인텔과 SAIMEMORY는 2026년 1분기 시작, 2027년 프로토타입, 2030년 양산을 목표로 Z-Angle Memory를 개발함
- ZAM은 수직 적층 DRAM 구조를 검토하며 HBM 대비 2-3배 용량과 최대 절반 수준 전력 절감을 노림
- 인텔의 NGDB 기술은 HBM과 기존 DDR DRAM 사이의 트레이드오프를 줄이는 차세대 DRAM 본딩 접근임
- 소프트뱅크는 2027 회계연도 프로토타입 완료까지 약 30억 엔 투자를 계획함

## 인사이트

AI 인프라 경쟁이 GPU 연산 성능만의 싸움이 아니라 메모리 용량, 전력, 패키징 싸움으로 넘어갔다는 신호다. 인텔 입장에서는 CPU와 파운드리 부진을 만회할 새 축이 필요하고, 메모리는 그나마 본인들의 역사와 패키징 역량을 연결할 수 있는 카드다.
