본문으로 건너뛰기
피드

인텔, 소프트뱅크와 차세대 DRAM 판에 다시 들어오나

ai-ml 약 7분

인텔이 소프트뱅크 자회사 SAIMEMORY와 Z-Angle Memory를 개발하며 차세대 DRAM 경쟁에 다시 발을 들였다. 목표는 HBM보다 큰 용량, 낮은 전력, 더 싼 비용이고, AI 서버 확장 병목인 메모리 문제를 정면으로 겨냥한다.

  • 1

    인텔과 SAIMEMORY는 2026년 1분기 시작, 2027년 프로토타입, 2030년 양산을 목표로 Z-Angle Memory를 개발함

  • 2

    ZAM은 수직 적층 DRAM 구조를 검토하며 HBM 대비 2-3배 용량과 최대 절반 수준 전력 절감을 노림

  • 3

    인텔의 NGDB 기술은 HBM과 기존 DDR DRAM 사이의 트레이드오프를 줄이는 차세대 DRAM 본딩 접근임

  • 4

    소프트뱅크는 2027 회계연도 프로토타입 완료까지 약 30억 엔 투자를 계획함

인텔이 DRAM 얘기로 다시 돌아옴

  • 인텔이 소프트뱅크 자회사 SAIMEMORY와 Z-Angle Memory, 줄여서 ZAM을 개발한다고 발표함

    • 발표일은 2월 2일이고, 운영은 2026년 1분기에 시작됨
    • 프로토타입은 2027년, 본격 출시는 2030년이 목표임
    • 역할은 인텔이 기술과 혁신 지원을 맡고, SAIMEMORY가 개발과 상용화를 주도하는 구조임
  • 이름의 Z는 진짜로 Z축을 뜻함

    • EE Times Japan이 소프트뱅크 관계자를 인용한 내용에 따르면, ZAM은 구조를 수직으로 쌓는 방식을 검토 중임
    • 소프트뱅크는 2027 회계연도 프로토타입 완료까지 약 30억 엔을 투자할 계획임
  • 이게 재밌는 이유는 인텔이 원래 DRAM의 초창기 강자였기 때문임

    • 인텔은 1970년에 세계 최초로 상업적으로 성공한 DRAM을 내놨고, 한때 세계 시장의 거의 90%를 잡았던 회사임
    • 하지만 손실이 커지면서 1985년에 메모리 사업에서 철수했음
    • 그러니까 이번 움직임은 그냥 새 사업 진출이 아니라, 아주 오래전에 떠난 전장으로 돌아오는 그림에 가까움

목표는 HBM의 병목을 찌르는 것

  • SAIMEMORY가 만들려는 건 현재 HBM 표준을 넘어서는 적층 DRAM 아키텍처임

    • 목표는 메모리 용량 증가
    • 전력 소비 감소
    • 패키징 역량 개선
    • 결국 AI 시스템 확장에 걸리는 메모리 병목을 줄이는 쪽임
  • 기사에 따르면 ZAM은 HBM 대비 꽤 공격적인 숫자를 내세움

    • 니케이는 HBM 대비 2-3배 용량을 목표로 한다고 전함
    • 전력 소비는 최대 절반까지 줄이는 방향임
    • 비용은 HBM과 비슷하거나 더 낮게 가져가려는 구상임

중요

> 제시된 목표만 보면 꽤 세다. 고급 메모리 기준으로 칩당 최대 512GB급 용량, 전력 40-50% 절감, 양산 비용은 HBM의 약 60% 수준이 언급된다.

  • Wallstreet.cn 쪽 보도는 더 구체적인 구현 방향도 언급함
    • 여러 DRAM 칩을 수직으로 쌓음
    • 인텔의 EMIB 브리지 기술로 인터커넥트를 최적화함
    • 현재 고급 솔루션 대비 메모리 용량을 두 배로 키우는 방향을 노림

핵심 기반은 NGDB라는 차세대 DRAM 본딩 기술

  • 인텔의 기술적 기반에는 Sandia National Laboratories와의 오랜 협업이 있음

    • Sandia는 1월 업데이트에서 인텔의 Next-Generation DRAM Bonding, 즉 NGDB 기술을 설명함
    • 이 기술은 HBM과 일반 DDR DRAM 사이에 존재하는 성능과 용량의 트레이드오프를 줄이려는 접근임
  • 현재 HBM은 대역폭을 얻는 대신 다른 영역에서 비용을 치르는 경우가 많음

    • 대표적으로 용량 확장과 전력 효율 문제가 있음
    • NGDB는 HBM과 기존 DDR DRAM 사이의 간극을 줄이면서 에너지 효율을 크게 높이는 쪽을 겨냥함
  • 테스트 조립체 구조도 꽤 직접적임

    • 인텔은 평가용 NGDB DRAM 테스트 조립체 4개를 준비함
    • 각 유닛은 베이스 레이어 위에 DRAM 레이어 8개를 수직으로 쌓은 구조임
    • 초기 프로토타입은 조립 방식이 메모리 용량 제약을 넘을 수 있음을 검증했고, 최신 프로토타입은 새 적층 기술로 완전히 동작하는 DRAM을 보여줬다고 함

왜 지금 이 카드가 중요한가

  • AI 인프라에서는 연산 칩만 빨라져도 충분하지 않음

    • 모델이 커질수록 메모리 용량, 대역폭, 전력, 패키징이 같이 병목이 됨
    • 특히 중소형 AI 서버나 엣지 컴퓨팅에서는 전력과 비용이 훨씬 민감함
  • 인텔 입장에서도 이건 단순 연구 과제가 아니라 성장 전략에 가까움

    • CPU 시장 압박
    • 파운드리 손실
    • AI 칩 성능 경쟁에서의 지연
    • 이런 상황에서 AI 메모리 흐름에 올라탈 수 있다면 회사의 성장 서사를 다시 짤 수 있음
  • 물론 2030년 양산 목표라 당장 판이 뒤집히는 건 아님

    • 메모리 양산은 공정, 수율, 패키징, 고객 검증까지 넘어야 할 산이 많음
    • 그래도 인텔의 패키징 기술과 소프트뱅크의 상용화 드라이브가 붙었다는 점에서 그냥 실험실 뉴스로만 보기엔 아까움

기술 맥락

  • 이 기사에서 핵심 선택은 “더 빠른 연산 칩”이 아니라 “메모리 적층과 본딩”으로 AI 병목을 풀려는 거예요. 대형 AI 시스템은 계산만 문제가 아니라, 데이터를 얼마나 많이, 얼마나 적은 전력으로, 얼마나 가까운 거리에서 공급하느냐가 성능을 크게 좌우하거든요.

  • HBM은 이미 AI 가속기에서 중요한 역할을 하지만, 용량과 비용의 압박이 커요. ZAM과 NGDB가 노리는 지점은 이 트레이드오프예요. HBM처럼 대역폭을 챙기면서도 더 큰 용량과 낮은 전력을 가져가겠다는 그림이에요.

  • 구현 방향도 포인트가 있어요. 기사에서는 베이스 레이어 위에 8개 DRAM 레이어를 쌓은 테스트 조립체와, 인텔 EMIB를 활용한 인터커넥트 최적화가 언급돼요. 단순히 칩을 많이 붙이는 게 아니라, 쌓은 메모리를 어떻게 연결하고 제조 가능한 형태로 만들지가 핵심이에요.

  • 일정은 꽤 길게 봐야 해요. 2026년 시작, 2027년 프로토타입, 2030년 양산 목표라서 당장 서버 견적에 들어갈 기술은 아니에요. 그래도 AI 인프라의 다음 병목이 메모리라는 점을 감안하면, 이런 투자가 어디로 향하는지는 계속 볼 만해요.

AI 인프라 경쟁이 GPU 연산 성능만의 싸움이 아니라 메모리 용량, 전력, 패키징 싸움으로 넘어갔다는 신호다. 인텔 입장에서는 CPU와 파운드리 부진을 만회할 새 축이 필요하고, 메모리는 그나마 본인들의 역사와 패키징 역량을 연결할 수 있는 카드다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.