본문으로 건너뛰기
피드

SKT, 국방부에 독자 AI 파운데이션 모델 첫 적용

ai-ml 약 5분

SKT가 국방부·과기정통부와 손잡고 독자 AI 파운데이션 모델을 국방 분야에 적용하는 업무협약을 맺었음. A.X K1·K2 기반 모델을 경량화하고 국방 데이터를 추가 학습해 보안과 데이터 주권이 중요한 국방 환경에 맞춘 AI를 만들겠다는 내용임.

  • 1

    독자 AI 파운데이션 모델을 국방 분야에 활용하는 첫 사례

  • 2

    SKT는 519B급 초거대 AI 모델 A.X K1을 기반으로 국방 특화 모델 개발과 실증을 추진

  • 3

    국방부는 2분기 중 국가 AI 프로젝트로 확보한 GPU 자원을 SKT에 지원

  • 4

    핵심 키워드는 국방 AX, 소버린 AI, 모델 경량화, GPUaaS 인프라

  • SKT가 국방부·과기정통부와 손잡고 국방 AI 전환, 즉 국방 AX에 들어감

    • 서울 을지로 SKT타워에서 ‘과기정통부 독자 AI 파운데이션 모델 국방 분야 활용’ 업무협약을 체결함
    • 과기정통부의 독자 AI 파운데이션 모델 프로젝트가 국방 분야로 들어가는 첫 사례라는 점이 포인트임
  • 이번 협력의 핵심은 국방용 AI 모델을 따로 만들고 실증하는 것임

    • SKT와 국방부는 독자 AI 파운데이션 모델 기반 국방 특화 AI 모델 개발·실증을 추진함
    • 국방 분야 공개데이터 수집·제공·활용도 협력 범위에 들어감
    • 국가 AI 프로젝트와 연결된 GPU 활용 지원까지 포함돼서, 단순 선언보다는 인프라까지 묶은 협력에 가까움
  • SKT 쪽 기술 베이스는 A.X K1과 A.X K2, 그리고 GPUaaS 인프라임

    • SKT 정예팀은 1월에 매개변수 5,000억 개를 넘긴 519B급 초거대 AI 모델 ‘A.X K1’으로 독자 AI 파운데이션 모델 2단계에 진출한 상태임
    • 이번에는 이 모델을 그냥 보여주는 게 아니라, 국방 데이터로 추가 학습하고 경량화해서 실제 국방 환경에 맞추겠다는 그림임
    • 큰 모델을 그대로 밀어 넣는 게 아니라 용량은 줄이고 처리 속도는 높인 경량 모델을 국방부에 제공할 계획이라고 밝힘

중요

> 숫자로 보면 A.X K1은 519B급, 즉 5,000억 개 넘는 매개변수를 가진 초거대 모델임. 이번 협력의 관건은 이걸 국방 업무에서 쓸 수 있을 만큼 작고 빠르게 만들 수 있느냐임.

  • 국방 분야라서 ‘소버린 AI’ 얘기가 자연스럽게 붙음

    • 국방 데이터는 보안, 데이터 주권, 운영 통제 요구가 매우 강한 영역임
    • 해외 모델이나 외부 클라우드 의존도가 높으면 민감한 데이터 처리에서 제약이 커질 수밖에 없음
    • 그래서 이번 협약은 국방 자주권 관점에서 독자 모델을 실제 업무에 넣어보는 첫발로 해석됨
  • 국방부는 2분기 중 GPU 자원을 SKT에 지원할 예정임

    • 이 GPU는 과기정통부 ‘국가 AI 프로젝트’를 통해 확보한 자원임
    • SKT는 이 자원으로 고성능 AI 모델 개발과 실증을 진행하고, 국가 연구개발 인프라 기반 협력 체계를 강화하겠다는 계획임
  • 관계자 발언을 종합하면 방향은 꽤 명확함

    • 국방부는 독자 AI 파운데이션 모델 기반 국방 특화 모델을 빠르게 개발·실증해 국방 AX를 끌어올리겠다는 입장임
    • 과기정통부는 민간 기술력과 정부 GPU 인프라를 결합해 국내 AI 생태계 선순환을 만들겠다고 봄
    • SKT는 국방을 시작으로 금융·제조·의료·공공처럼 데이터 주권과 보안이 중요한 영역으로 AI 활용을 넓히겠다는 메시지를 냄

기술 맥락

  • 이번 선택의 핵심은 범용 대규모 언어 모델을 국방 업무에 바로 꽂는 게 아니라, 독자 파운데이션 모델을 국방 데이터로 다시 맞추는 쪽이에요. 국방 행정은 용어, 문서 구조, 보안 기준이 일반 기업 업무와 다르기 때문에 그냥 범용 모델만으로는 정확도와 통제성이 애매해질 수 있거든요.

  • SKT가 경량화를 강조하는 이유도 현실적인 제약 때문이에요. 519B급 모델은 크기만 보면 상징성이 크지만, 실제 현장에서 쓰려면 추론 비용, 응답 속도, 배포 환경을 같이 봐야 해요. 그래서 A.X K1·K2에 경량화 기술을 적용해 용량은 줄이고 처리 속도는 높이겠다는 흐름이 나와요.

  • GPU 지원이 같이 언급된 것도 중요해요. 국방 특화 모델을 만들려면 추가 학습과 실증에 GPU가 계속 필요하고, 이 비용은 작은 조직이 감당하기 어렵거든요. 국가 AI 프로젝트의 GPU 자원을 붙이면 민간 모델 개발 역량과 공공 인프라가 한 프로젝트 안에서 연결돼요.

  • 소버린 AI라는 표현은 마케팅처럼 들릴 수 있지만, 국방에서는 꽤 실무적인 의미가 있어요. 민감한 데이터를 어디에 저장하고, 어떤 모델이 처리하고, 운영 권한을 누가 갖는지가 곧 보안 정책이기 때문이에요. 이번 사례는 그 통제권을 국내 모델과 국내 인프라 쪽으로 가져오려는 시도에 가까워요.

보도자료 톤은 강하지만, 포인트는 꽤 큼. 국방처럼 외부 클라우드와 데이터 반출이 예민한 영역에서 국내 파운데이션 모델을 실증한다는 건 한국형 소버린 AI가 진짜 업무 시스템으로 들어가는 초기 사례로 볼 만함.

댓글

댓글

댓글을 불러오는 중...

ai-ml

메가존클라우드, 흑자 전환 뒤 ‘AI 오케스트레이터’로 가겠다고 선언

메가존클라우드가 첫 연간 영업이익 흑자를 바탕으로 AI와 보안을 다음 성장축으로 밀고 있다. 기업들이 수백 개의 AI SaaS와 에이전트를 동시에 쓰는 시대가 오면, 이를 연결하고 통제하는 AI 오케스트레이션 역량이 중요해질 거라는 전략이다.

ai-ml

메가존클라우드, 기업용 AI 에이전트 ‘지휘자’ 전략으로 승부수

메가존클라우드가 여러 AI 에이전트와 AI 서비스가 뒤섞이는 기업 환경을 관리하는 ‘엔터프라이즈 AI 오케스트레이터’ 전략을 내놨다. 핵심은 AI 통합·관리 플랫폼 ‘에어 스튜디오’와 150명 규모의 현장 실행 조직 ‘AI FDE’로, 실제 고객사 사례에서 여신 심사 리드타임 80% 단축, 품질 보고서 1종당 80시간 절감 같은 수치를 제시했다.

ai-ml

카페24 “AI 에이전트, 설치 장벽 낮춰야 진짜 대중화된다”

카페24가 오픈클로 VPS와 헤르메스 에이전트 VPS를 내놓고 AI 에이전트 구축 과정을 12단계 수준에서 3단계 수준으로 줄였다고 밝혔다. 회사는 시장이 단순 정보형 AI에서 실행형 AI로 넘어가는 중이며, 결국 사람마다 자기만의 AI 비서를 두는 방향으로 갈 것으로 보고 있다.

ai-ml

한컴, AI 전환으로 1분기 매출·이익 동반 성장

한글과컴퓨터가 2026년 1분기 별도 기준 매출 465억원, 영업이익 176억원을 기록하며 전년 최대 분기 실적을 다시 넘어섰다. 문서 파싱, 비정형 데이터 추출, 클라우드 제품을 B2B·B2G 시장에 밀어 넣고 있고, 상반기에는 사용자의 업무 스타일을 복제하는 에이전틱 OS 출시도 예고했다.

ai-ml

한컴, 1분기 호실적 바탕으로 에이전틱 OS와 PDF 파싱 사업 속도전

한글과컴퓨터가 1분기 별도 매출 465억 원, 영업이익 176억 원을 기록하며 AI와 클라우드 중심 전환을 강조했다. 회사는 사용자의 업무 스타일을 복제하는 트윈형 에이전틱 OS를 상반기 출시하고, 오픈데이터로더 PDF를 상용 API와 모듈로 확장하겠다는 계획을 내놨다.