본문으로 건너뛰기
피드

성남 모란시장에 ‘AI 짐꾼 로봇’ 뜬다

ai-ml 약 4분

성남시가 모란전통시장에서 교통약자를 위한 AI 짐꾼 로봇과 AR 내비게이션 실증을 시작한다. QR코드를 찍으면 로봇이 이용자를 따라다니며 최대 20kg까지 짐을 옮기고, GPS가 잘 안 잡히는 시장 내부에서는 네이버 ARC-Eye 기반 위치 안내를 제공한다.

  • 1

    성남시가 경기도 AI 챌린지 프로그램에 선정돼 도비 2억5000만원을 확보함

  • 2

    AI 짐꾼 로봇은 8월부터 10월까지 모란전통시장에 배치돼 현장 실증 예정

  • 3

    AR 내비게이션은 GPS 난청 환경에서도 점포 위치와 이동 경로를 ±30cm 오차 범위로 안내

  • 4

    실증 데이터는 공공 분야 피지컬 AI 서비스 고도화와 안전 기준 마련에 활용될 예정

  • 성남시가 모란전통시장에 AI 짐꾼 로봇과 AR 내비게이션을 넣는 실증을 시작함

    • 경기도 주관 ‘2026년 경기도 인공지능(AI) 챌린지 프로그램’에 선정돼 도비 2억5000만원을 확보함
    • 대상은 어르신, 장애인 같은 교통약자이고, 목적은 전통시장 장보기의 물리적 부담을 줄이는 것임
  • 핵심 기능은 꽤 직관적임. 시장 입구에서 QR코드를 찍으면 로봇이 사람을 따라다니며 짐을 들어줌

    • AI 짐꾼 로봇의 최대 적재 무게는 20kg
    • 실증 기간은 8월부터 10월까지고, 실제 장소는 성남모란전통시장임
  • 같이 들어가는 AR 내비게이션도 포인트임. 시장 내부처럼 GPS가 잘 안 잡히는 곳에서 점포와 경로를 안내함

    • 네이버 아크아이(ARC-Eye) 기술이 적용됨
    • 위치 안내 오차 범위는 ±30cm 이내라고 밝힘
    • 전통시장 특성상 좁은 통로, 복잡한 동선, 실내·반실내 환경이 섞여 있어서 일반 지도 앱만으로는 한계가 큼

중요

> 이 실증의 재미있는 지점은 ‘AI 로봇’ 자체보다 현장 조건임. 사람 많고 길 좁고 GPS 약한 전통시장에서 안정적으로 동작해야 진짜 서비스가 됨.

  • 성남시는 이번 실증을 단순 이벤트로 끝내지 않고 데이터 확보용으로 보고 있음

    • 로봇 이동 데이터, 실내 위치 안내 데이터, 이용자 동선 데이터를 모을 계획
    • 이 데이터는 공공 분야 피지컬 AI 서비스 고도화와 안전 기준 마련에 활용될 예정
  • 참여 구조도 민관 컨소시엄에 가까움

    • 공간컴퓨팅 전문기업 하이퍼클라우드와 클라우드 인프라 전문기업 조앤소프트가 성남시와 컨소시엄을 구성함
    • 네이버클라우드는 기술지원 기관으로 참여함
  • 향후에는 짐 운반을 넘어 시장 정보 서비스까지 붙일 가능성도 있음

    • 성남시는 AI 짐꾼 로봇에 할인 상품이나 특가 정보 연동 기능을 추가하는 방안도 검토 중
    • 잘 되면 ‘교통약자 보조 로봇’에서 ‘시장 내 이동형 커머스 인터페이스’로 확장될 여지도 있음

기술 맥락

  • 이 실증에서 어려운 건 로봇이 그냥 따라오는 기능이 아니에요. 전통시장은 통로가 좁고 사람 흐름이 불규칙해서, 로봇이 멈춰야 할 때와 따라가야 할 때를 안정적으로 판단해야 하거든요.

  • GPS가 닿기 어려운 공간에서 AR 내비게이션을 쓰는 이유도 여기에 있어요. 시장 내부에서는 위성 기반 위치가 흔들리기 쉬워서, 카메라와 공간 인식을 이용해 현재 위치를 잡는 방식이 더 현실적이에요.

  • ±30cm 오차 범위는 점포 단위 안내에서는 꽤 중요한 숫자예요. 시장처럼 가게가 촘촘히 붙은 곳에서는 1~2m만 틀려도 사용자가 엉뚱한 점포 앞에 설 수 있거든요.

  • 성남시가 데이터를 모으겠다고 한 것도 핵심이에요. 공공 로봇 서비스는 데모 영상보다 안전 기준, 장애물 대응, 이용자 동선 패턴 같은 운영 데이터가 쌓여야 실제 배포가 가능해요.

피지컬 AI가 ‘멋진 데모’에서 끝나지 않으려면 좁은 통로, 사람 많은 동선, GPS 안 잡히는 실내 같은 현실 변수를 버텨야 함. 전통시장은 그런 의미에서 꽤 빡센 테스트베드임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.