본문으로 건너뛰기
피드

카카오톡에 AI가 먼저 말 건다 — 에이전틱 '카나나' 정식 출시

ai-ml 약 4분

카카오가 카카오톡에 온디바이스 에이전틱 AI '카나나'를 정식 출시했다. 대화 맥락을 실시간 감지해 먼저 제안하는 '선톡' 기능이 핵심이고, 외부 서비스 연동에는 MCP 방식의 '카카오툴즈'를 연결해 예약·구매·일정 등록까지 완결시킨다.

  • 1

    카카오톡 25.9.0 이상 + 갤럭시 S22/아이폰 14 프로 이상에서 사용 가능

  • 2

    대화 컨텍스트를 읽고 AI가 먼저 제안하는 '선톡' 기능이 차별점

  • 3

    외부 서비스 연동은 MCP(모델 컨텍스트 프로토콜) 기반 카카오툴즈 플랫폼 사용

  • 4

    # 또는 @카카오 명령으로 직접 AI 검색 호출도 가능

  • 5

    2025년 10월 iOS 비공개 테스트부터 시작해 단계적 롤아웃

  • 카카오가 카카오톡에 '카나나(Kanana)'를 정식 출시함 — AI가 먼저 말을 거는 '선톡' 기능이 핵심
    • 카카오톡 25.9.0 버전 이상에서 사용 가능
    • 지원 기기는 갤럭시 S22, 아이폰 14 프로 이상 (온디바이스 AI 요구사항 때문)
    • 2025년 10월부터 iOS 비공개 테스트 → 3월 17일 베타 마무리 → 19일부터 점진 도입

뭐가 다른가 — 능동형 에이전트

  • 기존 AI 비서처럼 "사용자가 요청하면 답하는" 방식이 아님

    • 일반 채팅방의 대화 맥락을 실시간으로 읽고, 알아서 판단해서 먼저 제안함
    • 예를 들어 친구와 맛집 찾는 대화하면, 카나나가 별도 채팅방을 열어 제안을 걸어옴
    • "다음 주 수요일 오후 2시에 보자" 같은 대화를 감지하면 캘린더 연동 일정 등록 여부를 물어보는 식
  • 직접 호출도 가능 — #검색어 또는 @카카오로 부르면 AI 검색 실행

외부 서비스 연동은 MCP로

  • 카카오가 같이 내놓은 AI 에이전트 플랫폼 '카카오툴즈'가 카나나 뒤에 붙어있음
    • 모델 컨텍스트 프로토콜(MCP) 방식 채택
    • 사용자 질의에 따라 외부 서비스를 실시간 호출해 답변 + 실제 서비스 연결까지 완결
  • 단순 검색이 아니라 "도구 호출과 실행까지 마치는 AI 에이전트"에 포커스를 둔 게 포인트
    • 식당 예약, 물건 구매, 일정 브리핑 같은 행동까지 카카오톡 안에서 끝낼 수 있음

피드백 공간 따로 오픈

  • '카나나 연구소'라는 공간을 만들어서 사용자가 직접 기능 테스트 + 피드백 남길 수 있게 함
  • 카카오 관계자: "AI를 보다 직관적이고 친근하게 경험할 수 있도록 에이전틱 AI로 진화할 것"

기술 맥락

카카오가 MCP(Model Context Protocol)를 채택한 건 의미심장한 선택이에요. MCP는 원래 앤트로픽이 제안한 표준인데, AI 모델이 외부 도구/서비스를 호출할 때 쓰는 공통 규격이거든요. 카카오가 이걸 도입했다는 건 카카오툴즈라는 자체 에이전트 플랫폼을 만들면서도 앤트로픽 생태계와 호환되는 길을 열어뒀다는 뜻이에요.

'선톡' 기능이 흥미로운 이유는 기존 AI 어시스턴트들이 거의 다 "사용자 요청 → 응답" 패턴인데 반해, 카나나는 반대로 "컨텍스트 감지 → 선제 제안" 방향으로 설계됐기 때문이에요. 이 방식이 제대로 돌려면 일반 채팅방의 대화를 상시 읽어야 하는데, 그래서 온디바이스 AI로 설계한 거예요. 서버로 모든 대화를 보내는 건 프라이버시/비용 문제가 너무 크거든요.

지원 기기를 갤럭시 S22, 아이폰 14 프로 이상으로 제한한 것도 같은 맥락이에요. 온디바이스에서 LLM을 돌리려면 NPU 성능과 메모리가 어느 정도 되어야 하는데, 그 이하 기기에선 선톡처럼 상시 감지하는 기능을 지연 없이 처리하기 어려워요. 결국 온디바이스 AI 시대에는 단말 성능이 기능 접근성을 가르는 구도가 점점 뚜렷해질 거예요.

MCP 채택은 카카오가 자체 에이전트 플랫폼을 만들면서도 앤트로픽 생태계와 호환되는 길을 열어둔 전략적 선택. 온디바이스 AI라는 프라이버시 친화 설계와 행동 완결형 에이전트 지향이 함께 맞물려 있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

애플 차세대 AI, 구글 제미나이 기반으로 올해 말 공개

구글 클라우드 CEO 토마스 쿠리안이 Next 2026에서 애플의 차세대 AI 파운데이션 모델이 제미나이 기반으로 올해 말 공개된다고 밝혔다. 이 모델이 시리와 애플 인텔리전스 전반을 구동하며, 구글은 칩-모델-에이전트까지 통합된 풀스택 인프라를 애플에 공급한다.

ai-ml

구글 내부 코드 75%가 AI 생성 — Cloud Next 2026 신규 발표 총정리

구글 클라우드가 Cloud Next 2026에서 8세대 TPU(훈련용 8t, 추론용 8i), 제미나이 엔터프라이즈 에이전트 플랫폼, 버고 네트워크를 공개했다. 분당 160억 토큰을 처리하고 내부 신규 코드의 75%가 AI로 생성되는 등 구글 내부 생산성 지표도 공개했다.

ai-ml

구글, 에이전트는 오픈AI에·칩은 엔비디아에 동시 선전포고

구글 클라우드가 Next 2026에서 기업용 에이전트 플랫폼과 8세대 TPU(훈련용 8t, 추론용 8i)를 동시 공개하며 오픈AI와 엔비디아를 동시에 타깃했다. 칩부터 에이전트까지 풀스택 수직계열화를 완성했고, 앤트로픽 클로드까지 플랫폼에서 돌릴 수 있게 열어놨다.

ai-ml

목암연·아주대의료원·콰트로, AI 기반 신약개발 3자 MOU

임상 데이터가 풍부한 아주대의료원과 콰트로 정밀의약 연구원, AI 연구 역량을 가진 목암생명과학연구소가 AI 기반 신약개발 협력 MOU를 체결함. 기초연구부터 임상·사업화·인허가까지 전주기 기술사업화를 목표로 다기관 협력 체계를 구축하려는 움직임임.

ai-ml

AI TECH 2026, PoC를 넘어 실질 성과로 가는 산업별 AX 성공 조건

5월 6일 코엑스에서 열리는 AI TECH 2026에서 바이브컴퍼니·슈퍼브에이아이·엠아이큐브·디플리 등이 제조·물류·건설 현장에서의 실질적 AX 사례를 공유함. Deep Agent 진화, Vision AI MLOps 선순환, 폐쇄 루프 디지털 트윈, Sound AI 기반 이상음 탐지 등 다양한 적용 방식이 다뤄짐.