본문으로 건너뛰기
피드

생성형 인공지능으로 한국 유권자 흉내 내봤더니, 큰 흐름은 맞췄지만 군소 후보는 날아갔다

ai-ml 약 5분

한국 대선 데이터를 바탕으로 실제 패널 2139명에 대응하는 가상 유권자를 만들고 투표 선택을 비교한 연구가 나왔다. 주요 후보 득표율은 꽤 비슷했지만, 군소 후보와 중도층, 교차투표 같은 미묘한 표심은 제대로 재현하지 못했다.

  • 1

    실제 패널 2139명과 1대1 대응하는 생성형 인공지능 유권자 구성

  • 2

    상위 3명 후보 지지율은 실제 결과와 큰 차이가 없었음

  • 3

    권영국 후보는 인공지능 응답에서 0%, 기타 후보는 실제보다 10배 이상 부풀려짐

  • 4

    정당 지지와 다른 후보를 찍는 교차투표를 거의 재현하지 못함

  • 생성형 인공지능이 한국 유권자의 표심을 얼마나 흉내 낼 수 있는지 실험한 연구가 공개됨

    • 지난해 6월 3일 대선 데이터를 바탕으로, 실제 유권자에게 묻듯 인공지능에 “어느 후보에게 투표했습니까”라고 질문함
    • 연구는 한국정치학회 2026 춘계학술회의에서 발표됐고, 여론조사 업체 에스티아이 이준호 대표가 수행함
  • 실험 방식은 이른바 실리콘 샘플링(silicon sampling)임

    • 에스티아이가 보유한 실제 패널 2139명과 1대1로 대응하는 생성형 인공지능 유권자를 만듦
    • 연령, 지역, 학력, 소득, 직업, 이념 성향, 지지 정당 같은 정보를 넣고 실제 응답과 비교함
    • 전통적인 전화 조사나 웹서베이의 낮은 응답률, 표본 대표성 문제를 보완할 후보로 주목받는 방식임
  • 큰 후보들의 순위와 득표율은 의외로 꽤 따라감

    • 실제 패널 조사 결과는 이재명 57.3%, 김문수 33.7%, 이준석 6.5%, 권영국 1.9%, 기타 0.7%였음
    • 인공지능 가상 유권자는 이재명 55.4%, 김문수 31.7%, 이준석 5.4%로 1~3위 후보는 큰 차이가 없었음
  • 문제는 군소 후보와 애매한 표심에서 터짐

    • 권영국 후보 응답률은 인공지능에서 0%로 사라짐
    • 기타 후보 지지는 7.6%로 실제 0.7%보다 10배 넘게 부풀려짐
    • 전체 판세는 맞추는데, 작은 흐름은 뭉개버리는 그림임

중요

> 이 실험의 핵심 숫자는 권영국 1.9%가 인공지능에선 0%가 됐고, 기타 후보 0.7%는 7.6%로 커졌다는 점임. 평균은 그럴듯한데 꼬리 부분이 망가진 셈.

  • 교차투표도 제대로 재현하지 못함

    • 실제 개혁신당 지지층은 이준석 66.4%, 김문수 25.0%, 이재명 7.8%로 갈렸음
    • 그런데 개혁신당 지지자로 설정된 인공지능은 100%가 해당 정당 후보에게 투표한다고 답함
    • 국민의힘 지지자로 설정된 인공지능도 마찬가지로 전원 해당 정당 후보를 찍는다고 응답함
  • 중도층에서도 비슷한 왜곡이 나옴

    • 실제 중도층 패널 964명 중 기타 후보 선택 비율은 2.9%였음
    • 중도층으로 설계된 인공지능에서는 이 비율이 15.6%까지 뛰었음
    • 연구는 인공지능이 불확실성을 회피하고, 반복적으로 노출되는 정치 신호를 증폭해 받아들이는 경향 때문이라고 봄
  • 연구자의 결론도 조심스러움

    • 주요 후보 득표율은 비교적 비슷하게 맞출 수 있음
    • 하지만 실제 지지층 구성을 정교하게 재현하는 건 아직 쉽지 않음
    • 다만 거대언어모델(LLM) 기술 발전 속도가 워낙 빨라서 지금 한계가 고정된 건 아니라고 봄

기술 맥락

  • 이 연구에서 선택한 방식은 실제 응답자를 더 모으는 대신, 기존 패널 속성을 바탕으로 인공지능 응답자를 만드는 거예요. 여론조사는 비용, 응답률, 표본 대표성 문제가 계속 따라붙기 때문에 이런 우회로가 매력적으로 보일 수밖에 없어요.

  • 하지만 거대언어모델은 사람이 가진 모순적인 선택을 그대로 재현하는 도구가 아니에요. 입력된 정당 지지 정보가 강하면 “그 정당 후보를 찍겠지”라는 식으로 너무 깔끔한 답을 내놓을 수 있거든요.

  • 그래서 이 기사에서 중요한 건 상위 후보 예측이 비슷했다는 사실보다, 군소 후보와 교차투표가 사라졌다는 점이에요. 실제 사회 데이터에서 의사결정에 중요한 건 평균뿐 아니라 예외와 이탈 패턴인 경우가 많아요.

  • 실리콘 샘플링을 제품 리서치나 정책 시뮬레이션에 쓰려면, 모델이 확신하는 답만 보는 게 아니라 어디서 소수 의견을 지워버리는지 검증해야 해요. 비용 절감 도구로는 좋아 보여도, 검증 없이 의사결정 시스템에 붙이면 편향을 자동화할 수 있어요.

실리콘 샘플링은 여론조사의 비용과 응답률 문제를 보완할 수 있지만, 지금 단계에선 ‘평균적인 다수’를 그럴듯하게 따라 하는 데 강한 도구로 보는 게 맞다. 소수 의견과 정치적 이탈표가 사라지는 순간, 의사결정용 데이터로 쓰기엔 꽤 위험해짐.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.