본문으로 건너뛰기
피드

Eon 팀이 가상 초파리를 만든 방법: 14만 개 뉴런으로 뇌를 통째로 에뮬레이션하다

ai-ml 약 10분

Eon Systems가 성체 초파리 커넥톰(14만 뉴런, 5천만 시냅스)을 LIF 모델로 시뮬레이션하고, X선 마이크로CT 기반 NeuroMechFly 몸체와 연결해 그루밍, 섭식, 포러징 등 실제 행동을 재현한 프로젝트. 하행 뉴런을 뇌-몸체 인터페이스로 사용하는 구조이며, 연구/시연 플랫폼으로서의 한계와 가능성을 솔직하게 제시함.

  • 1

    성체 초파리 커넥톰 기반 LIF 모델 — 약 14만 뉴런, 5천만 시냅스 연결을 시뮬레이션

  • 2

    NeuroMechFly 몸체: 87개 독립 관절, MuJoCo 물리 엔진, X선 마이크로CT 스캔 기반 3D 메시

  • 3

    감각→뇌→하행뉴런→몸체→감각 피드백의 15ms 주기 전체 루프 구현

  • 4

    미각, 촉각(안테나 기계감각), 시각(Lappalainen 모델) 감각 입력 지원

  • 5

    하행 뉴런을 '컨트롤 핸들'로 사용 — 자동차 핸들/액셀러레이터 비유

  • 6

    그루밍, 섭식, 포러징, 시각 위협 도주 등 행동 시연

  • 7

    한계: 단순화된 뉴런 모델, 내부 상태/가소성/학습 부재, 희소한 하행 뉴런 인터페이스

초파리 뇌를 통째로 시뮬레이션해서 가상 몸체에 연결하고, 그 초파리가 실제로 먹이를 찾아다니고, 몸을 닦고, 먹이를 먹는 행동을 보여주는 프로젝트가 나왔음. Eon Systems라는 회사에서 공개한 건데, 이거 진짜 대단함.

핵심은 "진짜 초파리 뇌 구조"를 그대로 쓴 것

이 프로젝트의 출발점은 성체 초파리 커넥톰(adult fly connectome)임. 약 14만 개의 뉴런약 5천만 개의 시냅스 연결을 가진 뇌 모델을 그대로 활용함. FlyWire 프로젝트에서 나온 데이터를 기반으로, Shiu et al.이 만든 LIF(Leaky Integrate-and-Fire) 모델을 사용함. 뉴런의 신경전달물질 종류까지 추론해서 시냅스의 부호(흥분성/억제성)를 결정한 것임.

여기에 Lappalainen et al.의 시각 모델도 결합됨. 64종의 시각 세포 타입, 시야 전체에 걸친 수만 개의 뉴런으로 구성된 커넥톰 기반 재귀 네트워크(connectome-constrained recurrent network)인데, 커넥톰 구조와 과제 제약 조건만으로 시각 운동 시스템의 신경 활동을 예측할 수 있다고 함. 이 시각 모델의 출력을 LIF 뇌 모델에 파이프라인으로 연결한 것임.

몸체: NeuroMechFly — X선 마이크로CT로 만든 디지털 초파리

뇌만 있으면 소용없음. 몸체가 있어야 함. 여기서 사용한 건 NeuroMechFly라는 신경역학 초파리 모델임. 실제 초파리를 X선 마이크로CT(X-ray microtomography)로 스캔해서 만든 정밀한 3D 메시로, 87개의 독립적인 관절을 가지고 있음. MuJoCo 물리 엔진 위에서 돌아가기 때문에 관절 힘, 접촉, 구동이 물리적으로 시뮬레이션됨.

NeuroMechFly v2에는 시각과 후각 같은 감각 입력이 이미 구현되어 있었고, 보행은 실제 초파리 걸음걸이를 모방 학습(imitation learning)으로 훈련시킨 기존 컨트롤러를 약간 수정해서 사용함.

전체 루프: 감각 → 뇌 → 운동 → 몸 → 다시 감각

전체 시스템은 네 단계 루프로 돌아감:

  1. 감각 입력: 가상 세계의 감각 이벤트가 특정 감각 뉴런이나 감각 경로에 매핑됨
  2. 뇌 활동 업데이트: 커넥톰 기반 신경 모델에서 뇌 활동이 계산됨
  3. 하행 뉴런 출력: 선택된 하행 출력(descending neuron output)이 저차원 운동 명령으로 변환됨
  4. 몸체 반응 & 피드백: 운동이 감각 상태를 바꾸고, 이게 다시 뇌로 피드백됨

뇌와 몸체 사이의 동기화 주기는 15ms임. 뇌의 감각 입력에 대한 반응을 계산하고, 그 결과로 몸체를 15ms 동안 시뮬레이션하는 방식임. 일부 행동에는 이 15ms가 좀 느릴 수 있다고 팀에서도 인정하고 있음.

감각 시스템: 맛, 촉각, 시각

미각 (Taste)

가상 환경에서 설탕 같은 식욕 자극이나 쓴맛 같은 혐오 자극에 해당하는 미각 수용 뉴런(gustatory receptor neurons)을 활성화할 수 있음. 생물학적 초파리처럼 다리와 주둥이(proboscis)의 미각 입력이 뇌의 미각 입력으로 이어지고, 이게 먹이 근처에서의 섭식, 회전, 감속 행동을 유발함.

촉각과 그루밍 (Touch & Grooming)

안테나 기계감각 경로(antennal mechanosensory pathways)를 사용함. Johnston's organ의 기계감각 뉴런이 뇌 회로를 거쳐 안테나 하행 뉴런(antennal descending neurons)을 활성화시키면 그루밍이 유발되는 회로가 이미 밝혀져 있었음. "가상 먼지"가 안테나 기계감각 뉴런을 활성화시키면 그루밍과 관련된 하행 신호가 발생하는 방식임.

시각 (Vision)

Lappalainen 모델로 시각 시스템 뉴런의 활성을 예측하고, 이걸 LIF 모델의 해당 뉴런에 연결함. 현재는 행동 출력에 큰 영향을 주지는 않아서 좀 "장식적(decorative)"인 수준이라고 솔직하게 말하고 있음. 다만, 루밍 자극(looming stimulus) 뉴런이 활성화되면 도주 관련 하행 뉴런이 활성화되는 것은 확인됨.

하행 뉴런: "자동차 핸들과 액셀러레이터" 비유

여기가 이 프로젝트에서 가장 중요한 엔지니어링 결정임. 생물학적 초파리의 전체 운동 계층(motor hierarchy)을 구현하지 않고, 소수의 하행 뉴런(descending neurons)을 뇌와 몸체 사이의 실용적 인터페이스로 사용함.

  • 안테나 그루밍: 안테나 하행 뉴런(aDN)
  • 회전: DNa01, DNa02
  • 전진 속도: oDN1
  • 섭식: 주둥이 운동 뉴런 MN9

팀에서 쓴 비유가 좋음: "자동차 운전과 비슷함. 핸들, 액셀러레이터, 브레이크 상태만 알면 엔진 내부의 모든 연소 과정을 시뮬레이션하지 않아도 차가 뭘 할지 꽤 예측할 수 있음." 하행 뉴런을 이런 "컨트롤 핸들"로 사용하고, 하위 컨트롤러가 관절 토크나 다리 궤적으로 변환하는 구조임.

물론 실제 초파리에는 1,000개 이상의 하행 뉴런이 있고, 이들은 부분적으로 중복되고 계층적이며 집단 기반(population-based)으로 작동함. 현재 컨트롤러는 생물학적 초파리보다 훨씬 저차원적인 제어 인터페이스라는 점은 분명히 인정하고 있음.

시연된 행동들

  • 그루밍: 안테나에 먼지가 쌓이면 앞다리로 안테나를 닦는 행동
  • 섭식: 설탕 접촉 시 정형화된 섭식 반응
  • 포러징(Foraging): 환경을 탐색하다가 먹이 단서를 감지하면 그쪽으로 이동
  • 도주: 루밍 시각 자극(다가오는 포식자나 갑작스러운 그림자)에 대한 도주 반응 — 다만 아직 몸체에서의 도주 행동 구현은 미완성

데모 영상에서는 초파리가 보이지 않는 미각 단서를 이용해 바나나 모양 먹이를 향해 이동하고, 가상 먼지가 쌓이면 멈춰서 그루밍한 후 다시 먹이로 이동해서 먹는 장면을 보여줌.

한계점: 솔직한 고백

Eon 팀이 한계를 상당히 솔직하게 밝히고 있는데, 이것도 인상적임.

단순화된 뉴런 모델: LIF 모델은 수상돌기 비선형성(dendritic nonlinearities), 생물물리적 채널 다양성, 다구획 뉴런(multicompartment neurons)의 세부 동역학을 반영하지 못함. 일부 감각운동 변환은 복원되지만 전체 신경 활동 범위를 포착하지는 못함.

내부 상태/가소성/학습 부재: 생물학적 초파리는 배고픔, 포만감, 각성 상태, 짝짓기 상태, 신경조절물질, 학습 등에 따라 같은 감각 입력에도 다르게 반응함. 현재 모델에는 이런 것들이 거의 없음.

희소한 하행 뉴런 인터페이스: 현재 사용하는 하행 뉴런은 극소수이고, 초파리 행동 레퍼토리 전체를 커버하지 못함. 매핑도 수작업으로 설정한 근사치임.

구조만으로는 부족할 수 있음: "커넥톰 구조만으로 초파리의 전체 행동 레퍼토리를 복원할 수 있다는 증명이 아님." 넓은 범위의 구현된 행동 레퍼토리를 위해서는 추가 학습, 추가 사전 정보, 더 세밀한 운동 인터페이스, 더 많은 기능적 데이터가 필요할 것이라고 함.

연구 플랫폼이자 데모 플랫폼

팀에서는 이걸 "연구 플랫폼이자 시연 플랫폼"으로 정의함. 커넥톰 기반 감각운동 제어의 테스트베드, 뇌-몸체 인터페이스 후보 평가, 그리고 구현된 에뮬레이션(embodied emulation) 문제를 개선할 수 있을 만큼 구체화하는 것이 목표임.

현재 뇌 에뮬레이션과 업로드의 정확도(fidelity)를 명시하는 프레임워크도 작성 중이라고 함.

왜 이게 중요한가

14만 개 뉴런과 5천만 개 시냅스를 가진 뇌를 시뮬레이션하고, 물리 엔진 위의 해부학적으로 정확한 몸체에 연결해서, 실제 행동이 나오게 만든 것 자체가 엄청난 통합 성과임. 물론 단순화와 한계가 많지만, "커넥톰 → 뇌 시뮬레이션 → 몸체 제어 → 행동"이라는 전체 파이프라인이 실제로 작동한다는 걸 보여준 것은 뇌 에뮬레이션 분야에서 매우 의미 있는 이정표임.

초파리 다음은 뭘까? 결국 이 접근법이 더 큰 뇌로 확장될 수 있는지가 핵심 질문이 될 것임.

커넥톰 구조만으로 행동을 복원할 수 있는지는 아직 미해결 질문이지만, '커넥톰→뇌 시뮬레이션→물리 몸체→행동' 전체 파이프라인이 작동한다는 것 자체가 뇌 에뮬레이션 분야의 중요한 이정표임. 특히 하행 뉴런을 저차원 인터페이스로 사용한 엔지니어링 결정은 실용적이면서도 확장 가능한 접근법으로 보임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.